Бесплатно Что делают роботы на сайте и как управлять их действиями?

Тема в разделе "Белое и черное SEO, контекст", создана пользователем Hermanicus, 29 апр 2017.

  1. Что делают роботы на сайте и как управлять их действиями?

    Каждый сайт имеет две категории пользователей – это люди, пришедшие напрямую по домену или с поисковых систем и сами поисковые системы. Последние анализируют сайты с тем, чтобы выстроить справедливый рейтинг выдачи по каждому поисковому запросу.

    Работа роботов.

    Все площадки в сети регулярно посещаются не только пользователями, но и поисковыми машинами. Поисковые роботы на сайте путешествуют по его страницам с тем, чтобы оценить качество площадки и её соответствие ожиданиям пользователей. Полученные данные поисковые системы используют для построения релевантной и справедливой выдачи. В частности, от результатов такого инспектирования зависит порядок индексации площадки. Попадание в индекс поисковых систем – это возможности для продвижения и наращивания трафика. Однако иногда сам владелец сайта не заинтересован в том, чтобы его ресурс (целиком или частично) был проиндексирован. Это связано с существованием так называемых «скрытых» разделов сайта, которые не стоит выносить на всеобщее обозрение. Речь идёт, в частности, о технических разделах и страницах с конфиденциальными данными клиентов, заказчиков, деловых партнёров и так далее. Иными словами, существует объективная необходимость управления процессом индексации со стороны владельца площадки. Но как повлиять на данный процесс, если роботы на сайте самостоятельно решают, что индексировать, а что пустить под фильтр на основании своих собственных аналитических данных? К счастью, выход из ситуации есть, и это — Robots.txt.

    Robots.txt представляет собой текстовый файл (что следует из его расширения), который предназначен для того, чтобы роботы на сайте не занимались самодеятельностью, которая может навредить площадке или имиджу компании, а выполняли волю его владельца, который точно знает, что нужно индексировать, а что выводить в открытый рейтинг поисковой выдачи ни в коем случае нельзя. Иными, словами, данный файл служит для того, чтобы владелец площадки мог диктовать правила игры поисковому роботу. Найти данный файл можно в корневой директории сайта, однако даже если в указанном месте он не был обнаружен, можно создать его с нуля при помощи обычного блокнота или иного текстового редактора, позволяющего создавать файлы с нужным расширением. Однако мало просто создать файл Robots.txt и поместить его в корневой каталог сайта – нужно ещё правильно прописать инструкции для поисковика. Первое, что делают поисковые роботы, заходя на сайт, это обращаются к командам, прописанным в Robots.txt. Владелец площадки может управлять процессом индексации, используя набор специальных директив. Их существует много, но основных можно пересчитать по пальцам одной руки. Среди них следует отметить User-agent, Allow и Disallow.

    Помимо того, что приписав в файле Robots.txt нужную команду, можно скрыть от индексации любую страницу, раздел или даже всю площадку, здесь указывается путь к файлу карты сайта, а также отмечается, какой сайт считать главным зеркалом, то есть выводить в рейтинг выдачи с аккумулированием показателей и аудитории всех остальных зеркал. Это необходимо для того, чтобы полезный потенциал не распределялся между отдельными площадками, а концентрировался на главном сайте.
     

Поделиться этой страницей