В докладе идет речь, в первую очередь, о применении быстрых инструментов анализа для проверки, насколько качественно работает поисковое продвижение для небольшого сайта или насколько хорошо готов такой сайт к запуску продвижения в поисковых движках. Среди таких точек проверки (позволяющих быстро убедиться в готовности / качестве сайта с точки зрения SEO) можно назвать следующие.
Давайте рассмотрим каждый из пунктов подробнее.
Достаточно часто этот файл (расположенный в корне сайта) создают в соответствии со стандартами, поэтому тут проблемы маловероятны. На какие моменты стоит обратить внимание:
User-Agent
— идентификатор браузера пользователя или поискового робота.Disallow
директива позволяет исключить нежелательные страницы из индекса. Это могут быть как результаты внутреннего поиска, так и личный кабинет пользователей или раздел администратора. Также здесь можно исключить некоторые наиболее «тяжелые» страницы в плане серверной нагрузки.Host
учитывает только Яндекс. Может быть полезно при использовании нескольких зеркал.Sitemap
указывает на XML-файл карты сайта. Очень полезно при увеличении глубины индексации сайта при наличии нескольких (десятков, сотен) тысяч страниц.Crawl-delay
устанавливает интервал захода поисковых роботов на сайт. Полезно для уменьшения нагрузки на сервер от индексации (в ночное время), либо для нивелирования влияния поисковых роботов на задержки для остальных посетителей сайта.Все указанные вещи можно быстро проверить либо самостоятельно, либо с помощью бесплатных инструментов, например, webmaster.yandex.ru/wmconsole/public_robots_txt.xml. Дополнительно при добавлении, например, в Яндекс сайта для индексации, поисковик может проверить возможность индексации данного сайта и сразу же выдать предупреждение в случае ее невозможности.
В следующем примере мы указываем для сайта webo.in для всех поисковых роботов запрет на индексацию секции /my/
, XML-файл с картой сайта и интервал между запросами страниц в 10 секунд.
User-agent: * Disallow: /my/ Sitemap: https://webo.in/sitemap.xml Host: webo.in Crawl-delay: 10
Очень часто заголовки (тег title
) страниц используют только для продвижения ключевых слов. Здесь стоит вспомнить, ваш сайт зарабатывает деньги не на поисковых роботах, а на живых пользователях. А пользователи достаточно враждебно реагирует на бессмысленные заголовки страниц.
Однако для улучшения качества поисковой выдачи для поисковых запросов сайта нужно иметь в виду, что поисковики показывают около первых 70 символов от заголовкка. Поэтому именно в них должен быть заложен основной призыв к потенциальному посетителю, чтобы он перешел из результатов поиска к вам на сайт.
Аналогичная ситуация обстоит и с фрагментами текста в поиске. Они показываются сразу под заголовками, и если пользователь сомневается, насколько может быть ему полезен данный сайт, то обязательно их просматривает. Здесь вы можете эффективно разместить до 150 символов.
Google берет этот текст из мета-тега description
, Яндекс предпочитает текст страницы, обрамленный наиболее релевантной фразой. Для грамотного формирования этого фрагмента для Яндекса рекомендуется вставить 3-5 предложений с ключевой фразой и посмотреть, какое из них оказалось в поисковой выдаче. Затем его можно будет немного подкорректировать.
Глубина индексации сайта (числа проиндексированных страниц) влияет как на общий "вес" сайт при выдаче результатов поиска с него, так и позволяет показать сайт по большему количеству поисковых результатов (благодаря большему числу страниц).
Проверить ситуацию (и посмотреть на фактические страницы в индексе) можно, например, с помощью специализированных инструментов от поисковиков: webmaster.yandex.ru и www.google.com/webmasters/tools/.
Почти все вышеперечисленные моменты можно быстро проверить в полуавтоматическом режиме с помощью соответствующих сервисов. Одним из таких сервисов является pr-cy. На нем можно посмотреть:
Данный параметр косвенно влияет на глубину индексации (насколько быстро поисковики могут загрузить страницы вашего сайта) и прямо влияет на удобство его использование (насколько быстро можно найти требуемую информацию). К сожалению, полностью проверить последний момент автоматически довольно тяжело: необходимо иметь представление о целях пользователей.
Но ситуацию исправляет большое количество инструментов для построения дерева сайта. Все она расположены на code.google.com/sm_thirdparty.html, можно рассмотреть использование XENU или SiteXpert. Оба этих инструмента позволяют посмотреть «дерево» сайта таким, как видят его поисковые роботы, и увидеть, насколько глубоко расположены все страницы сайта. Это позволит сразу увидеть потенциальные проблемы с перелинковкой и их оперативно устранить.
Не последнюю роль в анализе потенциала SEO для сайта играет скорость загрузки страниц. Для поисковых роботов важна серверная составляющая (насколько быстро сервер справляется с созданием HTML-документа, если справляется плохо, то сайт будет тяжело индексироваться). Для конечных пользователей, приходящих из поиска на ваш сайт, важна клиентская составляющая (насколько быстро готовая страницы загружается в их браузерах). Также последний показатель влияет на уровень доверия сайта и число повторных его посещений.
Сейчас существует большое количество инструментов для автоматической проверки скорости загрузки сайта. Для проверки серверной стороны есть host-tracker.com и webo.in/my/action/timings/. Здесь характерным параметром будет создание страницы не более, чем за 0,5с.
Для оценки отказоустойчивости сайта (насколько он готов к пиковым нагрузкам) можно воспользоваться www.loadimpact.com и понять, готов ли ваш сайт к росту числа посетителей.
Для проверки и анализа скорости загрузки страниц в браузере существует webo.in. Сервис позволяет точно продиагностировать возможные проблемы и предложить возможные варианты их решения.
Для автоматического ускорения сайта на PHP существует автоматизированное решение — Web Optimizer, которые позволяет за считанные минуты увеличить скорость загрузки в 2-3 раза.
Спасибо за внимание, буду рад ответить на ваши вопросы.