В последние пару недель я разбираюсь в своих старых проектах: решаю, какие нужно  безжалостно прибить, а каким дать новую жизнь. Среди этого зоопарка есть несколько ресурсов, на которых ставил эксперименты по SEO. Поскольку сайты скоро будут выселены с сервера, а их домены — оставлены без оплаты, имеет смысл записать результаты и сформулировать выводы. 

Вокруг вопроса «а не стоит ли закрыть меню от индексации?» по-прежнему ломается много копий.

Аргументы «за» достаточно очевидны: сохраняем вес для других ссылок на странице, увеличиваем уникальность текста на странице и так далее. Аргументы «против» тоже вполне закономерны: незачем путать поисковики, усложнять реализацию, мешать естественному распределению веса; да и вообще какие ваши доказательства, что будет эффект?

 

 

Суть эксперимента

На сайте legalfoto.ru я создал 2 страницы, слегка оптимизированные под запрос «фото для свободного использования»:

  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-sovety/
  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-obzor/

На странице «Обзор законов» боковая колонка и футер (что составляет 4 ссылки и довольно значительный текстовый фрагмент), загружаются из подключаемых через jQuery файлов. Их содержимое не попадает в исходный код (чтобы разобраться в технических деталях, см. файл vv.js, подключаемый в header страницы).

Текст на обеих страницах уникален, но написан и оптимизирован по одному шаблону, примерно одного размера. Обе были выложены одновременно. Страницы не участвуют во внутренней перелинковке, добавлены в индекс напрямую через addurl (как я показал на прошлой неделе, это весьма эффективный способ).

Все это было сделано, чтобы снизить влияние посторонних факторов, поставить страницы в равные условия, но при этом не дать поисковикам считать их дублями.

Поясню: например, в случае размещения внутренних ссылок добавились бы определенные поведенческие метрики; да и просто есть вероятность, что внутренние ссылки передают разный вес в зависимости от положения в документе. С передачей анкорного веса все еще серьезнее. В общем, сделать 2 одинаковые внутренние ссылки невозможно, так что чистота эксперимента неминуемо бы пострадала.

Что наблюдалось?

Прежде всего, скрытие контента оказалось вполне действенным: ни Яндекс, ни Google «не видят» на странице текст из сайтбара.

Яндекс:

Google:

Страницы достаточно быстро вошли в индекс поисковых систем. В первые 3 месяца они периодически менялись местами по запросу, явного лидерства установить не удавалось.

Затем выдача устоялась.

Страница «Важные советы» — та, на которой не применялось никаких тактик по скрытию контента стабильно опережает страницу «Обзор законов» в Яндекса и Google c ограничением по домену (оператор site:). Что более важно, страница «Советы» постоянно показывается в ТОП-10 Яндекса и Google, а в Mail даже ТОП-1. Это весьма удачно, так как результаты поиска с ограничением по конкретному домену вряд ли можно свободно экстраполировать на основную выдачу.

Выводы

  • Закрытие меню от индексации не дает серьезных преимуществ при ранжировании, а возможно, и вредит продвижению страницы.
  • Текстовая релевантность — по-прежнему крайне важный фактор ранжирования (факт устойчивого нахождения страницы в ТОП, невзирая на скромные хостовые и нулевые ссылочные факторы)
  • По всей видимости, текстовая релевантность имеет для Mail.ru большее значение, чем для других поисковых систем.
  • «Единодушие» поисковых систем — свидетельство в пользу того, что выводы являются относительно заслуживающими доверия, несмотря на отсутствие статистической достоверности.

Необходимые замечания

Буду откровенен. Хотя этот эксперимент на фоне большинства обобщений по SEO выглядит образцом следования идеалам Фрэнсиса Бэкона, я сам отношусь к нему довольно скептически. Дело даже не в том, что для адекватного результата нужна куда более серьезная выборка (делать выводы по одной паре страниц конечно же не комильфо).

Просто сам подход «а давайте найдем однозначный ответ, который внесем в чек-лист и будем везде применять» сейчас кажется мне глубоко ущербным. В практике оптимизации нужно учитывать особенности сайта и принимать конкретное решение по конкретному проекту. А исследования нужно проводить для проверки куда более сложных и точно сформулированных гипотез. Впрочем, это уже совсем другая история…

Источник:  Alextrudov

Рубрики: Полезности в SEO

Похожие записи

Полезности в SEO

Полезные расширения для Chrome при работе с Яндекс Wordstat

Кто часто вручную занимается подбором ключевых слов через Wordstat Яндекса — может пригодится полезное расширение для Google Chrome (также поддерживают Яндекс.Браузер и новая Opera на движке Chromium). Yandex Worstat Helper Первое расширение это Yandex Wordstat Helper. Работа расширения Подробнее…

Полезности в SEO

Цена на продвижение сайта — как получить желаемые результаты

Несмотря на то, что мы уже много лет пропагандируем «белое» продвижение, основанное на контент-маркетинге и кропотливой работе над сайтом, практика показывает, что у многих заказчиков до сих пор нет понимания, почему закупка ссылок – это Подробнее…

Полезности в SEO

Как медиапроекты Mail.Ru Group работают с поисковым трафиком

Специалист по поисковой оптимизации медиапроектов Mail.Ru Group Владимир Харев рассказал редакторам рубрики Growth Hacks о том, как устроен процесс поисковой оптимизации проектов в Mail.Ru Group. Медиапроекты Mail.Ru Group — это 10 проектов («Афиша», «Дети», «Леди», Подробнее…