Поисковые алгоритмы ранжирования сайтов - Анатолий Косарев 14 стр.


Постоянно надо отслеживать статистику сайта, и немедленно реагировать, обращаясь в поддержку Google.

19  SUPPLEMENTAL RESULTS (ДОПОЛНИТЕЛЬНЫЕ РЕЗУЛЬТАТЫ)

Робот Google индексирует все, что найдет на сайте, и все данные передает на анализ в фильтр Supplemental results. Этот фильтр разделяет проиндексированные страницы сайта на хорошие и плохие.


Страницы, которые Google считает хорошими, попадают в основной индекс.


Страницы же, которые Google посчитал плохими, попадают в дополнительные результаты.


Страницы сайта, не прошедшие через сито Supplemental results никогда не попадают в органический поиск. Google никогда ранее признанную страницу плохой не меняет своего мнения.


Если плохих страниц на сайте много, то Google считает сайт бесполезным пользователю, и никогда его не показывает. В этой ситуации не стоит пытаться улучшать что-либо. Единственный выход  закрывать сайт, и учитывая ошибки создавать новый.


В дополнительные результаты попадают:


В первую очередь, дубли страниц сайта.

О дублях страниц более подробно читайте в «Дубли или копии страниц на сайте».


Во-вторых, не корректное, или полное игнорирование основных тегов страницы (Title, Description). Если проигнорированы Title, Description и на страницы нет заголовка Н1, то это гарантия того, что сайт попадает под Supplemental results.

В дополнение замечу, что, хотя Google объявил, что перестал учитывать ключевые слова, но стоило нам на одном из сайтов, написать ключевые фразы, чтобы определиться со стратегией, как этот сайт вышел на первую страницу. Повторюсь, добавили только ключевые слова в метатег keywords, и всё. Возможно это совпадение, с каким-либо другим событием, или пришло время сойтись звездам. Но не стоит лениться, и поэтому заполняйте все имеющиеся мета-теги. Уж точно  хуже не будет, а плюсы  повысится качество сайта.


В-третьих, не достаточный вес у страницы. Если сайт содержит сотни или тысячи страниц, расположенные на 4-5-6 и т. д. уровнях и к ним добраться с 4-5-6 и т. д. клика, то будьте уварены, что такие страницы попадут в дополнительные результаты, потому что даже хозяин сайта считает их малополезными.

А для поисковика  чем выше уровень размещения статьи, тем он более значимый. Все же материалы ниже третьего уровня, для поиска считаются малозначимыми.


В-четвертых, если страница сайта не имеет обратных ссылок, нет качественного контента, то и такая страница может быть отнесена к дополнительным результатам.

Чем больше страниц сайта в дополнительных результатах, тем ниже авторитетность сайта, и тем ниже рейтинг всего сайта в результатах поисковой выдачи., что отрицательно влияет и на хорошие веб-страницы.

Поисковые роботы Google посещают страницы дополнительного индекса значительно реже, чем уже занесенные в индекс и поиск новых, поэтому лучше избегать попадания под действие фильтра Supplemental results, чем улучшать, или удалять «плохие» страницы, с надеждой, что скоро улучшенные страницы получат больший вес.

Дешевле сразу продумать интуитивно понятную структуру с пунктами меню, которые соответствуют запросам пользователей, чем после попадания в дополнительный индекс пытаться выводить сайт.

Обычному разработчику всё равно за что получать деньги, а вот хозяину сайта придётся платить дважды, если заблаговременно не позаботится о правильной структуре.

20  POSSUM (ОППОСУМ. ТЕРРИТОРИАЛЬНОЕ РАНЖИРОВАНИЕ)

Представьте распространенную ситуацию, когда в одном бизнес-центре находится 6 юридических контор, которые, судя по их сайтам, оказывают одни и те же услуги.


Если прежде все 6 компаний отображались в локальном поиске, то после введения Оссумума Google может показать в местном поиске только одну, или, возможно, две, юридические конторы вместо всех шести.


Для человека из 6 фирм выбрать одну, лучшую, практически не реально. Человек по природе своей в состоянии выбрать только из двух. Если ему приходится выбирать из трех, то выбор происходит следующим образом. Сначала сравниваются первые два, выбирается лучший, а затем выбранный и следующий. Уж так устроен наш мозг.


Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.


Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.

Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.


Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.


Но последнее кто будет делать?


В одном из примеров своего исследования MOZ отметил, что бизнес, расположенный слегка удаленно от географического скопления, подскочил с 21 до 10 в результатах локального поиска.


Это примечательно, поскольку в локальном поиске в SEO уже давно наблюдается, что компании, находящиеся за пределами района или города, имеют мало шансов, получить высокий локальный рейтинг по запросам, исходящих из этих районов или городов и содержащих названия этих городов.


В местном SEO было выдвинуто несколько дополнительных теорий о влиянии Опоссума. К ним относится увеличение чувствительности близости поисковика  расположения между физическим местоположением пользователя и предприятиями, которые Google показывает в результатах своих локальных пакетов.


Кроме того, есть мнение, что локальный фильтр Google работает более независимо от их органического фильтра после Опоссума, так как компании получают высокие рейтинги за списки, указывающие на страницы веб-сайтов с низким или «отфильтрованным» органическим рейтингом.


Помните, что Google всегда стремится показать наиболее релевантный веб-сайт конечному пользователю.


Улучшение общего локального SEO (включая полномочия домена, ссылки, контент, точность и распространение ваших ссылок, а также количество ваших собственных обзоров Google) может помочь «убедить» Google, что, если они собираются показывать только один бизнес в вашей категории и районе, он должен быть вашим.


Опоссум предоставляет хорошую возможность провести аудит конкурента, который не отфильтрован этим фильтром, чтобы увидеть, достигли ли они определенных показателей, которые делают их наиболее актуальным ответом Google.


Поскольку одним из триггеров для Опоссума является присутствие нескольких однотипных компаний географически близко расположенных друг от друга (например, кафе, или сувенирные магазины в исторической части города) и в одном месте, вы можете поэкспериментировать с изменением основной категории в Google Мой бизнес. (Сокращенное руководство по «Google Мой бизнес» см. в приложении. А полную версию этого руководства читайте в книге «50 руководств по SEO-оптимизации»).


Например, если ваша текущая основная категория  «Бар», и вы отфильтровываетесь, потому что эта категория также используется более сильным конкурентом около вас, вы можете протестировать переключение на «Пивной бар», если около вас нет ничего подобного.


Имейте в виду, что изменение категорий может привести к значительному снижению ранжирования, существенным колебаниям трафика и должно осуществляться только с четким пониманием потенциальных негативных воздействий и «Рекомендаций по представлению вашего бизнеса в Google».


Если же трафик уже упал до нуля из-за фильтрации, эксперименты могут оказаться единственным действующим средством для поднятия сайта в Google.


Поскольку Опоссум заложил основу для фильтрации списков на основе их общей принадлежности, это ставит под сомнение целесообразность составления списков для врачей и юристов, агентств недвижимости и аналогичных бизнес-моделей.


Учитывая влияние фильтрации, местной индустрии SEO необходимо продолжать изучать риски и преимущества списков, состоящих из нескольких специалистов, в том числе то, как диверсификация категорий Google может повлиять на результаты после Опоссума.

21  PANDA (ПАНДА. КАЧЕСТВО КОНТЕНТА)

Фильтр Panda  один из самых известных фильтров, который анализирует качество контента. Этот фильтр может влиять на весь сайт, а иногда и на один раздел, такой как новостной блог на сайте.


Панда не склонна влиять только на отдельные страницы сайта. Если у вас есть сайт с хорошим контентом, но на нем есть страницы с небольшими текстами, или есть текст (фрагменты текста), которые дублируется на разных страницах, то фильтр Panda может вызвать проблемы с ранжированием всего сайта, а не только, по мнению фильтра на «плохие» страницы.

Назад Дальше