Основное, что крайне важно осознать, что Яндекс и Google — две разные поисковые машины у каждой из которых:

  • Своя классификация поисковых запросов.
  • Свой набор факторов ранжирования.
  • Свои формулы (для групп запросов).

Если рассматривать практические рекомендации, то важно:

1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи — корректировать факторы под проблемных поисковик.

2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google — показатель низкий.

В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.

Особое внимание на переколдовку (расширение) запроса.

3. Для Google — больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса — https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html

4. Для Google — больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.

5. В Яндексе — больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.

6. Продвижение в регионах — фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.

7. Важный технический аспект. Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.

В случае, если используются подобные техники для вёрстки текста — важно учесть.

8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.

9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.

10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.

Общий вывод. Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):

• региональность выдачи Google
• наличие санкций в одной из поисковых систем
• ссылочные факторы
• поведенческие факторы (GA и Метрика)
• текстовые (морфология)

В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.

Яндекс Google
Семантическое ядро Собрать максимально полное ядро. Продвигать большую группу НЧ и мНЧ запросов. Для сбора использовать различные источники.

Важно:

• учитывать нюансы кластеризации при продвижении
• при выборе посадочных страниц учитывать тип сайта, тип страницы, тип контента

Технический аудит Обратить внимание на:

• Регион
• Адаптивную версию
• Главное зеркало
• Дубли
• Уникальность

Сайты с большим количеством ошибок могут нормально ранжироваться.

Важно в целом хорошее техническое состояние сайта. При большом количестве ошибок могут быть проблемы именно из-за плохого технического состояния.
Коммерческие факторы / аудит Очень важная группа факторов. Нужно максимально плотно работать с качеством ресурсов, с удобством для пользователя/покупателя. В обязательном порядке проводить анализ конкурентов, а также аудит содержания.
Нужно помнить, что коммерческие факторы тесно связаны с поведенческими, с качеством дизайна, юзабилити.
Важна полнота ответа на запрос пользователя. Для России не так развиты как в Яндекс.
Текстовая оптимизация Для Яндекс и Google очень важна текстовая оптимизация.

Этапы работы:

• Анализ контента конкурентов по кластеру запросов
• Подготовка оптимизации шаблона страницы – расчет вхождений (используем текстовые анализаторы)
• Оптимизация заголовков и мета-тэгов
• При необходимости, подготовка SEO текста

Для Google часто бывает нужен больший объем текстового контента.

Ссылки Ссылки работают.
Биржевые покупать практически бессмысленно.
Можно обходиться СОВСЕМ без ссылок.
Важны! Оказывают хорошее влияение на ранжирование.Нужно выстраивать ссылочную стратегию и следовать ей.
Крайне важно не переспамить в анкор-лист.
Покупать биржевые ссылки можно, но эффект слабый.
Поведенческие факторы Как внешние так и внутренние – мощный факторы ранжирования. Накрутка карается очень строго.
Воздействовать можно “белыми” способами:
• улучшение сниппета,
• работа с юзабилити,
• контентом,
• коммерческими факторами (для инфо ресурсов – полнота ответа и содрежание)
Важны, но не признаются.
Придерживаемся той же стратегией, что в Яндекс. Улучшаем удобство для пользователя, юзабилити, сниппеты.

 

В 2016 году Андрей Липатцев, сотрудник Google, специалист по качеству поиска, рассказал, какие факторы являются самыми важными для продвижения в Google.

Он перечислил следующие:

1. Ссылки.
2. Контент.
3. Rank Brain.

По моему опыту продвижения сайтов в рунете и англоязычном интернете могу сказать, что в целом я согласен с этим.

В плане самых важных факторов ранжирования Яндекса официальной информации не было. Если бы я делал такой топ 3, то он был бы таким:

1. Степень удовлетворенности пользователя сайтом (вспомним многочисленные случаи, когда техподдержка Яндекса рекомендует именно развивать сайт и делать его полезным).
2. Контент.
3. Алгоритм Королёв.

Фактор ранжирования Google RankBrain направлен на понимание смысла контента поисковыми роботами. Главная его цель – ранжировать страницы сайтов, релевантные запросу, но в тексте которых могут не использоваться точные вхождения слов из поискового запроса.

Ссылки играют намного большую роль при продвижении под Google, чем под Яндекс. Во многих случаях в конкурентных тематиках Гугла эффективно продвинуть сайт в топ очень сложно, и это может занять значительное количество времени.

В Яндексе же вполне реально продвигать в топ без ссылок, за счет использования внутреннего потенциала сайта, устранения технических недочетов, грамотной структуры, внутренней оптимизации и качественного информативного контента.

Что касается контента, то качественный, интересный и полезный контент будет хорошо работать как в Google, так и в Яндексе.

Алгоритм Королёв, как и RankBrain, умеет сопоставлять смысл запросов и страниц сайтов и самообучается на сигналах от пользователей. Он направлен на вычисление смысла документов даже не в режиме реального времени, а заранее.

Одним словом, главное различие в продвижении под Google и Яндекс, по моему мнению, заключается в том, что для Google важное значение имеют внешние ссылки, а для Яндекса — удовлетворенность посетителей сайтом.

Думаю, ни у кого уже не возникает сомнений в том, что разница в продвижении под Я и Г есть и существенная. И касается она практически всех аспектов и настроек, как внутри сайта, и внешне.

Геозависимость и локальная выдача

Начнем с самого животрепещущего – геозависимость (или геопривязка, региональное ранжирование, локальная выдача – как вам больше нравится). В Яндексе для того чтобы сайт прекрасно себя чувствовать в выбранном городе достаточно указать регион в панели вебмастера Яндекса и подтвердить организацию в Яндекс.Справочнике.

Если у сайта появляется второй регион и более, замечено, что в дополнительных регионах сайт будет чувствовать себя хуже, чем в родном (будем так называть самый первый регион), даже если дополнительный регион с более низкой конкуренцией. И со временем это не очень-то изменяется (разумеется, при этом адрес в Справочник добавлен и сайт зарегистрирован в Яндекс.Каталоге с добавлением соответствующего региона). Я не знаю, в чем причина и как это лечится, поэтому принимаю как данность и сообщаю тем, у кого подобные проблемы, что вы не одиноки, оно так у всех работает.

Но все это полная ерунда по сравнению с Гуглом! Если вы продвигаете сайт в Москве, то нет разницы, но если продвигаем сайт из региона, значит «Хьюстон, у нас проблемы»:

• Первая проблема – сайту может тупо не присвоиться регион (хотя такого понятия в Гугле нет, но мы его подразумеваем, когда говорим о том, ранжируется ли сайт по геозависимым запросам без топонима (названия города) в региональной выдаче или нет). Например, сайт может быть в топ-3 по запросу «купить iphone краснодар» и отсутствовать в топ-50 по запросу «купить iphone» для пользователей из Краснодара, в то время, как для сайтов с присвоенным регионом позиции по этим запросам плюс-минус одинаковые. И таких случаев в практике – каждый второй.

При этом в регионе обязательно в выдаче будет болтаться несколько сайтов из Москвы, возможно даже не оказывающих услуг для вашего региона. Просто потому что сайты у них мощные, трастовые, старые и т.д.

• Вторая проблема – подтверждение сайта в Гугл Мой Бизнес, добавление в Гугл Карты и наличие большого количества отзывов там не влияют на ситуацию. Сейчас мы в студии регистрируем клиентские сайты, у которых проблема с геопривязкой, во всех бесплатных местных каталогах организаций. Пока результат нулевой 🙁 Но естественная ссылочная масса никому еще не мешала.

Пожалуй, это самая острая проблема, которую я бы хотел отметить. Далее все не так страшно.

Санкции или фильтры

Гугл первый начал эту игру – сначала фильтр Гугл Панда (2011), спустя год Гугл Пингвин (2012). Я прямо помню ту горечь и боль, когда появлялся фильтр, особенно если твой любимый сайт под него попадал. Говорили еще: «ну все, теперь будем продвигаться под Яндекс», потому что в Яндексе на тот момент все прекрасно работало и давало результаты. Потом Яндекс выпускал свой ответ с аналогичным фильтром, в котором было все намного жестче, и говорили: «Ну не, в Гугле-то все не так сурово», потом фильтр за покупку ссылок и возгласы о несправедливости и переходе снова в Яндекс, а потом снова ответ Яндекса намного более суровый. Кто давно занимается seo, должны помнить эти «веселые качели». По итогу можно сказать, что суровость Гугловских алгоритмов в сравнение даже не идет с Яндексовскими, вспомните хотя бы один сайт, попавший под Пингвина или Панду недавно? Я не могу вспомнить. А под Минусинск или Баден-Баден? Да запросто!

Мне кажется, Гугл ослабляет, в то время как Яндекс только закручивает гайки. Если вы что-то нарушите, ждите проблем с Яндексом, чтобы расстроить Гугл надо серьезно постараться. Я даже на практике это проверял с закупкой чересчур большого количества ссылок, но получил проблемы только в Яндексе.

По сравнению с Яндексом в Гугле санкций можно не опасаться. Ведь он по прежнему любит…

…Тексты и ссылки

Гугл любит тексты и ссылки. А еще старые сайты с историей.

Если в Яндексе молодой сайт имеет все шансы быстро попасть в топ и даже закрепиться там, то в Гугле этот путь заказан для слабых сайтов. Большие тексты рулят. Покупные ссылки рулят. Все то, за что в Яндексе проще получить санкции, чем добиться хоть какого-то роста.

К какому выводу мы невольно приходим – игнорировать требования Гугла, ориентируясь на Яндекс и надеяться, что в Гугле сайт тоже будет ранжироваться в регионе. В половине случаев все мероприятия направленные на улучшения в Яндексе срабатывают и в Гугле.

Большой опыт работы с сайтами под фильтром Баден-Баден и вывод из-под него показал, что Гугл все равно даже на такие действия. У сайта были хорошие позиции за счет seo-текста в категориях, например, после ББ это стало слишком и сайт «улетел». Для снятия фильтра удаляются все тексты, через месяц сайт восстанавливается в Яндексе, а Гуглу все равно – как был в топе, так и остался.

Как бы то ни было, в нашей работе мы всегда ориентируемся на Яндекс и наблюдаем за Гуглом.

Анализируя два топа можно увидеть, что состав сайтов в Яндексе и Гугле сильно разливается. Чуть больше года назад мы совместно с агрегатором Rookee.ru проводили исследование нескольких сотен тысяч запросов и сайтов в топе по этим запросам. В первую очередь изучали на предмет ссылочного влияния. Тогда мы смотрели последствия алгоритма Минусинск, и заметили четкую тенденцию, что в Яндексе в топе мало сайтов с большим ссылочным (и тренд дальше шел на уменьшение), в то время, как в Гугле топ занимают именно сайты с большим количеством ссылок.

Поведенческие и коммерческие факторы

Те самые факторы, которых в Гугле нет или они не учитываются. Удобство, юзабилити и прочие такие словечки, которые описывают доверие к сайту и удобство его использования, реально имеют эффект в Яндексе. Не удовлетворив коммерческим требованиям, невозможно рассчитывать на топ. Те самые вещи, которые заставляют владельца сайта повернуться к посетителю лицом, как минимум за это стоит держать курс на Яндекс.

В общем-то, никаких мифов и никакой магии – все предельно понятно и ясно, работаем на качество самого сайта, ориентируемся на пользователя и стараемся решить его проблему. Только в тот момент, когда мы сами становимся пользователями (хотим что-то купить или заказать) мы понимаем, насколько это важно, выбираем тот, сайт, где проще и понятнее совершить действие. Хочется, чтобы и веб-мастера/seo-специалисты обращали на это внимание, смотрели глазами пользователя. Поисковики за это наградят сторицей.

Сказал, как проповедник из стана сотрудников поисковой системы, но я правда так считаю, и своих ребят учу таким принципам.

В разные моменты времени различий в оптимизации сайтов под Яндекс и Гугл было то больше, то меньше. Попробую сделать некий срез и рассказать об основных отличиях в оптимизации сайтов на сегодня.

1 Ссылочные факторы.

Самое первое, что приходит в голову это ссылочные сигналы. То, что в Гугл без ссылок поставить в топ практически невозможно, с лёгкость заезжает в топы Яндекса. Для примера давайте сравним сайты в выдаче обоих поисковиков по одному запросу.

В таблицах красным отмечены сайты, ссылочные профили которых ощутимо меньше среднего значения количества доменов-доноров по топу.

— Среднее количество доменов на 1 сайт из топ в Яндекс равно 165 шт.
— Среднее количество доменов на 1 сайт из топ в Гугл равно 408 шт.

Продвигать в Яндексе можно без ссылок, в Гугл это очень сложно.

2. Текстовые факторы.

Следующее отличие касается тестов. Объем контента необходимый для занятия места в топе Гугла в среднем всегда выше, чем в Яндексе. А бывает, что в первой десятке Гугла находятся преимущественно лонгриды, а в Яндексе превалируют документы практически без текста. Для примера возьмем частотный запрос и посчитаем средний объем plaintext для первой десятки документов.

Расчет производился с помощью Majento TopAnalyzer. Примеси видео на youtube (в таблице помечены красным) для снижения погрешностей не учитывались.

3. Поведенческие факторы.

Манипуляции с пользовательскими сессиями на выдаче, жёстко караемые Яндексом на 8+ месяцев бана, Гуглом не признаются нарушениями. Отсутствие санкций за накрутки ПФ в Гугл обусловлено отсутствием официального признания поведенческих сигналов. В Гугл их влияние на итоговый вклад в ранжирование меньше, тем не менее тоже доказано экспериментально сеошниками из разных стран. Подробнее о накрутках в Яндекс смотрите тут: https://www.youtube.com/watch?v=UxrgaAjvAXw.

А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:

4. Коммерческие факторы.

В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».

Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.

5. Гео факторы.

Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:

Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.

В последнее время разница между факторами в Гугл и Яндекс стала уменьшаться, если раньше была практика создания даже отдельных сайтов под Гугл и под Яндекс, то на сегодняшний день я такой подход не встречаю.

Я поделюсь своим опытом по контентным проектам.

Проект №1

Исходные данные: сайту 4 года, старый контент, более 1000 текстов, постепенно Яндекс проседал, но давал сайте около 70% трафика.

Что делали:

1. перерабатывали и улучшали старый контент;
2. добавляли свежий контент;
3. удаляли плохие посты.

Результат:

Яндекс просел, Гугл растет.

Яндекс плохо понимает, когда статья стала лучше, при работе с Яндексом очень высок риск при любых изменениях.
Гугл гораздо лучше понимает, когда сайт качественно изменился, когда документ стал более полезным для людей, также любит, когда сайт постоянно обновляется и улучшается.

Проект №2

Контентный проект, на котором было размещено около 100 качественных статей, написанных медиком, с большим количеством фото и отличной структурой.

В результате Яндекс рос значительно быстрее, чем Гугл.

Google любит трастовые сайты, статьи нужно обязательно подкреплять ссылочным профилем. Без ссылок очень тяжело получить приемлемый результат.

Различий в подходах поисковых систем множество. Несколько наиболее ярких примеров.

● Google очень любит ссылки, в Яндексе зачастую можно обойтись вообще без них.

● Оба поисковика уважают старые сайты, но Яндексу важен еще и возраст конкретного url; для Google такой зависимости достоверно не выявлено. Трафик из Google выходит на плато позже (см. мое исследование влияния возраста в докладе для BDD).

● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.

● Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.

● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.

● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма, множество переспамленных страниц ощутимо потеряли в трафике.

Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.

Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.

Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.

Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.

Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.

Гугл — ссылки и вхождения, Яндекс — контент на раскрытие интента и коммерческие.

Есть Google, а есть все прочие поисковые системы.

И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник , Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.

Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.

Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.

Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.

Итак, контент. Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.

Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом , контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.

Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.

Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров . Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.

Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.

При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.

Теперь о ссылочном.

Ссылки будут работать еще долго. Но не все. В случае, как и с контентом, работают только полезные ссылки. Я не буду расписывать, почему это так, просто перечислю признаки хорошей ссылки.

1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).

Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.

Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.

Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.

Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.

Теперь о RankBrain и сотне прочих работающих факторах ранжирования. Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.

Ну возьмем , например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.

В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.

Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.

К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.

А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.

Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.

Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.

Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018», там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.

Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.

В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.

В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.

 

Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.

При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.

На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.

Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.