Основное, что крайне важно осознать, что Яндекс и Google — две разные поисковые машины у каждой из которых:
- Своя классификация поисковых запросов.
- Свой набор факторов ранжирования.
- Свои формулы (для групп запросов).
Если рассматривать практические рекомендации, то важно:
1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи — корректировать факторы под проблемных поисковик.
2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google — показатель низкий.
В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.
Особое внимание на переколдовку (расширение) запроса.
3. Для Google — больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса — https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html
4. Для Google — больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.
5. В Яндексе — больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.
6. Продвижение в регионах — фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.
7. Важный технический аспект. Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.
В случае, если используются подобные техники для вёрстки текста — важно учесть.
8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.
9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.
10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.
Общий вывод. Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):
• региональность выдачи Google
• наличие санкций в одной из поисковых систем
• ссылочные факторы
• поведенческие факторы (GA и Метрика)
• текстовые (морфология)
В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.
Яндекс | ||
Семантическое ядро | Собрать максимально полное ядро. Продвигать большую группу НЧ и мНЧ запросов. Для сбора использовать различные источники.
Важно: • учитывать нюансы кластеризации при продвижении |
|
Технический аудит | Обратить внимание на:
• Регион Сайты с большим количеством ошибок могут нормально ранжироваться. |
Важно в целом хорошее техническое состояние сайта. При большом количестве ошибок могут быть проблемы именно из-за плохого технического состояния. |
Коммерческие факторы / аудит | Очень важная группа факторов. Нужно максимально плотно работать с качеством ресурсов, с удобством для пользователя/покупателя. В обязательном порядке проводить анализ конкурентов, а также аудит содержания. Нужно помнить, что коммерческие факторы тесно связаны с поведенческими, с качеством дизайна, юзабилити. |
Важна полнота ответа на запрос пользователя. Для России не так развиты как в Яндекс. |
Текстовая оптимизация | Для Яндекс и Google очень важна текстовая оптимизация.
Этапы работы: • Анализ контента конкурентов по кластеру запросов Для Google часто бывает нужен больший объем текстового контента. |
|
Ссылки | Ссылки работают. Биржевые покупать практически бессмысленно. Можно обходиться СОВСЕМ без ссылок. |
Важны! Оказывают хорошее влияение на ранжирование.Нужно выстраивать ссылочную стратегию и следовать ей. Крайне важно не переспамить в анкор-лист. Покупать биржевые ссылки можно, но эффект слабый. |
Поведенческие факторы | Как внешние так и внутренние – мощный факторы ранжирования. Накрутка карается очень строго. Воздействовать можно “белыми” способами: • улучшение сниппета, • работа с юзабилити, • контентом, • коммерческими факторами (для инфо ресурсов – полнота ответа и содрежание) |
Важны, но не признаются. Придерживаемся той же стратегией, что в Яндекс. Улучшаем удобство для пользователя, юзабилити, сниппеты. |
В 2016 году Андрей Липатцев, сотрудник Google, специалист по качеству поиска, рассказал, какие факторы являются самыми важными для продвижения в Google.
Он перечислил следующие:
1. Ссылки.
2. Контент.
3. Rank Brain.
По моему опыту продвижения сайтов в рунете и англоязычном интернете могу сказать, что в целом я согласен с этим.
В плане самых важных факторов ранжирования Яндекса официальной информации не было. Если бы я делал такой топ 3, то он был бы таким:
1. Степень удовлетворенности пользователя сайтом (вспомним многочисленные случаи, когда техподдержка Яндекса рекомендует именно развивать сайт и делать его полезным).
2. Контент.
3. Алгоритм Королёв.
Фактор ранжирования Google RankBrain направлен на понимание смысла контента поисковыми роботами. Главная его цель – ранжировать страницы сайтов, релевантные запросу, но в тексте которых могут не использоваться точные вхождения слов из поискового запроса.
Ссылки играют намного большую роль при продвижении под Google, чем под Яндекс. Во многих случаях в конкурентных тематиках Гугла эффективно продвинуть сайт в топ очень сложно, и это может занять значительное количество времени.
В Яндексе же вполне реально продвигать в топ без ссылок, за счет использования внутреннего потенциала сайта, устранения технических недочетов, грамотной структуры, внутренней оптимизации и качественного информативного контента.
Что касается контента, то качественный, интересный и полезный контент будет хорошо работать как в Google, так и в Яндексе.
Алгоритм Королёв, как и RankBrain, умеет сопоставлять смысл запросов и страниц сайтов и самообучается на сигналах от пользователей. Он направлен на вычисление смысла документов даже не в режиме реального времени, а заранее.
Одним словом, главное различие в продвижении под Google и Яндекс, по моему мнению, заключается в том, что для Google важное значение имеют внешние ссылки, а для Яндекса — удовлетворенность посетителей сайтом.
Думаю, ни у кого уже не возникает сомнений в том, что разница в продвижении под Я и Г есть и существенная. И касается она практически всех аспектов и настроек, как внутри сайта, и внешне.
Геозависимость и локальная выдача
Начнем с самого животрепещущего – геозависимость (или геопривязка, региональное ранжирование, локальная выдача – как вам больше нравится). В Яндексе для того чтобы сайт прекрасно себя чувствовать в выбранном городе достаточно указать регион в панели вебмастера Яндекса и подтвердить организацию в Яндекс.Справочнике.
Если у сайта появляется второй регион и более, замечено, что в дополнительных регионах сайт будет чувствовать себя хуже, чем в родном (будем так называть самый первый регион), даже если дополнительный регион с более низкой конкуренцией. И со временем это не очень-то изменяется (разумеется, при этом адрес в Справочник добавлен и сайт зарегистрирован в Яндекс.Каталоге с добавлением соответствующего региона). Я не знаю, в чем причина и как это лечится, поэтому принимаю как данность и сообщаю тем, у кого подобные проблемы, что вы не одиноки, оно так у всех работает.
Но все это полная ерунда по сравнению с Гуглом! Если вы продвигаете сайт в Москве, то нет разницы, но если продвигаем сайт из региона, значит «Хьюстон, у нас проблемы»:
• Первая проблема – сайту может тупо не присвоиться регион (хотя такого понятия в Гугле нет, но мы его подразумеваем, когда говорим о том, ранжируется ли сайт по геозависимым запросам без топонима (названия города) в региональной выдаче или нет). Например, сайт может быть в топ-3 по запросу «купить iphone краснодар» и отсутствовать в топ-50 по запросу «купить iphone» для пользователей из Краснодара, в то время, как для сайтов с присвоенным регионом позиции по этим запросам плюс-минус одинаковые. И таких случаев в практике – каждый второй.
При этом в регионе обязательно в выдаче будет болтаться несколько сайтов из Москвы, возможно даже не оказывающих услуг для вашего региона. Просто потому что сайты у них мощные, трастовые, старые и т.д.
• Вторая проблема – подтверждение сайта в Гугл Мой Бизнес, добавление в Гугл Карты и наличие большого количества отзывов там не влияют на ситуацию. Сейчас мы в студии регистрируем клиентские сайты, у которых проблема с геопривязкой, во всех бесплатных местных каталогах организаций. Пока результат нулевой 🙁 Но естественная ссылочная масса никому еще не мешала.
Пожалуй, это самая острая проблема, которую я бы хотел отметить. Далее все не так страшно.
Санкции или фильтры
Гугл первый начал эту игру – сначала фильтр Гугл Панда (2011), спустя год Гугл Пингвин (2012). Я прямо помню ту горечь и боль, когда появлялся фильтр, особенно если твой любимый сайт под него попадал. Говорили еще: «ну все, теперь будем продвигаться под Яндекс», потому что в Яндексе на тот момент все прекрасно работало и давало результаты. Потом Яндекс выпускал свой ответ с аналогичным фильтром, в котором было все намного жестче, и говорили: «Ну не, в Гугле-то все не так сурово», потом фильтр за покупку ссылок и возгласы о несправедливости и переходе снова в Яндекс, а потом снова ответ Яндекса намного более суровый. Кто давно занимается seo, должны помнить эти «веселые качели». По итогу можно сказать, что суровость Гугловских алгоритмов в сравнение даже не идет с Яндексовскими, вспомните хотя бы один сайт, попавший под Пингвина или Панду недавно? Я не могу вспомнить. А под Минусинск или Баден-Баден? Да запросто!
Мне кажется, Гугл ослабляет, в то время как Яндекс только закручивает гайки. Если вы что-то нарушите, ждите проблем с Яндексом, чтобы расстроить Гугл надо серьезно постараться. Я даже на практике это проверял с закупкой чересчур большого количества ссылок, но получил проблемы только в Яндексе.
По сравнению с Яндексом в Гугле санкций можно не опасаться. Ведь он по прежнему любит…
…Тексты и ссылки
Гугл любит тексты и ссылки. А еще старые сайты с историей.
Если в Яндексе молодой сайт имеет все шансы быстро попасть в топ и даже закрепиться там, то в Гугле этот путь заказан для слабых сайтов. Большие тексты рулят. Покупные ссылки рулят. Все то, за что в Яндексе проще получить санкции, чем добиться хоть какого-то роста.
К какому выводу мы невольно приходим – игнорировать требования Гугла, ориентируясь на Яндекс и надеяться, что в Гугле сайт тоже будет ранжироваться в регионе. В половине случаев все мероприятия направленные на улучшения в Яндексе срабатывают и в Гугле.
Большой опыт работы с сайтами под фильтром Баден-Баден и вывод из-под него показал, что Гугл все равно даже на такие действия. У сайта были хорошие позиции за счет seo-текста в категориях, например, после ББ это стало слишком и сайт «улетел». Для снятия фильтра удаляются все тексты, через месяц сайт восстанавливается в Яндексе, а Гуглу все равно – как был в топе, так и остался.
Как бы то ни было, в нашей работе мы всегда ориентируемся на Яндекс и наблюдаем за Гуглом.
Анализируя два топа можно увидеть, что состав сайтов в Яндексе и Гугле сильно разливается. Чуть больше года назад мы совместно с агрегатором Rookee.ru проводили исследование нескольких сотен тысяч запросов и сайтов в топе по этим запросам. В первую очередь изучали на предмет ссылочного влияния. Тогда мы смотрели последствия алгоритма Минусинск, и заметили четкую тенденцию, что в Яндексе в топе мало сайтов с большим ссылочным (и тренд дальше шел на уменьшение), в то время, как в Гугле топ занимают именно сайты с большим количеством ссылок.
Поведенческие и коммерческие факторы
Те самые факторы, которых в Гугле нет или они не учитываются. Удобство, юзабилити и прочие такие словечки, которые описывают доверие к сайту и удобство его использования, реально имеют эффект в Яндексе. Не удовлетворив коммерческим требованиям, невозможно рассчитывать на топ. Те самые вещи, которые заставляют владельца сайта повернуться к посетителю лицом, как минимум за это стоит держать курс на Яндекс.
В общем-то, никаких мифов и никакой магии – все предельно понятно и ясно, работаем на качество самого сайта, ориентируемся на пользователя и стараемся решить его проблему. Только в тот момент, когда мы сами становимся пользователями (хотим что-то купить или заказать) мы понимаем, насколько это важно, выбираем тот, сайт, где проще и понятнее совершить действие. Хочется, чтобы и веб-мастера/seo-специалисты обращали на это внимание, смотрели глазами пользователя. Поисковики за это наградят сторицей.
Сказал, как проповедник из стана сотрудников поисковой системы, но я правда так считаю, и своих ребят учу таким принципам.
В разные моменты времени различий в оптимизации сайтов под Яндекс и Гугл было то больше, то меньше. Попробую сделать некий срез и рассказать об основных отличиях в оптимизации сайтов на сегодня.
1 Ссылочные факторы.
Самое первое, что приходит в голову это ссылочные сигналы. То, что в Гугл без ссылок поставить в топ практически невозможно, с лёгкость заезжает в топы Яндекса. Для примера давайте сравним сайты в выдаче обоих поисковиков по одному запросу.
В таблицах красным отмечены сайты, ссылочные профили которых ощутимо меньше среднего значения количества доменов-доноров по топу.
— Среднее количество доменов на 1 сайт из топ в Яндекс равно 165 шт.
— Среднее количество доменов на 1 сайт из топ в Гугл равно 408 шт.
Продвигать в Яндексе можно без ссылок, в Гугл это очень сложно.
2. Текстовые факторы.
Следующее отличие касается тестов. Объем контента необходимый для занятия места в топе Гугла в среднем всегда выше, чем в Яндексе. А бывает, что в первой десятке Гугла находятся преимущественно лонгриды, а в Яндексе превалируют документы практически без текста. Для примера возьмем частотный запрос и посчитаем средний объем plaintext для первой десятки документов.
Расчет производился с помощью Majento TopAnalyzer. Примеси видео на youtube (в таблице помечены красным) для снижения погрешностей не учитывались.
3. Поведенческие факторы.
Манипуляции с пользовательскими сессиями на выдаче, жёстко караемые Яндексом на 8+ месяцев бана, Гуглом не признаются нарушениями. Отсутствие санкций за накрутки ПФ в Гугл обусловлено отсутствием официального признания поведенческих сигналов. В Гугл их влияние на итоговый вклад в ранжирование меньше, тем не менее тоже доказано экспериментально сеошниками из разных стран. Подробнее о накрутках в Яндекс смотрите тут: https://www.youtube.com/watch?v=UxrgaAjvAXw.
А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:
4. Коммерческие факторы.
В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».
Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.
5. Гео факторы.
Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:
Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.
В последнее время разница между факторами в Гугл и Яндекс стала уменьшаться, если раньше была практика создания даже отдельных сайтов под Гугл и под Яндекс, то на сегодняшний день я такой подход не встречаю.
Я поделюсь своим опытом по контентным проектам.
Проект №1
Исходные данные: сайту 4 года, старый контент, более 1000 текстов, постепенно Яндекс проседал, но давал сайте около 70% трафика.
Что делали:
1. перерабатывали и улучшали старый контент;
2. добавляли свежий контент;
3. удаляли плохие посты.
Результат:
Яндекс просел, Гугл растет.
Яндекс плохо понимает, когда статья стала лучше, при работе с Яндексом очень высок риск при любых изменениях.
Гугл гораздо лучше понимает, когда сайт качественно изменился, когда документ стал более полезным для людей, также любит, когда сайт постоянно обновляется и улучшается.
Проект №2
Контентный проект, на котором было размещено около 100 качественных статей, написанных медиком, с большим количеством фото и отличной структурой.
В результате Яндекс рос значительно быстрее, чем Гугл.
Google любит трастовые сайты, статьи нужно обязательно подкреплять ссылочным профилем. Без ссылок очень тяжело получить приемлемый результат.
Различий в подходах поисковых систем множество. Несколько наиболее ярких примеров.
● Google очень любит ссылки, в Яндексе зачастую можно обойтись вообще без них.
● Оба поисковика уважают старые сайты, но Яндексу важен еще и возраст конкретного url; для Google такой зависимости достоверно не выявлено. Трафик из Google выходит на плато позже (см. мое исследование влияния возраста в докладе для BDD).
● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.
● Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.
● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.
● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма, множество переспамленных страниц ощутимо потеряли в трафике.
Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.
Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.
Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.
Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.
Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.
Гугл — ссылки и вхождения, Яндекс — контент на раскрытие интента и коммерческие.
Есть Google, а есть все прочие поисковые системы.
И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник , Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.
Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.
Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.
Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.
Итак, контент. Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.
Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом , контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.
Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.
Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров . Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.
Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.
При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.
Теперь о ссылочном.
Ссылки будут работать еще долго. Но не все. В случае, как и с контентом, работают только полезные ссылки. Я не буду расписывать, почему это так, просто перечислю признаки хорошей ссылки.
1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).
Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.
Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.
Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.
Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.
Теперь о RankBrain и сотне прочих работающих факторах ранжирования. Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.
Ну возьмем , например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.
В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.
Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.
К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.
А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.
Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.
Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.
Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018», там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.
Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.
В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.
В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.
Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.
При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.
На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.
Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.