Что такое злые алгоритмы Google? | SEO скрипт

Что такое злые алгоритмы Google?

google алгоритм

Несмотря на то, что средний возраст сотрудников Google составляет 26-29 лет, стратегия поисковика в вопросах ранжирования продолжает поражать свой стабильной вдумчивостью — вновь изменившийся алгоритм снова придерживается основных принципов отбора значимых площадок, скопированных из реального (оффлайн) научного мира, где почти так же определяют значимость тех или иных научных работ.

Именно в этом нас убеждают ставший достоянием общественности алгоритм Google в последние годы. А согласно ему, Google больше не оставляет места ни черной оптимизации, ни сайтам-однодневкам, ни различным нарушителям авторских прав, уделяя все свое внимания только заслуживающим доверия площадкам, над которыми ведется по-настоящему серьезная работа.

Если вычленить из алгоритма Google самые важные элементы, определяющие ранжирование любого сайта, то мы получим следующий список, состоящий из 10 пунктов, значение каждого из которых не стоит недооценивать, иначе все ваши усилия по продвижению сайта или блога в ТОП будут равны нулю.

1. Возраст площадки – на сегодняшний день, один из главных критериев определения качества, который является доказательством профессионализма работы над ней. Но работает он только в сумме с «чистотой историей» сайта, которая показывает – не нарушал ли ресурс какие-либо правила поисковика. Потому стоит помнить, что подлинная жизнь любого ресурса в Google начинается на 3-й год его существования (но не с момента покупки домена, а момента индексации первой страницы). По истечении этого срока Google считает, что заслуживает подлинного внимания со стороны его роботов.

2. Количество страниц и скорость обновления – второй фактор, на котором ломаются 98% российских веб-издателей и блогеров. Унаследовав это правило от Yahoo!, Google считает по-настоящему значимыми площадки те, что содержат минимум 10.000 уникальных страниц.

3. Уникальность – о ней стоит сказать отдельно. Не смотря на то, что главный мировой поисковик без проблем индексирует любой копипаст и даже отправляет некоторый в основные выдачи, рассчитывать на высокое ранжирование сайтам-плагиаторам все-таки не приходится. Ведь им в этом помешают порядка 7-м различных фильтров, настроенных на отсев неуникального контента.

Потому если вы нацелены на место в ТОПе, и тем более – по высокочастотным запросам (ВЧ), старайтесь, чтобы на вашей площадке количество уникального на 100% контента стремилось к максимальному показателю – 10 страниц из 10-ти.

4. Уникальность 2 – но не стоит думать, что уникальным должен быть только текстовый контент сайта/блога (а порой кажется, что в Рунете борьба идет именно за него). Попасть под бан можно за:
— неуникальное видео;
— неуникальные фото;
— и даже за шаблон сайта, который вы скачали по ссылке «бесплатно».

Ведь стоит правообладателю шаблона написать письмо в техподдержку Google, и вас сразу же отправят под пессимизацию, пока вы или не заплатите за шаблон, или не смените его на другой.

5. Качество трафика – именно оно пришло на смену PR, еще недавно считавшегося основным залогом успеха. Теперь сайт с нулевым показателем цитируемости может без труда оказаться на первой страницы любой (НЧ, СЧ, ВЧ) выдачи, если собирает больше ежедневных уникальных конкурентов, чем его самые цитируемые конкуренты.

Качество трафика складывается из 4-х показателей – целевые посетители (определяется согласно опросу), процент постоянных читателей, показатель отказов, поведение читателей на сайте/блоге (в частности участие их в комментариях к постам).

6. SEO-оптимизация – ее формула для Google осталась практически прежней:
— ключ в каждом из мета-тегов;
— ключ (желательно не больше 3 на 1 пост), повторяемый в тексте не более чем 1 раз на 1000 знаков;
— внутренняя перелинковка.

Но о последней мы поговорим чуть позже.

7. Внешние ссылки на сайт – поскольку PR благополучно отходит в небытие, для Google теперь важен не вес ссылок, а скорость их появления и их количества. Так теперь он может хорошо ранжировать сайты, получающие естественные ссылки из различных социальных сетей (Twitter, Facebook, Google Плюс), и не обращать внимания, а то и вовсе пессимизировать площадки, раскручивающие себя через социальные закладки или каталоги.

8. DMOZ – но есть один каталог, на который все-таки не стоит недооценивать, и это – DMOZ. Оказавшись там (но оказаться там очень непросто), вы, во-первых, гарантируете попадание всех своих страниц в основные выдачи поисковика, а, во-вторых, то, что Google будет учитывать все ваши страницы в построении выдач по всем ключам, который найдет на вашем сайте.

9. Количество внешних ссылок на сайте – теперь все более чем четко и ясно, т.к. в главной штаб-квартире Google это заявление было озвучено официально: любой сайт, на котором окажется более 100 внешних ссылок, не отмеченных тегом «закрытой для индексации», может расцениваться как распространитель спама. Что это значит? В случае с Google только одно – пессимизация или в простонародье – бан.

10. И обещанная внутренняя перелинковка. Если вы создали сайт, соответствующий всем предыдущим слагаемым алгоритма Google 2012 – сайту больше 2-лет, и у него (что самое главное!!!) больше 10.000 тысяч страниц – то достаточно провести правильную перелинковку, и ваш сайт не только легко получить PR 2-3, но и буквально взлетит к вершинам выдач.

Ну а о том, как проводится профессиональная перелинковка под Google, мы обязательно расскажем в этой статье, посвященной именно теме перелинковок.

Поделиться

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *