Поисковые системы против SEO-мастеров | SEO скрипт

Поисковые системы против SEO-мастеров

поисковые системы и SEO

Сколько существует интернет, столько и идет война между поисковыми системами и вебмастерами. Вторые, продвигают свои сайты в ТОП с целью заработка, а поисковики стараются отсеять ГСы и дать дорогу проектам для людей.

Когда интернет еще не был так популярен как сейчас, он не представлял интереса для манимейкеров. Интернет использовался в основном как помощник для офлайн работы с целью обмена информацией.

Первым мета-тегом, который использовался для поиска и сортировки информации был Keywords. Именно в нем прописывались ключевики, которые показывали поисковым системам опубликованную информацию. Это больше походило не на поисковый алгоритм, а поиск по словам, как сейчас «Поиск Windows» в компьютере.

У мета-тега Keywords существовал большой минус. Поисковики не могли сортировать статьи по важности, из-за чего в выдаче выводился огромный список, который пользователю приходилось пересматривать вручную с целью найти стоящую информацию.

После того, как Keywords себя изжил, начали появляться и другие критерии обработки и выдачи информации. Поисковые системы начали оценивать правильную регистрацию сайта, оформление страниц, жирный шрифт, заголовки «H1», «H2» и другое. В итоге, появилась более-менее адекватная поисковая выдача, после появления ранжирования по вышеперечисленным критериям. Это длилось до появления профессии – «SEO – копирайтер».

Тут же в интернете начали появляться тысячи новых сайтов с «Правильными» статьями, заточенными на «Топ». Большинство статей, написанных под поисковики, не несли в себе почти никакой полезной информации. На форумах в сети только и обсуждали принципы написания грамотно составленных SEO статей, сколько должно быть ключевиков и сколько прямых вхождений.

Решение данной проблемы представила компания Google, которая ввела ссылочное ранжирование. Например, если существуют две похожие страницы, и при их анализе поисковик не может определить какая статья лучше, а какая хуже, то он начинает учитывать количество внешних ссылок на каждую статью.

По логике, если статья хорошая, то ее рекомендуют другим людям, а если нет, то и ссылок на нее нет. Учитывалось не только количество оставленных на материал ссылок, но и их качество. То есть ссылка с популярного ресурса с большой посещаемость имеет более высокий вес, чем скажем ссылка с блога Иван Иваныча.

Google сделал действительно полезную вещь. Ссылочное ранжирование используется поисковиками до сих пор. Но уже не так как раньше. Вебмастера и здесь нашли способ «обманывать» поисковики. Появилось понятие «Закупка ссылок». Начали активно развиваться ссылочные биржи такие как Sape и gogetlinks, где можно за небольшие деньги получить тучу внешних ссылок на свои сайты.

Ссылочные биржи дали толчок к распространению сеток сайтов заточенных под продажу ссылок.

Пришлось поисковикам начать уделять внимание поведенческим факторам (ПВ):

  • время, проведенное на сайте;
  • количество просмотренных страниц и т.п.

К сожалению, идея с ПВ сработала лишь частично. Вебмастера стали активно накручивать поведенческие факторы. Сделать это можно специальными программами, имитирующими действие пользователей, либо через специальные сайты, на которых школьники за небольшую плату переходили на ваш сайт и просматривали нужные страницы. В итоге, что осталось делать поисковикам? Ведь реальные люди заходят на сайт и просматривают материал, а как узнать, что это не «купленная за копейки армия школьников»?

Важным шагом стало внедрение элементов искусственного интеллекта, который позволял поисковикам видеть страницу, как видит ее человек.

Именно это направление стало бурно развиваться, и если так продолжиться, то вебмастерам останется лишь делать сайты для людей, а не для заработка.

А далее Яндекс «обрадовал» запуском нового алгоритма – MatrixNet, но это уже совсем другая история…

Поделиться

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *