Фильтры Google.

Рубрика: Фильтры

Главные фильтры Google. Мифы и реальность

Сегодня всё больше и больше людей втягиваются в сферу продвижения веб-ресурсов в поисковых системах, и всё больше и больше эти люди сталкиваются с упоминаниями о каких-то страшных и неотвратимых «фильтрах Google». Спору нет, какие-то фильтры существуют, но речь идёт о таких вещах, которых-то в принципе и в природе быть не может. Например, ходят упорные слухи о том, что Гугл не любит сайты с неуникальным контентом. Естественно, уникальный контент – всему голова, но причём тут фильтр или вообще какие-либо санкции? То же самое относится и к мгновенному «появлению» в веб-пространстве сайтов с большим количеством страниц. Ясно, что такое явление не очень естественно, но опять-таки – какое отношение к этому имеет наказание фильтром? В общем, рассмотрим эти фильтры подробнее и попытаемся прояснить картину.

Итак, фильтр «Duplicate content». Этот фильтр, по словам всяких профессиональных умников, якобы накладывается Гуглом на сайты, наполненные неуникальным контентом. Естественно, ни одной поисковой системе не будет интересен сайт с неуникальным контентом, что прекрасно демонстрирует тот же Яндекс (хотя и не всегда, но речь сейчас не о нём). Но давайте заглянем в выдачу к Гуглу по какому-либо запросу, например по запросу «Главные фильтры Гугла». Ну и что мы там увидим?

Правильно, мы увидим там множество сайтов, наполненных практически одними и теми же статьями, которые идут просто копипастом без всякой хотя бы косметической редакции. А ведь конкуренция по этой фразе, как нетрудно заметить, только в Гугле составляет почти 2,5 миллиона сайтов! Точно такую же картину мы увидим и по многим другим запросам – все «сайты-копипасты» выстраиваются в выдаче друг за другом в очередь, часто огромную, а то и вовсе бесконечную. Может какие-то сайты, плетущиеся в хвосте этой очереди, и фильтруются, но никак не посредством «Duplicate content». Теоретическая база, которую стараются подвести СЕО-умники под свои гипотезы, также очень сильно хромает. Может они не знают, но Гуглу абсолютно неважно какой контент размещён на сайте. Ему важна реакция на этот контент посетителей. Каким бы уникальным-разуникальным не был контент на сайте, но если большинство посетителей этого сайта не продержатся на нём и минуты, и будут уходить с него сразу же после прихода, то этот сайт не поднимут в глазах Гугла никакие заслуги, можете быть в этом уверены. И наоборот – хорошо и регулярно посещаемый сайт, набитый надёрганными с других сайтов статьями, часто – очень старыми, «заезженными» материалами, имеет все шансы ранжироваться в выдаче очень высоко, и очень часто – исключительно высоко. Дело в том, что основные мощности Google направлены не на распознавание уникальности контента, и не на борьбу с «сайтами-копипастами», а на эффективное отслеживание деятельности посетителей посредством совершенно разных инструментов, и одним из самых главных и точных является так называемый «Google Toolbar». Если посетитель открыл страницу и задержался на ней какое-то более-менее значительное время, значит сайт имеет право на расположение Гугла – и это записано в памятке Гугла вебмастерам, только вот эти вебмастера невнимательно читают все эти памятки, а если и читают, то совершенно не понимают заложенного в них смысла. Или не хотят. Они думают, что администрация Гугла просто напускает туману, и потому выдумывают в отместку какие-то там страшные «фильтры». Мало того – они всю эту ересь распространяют вокруг себя, пугая этими страшилками подрастающее поколение будущих СЕО-мастеров, многие из которых потом с готовностью примут эту нелепую эстафету.

Следующая Google-страшилка – это так называемый фильтр «Google Bombing». Весьма достойное своих адептов изобретение вездесущих СЕО-умников. По широко распространённой в вебмастерских и оптимизаторских кругах легенде, Гугл применяет этот фильтр к сайтам, на которые стоит очень много ссылок с одним и тем же анкором. Кто не знает, анкором (от англ. anchor – якорь) называется текстовое описание гиперссылки. Так вот, если Гугл обнаружит вдруг какой-то сайт, на который ведут ссылки с множества других сайтов с одним и тем же текстовым описанием, он немедленно накладывает на него фильтр «Google Bombing». Поразительная чепуха! Представим себе на мгновение, чтобы начало твориться в выдаче Гугла, да и вообще во всём веб-пространстве, если бы такой фильтр вдруг начал применяться по отношению ко всем реально полезным и хорошим сайтам, которые подверглись бы широкомасштабным атакам конкурентов. Да таким же самым способом можно «завалить» и сам сайт Google – поставить на него несколько (или десятков, или сотен) миллионов ссылок с анкором «Google», и посмотреть, что бы из этого получилось. Такая возможность сегодня имеется у любого вебмастера средней руки, обладающего суммой всего 540$ — ровно столько стоит известная спамерская программа «Хрумер», с помощью которой можно произвести подобного масштаба акцию буквально за несколько часов. Во главе Гугла, вопреки расхожему мнению (опять-таки культивируемому в незрелые умы начинающих СЕО-оптимизаторов), стоят вполне здравомыслящие люди, которые всё прекрасно понимают, порой даже лучше кого бы то ни было, связанного с темой СЕО-продвижения. И ни одному из них и в голову никогда бы не пришла мысль придумать, а тем более применить такой дурацкий фильтр, как «Google Bombing», который не только не навёл бы порядок в Google-выдаче, а разжёг бы в интернете самую настоящую войну, по сравнению с которой все войны в истории человечества, включая и две последние мировые, показались бы невинными детскими забавами.

Третий знаменитый фильтр — ещё более смешной, чем предыдущие два. Называется он весьма замысловато, но тем не менее суть подобного требования, якобы предъявляемого Гуглом к веб-ресурсам, сформулирована достаточно ясно: «слишком много веб-страниц за раз». То есть имеется в виду, что если индексирующий робот Гугла вдруг наткнётся на совершенно новый сайт, имеющий большое количество страниц (например 100, 500, 1000 или больше), то это очень и очень подозрительно. Естественно, такой сайт и на самом деле будет выглядеть очень подозрительно с любой точки зрения, а не только с точки зрения «гугло-ботов». Ведь не секрет, что именно таким методом пользуется множество «чёрных оптимизаторов», или «дорвейщиков», которые создают свои тысячестраничные сайты-дорвеи в большом количестве и стараются их продвинуть в Гугле такими же «чёрными» методами – мощным спамом посредством того же «Хрумера», а также многих других предназначенных специально для этого программ. Однако поисковые роботы хоть и дураки, но далеко не глупцы. Эти неутомимые и юркие многорукие устройства с электронными мозгами, нашпигованными всеми необходимыми алгоритмами, прекрасно могут определить, что за сайт находится перед ними, и для этого им вовсе необязательно накладывать на этот сайт какие-либо фильтры. Наоборот, для полной идентификации ресурса действие фильтра крайне нежелательно, потому что одним из самых главных параметров, по которым определяется сущность исследуемого сайта, является, как уже говорилось, поведение на сайте посетителей. А для того, чтобы на сайт попали посетители, необходимо предоставить ему свободу действий без наложения всяких ненужных фильтров. Тем более что новые многостраничные сайты – не такая уж и большая редкость. Например, такая поисковая система как Яндекс, требует от вебмастеров, чтобы они выкладывали в интернет полностью готовые сайты. Понятно, что прежде всего это требование касается чисто технической готовности сайта, но ведь сколько в мире нормальных честных вебмастеров, столько существует и хороших полезных сайтов. И далеко не каждый вебмастер понимает под «готовностью сайта» только лишь чисто техническую его готовность. Многие считают, что поисковые системы не любят, когда к сайту добавляются новые страницы, и это не догадки, а результаты множества проводимых в вебмастерской среде опросов. Кто-то может возразить, что сайт, имеющий в своём составе порядка 1000-5000-10000 страниц невозможно сделать за короткое время (чтобы его потом целиком выложить на хостинг), и будет тут не прав. Очень многие сервисы сегодня предлагают создание таких сайтов и наполнение их хорошим качественным контентом в автоматическом режиме, и делают это вполне легально, даже не собираясь нарушать правила и рекомендации поисковых систем. И вот, если все эти вебмастера начнут выкладывать в интернет свои многостраничные сайты, и к ним поголовно станут применяться фильтры на «слишком много веб-страниц за раз», то это будет противоречить самой политике Гугла, которую, перефразируя, можно сформулировать так: «даёшь много хороших, красивых и больших сайтов!» Исходя из этого соображения, вполне резонно допустить, что ни в руководстве Гугла, ни кому бы то ни было в его техническом отделе даже в голову бы ни пришло спроектировать этот фильтр. А раз это понимают такие умные люди, то и говорить больше не о чем.

В мире существуют байки ещё про множество якобы «фильтров Google», однако мы сейчас их рассматривать не будем. Цель данной статьи заключается не в освещении полного списка «СЕО-заблуждений», а в демонстрации вопиющих фактов банального надувательства новичков со стороны всяких «СЕО-мошенников», которые для того, чтобы оттеснить потенциальных конкурентов от кормушки, идут на всякие выдумки, подчас принимающие вид вполне академических истин. Верить им или не верить – выбор каждого вебмастера. Однако при этом не следует забывать о том, что собственная голова – это самый верный, и причём единственный инструмент для определения истины.

Если Вам интересна эта запись, Вы можете следить за ее обсуждением, подписавшись на RSS 2.0 .

2 коммент. к “Фильтры Google.”

  • Алексей
    30 апреля, 2010, 18:17

    Спасибо, очень познавательная статья.

    Полезный комментарий или нет: Thumb up Thumb down 0

  • 25 декабря, 2010, 12:45

    Неоднозначная статья. С одной стороны, вроде бы все верно, с другой — на своем опыте убедился что Гугл хоть и индексирует страницы с откровенным копи пастом, но обращений по ним мало, а то и вовсе нет, в отличие от страниц с уникальным контентом. Возможно многое зависит от раскрученности сайта, т.е. если сайт имеет посещалку скажем там 50000 в день, то даже копи паст взлетит высоко. Но отношение Гугла к копипасту однозначно негативное

    Полезный комментарий или нет: Thumb up Thumb down 0

Оставить комментарий или два


Перед отправкой формы:
Human test by Not Captcha

Картаitn kee e9 iz9 ii65 zrenie general zreni gener srok1 sro22
rss
Карта