В прошлой статье мы уже рассмотрели один из фильтров google, который называется песочница, ну а теперь пришло время развеять еще одну иллюзию, связанную с поисковой оптимизацией – с созданием сайта на узкую, в рамках 2-3 поисковых ключей, тематику. Поступая так, мы рассуждаем следующим образом: если создать сайт на определенную тему (скажем – дизайн ванных комнат), то, во-первых, он обязательно соберет всех тех, кого интересует подобная тема, а во-вторых, почти автоматически подниматься на самую вершину ТОПа.
Увы – вынужден разочаровать всех, кто думает подобный образом – ничего толкового из подобной оптимизации не получится. Нет, страницы будут индексироваться все до одной, но при этом в поисковой выдаче их не будет. Никогда не замечали в конце любой выдачи Гугла строчку «повторить поиск, включив опущенные результаты?». Так вот все страницы вашего сайта могут оказаться именно там. А отправит их туда фильтр Гугла под названием Supplemental Results.
Supplemental Results называют еще фильтром «дополнительных результатов поиска». А главная его задача – отыскивать на сайтах не уникальный контент, и делать его невидимым для пользователей, чтобы не заполнять целые страницы выдачи одинаковыми статьями. Это вполне разумно, согласитесь. Но как тут существует одно значительное «но». И это «но» настолько страшно для любого веб-мастера, что мы просто не можем не поговорить о нем отдельно.
Дело в том, что Supplemental Results отслеживает не только на 100% не уникальный контент, но и контент, который можно назвать таким с большой натяжкой. Скажем, вы разместили на своем сайте 5 статьей, посвященных ремонту легковых автомобилей определенной модели. Так вот 4 из этих 5 статье Supplemental Results может посчитать «относительно не уникальным контентом в пределах одного сайта» и отправить в «дополнительный поиск». В итоге все ваши труды оказались напрасны.
Точно так же он может поступить с сайтом, на котором постоянном меняется контент – удаляются и переставляются статьи из рубрики в рубрику. Вы делаете это из лучших побуждений, чтобы сделать свой сайт удобней, а на деле плодите страницы с кодом 404, что позволяет фильтру Supplemental Results отправить под бан весь ваш сайт.
Как вывести сайт из-под фильтра:
Метод борьбы с данным фильтром довольно прост и не потребует от вас особых денежных и временных затрат – приведите в порядок все внутренние страницы вашего сайта, избавьтесь от битых ссылок, и самое главное – проверьте весь свой контент на уникальность, которая должна составлять хотя бы 98%. Как только вы сделаете все это, при следующем же посещении роботом ваш сайт будет выведен из-под фильтра и все его страницы станут видимыми в любых результатах поиска.
Возможно вы зададите себе вопрос: «А как же обстоят дела с моим сайтом? Сколько страниц у меня в основном индексе, а сколько в дополнительном (соплях). Предлагаю воспользоваться для этих целей готовым решением через сервис supplemental.name
Лично у меня показатели на данный момент такие:
Хотя если учесть, что у меня опубликовано 268 статей, то процент будет еще больше, тут дают о себе знать дубли в page и категориях. Теги от индексации я закрыл еще в прошлом году, о чем и писал. В любом случае, если вы получите низкий результат, то это будет хорошим поводом призадуматься и кое-что изменить.
Делитесь своими успехами — у кого больше 50%?
Более 50% это у хорошего трастового сайта, лично на моем сайте 35%, считаю это хорошим результатом. Еще один способ по выводу страниц из «соплей» это покупка на эти страницы ссылок с трастовых сайтов. Проверено.
А у меня всего 9% вышло, хотя весь контент уник, видать дублей много.
Показало 43
Цифры некоторые удивили
Александр, согласен — покупка ссылок на страницы однозначно играет свою роль. Ценность таких страниц в глазах поисковых систем сразу увеличивается.
Андрей — ну 43% это очень приличный результат. Скажу еще что иногда на результат может повлиять даже каптча. Я как-то писал, про то что обнаружил с несколько тысяч страниц в индексе из-за моей каптчи, когда все картинки проиндексировались. Тогда у меня вообще было менее 10%. А потом позакрывал лишнее и ситуация выправилась
У меня на одном блоге показало вообще 2%. Но это как-бы типа сателлит, так что я не в обиде 🙂
Мона — для сателлитов 2% — это даже ничего 🙂 У меня было и 0% Хотя вроде как все статьи уникум, но переходов на них с поисковиков нет, вот гугл их и зашпулил в сопли.
Радкевич С говорит»Скажу еще что иногда на результат может повлиять даже каптча»
Вот с этим у меня просто беда, хоть тресни (кптча стоитне должна никак у меня индексировать вся эта байда в нофолоу
и хоть гугл видит, что к индексированию запрещена, но уйму тащит этой каптчи к себе в индекс
Я не знаю что делать просто (((
конечно у меня из за этих картинок которые он любит почему то особо результат далеко не ах :((
Флора, так просто удалите активную ссылку с каптчи.. и доз.. можно и без ноуфоллоу обойтись
Сергей, стесняюсь спросить и даже молвить стыдно, но я не понимать, как можно убрать активную ссылку с каптчи и откуда она там активная ? И что такое «..и доз..»
прям не знаю ((
спасибо за обзор сервиса, вообще я знаком из гугл-сервисом только с аналитикой, вел проект два месяца, отчитывался его статой. молодцы они.
Флора, ну если у вас такая же каптча как у меня, то ссылку нужно в коде искать. Если ссылки в каптче нет, то просто закройте соответствующий раздел от индексации и картинки больше не будут попадать в индекс.
У больших сайтов большинство страниц в сапплементал.
Порадую ) над сайтом работаю месяца 2, у меня показало качество сайта 1% )
В индексе гугла 1810 страниц сайта
Из них в основном индексе 15 страниц;
В дополнительном индексе 1795 страниц.
УЖАААС
Зачем пользоваться сервисом для выявления соплей? Достаточно в гугле ввести site:vash-site.ru/* и он выдаст долю страниц в основном поиске. У меня в районе 40-45 процентов. Обидно то, что большая часть ссылок, которые в основном индексе это ссылки с облака тегов. Ума не приложу что он в них нашел. Мало того что там тайтлы повторяющиеся, так в них нет description и keywords. Может гугл отправил в сопли нормальные странички из-за того что я их переоптимизировал?
Читал я вашу статью внимательно и вот что я вам скажу.
Статья ваша хорошая, а этот инспектор по вашей ссылке — так себе.
Типа результат: «В индексе гугла 136 страниц сайта.
Из них в основном индексе 20 страниц;
В дополнительном индексе 116 страниц.
Качество сайта 15%
Средний по оригинальности материалов сайт».
Почему такая низкая оценка инструмента? Исключительно по последней строчке.
На ресурсе нет ни одного! заимствованного материала и способ изложения материала гарантирует, что его в оригинальном виде никто на посторонних ресурсах не использует.
Все страницы — ХТМЛ, кривые, как сколиозный хребет. На такой код не польстится даже псих.
Процентов на 75 на страницах — видеоплейер и несколько слов аннотации, на 20 — вставки кода из карт Гуглы, процентов пять — корневые страницы с парой фраз. Копировать, кроме видео, нечего, а его поисковики индексировать не могут.
Поэтому «Средний по оригинальности материалов сайт» — ерунда, а оценка качества сайта здесь никак не объясняется.
Гугл site:vash-site.ru выдаёт в поиске все страницы. Все.
Давно нужен был такой сервис. Но блин никак не могу в нем получить результаты. на все сайты пишет 0
>Давно нужен был такой сервис. Но блин никак
>не могу в нем получить результаты. на все
>сайты пишет 0
Аналогично, все по нулям, должно быть не работает!
Вячеслав, Игорь — есть сервис намного лучше — RDS Bar. Установите себе расширение для браузера, и сможете быстро проверять ваши сайты на сопли.