Продвижение сайтов: основные схемы и ошибки

Дата публикации: 29.03.2011 | Рубрики: продвижение сайтов, разное | Теги:
Автор: Радкевич Сергей

ошибки в продвиженииВ настоящий момент в интернете существует множество компаний, которые занимаются продвижением сайтов. Не удивительно, что эта услуга очень популярна среди тех, кто хочет видеть свой сайт среди десятки, а то и пятерки лидеров выдачи результатов при поиске, ведь выход в топ гарантирует трафик с поисковых систем, а трафик — это заказы и деньги. Практически любая компания обещает удобство пользования, оригинальный дизайн, качественный контент. Ведь это основные факторы, влияющие на популярность сайта, на его имидж и индивидуальность. Не стоит заказывать раскрутку у первого встречного, аутсорсинг еще никто не отменял, так что можно выбрать специалиста из любого удобного вам города.

Наиболее популярными поисковыми системами среди русскоязычных пользователей по прежнему являются Google и Яндекс. На их долю припадает в суме 94,7% переходов. При этом на Google приходиться чуть более 71%, а на Яндекс около 23,5%. Так что большинство мероприятий, направленных на увеличение посещаемости ориентированы как раз на эти поисковики.
Читать далее…

Фильтр Google Duplicate Content (неуникальный контент)

Дата публикации: 18.03.2011 | Рубрики: Google, продвижение сайтов | Теги: ,
Автор: Радкевич Сергей

Фильтр Google "дублированный контент"Продолжим с вами наш маленький экскурс в фильтры поисковых систем. Мы уже рассмотрели с вами такие фильтры google как «песочница» и «Supplemental Results» под которые, в той или иной степени, попадают практически все сайты. Но есть фильтры, попадание под которые чревата значительными потерями финансов и времени на выход из под них, ну и в довесок это еще и психологическое расстройство 🙂 К таким фильтрам можно отнести «АГС» от яндекса, ну и Google Duplicate Content, о котором и замолвим сегодня несколько словечек. На самом деле поисковые роботы Гугла используют более сотни различных фильтров, большую часть которых корпорация Гугл держит в строжайшем секрете. Но это не повод для уныния, потому что нам известны самые главные из гугловских фильтров, и самый важный из них фильтр «Неуникального Контента» или «НК!».

В связи этим плохая новость наполнять свои сайты и блоги чужими статьями, думая, что активная ссылка под каждой из них может спасти вас от бана. Нет, в поисковой выдаче вы сможете найти эту статью, особенно если рядом с ее названием вы зададите адрес своего сайта. Но вот остальные пользователи Интернета, а их миллионы и миллиарды, никогда не увидят ее. И во всем виноват фильтр «НК!».

Как он работает? Да очень просто – найдя краденный или копированный контент, фильтр тот час помечает его значком неуникальности, после чего поступает с этой страницей исключительно по собственному усмотрению, иногда показывая ее в результатах поисковых запросов, но чаще – нет.

Заимствованные и ворованные страницы фильтр «НК!» оценивает по следующим параметрам:
— насколько раньше относительно других копий была опубликована эта страница;
— насколько раньше прочих проиндексирована;
— как много активных ссылок ведет на нее с других сайтов и блогов;
— какое количество посетителей вашего сайта читали ее;
— как много комментариев под ней оставили.

Именно исходя из этого, выбирая из 1000 одинаковых страниц, Гугл может показать всего 5, которые соответствуют какому-нибудь из перечисленных выше критериев. И самое печальное, что не всегда это будет страница первоисточник – в этой гонке зачастую побеждает не авторский, а более раскрученный сайт. Увы, но у меня уже есть подобный негативный опыт, когда ворованные статьи с моих блогов были в выдаче выше, нежели оригинал.

Все остальные, автоматически отправляются в мусор.

Как вывести сайт из-под фильтра:
Узнать больше…

Фильтр Гугла для сайтов Supplemental Results (полная или относительная неуникальность).

Дата публикации: 08.03.2011 | Рубрики: Google, продвижение сайтов | Теги: ,
Автор: Радкевич Сергей

Фильтр Google Supplemental ResultsВ прошлой статье мы уже рассмотрели один из фильтров google, который называется песочница, ну а теперь пришло время развеять еще одну иллюзию, связанную с поисковой оптимизацией – с созданием сайта на узкую, в рамках 2-3 поисковых ключей, тематику. Поступая так, мы рассуждаем следующим образом: если создать сайт на определенную тему (скажем – дизайн ванных комнат), то, во-первых, он обязательно соберет всех тех, кого интересует подобная тема, а во-вторых, почти автоматически подниматься на самую вершину ТОПа.

Увы – вынужден разочаровать всех, кто думает подобный образом – ничего толкового из подобной оптимизации не получится. Нет, страницы будут индексироваться все до одной, но при этом в поисковой выдаче их не будет. Никогда не замечали в конце любой выдачи Гугла строчку «повторить поиск, включив опущенные результаты?». Так вот все страницы вашего сайта могут оказаться именно там. А отправит их туда фильтр Гугла под названием Supplemental Results.

Supplemental Results называют еще фильтром «дополнительных результатов поиска». А главная его задача – отыскивать на сайтах не уникальный контент, и делать его невидимым для пользователей, чтобы не заполнять целые страницы выдачи одинаковыми статьями. Это вполне разумно, согласитесь. Но как тут существует одно значительное «но». И это «но» настолько страшно для любого веб-мастера, что мы просто не можем не поговорить о нем отдельно.

Дело в том, что Supplemental Results отслеживает не только на 100% не уникальный контент, но и контент, который можно назвать таким с большой натяжкой. Скажем, вы разместили на своем сайте 5 статьей, посвященных ремонту легковых автомобилей определенной модели. Так вот 4 из этих 5 статье Supplemental Results может посчитать «относительно не уникальным контентом в пределах одного сайта» и отправить в «дополнительный поиск». В итоге все ваши труды оказались напрасны.

Подробнее…