С одной стороны, чем больше ссылок, которые учитываются поисковой системой, проставлено на сайт, тем лучше. То есть мы таким образом влияем на группу внешних факторов ранжирования. Но, с другой стороны, алгоритм расчета ТИЦ иной и может не учитывать ссылки, которые мы размещаем.
Можно сказать, что если у сайта большой ТИЦ или высокий Pr, то он является авторитетным. Такой сайт проще продвигать в поисковых системах, нежели ресурсы с низким или нулевым ТИЦ/Pr. Высокий ТИЦ говорит о том, что на сайт ссылается достаточно много интернет-ресурсов.
Но если вы проанализируете первые места хотя бы по 100 популярным запросам в «Яндексе» и Google, то увидите, что связь между ТИЦ и позицией сайта по запросам отсутствует. В выдаче поисковых систем на первых местах нередко можно увидеть сайты с невысоким ТИЦ/Pr. Это связано с тем, что поисковые системы учитывают сотни факторов и лишь часть их основана на внешних ссылках, ведущих на сайт.
В последнее время видимый показатель Pr для сайтов обновляется очень редко, но это не значит, что реальные показатели, которые рассчитываются поисковой системой Google, не обновляются с явной периодичностью. Процесс расчета статических весов страниц (сайтов) проводится постоянно, от поисковой системы Google не поступало официальных заявлений, что они отказались от такого фактора ранжирования сайтов, как Pr.
Миф 12. Мы пользуемся системой, которая сама продвинет наш сайт
Любая система подразумевает некоторый набор средств для автоматизации работы. Какие действия можно автоматизировать? Лишь те, которые не требуют мозговой активности человека. Другими словами, если вы пользуетесь автоматической системой продвижения, то она автоматизирует лишь рутинные механические работы.
Давайте пройдемся по типовому списку работ, посмотрим, что можно автоматизировать.
• Составление рекомендаций по оптимизации сайта. Данный процесс автоматизировать, в принципе, возможно, но на данный момент реализация этого этапа так сложна, что пока на рынке не существует по-настоящему рабочих инструментов. Есть системы, которые позволяют анализировать конкурентов и предлагают сделать так же, как у них, усреднив значения. Но, вы сами понимаете, это не заменяет интеллектуальную работу специалиста.
• Внесение изменений в сайт. Думаем, не стоит вам доказывать, что сайт придется оптимизировать самим или заказывать внесение изменений у сторонних программистов. Этот этап не автоматизируешь для уже существующего сайта.
• Написание текстов. Роботы не умеют писать поэмы и стихи, они не смогут написать тексты для вашего сайта. Надо уточнить, что мы говорим о хороших текстах, которые не стыдно показать пользователю. Тексты нужны не только для поисковых машин, но и для людей, которые, прочтя их, примут решение о покупке товара или услуги именно у вас.
• Работа над внешними факторами. Данный этап можно автоматизировать, причем некоторые автоматизированные системы это делают вполне успешно.
Нужно понимать, что, купив 1000 ссылок в автоматическом режиме, но не оптимизировав сайт, вы не добьетесь хороших результатов. Необходимо заниматься комплексным продвижением, не забывая уделять внимание мелочам.
Создатели систем автоматического продвижения согласны с тем, что написано выше. Именно поэтому некоторые системы в последнее время стали предлагать дополнительные услуги. При желании вы можете заказать анализ сайта, в результате чего получите рекомендации, внедрив которые резко повысите вероятность успешного продвижения вашего ресурса. Мы советуем пользоваться такого рода системами только при заказе анализа сайта, иначе вы в подавляющем большинстве случаев выбросите деньги на ветер!
Миф 13. Сейчас пропишем ключевые слова – и будем в топе
Зачастую люди, которые имеют отдаленное представление об оптимизации и продвижении сайтов, считают, что достаточно наполнить страницу нужными ключевыми словами – и она окажется в топе поисковых систем. Более того, бытует мнение, что чем больше ключевых слов в тексте, тем страница будет выше в результатах поиска. Это не так. На рис. 10.2 представлен пример текста от поисковой системы «Яндекс», перенасыщенного ключевыми словами.
Рис. 10.2. Пример перенасыщенного ключевыми словами текста
Чем плох такой текст?
• Данный текст не будет читать ни один пользователь, пришедший на сайт. Ну и что? Пусть не читают, нам главное – пользователя затащить на сайт! К сожалению, посетитель проведет на странице совсем немного времени и уйдет на другой портал. Чем это грозит? Тем, что поисковые системы оценивают поведение пользователей, а значит, будет сделан вывод, что сайт низкого качества. Как следствие, позиции сайта снизятся, то есть в скором времени вы потеряете трафик с поисковых систем. Важно, что даже небольшой процент таких текстов может отрицательно повлиять на поведенческие факторы. В результате сайт начнет терять позиции по всему списку запросов, а не только по тому, под который вы подобрали перенасыщенный ключевыми словами текст.
• Перенасыщенный текст не нравится не только людям, но и поисковым системам. Они стремятся показывать хорошие результаты, то есть сайты, переходя на которые пользователи остаются довольны полученной информацией. Именно поэтому у поисковых систем существует ряд алгоритмов, которые отслеживают тексты плохого качества, а также перенасыщенные ключевыми фразами. Если эти алгоритмы помечают текст как плохой, то сайт понижается в результатах поиска (попадает под фильтр, избавиться от которого не так просто). Снятие фильтра может занять несколько месяцев и потребовать серьезных вложений, направленных на переработку текстов.
Вывод: не стоит стремиться взять количеством ключевых фраз в тексте, который будет индексироваться поисковыми системами и читаться пользователями. Необходимо направить силы на написание качественных продающих текстов. Такие тексты не навредят позициям ваших сайтов и скорее дадут положительный эффект в долгосрочной перспективе.
Миф 14. Скопируем у конкурентов и купим больше ссылок
Материал на сайте может быть неуникальным. Но к этому поисковые системы относятся негативно. В чем это заключается? В выбрасывании из индекса страниц с неуникальным контентом. Если бы поисковая система хранила все страницы с дублирующей информацией, то количество серверов, которые пришлось бы содержать для работы с этим объемом данных, стало бы колоссальным. В Сети встречается до нескольких тысяч дублей одной и той же информации. Поисковые системы в целях экономии собственных ресурсов стараются удалять большинство дубликатов, оставляя первоисточник.