Я думаю, что вам интересно, о каких именно «старых» методах оптимизации идёт речь – и почему их нельзя использовать сейчас. И я обязательно расскажу вам об этом.
Но не стану описывать классические и очевидные с логической точки зрения изменения – например почему Московский сайт можно раскручивать только в Москве – а опишу те ситуации, которые вызывают максимальное количество вопросов, и ответы на которые приходится постоянно давать людям.
Это будут вопросы, напрямую связанные с таким популярным нынче понятием, как «белая» оптимизация – то есть, продвижение сайтов без использования «черных» методов.
Почему нельзя брать тексты с других сайтов
Если мы обернемся в прошлое – взглянем на ситуацию, которая имела место быть, скажем, лет шесть назад – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами (контентом сайта). Изначально можно было взять статью с другого сайта, поменять слова в предложении местами, вставить ключевые слова – и вуаля! – мы поднимаемся на хорошие позиции (причем, стоит отметить, что для старых – «сильных» – сайтов этот прием до сих пор периодически срабатывает).
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну (Помните, выше я уже приводил саркастическую крылатую фразу о том, что копирование из одного источника – это плагиат, а из нескольких – уже докторская диссертация… Это из той же оперы).
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты, как уникальные, и сайт поднимался в выдаче*.
*Отмечу, что примерно этот же метод – но только, если можно так выразиться, более «человечный» – используется сейчас для раскрутки интернет-магазинов. Объясню, каким образом.
Допустим, один и тот же – абсолютно одинаковый – прайс-лист используется в ста интернет-магазинах. Как вы понимаете, менять названия товаров в прайсе нельзя, поэтому нужно выкручиваться как-то по-другому. Вот часть контента и берется неуникальная – фактически, с других сайтов. А другая часть – это уже абсолютно уникальные тексты, написанные специально под данный сайт. И против такого «симбиоза» поисковик ничего не имеет.
Однако же, в целом, в прошлом имела место быть довольно нехорошая тенденция, а именно: каждый мог создать кучу сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажу больше: такие сайты делались автоматически, а потому те самые кристально честные вебмастера, которые писали тексты с нуля, находились в, мягко говоря, неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/не уникальность текстов. Если выявляется, что сайт берет тексты с других сайтов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают, увы, не идеально – и отсеивается плагиат не всегда.
Именно поэтому выше я неоднократно говорил о том, что важно писать много качественных – и главное уникальных! – текстов.
Почему нельзя прятать оптимизированный текст даже в том случае, если «он портит вид моего потрясающего дизайна, все равно его никто не читает» и т.п
Да-да, такие просьбы и пожелания – отнюдь не редкость. Оптимизированный текст может быть не таким эффектным, как того хотел бы владелец сайта, не слишком интересным, не вписывающимся в общий дизайн проекта и так далее. К тому же, владельцу может казаться, что такой текст никто не будет читать – и зачем, мол, его размещать на виду, если он будет только место занимать.
Или же другая ситуация: раньше можно было продвигать только главную страницу сайта, поэтому брались, грубо говоря, сто запросов, и писался текст, где по два-три раза нужно было употребить каждый из них.
В итоге получались неимоверно гигантские тексты, которые было невозможно читать. Такие тексты очень сильно мешали пользователям, так как они не могли среди этих «простыней из букв и знаков препинания» найти необходимую информацию. К тому же, одна страница не могла в полной мере отвечать сразу на сто запросов.
Тогда оптимизаторы начали прятать тексты – то есть, полностью или частично скрывать их на странице или закрашивать под цвет фона, чтобы они сливались с общей картинкой и не выделялись. С помощью этих хитрых способов можно было также вывести сайт в ТОП – раньше поисковая система пропускала подобные сайты.
А что же сейчас?
А теперь можно легко получить фильтр (штраф) за сокрытие текста: например, если вы полностью или частично скрыли текст на странице или закрасили его под цвет фона. И если вы написали чересчур большой текст – опять-таки можно «нарваться» на фильтр.
Это я к тому, что многие владельцы сайтов просят скрывать тексты от пользователей, но, как видите, это чревато неприятными последствиями.
Почему я не могу сам написать тексты и оптимизировать их (или почему мой сотрудник не может написать нужные тексты)
На самом деле, конечно, можете. Но лучше проявлять самостоятельность только в том случае, если вы знаете, как писать тексты, чтобы не попасть в немилость к поисковой системе.
Дело в том, что раньше ситуация была такова: чем больше в тексте ключевых слов, тем выше сайт в выдаче. Донельзя незамысловатый алгоритм. Из серии «чем больше камней ты накидаешь в колодец, тем выше будет твоя колодезная каменная башня».
Таким образом, оптимизаторы, копирайтеры и другие «правнуки Чехова» создавали тексты, которые просто-напросто невозможно было читать (обилие «ключевиков» нещадно резало глаза и мешало восприятию сути текста – не говоря уже о том, что зачастую в набитых ключами предложениях адски хромали синтаксис, пунктуация и пр.)
А что же сейчас?
А сейчас в поисковой системе существует фильтр, определяющий плотность ключевых слов. К примеру, на свет появился молодой сайт. На нем разместили тексты, состоящие сплошь и рядом из одних ключевых запросов. Такой текст может частично или полностью попасть под фильтр – именно из-за обилия «ключевиков».
Стоит ли «прогонять» сайт по каталогам