Советы для новичков в сфере ВЕБ-РАЗРАБОТКИ


Какими бывают сайты?


Способы раскрутки и оптимизации сайтов

   
Веб-дизайн | Создание сайтовГЛАВНАЯ
СОЗДАНИЕ САЙТА

 

Что для этого необходимо

Как заказать создание сайта
Художественный образ
Используемые технологии
Размещение в Интернете

Стоимость создания сайта

Срок исполнения

Тематика сайта

 

КАК СОЗДАЮТСЯ САЙТЫ

 

Какими бывают сайты

Корпоративный сайт
Авторский веб-дизайн
Последовательность работ

Анализ и оценка сайта
Оптимизация сайта

Оптимизация контента

 

ТЕХНОЛОГИИ ВЕБ-ДИЗАЙНА

 

Веб-дизайн. Браузеры

Экранное разрешение

Иллюстрирование сайта

Обновление сайта

Заработок в Интернете

Курсы веб-дизайна

Терминология веб-дизайна

Счётчики посещаемости сайта

Ликбез

Склейка доменов

Статьи

 

ОФИС



Создание сайтов и эволюция поисковых систем

Чтобы продвигать сайты в результатах поиска, необходимо хорошо понимать, что нужно Вашему посетителю. Не менее важно понимать, что нужно поисковикам, когда они формируют выдачу своей аудитории. Так что просто создания сайта для заработка в интернете мало, нужно ещё хорошо понимать цели поисковиков и учитывать интересы посетителей сайта.

Цели посетителя это не просто поинтересоваться, как вы создали свой сайт и какими методами его продвигали, а информация. Возможно, он ищет информацию о решении какой-то проблемы, или он уже определился с конкретным товаром, и теперь ищет где именно ему можно купить. Может быть, он просто хочет узнать значение слова или термина? Т. е. основная задача посетителя — получить нужную ему информацию.

Цели поисковиков в принципе тоже понятны — дать своему пользователю (он же наш потенциальный посетитель) ответ на его запрос. То есть предоставить ему ту перечень ссылок в выдаче, где можно получить информацию, которую он предположительно хочет получить.

Теперь, чтобы понять, что работает в создании и продвижении сайтов, а что нет, и почему поисковые машины постоянно меняют и совершенствуют поисковые алгоритмы, давайте сделаем краткий экскурс в историю.

Задача поисковых систем

Вспомним цель поисковиков. Кроме того, чтобы дать пользователю нужную ему информацию, его задача не допустить в выдаче те странички, которые ответа на этот запрос не дают. Т. е. речь идет об исключении спама. Именно из-за наличия спамеров, которые создают сайты и используют поисковые системы, как бесплатную аудиторию для рекламы, идет все эпопея с постоянно меняющимися алгоритмами.

Изначально поисковые машины учитывали при ранжировании сайтов всего 2 тега: title — заголовок страницы, и метатег keywords, содержащий ключевые фразы заданной страницы. То есть вебмастеру предлагалось самостоятельно прописать перечень тех фраз и словосочетаний, по которым данная страничка должна показываться в поиске.

Эта система была простой и логичной, которая должна была хорошо по идее работать. И она работала... Пока не появились умники, создающие странички с назойливо рекламируемым товаром, которые набивали тег keywords огромными массивами ключевых слов, большая часть из которых никакого отношения к содержимому этой странички не имела. Со временем выдача стала ухудшаться.

Логика поисковиков

Следующим логичным шагом поисковиков, было использование всего текста на странице. Т. е. чтобы ранжироваться высоко по какому-либо запросу, сама веб-страничка должна была содержать слова этого запроса в своем видимом для пользователя тексте. На какое-то время это помогло, однако, следующее изобретение спамеров не заставило себя ждать. Теперь они создавали не одну страничку с рекламой, а автоматически генерировали огромное количество страниц с текстами, содержащими потенциальные запросы пользователя.

Далее эти странички скармливались поисковику. В силу того факта, что эти потенциальные запросы содержались на таких страницах с высокой плотностью, такие странички ранжировались высоко. Когда же пользователь кликал на такую страницу из поиска, показывать ему бред, сайт созданный, а вернее сказать, рожденный автогенератором, смысла не было — и его сразу перекидывали с помощью редиректа на страницу с порно или другой назойливой рекламой. Этот метод черного SEO получил название дорвей.

Со временем, количество дорвеев зашкалило за все приличные границы. Чистить выдачу от них оказалось довольно сложно, а их количество росло очень быстро. Необходимо было найти какой-нибудь параметр, который решал бы следующие задачи: усложнял манипуляцию с выдачей, позволял бы строить более адкватную выдачу. И такой параметр был найден — это ссылка. Что такое ссылка в нашем понимании? Это кредит доверия, или рекомендация. Если один сайт ссылается на другой, это значит, что владелец этого сайта рекомендует своим посетителям перейти на тот сайт. Т. е. факт рекомендации налицо и поисковые машины стали его использовать.

Суть ранжирования сайтов

Итак, сначала Гугл, а затем и другие поисковики начинают использовать ссылки в своих формулах ранжирования. Если до сих пор я описывал развитие поисковиков в общем виде, то далее мы в основном подразумеваем Яндекс. После введения ссылочных факторов выдача заметно очистилась. Однако, для спама тоже открылись новые лазейки. Теперь спам стал сводиться к тому, как можно получать ссылки с разных сайтов массово и (желательно) бесплатно. Как оказалось, методов нашлось предостаточно:

* Линкаторы — скрипты для автоматического обмена ссылками
* Обмен ссылками — ты мне, я тебе
* Доски объявлений — автоматически получаются ссылки с кучи досок объявлений
* Каталоги сайтов — аналогично с досками
* Форумы — прогон и спам, содержащий ссылку на продвигаемый проект
* Комментарии в блогах и гостевых — аналогично
* Использование дырок движков (XSS — отлично работающая тема) — генерация извне пустых страничек, содержащих ссылки на продвигаемые проекты
* Покупка-продажа ссылок с использованием бирж

Основная проблема, с которой столкнулись поисковики, что со временем ссылка потеряла свою силу рекомендации. Ведь любой мог прогнать по каталогам, наставить комменты или просто купить ссылку с авторитетного ресурса. Мы не будем тут подробно расписывать долгий путь борьбы Яндекса с «пустыми» ссылками. Просто отметим, что по очереди все эти методы стали терять силу. Сначала самые спамные (линкаторы, доски объявлений), затем менее очевидно спамные (каталоги, форумы, гостевые). Далее, в течение 2 лет Яндекс пытается настроить формулу, учитывая качество создания сайтов и ссылки на них. Постоянно подкручивается алгоритм то в сторону контента, то в сторону ссылок, но в любом случае спам с помощью ссылок остается возможным. Главное понимать, как обходить фильтры Яндекса. Т. е. максимально точно копировать естественный процесс при покупке ссылок.

В итоге мы приходим к тому, что Яндекс вводит в формулу ранжирования факторы, на которые влиять очень сложно, дорого или вообще невозможно в принципе. Например, возраст создания сайта или ссылки. Также вводится учет факторов поведения посетителей на сайтах. Кроме того, Яндекс может точно (до 97%) определять факт продажности ссылки. Т.е, теперь все должно быть в идеале: внутренние факторы, ссылки, которые нельзя заподозрить в продажности, а также сам созданный сайт должен быть удобен для пользователей.

Т. е. Яндекс свою задачу выполнил — влиять на выдачу стало очень сложно (по крайней мере некачественно и относительно бесплатно), во вторых, аудитория получила действительно качественную выдачу.

 


Теги:

создание сайта, поисковик, поисковая система, ранжирование


 


 

Веб-дизайн | Создание сайтов На главную

 


«Интернет без ошибок». МСД ©

 ВСЕ ПРАВА ЗАЩИЩЕНЫ


Веб-дизайн | Создание сайтовКачество сайта | Создание сайта