Как раскрутить сайт

Деньги, хорошие деньги принести может только хорошо раскрученный сайт, на который приходит много целевых посетителей в день. Меня не интересуют всякие некоммерческие сайты, главная цель- создавать максимально прибыльные ресурсы! Надеюсь, что и вас в Интернете интересуют в первую очередь деньги, возможность заработать!

Так вот, а что же нужно, чтобы вывести сайт в топы выдачи поисковых систем? Ведь это одна из важнейших задач в деле создания прибыльного сайта! Для тех, кто ничего об этом не знает,но хочет узнать и рассчитана далее приведенная статья.

Продвижение, Оптимизация и Раскрутка сайтов. Краткий курс.

Оглавление


Вступление
Сводная информация о поисковых системах
Принципы работы поисковых систем
Внутренние факторы ранжирования
Текстовое оформление веб-страниц
Тег "TITLE" и его значение
Ключевые слова в тексте ссылок
Теги "ALT" изображений
Мета-теги
Структура сайта
Распространенные ошибки
Внешние факторы ранжирования
Google PageRank – теоретические основы
Google PageRank – практическое использование
ТИЦ и ВИЦ Яндекс
Увеличение ссылочной популярности
Поднятие ТИЦ и PR сателлитами
Новостные ленты и т.п.
Индексация сайта
Подбор ключевых слов
Оценка уровня конкуренции поисковых запросов
Различная информация о поисковых системах
Таинственный Google SandBox
Google LocalRank
Особенности работы различных поисковых систем
Общие советы
Выбор домена и хостинга
Полезные ресурсы

Вступление

Настоящее пособие рассчитано на создателей и владельцев сайтов, желающих подробнее разобраться с вопросами поисковой оптимизации(SEO-Search Engine Optimization) и продвижения (раскрутки) своего сайта. Предназначено оно по большей части для начинающих, хотя и опытный вебмастер, возможно, почерпнет отсюда что нибудь новое. В сети Интернет легко найти множество статей по теме SEO, в данном учебнике была предпринята попытка объединить всю информацию в один единый курс.

Сводная информация о поисковых системах

История развития поисковых систем

В период становления сети Интернет, количество его пользователей было небольшое, и объем информации в Интернете также был небольшим. В основном доступ в Интернет имели сотрудники разных институтов и лабораторий, а Сеть использовалась для научных целей. В то время задача поиска информации в Интернете была не такой актуальной, как сейчас.

Первым способом организации доступа к сетевым ресурсам стало создание каталогов сайтов, где ссылки на ресурсы сортировались по тематике. Первым таким проектом стал сервис Yahoo, который был создан в апреле 1994 года. После этого, когда количество сайтов в каталоге Yahoo заметно выросло, была добавлена возможность поиска информации по каталогу. Тогда это еще не являлось поисковой системой в полном смысле, потому что область поиска имела ограничения по ресурсами, находящимся в каталоге, а возможности поиска по всем ресурсами Интернета еще не было.

Каталоги ссылок использовались и раньше ранее, но почти утратили свою популярность в сегодняшнее время. Причина весьма проста – даже современные каталоги, содержащие огромнейшее число ресурсов, представляют информацию лишь об очень небольшой части сети Интернет. Самый большущий каталог сети DMOZ (Open Directory Project) содержит информацию всего лишь о 5 миллионах ресурсов, а в то же время база поисковика Google состоит более чем из 8-ми миллиардов документов.

Самой первой полноценной поисковой системой стал проект WebCrawler, появившийся в 1994 году.

В 1995 году были созданы поисковые системы Lycos и AltaVista. Последняя долгие годы была лидером в области поиска информации в Интернете.

В 1997 году Сергей Брин и Ларри Пейдж создали Google в рамках исследовательского проекта в университете Стэнфорда. В настоящее время Google самая популярная поисковая система мира.23 сентября 1997 года была официально анонсирована поисковая система Yandex, которая стала самой популярной в русском (русскоязычном) сегменте Интернета (Рунете).

Сейчас существует три основные международные поисковые системы – Google, Yahoo и MSN Search, имеющие свои базы и алгоритмы поиска. Большинство остальных поисковиков с ( а их можно насчитать очень много) использует в том или ином виде результаты трех вышеназванных. К примеру, поиск AOL (search.aol.com) и Mail.ru используют базу Google, а AltaVista, Lycos и AllTheWeb – базу Yahoo.

В России главной поисковой системой является Яндекс, затем идут Rambler, Google.ru, Aport, Mail.ru и KM.ru.

Принципы работы поисковых систем

Поисковая система имеет в своем составе следующие компоненты:

Spider (паук) -,похожая на браузер, которая скачивает веб-страницы.

Crawler (краулер, "путешествующий" паук) – программа, автоматически проходящая по всем ссылкам, найденным на странице.

Indexer (индексатор) - программа, анализирующая веб-страницы, скачанные пауками.

Database (база данных) – хранилище скачанных и обработанных страниц.

Search engine results engine (система выдачи результатов) – выделяет результаты поиска из базы данных.

Web server (веб-сервер) – веб-сервер,осуществляющий взаимодействие между пользователем и другими компонентами поисковой системы.

Поисковые механизмы могут отличаться друг от друга (например, связка Spider+Crawler+Indexer может быть создана в виде единой программы, которая скачивает веб-страницы, анализирует и ищет по ссылкам новые ресурсы), но всем поисковым системам свойственны рассмотренные общие черты.

Spider. Паук - это программа, которая скачивает веб-страницы таким же образом, как и браузер пользователя. Отличие в том, что браузер отображает информацию, содержащуюся на странице (тексты, графика и т.п.), а паук не имеет визуальных компонентов и работает непосредственно с html-кодом страницы (вы можете выбрать "просмотр html-кода" в вашем браузере, чтобы посмотреть "сырой" html-текст).

Crawler. Выделяет все ссылки, имеющиеся на страницах. Его предназначение - определить, куда дальше должен идти паук, основываясь на ссылках или исходя из ранее заданного списка адресов. Crawler, проходя по обнаруженным ссылкам, производит поиск новых документов, которые пока неизвестны поисковой системе.

Indexer. Индексатор разбирает страницу на составные части и анализирует их. Выделяет и анализирует разные элементы страниц, такие как текст, заголовки, структурные и стилевые особенности, специальные служебные html-теги и т.п. Database. База данных – это место хранения всех данных, которые поисковая система скачивает и анализирует. Изредка базу данных еще называют индексом поисковой системы.

Search Engine Results Engine. Система выдачи результатов занимается ранжированием страниц. Она определяет, какие страницы удовлетворяют запросам пользователей, и в каком порядке они должны быть рассортированы. Это осуществляется по алгоритмам ранжирования поисковой системы. Эта информация является самой ценной и интересной для нас – именно с этой частью поисковиков работает оптимизатор, пытаясь улучшить позиции сайта в выдаче, потому в далее мы тщательно рассмотрим все факторы, влияющие на ранжирование результатов.

Web server. Обычно на сервере присутствует html-страница с полем ввода, где пользователь может задать интересующий его запрос. Веб-сервер также отвечает за выдачу результатов пользователям в виде html-страниц.

Внутренние факторы ранжирования

Все факторы, которые влияют на позицию сайта в выдаче поисковой системы, можно разделить на внешние и внутренние. Внутренние факторы ранжирования – это те, которые находятся под контролем владельца веб-сайта (текст, оформление и т.п.).

Текстовое оформление веб-страниц

Объем текста на веб- странице
Поисковики ценят сайты с богатым информационным содержанием. Следует стремиться к увеличению объема текстового наполнения сайта.

Оптимальными будут страницы, содержащие 500-3000 слов или 2-20 кб. текста (от 2 до 20 тыс. символов).

Страница, которая состоит всего-навсего из нескольких предложений, имеет меньше шансов попасть в топ выдачи поисковых систем.

Кроме того, большее количество текста на странице увеличивает видимость страницы в поисковых системах за счет редких или случайных поисковых фраз, что во многих случаях может дать неплохой приток посетителей.

Количество ключевых слов на странице

Ключевые слова (словосочетания,фразы) должны встречаться в тексте по меньшей мере три-четыре раза. Верхняя граница зависит от общего объема страницы – чем больше общий объем текста, тем большее число повторений можно сделать.

Особенно нужно рассмотреть ситуацию с поисковыми фразами, то есть словосочетаниями, состоящими из нескольких ключевых слов. Лучшие результаты будут, если фраза встречается в тексте несколько раз именно как фраза (то есть все слова вместе в нужном порядке), а кроме этого, слова из фразы встречаются в тексте несколько раз отдельнг. Также должны существовать некоторые различия (разбаланс) между числом вхождений каждого из слов, составляющих фразу.

Рассмотрим ситуацию на примере. Например, мы оптимизируем страничку под фразу "сад и огород". Хороший вариант – фраза "сад и огород" встречается в тексте двенадцать раз, кроме того, слово "сад" встречается отдельно еще восемь раз, слово "огород" еще шесть раз. Все цифры условны, но неплохо отражают общую идею.

Плотность ключевиков.

Плотность ключевых слов(ключевиков) на странице показывает относительную частоту содержания слов в тексте. Плотность измеряется в процентах. Например, если заданное слово встретилось пять раз на странице из ста слов, то плотность этого слова равна пяти процентам. Очень низкая плотность приводит к тому, что поисковая система не придает особого значения этому слову. Слишком высокая плотность может включить спам-фильтр поисковика (то есть страница будет искусственно занижена в результате поиска из-за слишком частого употребления ключевой фразы).

Оптимальной следует плотность ключевого текста пять-семь процентов. В случае фраз, состоящих из нескольких слов, нужно сосчитать суммарную плотность всех ключевиков, составляющих фразу, и убедиться, что она укладывается в заданные пределы.

Практика показывает, что плотность ключевого текста более семи-восьми процентов, хоть и не ведет к каким-либо негативным последствиям, но и особого смысла как правило, тоже не имеет.


Расположение ключевиков на странице

Самое простейшее правило – чем ближе ключевое слово или фраза к началу страницы, тем больший вес они получают в глазах поисковых систем. Оформление текста
Поисковики придают особое значение тексту, который так или иначе выделен на странице. Можно посоветовать такие рекомендации:

- используйте ключевики в заголовках (текст, выделяемый тегами "H", особенно "h1" и "h2"). В последнее время применение CSS позволяет определить вид текста, выделенного этими тегами, потому применение тегов "H" имеет не такое важное значение, как раньше. Тем не менее, пренебрегать этими тегами ни в коем случае нельзя.
- выделяйте ключевики жирным шрифтом (конечно, не по всему тексту, но сделать такое выделение два-три раза настранице необходимо). Для этого лучше использовать тег "strong", вместо традиционного тега "B" (bold).

Значение Тега "TITLE"

Один из важнейших тегов, которому поисковые системы придают огромное значение. Обязательно следует использовать ключевые слова в теге TITLE.

И еще, ссылка на вашу страницу в выдаче поисковой системы будет содержать текст из тега TITLE, таким образом это , в некотором роде, визитная карточка страницы.

Как раз по этой ссылке и осуществляется переход посетителей поисковой системы на ваш сайт, потому тег TITLE обязан не только содержать ключевые слова, но быть привлекательным и информативным.

Чаще всего в выдачу поисковой системы попадает 50-80 символов из тега TITLE, поэтому размер заголовка лучше всего ограничить этой длиной.

Ключевые слова в тексте ссылок

Очень простое и важное правило – использовать ключевые слова в тексте исходящих ссылок с ваших страниц (ссылки могут быть на внутренние страницы вашего сайта, так и на сторонние сайты в сети). Это должно добавить вам некоторое преимущество при ранжировании.

Значении Тегов "ALT" изображений

Любое изображение на странице имеет специальный атрибут "альтернативный текст", который задается тегом "ALT". Этот текст будет отображаться на экране монитора в том случае, если загрузить изображение не удалось или показ изображений отключен в браузере. Многие пользователи, для ускорения загрузки страниц, отключают показ изображений (особенно те, кто пользуется медленным Интернет- соединением), поэтому теги <<Alt>> обязательно должны быть и содержать соответствующий текст. Например, если на странице есть графическая кнопка с надписью "жми сюда!", и кнопка является ссылкой, то тег "ALT" тоже должен содержать этот текст.

Поисковые системы запоминают значение тега ALT во время анализа (индексации) страницы, но не используют его при ранжировании результатов поиска.

До последнего времени достоверно было известно, что система Google учитывает текст в теге ALT тех изображений, которые являются ссылками на другие страницы, другие же теги ALT не учитывались. По другим поисковикам точных данных нет, но можно предположить что-то наподобие. Но недавно появилась возможность поиска соответствующих картинок, например по запросу "Роллс-ройс" система Google и Яндекс выдает предложение "Картинки по запросу Роллс-Ройс",если у вас есть картинки с такой подписью, это может дать дополнительный приток посетителей на ваш сайт! Так что грамотное использование тега "ALT" очень актуально.

Мета-теги

Мета - теги- это служебные теги, которые не видны простым пользователям, просматривающим страницу, содержащую эти теги, но роботы поисковых систем их видят прекрасно. В основном для роботов они и предназначены, хотя существуют и другие применения мета - тегов(например, для редиректа).
Несколько лет назад мета-теги имели очень большое значение. Некоторые нечистоплотные оптимизаторы стали ими злоупотреблять (набивать, например мета-тег "keywords" ключевиками, совершенно не относящимися к тематике сайта). Поэтому поисковые системы перестали уделять мета-тегам особое внимание. Тем не менее, грамотно использовать их стоит.

Мета-тег Description

Предназначен для задания описания страницы. Тег этот не влияет на ранжирование, но очень важен. Многие поисковые системы (в частности Google) отображают информацию из этого тега в результатах поиска, если этот тег присутствует на странице и его содержание соответствует содержанию страницы и поисковому запросу.

Можно уверенно заявить, что высокое место сайта в результатах поиска не всегда обеспечивается большим количеством посетителей. Если описание ваших конкурентов в результатах выдачи будет привлекательнее, чем вашего сайта, то посетители поисковой системы выберут скорее всего их, но не ваш ресурс.

Именно из-за этого грамотное составление мета-тега Description имеет большое значение. Описание должно быть кратким, но привлекательным и информативным, содержать ключевые слова, характерные для данной страницы. Ключевые слова из этого мета-тега обязательно должны присутствовать на странице, иначе поисковик может её забанить!

Мета-тег Keywords

Этот мета-тег первоначально предназначался для указания ключевых слов страницы. Однако в последнее время он почти не учитывается поисковыми системами. Причины мы уже указали выше.

"На всякий случай" все же стоит заполнить этот тег. При заполнении нужно добавлять только те ключевики, которые реально имеются на странице.

Структура сайта

Количество страниц сайта

Общее правило – чем больше, тем лучше. Увеличение числа страниц сайта улучшает его видимость в поисковых системах.

Более того, постепенное дополнение новыми информационными материалами ресурса, воспринимается поисковиками как развитие сайта, что дает дополнительные преимущества при ранжировании.

Поэтому старайтесь размещать на сайте побольше информационного материала – новости, пресс-релизы, статьи, полезные советы и т.д.
Меню навигации
Почти любой сайт (кроме,например, одностраничных рекламных мини-сайтов), имеет навигационное меню. Использованме ключевых слов в ссылках меню позволит придать дополнительный вес страницам, на которые ведут ссылки.

Ключевые слова в названиях страниц

Распространено мнение, что использование ключевых слов в названии html-файла страницы может хорошо отразиться на ее месте в результатах выдачи поиска. Конечно, это касается только англоязычных запросов. Например, сайт посвящен бизнесу. Название файла страницы business.htm может повысить ее значение по запросу "business".

Избегайте подкаталогов

Если ваш сайт имеет сравнительно малое число страниц (несколько десятков), лучше будет, чтобы они располагались в корневой папке сайта. Поисковые системы считают такие страницы наиболее важными.


Одна ключевая фраза - на одну страницу!

Стремитесь оптимизировать каждую страничку под свою ключевую фразу. Иной раз допустимо выбрать две-три родственные фразы, но не стоит оптимизировать одну страницу под 5-10 фраз сразу, скорей всего результата не будет вообще.


Главная страница веб-сайта

Оптимизируйте главную страницу сайта (имя домена, index.html) под самые важные для вас ключевые словосочетания. Эта страница имеет наибольшие шансы попасть в топ поисковых систем.

По многим наблюдениям, ГЛАВНАЯсайта часто приходится до тридцати-сорока процентов общего поискового трафика.

Часто встречающиеся ошибки

Графический заголовок

Весьма часто в дизайне сайта используют графический заголовок (шапку), то есть рисунок во всю ширину страницы, содержащий, как правило, логотип компании, название и другую информацию.

Этого делать не следует! Верхняя часть страницы является очень ценным местом, где могут быть размещены самые важные ключевые слова. В случае использования графического изображения это место пропадет впустую.

Изредка встречаются совершенно нелепые ситуации: заголовок содержит текстовую информацию, но с целью большей привлекательности выполнен в виде картинки (соответственно изображенный текст не может быть учтен поисковиками,ведь поисковые роботы не умеют распознавать текст на картинках!).

Самый лучший способ- использование комбинированного варианта – графический логотип сверху страницы имеется, но занимает не всю ее ширину. На оставшемся месте помещается текстовый заголовок с ключевыми словами.

Графическое меню навигации

Ситуация сходна с предыдущим пунктом – внутренние ссылки на вашем сайте обязательно долждны содержать ключевые слова, это дает дополнительное преимущество при ранжировании. Если навигационное меню с целью усиления привлекательности выполнено в виде графики, то поисковики не смогут учитывать текст ссылок.

Если же отказаться от графического меню нет возможности, не забудьте хотя- бы дополнить все изображения правильными тегами ALT.


Навигация через скрипты

В некоторых случаях навигацию по сайту делают с помощью скриптов. Следует иметь в виду, что поисковикые системы не могут распознавать и исполнять скрипты. В результате, ссылка, заданная через скрипт, будет недоступной для поисковика и поисковый робот не пройдет по ней.

В этих случаях требуется обязательно продублировать ссылки обычным способом, чтобы навигация по сайту была доступна для всех – и для ваших посетителей и для роботов поисковых систем. Тем более что у некоторых пользователей может быть отключена поддержка скриптов в браузере.

Идентификатор сессии

На некоторых сайтах используется идентификатор сессии – это когда каждый посетитель при заходе на сайт получает свой уникальный параметр &session_id=, который добавляется к адресу каждой посещаемой страницы сайта.

Использование идентификатора сессии позволяет удобнее собирать статистику о поведении посетителей сайта и может использоваться для некоторых иных целей.

Однако, по мнению поискового робота страница с новым адресом – это новая страница. При каждом заходе на сайт робот будет получать новый идентификатор сессии и, посетив при этом те же самые страницы, что и раньше, будет воспринимать их как новые страницы сайта.

Вообще говоря, поисковые системы имеют алгоритмы "склеивания" страниц и зеркал с одинаковым содержанием, потому сайты, которые используют идентификаторы сессий, проиндексированы все же будут. Однако, индексация таких сайтов затруднительна и в некоторых случаях может пройти некорректно. Поэтому использовать на сайте идентификаторы сессий не рекомендуется.


Редиректы,скрытие текста


Редиректы
осложняют анализ сайта поисковыми роботами. Не используйте редиректы, если для этого нет веских аргументов.

Скрытие текста

Последние два пункта относятся по большей части даже не ошибкам, а к преднамеренному обману поискых систем, но о них конечно следует упомянуть.

Использование невидимого для пользователя, скрытого текста (цвет текста такой же по цвету как и фон, например, белый на белом) позволяет "набить" страницу нужными ключевыми словами без нарушения смысла и дизайна страницы. Такой текст невидим для посетителей, но прекрасно распознается поисковыми роботами.

Использовать такие "серые" методы оптимизации - значит, навлечь риск бана сайта – то есть когда сайт принудительно могут исключить из индекса (базы данных) поисковиков. Как вариант, можно сделать длинную страницу, которая вписывается в экран только "читабельной частью", а чтобы посетитель не мог читать "бредотекст", предназначенный для поисковых роботов, с помощью спецскрипта отключают полосу прокрутки страницы.

Такой прием поисковики научились распознавать, поэтому применять его не стоит. Скрывать бредотекст лучше уж тогда с помощью CSS, например, тегом "DIV" c атрибутом "display:none". Или маскировать текст с помощью слоев, в одном из которых-текст, а поверх-картинка.Не стоит, конечно, забывать, что поисковики постоянно совершенствуют свои алгоритмы, и хитрость, работавшая вчера, сегодня может не сработать!

Однопиксельные ссылки

Применение графических изображений-ссылок размером 1x1 пиксель ( фактически невидимые посетителям) тоже воспринимается поисковиками как попытка обмана и может приводить к забаниванию сайта.

Внешние факторы, влияющие на ранжирование

Зачем используется учет внешних ссылок на сайт?

Как можно увидеть из предыдущего раздела, практически все факторы, которые влияют на ранжирование, находятся под контролем авторов страниц. Получается, что для поисковой системы становится нереально отличить действительно качественный документ, от страницы, созданной специально под требуемую поисковую фразу.

Или даже от страницы, сгенерированной специальной программой(генератором дорвеев или синонимайзером) и вообще не несущей никакой полезной информации. Поэтому одним из ключевых факторов при ранжировании страниц является анализ внешних ссылок на каждую изоцениваемых страниц. Это единственный фактор, который трудно проконтролировать автору сайта без принятия специальных мер (создание сателлитов, покупка ссылок, и т.п, об этом разговор будет ниже) .

Логично представить, чем больше внешних ссылок имеется на сайт- тем больший интерес этот сайт представляет собой для посетителей. Если хозяева других сайтов в сети поставили ссылку на оцениваемый ресурс, значит, они считают этот ресурс качественным и полезным. Следуя этому критерию, поисковик также может решить, какой вес придавать тем или иным документам.

Таким образом, существуют два основных фактора, по которым страницы, находящиеся в базе поисковиков, будут отсортированы при выдаче. Это релевантность (то есть, насколько данная страница связана с темой запроса – факторы, описанные в предыдущем разделе) и число и качество внешних ссылок. Последний фактор получил название ссылочная цитируемость, ссылочная популярность или индекс цитирования.

Важность ссылок (индекс цитируемости)

Нетрудно увидеть, что простой подсчет числа внешних ссылок не даст нам достаточной информации для оценки качества сайта. Понятно, что ссылка с сайта www.microsoft.com должна значить куда больше, чем ссылка с чьей-то домашней страницы , потому сравнивать популярность ресурсов лишь по числу внешних ссылок нельзя –требуется также учитывать и важность ссылок.

Для оценивания качества и числа внешних ссылок на сайт поисковые системы вводят понятие индекса цитирования.

Индекс цитирования ( сокращенно ИЦ) -так называются показатели, выражающиеся в числах, и оценивающие популярность сайтов, иными словами, некоторое абсолютное значение важности страницы. Любая поисковая система использует свои собственные алгоритмы для подсчета своего ИЦ, обычно эти значения нигде не публикуют.

Кроме обыкновенного ИЦ, который представляет собой абсолютный показатель (некоторое конкретное число), вводят термин взвешенный индекс цитирования, являющийся относительным значением, то есть показывающий популярность данной страницы относительно популярности других страниц в Интернете. Термин "взвешенный индекс цитирования" (ВИЦ) как правило употребляется в отношении поисковой системы Яндекс.

Подробное рассмотрение индексов цитирования и алгоритмы их подсчета будут представлены в следующих разделах.
Текст ссылок
Крайне важное значение при ранжировании результатов поиска придается тексту внешних ссылок на ресурс.

Текст ссылки (или якорный, ссылочный текст) – это текст, расположенный между тегами "A" и "/A", то есть текст, по которому можно “кликнуть” указателем мыши в браузере для перехода на другую страницу.

Если текст ссылки содержит необходимые ключевые слова, то поисковая система воспринимает это как дополнительную и весьма важную рекомендацию, подтверждающую то, что сайт на самом деле имеет ценную информацию, соответствующую тематике поискового запроса.

Релевантность ссылающихся на сайт страниц
Кроме ссылочного текста учитывается и общее информационное содержание ссылающейся страницы.

Например. Предположим, мы продвигаем ресурс по продаже недвижимости. В этом случае, ссылка с сайта по ремонту квартир будет значить гораздо больше, чем аналогичная ссылка с сайта по садоводству. Первая ссылка идет со сходного тематически ресурса, потому будет в большей степени оценена поисковой системой.

Google Page Rank – теория

Первыми, кто запатентовал систему учета внешних ссылок стала компания Google. Алгоритм этот был назван PageRank(далее PR). В этой главе мы рассмотрим оэтот алгоритм то, как он может повлиять на ранжирование результатов поиска.

PR рассчитывается для каждой отдельной веб-страницы, и определяется PR (цитируемостью) ссылающихся на нее других страниц.
Главная задача заключена в том, чтобы найти критерий, выражающий важность страницы. В случае с PR таким критерием выбрали теоретическую посещаемость страницы.

Давайте рассмотрим, как путешествует пользователь по сети путем перехода по ссылкам. Предположим, что пользователь начинает свой просмотра сайтов со случайно выбранной странички. Далее по ссылкам он переходит на другие сайты или страницы. При этом есть вероятность , что посетитель уйдет с сайта и снова начнет просматривать документы со случайной страницы (в алгоритме PR вероятность такого действия приняли 0.15 на каждом шаге). Соответственно, с вероятностью 0.85 он продолжит путешествие, переходя по одной из доступных на текущей странице ссылок. Продолжая путешествие до бесконечности, он побывает на популярных страницах множество раз, а на малопопулярных - меньше.

Получается, что PR web-страницы можно определить как вероятность нахождения посетителя на данной веб-странице; при этом сумма вероятностей по всем веб-страницам сети равна единице, потому что пользователь обязательно находится на какой-либо из страниц.

Ввиду того, что оперировать вероятностями не очень удобно, то после ряда преобразований с PageRank можно работать в виде конкретных чисел (как, например, мы привыкли видеть его в Google ToolBar, где каждая из страниц имеет PR от 0 до 10).

Согласно рассмотренной выше модели получим, что:
- каждая страница в сети (даже если на нее нет никаких внешних ссылок) первоначально имеет ненулевой PR(хотя и совсем маленький);
- каждая страница, имеющая исходящие ссылки, отдает часть своего PR страницам, на которые ссылается. Причём переданный PR обратно пропорционален числу ссылок на странице – чем больше ссылок, тем меньший PRпередается по каждой;
- PR передается не полностью, на каждом шаге происходит затухание (та самая вероятность 15%, когда пользователь начинает просмотр с новой, случайным образом выбранной, страницы).

Теперь разберемся, каким образом PR может повлиять на ранжирование результатов выдачи .В чистом виде PR давно не участвует в алгоритме Google, как это было раньше, об этом поговорим ниже. С влиянием PR все обстоит весьма просто – после того как поисковая система нашла ряд релевантных документов (используя текстовые критерии), рассортировать их можно по PR– ведь логично предположить, что документ, имеющий большее количество качественных внешних ссылок, содержит и наиболее ценную информацию.

Получается, что алгоритм PR "вытесняет" вверх поиска те документы, которые и без поисковика самые популярные.
Google PR– как практически использовать
В нынешнее время PR не используют непосредственно в алгоритме Google. Это понятно – PRхарактеризует лишь количество и качество внешних ссылок на сайт, но совсем не учитывает ссылочный текст и информационное содержание ссылающихся страниц – а ведь именно этим факторам придается наибольшее значение при ранжировании. Предполагается, что для ранжирования Google использует т. н. тематический PageRank (т. е. учитывающий лишь ссылки с тематически связанных страниц), но детали этого алгоритма известны лишь создателям Google.

Узнать значение PR для любой веб-страницы можно при помощи Google ToolBar, который показывает значение PR в диапазоне от 0 до 10. Следует учесть, что Google ToolBar показывает не точное значение PR, а диапазон PR, в который попадает сайт, причем номер диапазона (от 0 до 10) определяется по логарифмической шкале.

Поясним примером: каждая страница имеет точное значение PageRank, известное только Google. Чтобюы опредеолить нужный диапазон и вывести информации на ToolBar используется логарифмическая шкала (пример показан в таблице)
Реальное значение PR Значение ToolBar
1-10 1
10-100 2
100-1000 3
1000-10.000 4
и т.д..

Все цифры конечно условны, однако они наглядно демонстрируют, что диапазоны PageRank, показываемые в Google ToolBar, не равноценны друг другу. Например, поднять PageRank c 1 до 2 легко, а с 6 до 7 намного сложнее.

На практике PageRank используется для двух целей:

1. Быстрой оценки уровня раскрученности сайта. PR не даст точной информации о ссылающихся страницах, но позволит по- быстрому прикинуть уровень развития сайта. Для англоязычных сайтов можно придерживаться следующей градации: PR 4-5 – наиболее типичный PR для большинства сайтов средней раскрученности. PR 6 – это очень хорошо раскрученный сайт. PR 7 – величина, практически недостижимая для рядового вебмастера, но иногда бывает. PR 8, 9, 10 – встречаются исключительно у сайтов крупных компаний (Microsoft, Google и т.д.). Знание PageRank можно и нужно использовать при обмене ссылками, для того чтобы оценить качество предложенной к обмену страницы и в сходных ситуациях.

2. Для оценки уровня конкуренции по определенному поисковому запросу. Хотя PR не используют непосредственно в алгоритмах ранжирования, тем не менее он позволяет косвенно оценить конкурентность заданного запроса. Например, если в выдаче поисковой системы стоят сайты с PR6-7, то сайт с PR 4 имеет весьма мало шансов подняться в топ.

Еще важное замечание – значения PR, показываемые в Google ToolBar пересчитываются достаточно редко (раз в несколько месяцев), потому в ToolBar показывается устаревшая информацию. То есть сама поисковая система Google учитывает изменения во внешних ссылках намного быстрее, чем эти изменения отображаются в Google ToolBar.

ТИЦ и ВИЦ Яндекс

ВИЦ – взвешенный индекс цитирования – аналог PR, используемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуют и известны только самим работникам Яндекса. Поскольку узнать ВИЦ нельзя, следует помнить, что Яндекс имеет собственный алгоритм оценки "важности" страниц.

ТИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса по сравнению с другими, тематически близкими ресурсами (а не всеми сайтами Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса и не влияет на результаты поиска в самом Яндексе.

Значения ТИЦ можно посмотреть в Яндекс.Баре. Следует только помнить, что ТИЦ рассчитывается для сайта в целом, а не для каждой конкретной страницы.

На практике ТИЦ можно использовать таких же же целей, как и PageRank – оценка раскрученности сайта и для оценки конкуренции по определенному поисковому запросу. В силу охвата Рунета поисковой системой Яндекс, ТИЦ очень хорошо подходит для оценки русскоязычных сайтов.

Увеличение ссылочной популярности

Подписка в каталоги общего назначения
В сети Интернет существует много сайтов-каталогов, которые содержат ссылки на другие ресурсы , распределенные по тематике. Процесс добавления в них информации о своем сайте называется сабмитом (от англ. submit), или по- нашему, подпиской, прогоном по каталогом

Эти каталоги бывают как платными, так и бесплатными, могут потребовать или не требовать обратную ссылку с вашего сайта. Посещаемость их совсем невелика, то есть реального притока посетителей с них не получите. Тем не менее, поисковые системы учитывают ссылки с таких каталогов, что может приподнять ваш сайт в результатах поиска.

Очень Важно! Не забывайте, что реальную ценность представляют только такие каталоги, которые размещают прямую ссылку на ваш сайт. На этом надо остановиться поподробнее. Существует два способа установки ссылки. Прямая ссылка ставится через стандартную конструкцию языка HTML ("A href=... и т.д."). Кроме того, ссылки можно поставить через различные скрипты, редиректы и т.п. Поисковые системы понимают только прямые ссылки, заданные в html-коде. Поэтому, если каталог не предоставляет прямой ссылки на ваш сайт, то ценность его практически нулевая.

Не следует подписываться в FFA (free-for-all) каталоги. Эти каталоги автоматически размещают у себя ссылки любой тематики, их игнорируют поисковые системамы. Единственное, к чему может привести прогон по FFA – это увеличение спама на ваши адреса электронной почты. На самом деле главная цель FFA как раз в этом и заключается.

Нужно осторожно относиться к обещаниям разных программ и сервисов добавить ваш сайт в сотни тысяч поисковых систем и каталогов. Реально полезных каталогов в сети наберется не больше нескольких сотен, от этой цифры и следует отталкиваться. Профессиональные сервисы по подписке работают именно с таким количеством каталогов. Если же обещают огромные цифры в сотни тысяч ресурсов, значит база подписки состоит в основном из упомянутых FFA архивов и прочих совершенно бесполезных ресурсов.

Отдайте предпочтение ручной или полуавтоматической подписке – не доверяйте полностью автоматизированным процессам. Обычно, сабмит, проходящий под контролем человека, дает куда большую, чем сабмит полностью автоматический.

Необходимость добавления сайта в платные каталоги, или проставления ответной обратной ссылки со своего сайта нужно решить отдельно по каждому каталогу. В большинстве случаев особой необходимости в этом нет, но могут быть и исключения.

Прогон сайта по каталогам не дает выраженного эффекта, но немного улучшает видимость сайта в поисковых системах. Возможность оная общедоступна и не требует больших временных или финансовых затрат, так что не забывайте о ней при продвижении вашего проекта

Каталог DMOZ

Каталог DMOZ (www.dmoz.org) или Open Directory Project является самым крупным каталогом в Интернете. Кроме него самого, в сети имеется большое число копий основного сайта DMOZ. Поэтому, разместив ваш сайт в каталоге DMOZ, вы получите не только ценную ссылку из самого каталога, но и еще несколько десятков ссылок от схожих с ним ресурсов. Поэтому каталог DMOZ представляет собой большую ценность для вебмастера.

Попасть в каталог нелегко, это как вам повезет. Сайт может появиться в каталоге уже через несколько минут после добавления, а может в течение многих месяцев прождать своей очереди.

Если ваш сайт не появился в каталоге долго, а вы уверены, что все сделалано правильно и сайт подходящий для каталога по своим параметрам, можно попробовать написать письмо редактору по вашей категории с вопросом о своей заявке (у них есть такая возможность). Конечно, не факт, что выше письмо рассмотрят, но попробовать можно.
Добавление в каталог DMOZ бесплатно, даже для коммерческих сайтов.


Яндекс-каталог

Нахождение в каталоге Яндекса дает ценную тематическую ссылку на ваш сайт, что вполне может улучшить позиции вашего сайта выдаче поисковиков. Кроме этого, сам каталог Яндекса может дать некоторый траффик на ваш сайт. Объем этого траффика зависит от рубрики каталога и ТИЦ вашего сайта (в каталоге сайты рассортированы по ТИЦ), в некоторых случаях трафик из каталога может быть очень значительным

Существуют как платный, так и бесплатный варианты добавления информации в каталог Яндекс. Конечно, при бесплатном варианте ни срок, ни само добавление сайта никто не гарантирует.

В заключение даем пару рекомендаций по добавлению сайта в такие каталоги, как DMOZ и Яндекс. Первым делом, внимательно прочтитете требования к сайтам, описаниям и т.д., дабы не нарушать правил при подаче заявки (это может привести к тому, что вашу заявку не рассматрят).

И второе – нахождение в этих самых каталогах желательно, но не обязательно. Если вам не удается туда попасть, не нужно переживать – добиться высоких позиций в результатах выдачи можно и без них , большинство сайтов как раз так и делают.
Обмен ссылками
Обмен ссылками-это когда вы со специально отведенной страницы ставите ссылки на другие сайты, а сами получаете аналогичные ссылки от них взамен. Вообще, поисковые системы не приветствуют обмен ссылками, так как в большинстве случаев он имеет целью изменить выдачу поисковой системы и не несет ничего полезного пользователям Интернета. Это эффективный способ увеличения ссылочной популярности, при соблюдении нескольких несложных правил.

- обменивайтесь ссылками с тематически сходными сайтами. Обмен с нетематическими сайтами неэффективен;

- перед обменом обязательно убедитесь, что вашу ссылку разместят на "хорошей" странице. Эта страница должна иметь некоторый PR (желательно 3-4 или выше), должна быть доступной для индексации поисковиками, размещаемая ссылка должна быть прямой, общее число ссылок на странице не должно быть более 50 и т.п.

- не создавайте на сайтах каталогов ссылок(линкопомоек). Идея подобного каталога выглядит вроде бы привлекательно – ведь появляется возможность меняться с большим количеством сайтов самых разных тематик, для любого сайта найдется соответствующая категория в этом каталоге. В нашем случае качество важней количества и здесь тоже есть подводные камни. Ни один вебмастер не проставит на ваш сайт качественную ссылку, если он в ответ получитт ссылку-пустышку с вашего каталога (PR страниц из этих каталогов обычно оставляет желать лучшего). Кроме этого, поисковые системы относятся очень негативно к таким каталогам, были случаи бана сайтов за их использование;

- выделяйте отдельную страничку на сайте для обмена ссылками. Она должна иметь некоторый PR, должна быть проиндексирована поисковыми системами.. Не ставьте больше полусотни ссылок с одной и той же страницы (иначе часть ссылок поисковики не учтут). Это поможет вам легче найти партнеров по обмену;

- поисковые системы стремятся отследить взаимные ссылки, поэтому, когда есть возможность, используйте для размещения ответных ссылок другой домен или сайт, отличающийся от продвигаемого. Например, вы продвигаете ресурс mysite.ru, а ответные ссылки ставите на ресурсе siteoffriend.net– это оптимальный вариант;

- проявляйте некоторую осторожность при обмене. Довольно часто бывает, что не очень честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому н время от времени проверяйте наличие своих ссылок.

Поднятие ТИЦ и PR с помощью сателлитов

Сателлиты (от англ. Satellite-спутник), это небольшие сайты-спутники, состоящие как правило всего из нескольких страниц, оптимизированных под определенный поисковый запрос, имеющие сходную стематику с основным сайтом и имеющие ссылки на продвигаемый ресурс. Их назначение понятно –увеличить ссылочный вес главного сайта. В свою очередь, сателлиты имеют ссылки не только на основной сайт, но и друг на друга. Главный сайт обычно тоже имеет ссылки на сателлиты. Таким образом, создается целая сеть сайтов, поддерживающих друг друга. Основные принципы создания такой сети следующие: каждый из сайтов должен содержать какую-нибудь полезную, читабельную для людей информацию.

Сайты с такой информацией так и называют "Сайты Для Людей(СДЛ)".Многие сайтостроители игнорируют это правило, заполняя сателлиты всяким мусором, например, статьями, составленными специальными программами. Такие сайты относятся к говносайтам (ГС), а текст на них зовется говнотекстом. Поисковой робот, конечно, не отличит говнотекст от нормального, но…

Здесь следует помнить об очень опасно подводном камне - ввиду острой конкуренции, особенно по высокочастотным запросам, конкуренты тщательно просматривают сайты, находящиеся в топе выдачи поисковиков, и если они обнаружат, что сайт продвинут нечестными методами, они могут просто-напросто написать жалобу в службу техподдержки поисковика.

Результат- как минимум ГС будут забанены, в худшем случае могут забанить и основной, белый сайт. То, что продвигаемый ресурс обязательно должен быть СДЛ, надеемся, понятно. Почему поисковые системы так реагируют на жалобы?
А потому, что они стремятся по запросам пользователей выдавать только полезную информацию, представьте, что будет, если на первых местах в выдаче будут говносайты с совершенно бредовым,бессмысленным содержанием!

Поисковики остро конкурируют между собой. Если окажется, что один из них дает более качественную информацию, чем другой, естественно, что большинство людей станет пользоваться первым!

Таким образом, хорошо сделанные сателлиты могут увеличить ТИЦ и PR, но делать их следует качественно, и обязательно на разных доменах, хотя несколько штук самых лучших можно поставить и на поддомены. Гугль, например, сайты на субдоменах считает отдельными сайтами. Яндекс же считает их дополнительными страницами основного сайта.

В любой момент поисковики могут пересмотреть свои взгляды, поэтому в области SEO требуется постоянно быть в курсе новостей.

Новостные ленты, пресс-релизы, тематические ресурсы

Этот раздел относится больше к маркетингу сайта, а не к чисто seo. Существует много информационных ресурсов и новостных лент, где публикуют пресс-релизы и новости на разные темы. Подобные сайты могут не только привести к вам посетителей напрямую, но и поднятьт столь необходимую нам ссылочную популярность сайта.

Если вам трудно создать пресс-релиз или новость самим, то подключайте журналистов (копирайтеров)– они помогут вам подыскать или создать информационную статью.

Ищите ресурсы,связанные тематически. В Интернете существует очень много проектов, которые, не являясь вашими конкурентами, посвящены той же теме, что и ваш сайт. Стремитесь найти подход к владельцам этих ресурсов, вполне может произойти, что они будут рады разместить информацию о вашем сайте у себя.

Ну и последнее – это относиться ко всем способам получения внешних ссылок – старайтесь немного разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть расценено поисковиками как попытка спама.

Индексация сайта

Прежде чем сайт станет появляться в результатах поиска, он должен быть проиндексирован поисковой системой. Индексация означает, что поисковый робот посетил ваш сайт, проанализировал его и занес информацию в базу данных.

Если некоторая страница занесена в индекс, то она может быть показана в результатах поиска. Если страницы в индексе нет, то поисковик ничего не знает о ней, следовательно, не может использовать информацию этой страницы.

Большинство сайтов средних размеров (то есть состоящие из нескольких десятков или сотен страниц) обычно не испытывают проблем с нормальной индексацией поисковыми системами. Однако, есть ряд моментов, которые нужно учитывать при работе над сайтом.

Поисковая система может узнать о вновь сделанном сайте двумя путями:

добавление адреса сайта вручную через специальную форму поисковой системы. В этом случае вы сами сообщаете поисковой системе о новом сайте и его адрес попадет в очередь на индексацию. Добавлять следует только главную страницу сайта, остальные будут найдены роботом по ссылкам автоматически;

- предоставить поисковому роботу самому найти ваш сайт. Если на ваш новый сайт есть хотя бы одна ссылка с других сайтов, которые уже проиндексированы поисковой системой, то робот в кратчайшие сроки сам посетит и проиндексирует ваш сайт. В большинстве случаев следует использовать именно этот вариант, то есть получить несколько внешних ссылок на ресурс и дождаться прихода робота. Ручное добавление сайта иногда может даже удлинить время индексации.

Время, которое необходимо для индексации сайта, составляет обычно от двух-трех дней до двух недель, в зависимости от поисковой системы. Быстрее всех индексирует сайты система Google. Некоторые системы порой вообще отказываются индексировать ресурс месяцами(в частности, Rambler). Причины этого не совсем понятны, и известны по большей части создателям поисковых систем.

Стремитесь делать сайт дружественным для поисковых роботов. Для этого требуется учитывать следующие факторы:

- стремитесь к тому, чтобы любые страницы сайта были доступны по ссылкам с главной страницы не более чем за 3 перехода. Если структура сайта это не позволяет, то создайте так называемую карту сайта, которая позволит выполнить указанное правило;

- не повторяйте распространенных грубых ошибок. Идентификаторы сессий затруднят индексацию. При применении навигации через скрипты, обязательно дублируйте ссылки обычным способом, тестовыми ссылками – поисковые системы не умеют распознавать скрипты (подробнее об этом уже говорилось выше);

- запомните, что поисковые системы индексируют не больше 100-200 кб текста на странице. Для страниц большего объема будет проиндексировано лишь начало страницы (первые 100-200 кб.). Из этого можно вывести правило – не используйте страницы размером более 100 кб, если хотите, чтобы они были проиндексировались полностью. Переносите "лишний текст" на другие страницы, как в книгах. Если документ получится из нескольких десятков страниц, следует сделать оглавление на первой, со ссылками на остальные. В противном случае, если ссылки будут только с предыдущих страниц, последние страницы могут быть не проиндексированы.

Управлять поведением роботов можно при помощи файла robots.txt, в нем можно разрешить или запретить для индексации те или иные страницы. Существует специальный метатег "NOINDEX", позволяющий закрыть для индексации некоторые части страницы, но этот метатег поддерживают только российские поисковики.

Базы данных поисковых систем все время обновляются, записи в базе могут быть подвержены изменениям, исчезать и появляться снова, поэтому число проиндексированных страниц на вашем сайте может периодически меняться.

Одной из самых частых причин исчезновения страницы из индекса является недоступность сервера, то есть поисковый робот при попытке индексации сайта не смог получить доступ к нему. Когда работоспособность сервера восстановится, сайт должен снова появиться в индексе через какое-то время.

Необходимо подчеркнуть, что чем большее количество внешних имеется на вашем сайте, тем быстрее его переиндексируют ПС.

Проследить процесс индексации сайта можно путем анализа лог-файлов сервера, в которых записываются все посещения поисковых роботов. В соответствующем разделе мы подробнее расскажем о программах, которые позволят это сделать.

Подбор ключевых слов для страниц

Начальный отбор ключевых слов
Подбор ключевых слов – первый шаг, с которого начинают постройку сайта. На момент подготовки текстов для сайта набор ключевиков уже должен быть известен.

Для их определения прежде всего необходимо воспользоваться сервисами, которые предлагают сами поисковые системы.

Для англоязычных сайтов это, например

www.keyworddiscovery.com

www.wordtracker.com,

и еще очень неплохой бесплатный сервис

http://www.digitalpoint.com/tools/suggestion/

Для русскоязычных-

wordstat.yandex.ru

adstat.rambler.ru/wrds/

При использовании этих сервисов следует помнить, данные их могут очень значительно отличаться от реальной картины. При использовании сервиса Yandex следует еще помнить, что этот сервис показывает не ожидаемое число запросов, а ожидаемое число показов рекламного объявления по данной фразе. Поскольку посетители поисковой системы обычно просматривают более одной страницы, то реальное число запросов всегда меньше числа показов рекламы по такому же запросу.

Поисковая система Google не дает информации по частоте запросов.

После того, как список ключевых слов приблизительно составлен (этот список еще называют семантическим ядром), можно проводить анализ своих конкурентов, с целью выявить, на какие ключевые фразы ориентированы они, быть может, удастся узнать что-то новое.

Семантическое ядро – набор из слов и словосочетаний( фраз), которые предположительно наберут пользователи в строке поиска для получения необходимой им информации о товарах, услугах или других потребностях. )
Высокочастотные и низкочастотные запросы
При оптимизации ресурса следует выделить две стратегии – оптимизация под малое число высокопопулярных ключевых слов, или под большое число малопопулярных. На практике, как правило, сочетаются обе.

Недостаток высокочастотников – высокий уровень конкуренции по ним. Для молодого сайта не всегда возможно подняться в топ по таким запросам.

Для низкочастотных же запросов, порой достаточно упоминание нужного словосочетания на странице, или минимальной текстовой оптимизации. При определенных условиях низкочастотные запросы могут давать весьма неплохой поисковый трафик.

Цель большинства коммерческих сайтов – продать товары или услуги. Или каким-то иным способом заработать на посетителях. Это нужно учитывать при поисковой оптимизации, при подборе ключевиков. Следует стремиться получить целевых посетителей на сайт (то есть готовых к приобретению предлагаемого товара или услуг), чем просто к большому числу посетителей. То есть крайне важно привлекать целевых посетителей!

Например. Запрос "телефон" намного популярней и во много раз конкурентнее, чем запрос "телефон Sonyericsson W610 купить" (точное название модели и цель запроса). Однако, для продавца телефонов второй посетитель намного ценнее, а получить его намного проще, ибо уровень конкуренции по второму запросу небольшой.Может даже случиться, что только на вашем сайте будет нужное словосочетание! Естественно, в этом случае именно ваш сайт будет на первом месте в выдаче поисковой системы. Вот к этому и следует стремиться. Это еще одно из отличий между высокочастотными и низкочастотными запросами, которое требуется учитывать.

Оценка степени конкуренции поисковых запросов

После того, как список ключевиков сделан, нужно определить основное ядро слов, под которыеи будет проводиться оптимизация.

Низкочастотные запросы по известным причинам временнго отбрасываются . В предыдущем разделе мы описали пользу от низкочастотных запросов, но на то они и низкочастотные, что не требуют тщательной оптимизации. Потому в данном разделе мы их не будем рассматривать.

По самым популярным фразам уровень конкуренции обычно очень высок, поэтому надо реально оценить возможности своего сайта. Для оценки степени конкуренции нужно подсчитать ряд показателей для первой десятки сайтов .
- средний PR страниц ;
- средний ТИЦ сайтов, чьи страницы попали в выдачу;
- среднее число внешних ссылок на сайты по версиям различных поисковиков;

Доп. параметры:
- число страниц в Интернете, содержащих икомый поисковый термин (иными словами число результатов поиска, например, найдено 10 000 000 страниц, это очень много);
- число страниц в Интернете, содержащих точное совпадение заданной фразы (для этого при вводе в строку поиска ключевую фразу заключают в кавычки ).

Эти дополнительные параметры помогут вам косвенно оценить степень сложности вывода сайта в топ по заданной фразе.

Кроме вышеуказанных параметров, можно еще проверить, какое число сайтов из выдачи присутствует в основных каталогах, таких как DMOZ, Yahoo и Yandex.

Анализ всех указанных выше параметров и сравнение их с параметрами собственного сайта позволяют достаточно точно предсказать перспективы вывода вашего сайта в топ по заданной фразе.

Оценив уровень конкуренции по всем отобранным фразам, вы можете выбрать ряд достаточно популярных фраз с приемлемой степенью конкуренции, на которые и будет сделан основной упор при оптимизации и раскрутке .
Последовательное уточнение поисковых запросов
Как уже говорилось , сервисы поисковых систем дают очень неточную информацию. Поэтому определить идеальный для вашего сайта набор ключевых слов с первого раза вряд ли получится.

После того, как ваш сайт создан и произведены первые шаги по раскрутке, в ваших руках окажется дополнительная статистика по ключевым словам. Вы знаете рейтинг вашего сайта в выдаче поисковиков по той или иной фразе и знаете число заходов на ваш сайт по этой фразе.

Владея этой информацией, вы можете сравнительно точно определить удачные и неудачные фразы. Часто даже не нужно ждать, чтобы сайт вышел в топ по оцениваемым фразам во всех ПС – достаточно одной или двух.

Пример. Допустим, ваш сайт занял первое место в поисковой системе Google по данной фразе. При этом ни в Яндексе, ни в Rambler его пока нет в выдаче по этой фразе. Однако, зная процентное соотношение заходов на ваш сайт из разных поисковых систем ( к примеру,, Yandex – 70%, Google – 20%, Rambler – 10%), вы с можете предсказать примерный трафик по этой фразе и решить, подходит она для вашего ресурса или нет.

Кроме выделения неудачных фраз, вы можете обнаружить новые удачные варианты. Например, чтобы увидеть, что некоторая фраза, под которую не делалось совсем никакой раскрутки, приносит хороший трафик, даже несмотря на то, что ваш сайт по этой фразе находится на 2 или 3 странице в выдаче.

Таким образом, в ваших руках оказывается новый, более точный набор ключевых слов и фраз. Теперь следует приступить к перестройке сайта – изменение текстов под более удачные словосочетания, создание новых страниц под новые обнаруженные фразы и т.п. Таким образом, спустя некоторое время вы сможете отобрать наилучший набор ключевых слов для вашего сайта и намного увеличить поисковый трафик.

Еще кое-какие советы. По статистике, ГЛАВНАЯсайта приходится до 30%-50% всего поискового трафика. Она лучше всего видна в поисковиках и имеет больше всего внешних ссылок. Поэтому главную страницу сайта необходимо оптимизировать под наиболее популярные и конкурентные запросы. Каждую страницу сайта следует оптимизировать под 1-2 основных словосочетания (и, возможно, под ряд низкочастотных запросов). Это увеличит шансы выхода в топ поисковых систем по заданным фразам.

Разная информация о ПС

Google SandBox

В начале 2004 года среди оптимизаторов обозначилось новое таинственное понятие – Google SandBox или песочница Google. Это обозначение получил новый спам-фильтр Google, рассчитанный на исключение из выдачи молодых, только что созданных сайтов.

Фильтр SandBox проявлял себя в том, что вновь созданные сайты отсутствуют в выдаче поисковой системы практически по всем фразам. Это происходит, даже несмотря на наличие качественного и уникального информационного содержимого и правильно проведенную раскрутку (без использования серых или даже черных способов).

На данный момент SandBox относится только к англоязычньу сегменту, сайты на русском и других языках этому фильтру не подвержены. Однако, вполне вероятно что этот фильтр может и расширить свое влияние.

Можно предположить, что цель SandBox фильтра исключить из выдачи спамерские сайты – действительно, ни один поисковый спамер не будет ждать месяцы до появления результатов. Однако вместе с этим страдает громадное количество нормальных, только что созданных сайтов.

Точной информации о том, что же конкретно представляет из себя SandBox фильтр, до сих пор нет. Существует ряд предположений, полученных на основании опыта, которые мы приведем далее:

- SandBox – это фильтр на молодые сайты. Вновь созданный сайт попадает в "песочницу" и находится в ней неопределенное время, пока поисковая система не переведет его в разряд "обычных";

- SandBox – это фильтр на новые ссылки, проставляемые на вновь созданные сайты. Постарайтесь отметить принципиальное отличие от предыдущего предположения – фильтр накладывается не на возраст сайта, а на возраст ссылок на сайт. Инымии словами, Google не имеет претензий к сайту, но отказывается учитывать внешние ссылки на него, если с момента их появления прошло менее X месяцев. Ввиду того, что внешние ссылки являются одним из основных факторов ранжирования, игнорирование внешних ссылок равнозначно отсутствию сайта в выдаче . Какое из двух приведенных предположений более верно, сказать сложно, вполне вероятно, что оба они верны ;

- сайт может находится в песочнице от 3-х месяцев до года и дольше. Есть также наблюдение, что сайты выходят из песочницы в массовом порядке. То есть срок песочницы определяется не индивидуально для каждого сайта, а для больших групп сайтов (сайты, созданные в некотором временном интервале, попадают в одну группу). Фильтр затем снимается сразу для всей группы, следовательно, сайты из одной группы пробудут в "песочнице" разное время.

Типичные признаки того, что ваш сайт в песочнице:

- ваш сайт нормально проиндексирован Google, регулярно посещается поисковым роботом;
- ваш сайт имеет PageRank, поисковая система знает и правильно отображает внешние ссылки на ваш сайт;
- поиск по адресу сайта (www.site.com) выдает правильные результаты, с правильным заголовком, сниппетом (описанием ресурса) и т.д.;
- ваш сайт нормально находится по редким и уникальным словосочетаниям, содержащимся в тексте страниц;
- ваш сайт не виден в первой тысяче результатов по любым другим запросам, даже по тем, под которые он изначально проектировался. Иногда бывают исключения, и сайт по некоторым запросам появляется на 500-600 позициях, но это сути, конечно же, не меняет.

Способов обойти фильтр практически нет . Есть ряд предположений, о том, как это можно сделать, тем не менее это лишь предположения, к тому же малопригодные для обычного вебмастера. Основной метод – это работать над сайтом и ждать выхода из фильтра.

После того, как фильтр снимется, произойдет резкий рост рейтингов на 400-500 и больще позиций.

Google LocalRank

25 февраля 2003 года компания Google запатентовала новый алгоритм ранжирования страниц, получивший название LocalRank. В основе лежит идея, чтобы ранжировать страницы не по их глобальной ссылочной цитируемости, а по цитируемости среди группы страниц, тематически связанных с ключевым запросом.

Алгоритм LR не используется на практике (во всяком случае, в том виде, в каком он описан в патенте), однако же, патент содержит много интересных идей, с которыми должен ознакомиться любой оптимизатор. Учет тематики ссылающихся страниц используется практически всеми ПС. Хотя происходит это, по всей видимости, по несколько иным алгоритмам, изучение патента позволит уяснить общие идеи, как это можно реализовать.

При чтении этой главы учтите, что в ней представлена теория, а не практическое руководство к действиям.

Главную идею алгоритма LocalRank выражают следующие три пункта:

1. Используя некоторый алгоритм, выбирается определенное количество документов, релевантных поисковому запросу (обозначим это число N). Эти документы изначально отсортированы согласно некоторому критерию (это может быть PageRank, либо оценка релевантности или какой-либо другой критерий или их группировка). Обозначим численное выражение данного критерия как OldScore.

2. Каждая из N страниц проходит через новую процедуру ранжирования, в результате чего каждая страница получает некоторый новый ранг. Обозначим его LocalScore.

3. На этой ступени значения OldScore и LocalScore перемножаются, в результате получается новая величина NewScore, согласно которой и происходит итоговое ранжирование страниц.

Ключевой в этом алгоритме является новая процедура ранжирования, в результате неё каждой странице присваивается новый ранг LocalScore. Опишем этот процесс подробней.

0. Используя некоторый алгоритм ранжирования отбираются N страниц, отвечающих запросу. Новый алгоритм ранжирования будет работать только с этими N страниц. Каждая страница в этой группе имеет определенный ранг OldScore.

1. При расчете LocalScore для данной страницы выделяют все страницы из N, которые имеют внешние ссылки на заданную страницу. Обозначим множество этих страниц M. При этом, в множество M не попадают страницы с этого же хоста (host, фильтрация произойдет по IP адресу), а также страницы, являющиеся зеркалами данной.

2. Множество M разбивается на подмножества Li . В эти подмножества попадают страницы, объединенные по таким признакам:
- принадлежность одному (или сходным) хостам. Получается, в одну группу попадают страницы, у которых первые три октета IP адреса совпадают. То есть, страницы, IP адрес которых принадлежит диапазону
xxx.xxx.xxx.0
xxx.xxx.xxx.255
будут считаться принадлежащими к одной группе;
- страницы, которые имеют одинаковое или похожее содержание (зеркала, mirrors);
- cтраницы одного сайта (домена).

3. Каждая страница в каждом множестве Li имеет определенный ранг (OldScore). Из каждого множества выбирается по 1-й странице с самым большим OldScore, остальные исключаются из рассмотрения. Таким образом, мы получаем некоторое множество K страниц, которые ссылаются на данную страницу.

4. Страницы в множестве K сортируют согласно параметру OldScore, потом в множестве K остаются только k первых страниц (где k – некоторое заданное число), остальные страницы исключают из рассмотрения.

5. На данном этапе рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore. Это можно выразить формулой:


формула расчета Local Score

Здесь m – некоторый заданный параметр, который может варьироваться от 1 до 3 ( информация, содержащаяся в патенте на описываемый алгоритм, не дает подробного описания этого параметра).

После этого, когда расчет LocalScore для каждой из страниц из множества N закончен, происходит расчет значений NewScore и пересортица страниц по новому критерию. Для расчета NewScore используют следующую формулу:

NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)
где:
i – страница, для которой рассчитывается новое значение ранга.

a и b – некоторые числа (патент не дает информации об этих параметрах).

MaxLS – максимальное из рассчитанных значений LocalScore

MaxOS – максимальное из значений OldScore

Теперь отвлечемся от математики и повторим все вышерассказанное простым языком.

На первом этапе происходит отбор некоторого количества страниц, соответственно запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, согласно релевантности и общей ссылочной популярности).

После этого, когда группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса, а значит, имеют частично схожи по тематике. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя остальные страницы в Интернет),получаем локальную (тематическую) ссылочную популярность.

После проделанного этапа, у нас появляется значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и иных факторов) и LocalScore (рейтинг страницы среди связанных страниц по тематике). В итоге рейтинг и ранжирование страниц рассчитывается по сочетанию этих двух факторов.

Особенности работы и отличия разных поисковых систем

Все указанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в одинаковой степени. Более подробное описание Google объяснимо большим наличием информации про эту ПС в открытом доступе, но идеи, высказанные по отношению к Google, применимы и к другим поисковикам.

Мы не являемся сторонником поиска "тайных знаний" о том, как детально работают алгоритмы разных ПС. Все они в той или иной мере подчиняются общим принципам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к неплохим позициям практически во всех системах.

И все-таки приводим некоторые особенности разных поисковых систем:

Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других ПС и порталов.

MSN – больший,чем у других поисковых систем, акцент на информационное содержимое сайта.

Yandex – самая крупная российская ПС. Обрабатывает (по некоторым данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но не в такой степени, как у других систем). Индексация проходит помедленнее, чем Google, однако так же в достаточно приемлемые сроки. Понижает в рейтинге или выбрасывает из индекса сайты, занимающиеся нетематическим обменом ссылками (содержащих каталоги нетематических ссылок, созданных только с целью повысить рейтинг сайта), также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся по несколько дней, выдача Яндекса постоянно меняется, в эти периоды следует отказаться от каких-либо работ по сайту и дожидаться стабильных результатов работы системы.

Еще из особенностей Яндекса – различные результаты поиска в зависимости от регистра ключевых слов ( "Слово" и "слово" выдают различные результаты поиска).

Rambler – самая таинственная ПС. Занимает второе (по иным данные третье после Google) место по популярности среди российских пользователей. По наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит присутствие поисковых терминов в простом тексте страницы (без выделения разными стилистическими тегами). Игнорирует мета-теги.

Mail.ru –поисковик с растущей популярностью. Использует результаты Google после некоторой обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.

Общие советы

Далее представлена информация, которая появилась как результат анализа различных статей, общения с оптимизаторами, практических наблюдений и т.д. Информация оная не является абсолютно точной и достоверной – это лишь предположения, идеи, но идеи достаточно интересные. Данные, содержащиеся в этом разделе, следует воспринять не как руководство, а в качестве информации к размышлению.

- исходящие ссылки. Старайтесь ссылайться только на авторитетные в вашей области сайты, используя заданные ключевые фразы и слова. ПС ценят ссылки на другие проекты сходной тематики;

- исходящие ссылки. Не ссылайтесь сайты FFA и ресурсы, которые исключенны из индекса поисковиков. Это может привести к снижению рейтинга вашего сайта;

- исходящие ссылки. Не следует помещать на страницу больше 50-100 исходящих ссылок. Это не приведёт к занижению страницы в рейтингах, но ссылки свыше этого числа поисковая система не учтет;

- внешние site wide ссылки, те ссылки, которые стоят на каждой из страниц сайта. Считается, что ПС плохо относятся к этим ссылкам и не учитывают их при ранжировании. Существует и иное мнение, что это относится лишь к большим сайтам с тысячами страниц;

-какова идеальная плотность ключевых слов? Крайне часто задается этот вопрос. Ответ заключен в том, что идеальной плотности ключевиков не бывает, точнее она различна для каждого из запросов, и рассчитывается поисковой системой динамически, в зависимости от поискового термина. Совет тут следующий – проанализируйте первые сайты в выдаче поисковой системы, что позволит приближенно оценить ситуацию;

- возраст сайта. ПС отдают предпочтение старым сайтам, как наиболее стабильным;

- обновление сайта. ПС отдают предпочтение развивающимся сайтам, на которых периодически добавляется новая информация, новые страницы;

- доменная зона (касается западных ПС). Предпочтение отдают проектам, расположенным в зонах .edu, .mil, .gov и т.п. В этих зонах домены могут зарегистрировать исключительно соответствующие организации, потому доверия к таким сайтам больше;

- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из выдачи. Также отслеживается, сколько времени пробыл посетитель на сайте. Большой процент возвратов означает нетематическое содержимое, как и недолгое пребывание гостя на сайте, и такая страница понижается в поиске;

- поисковые системы следят , насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не интересная, и такая страница занижается в рейтинге;

- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковиками

- слишком быстрый рост количества внешних ссылок воспринимается поисковыми системами как искусственная накрутка и ведет к снижению рейтинга. Это довольно спорное утверждение, прежде всего потому, что такой способ могут использовать для снижения рейтинга конкурентов;

- Google не учитывает внешние ссылки, если они присутствуют на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего из-за того, что Google высказывал данную идею в своих патентах. Тем не менее сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет оснований не доверять им;

- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному и тому же владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте. Об этом следует помнить при создании сателлитов. Желательно регистрировать их на разные имена и на разных доменах. К сожалению, с введением регистрации в зоне .ru по паспорту, дело осложняется. Как выход, можно создавать сателлиты в других зонах, где возможна регистрация на левые данные.

- срок, на который зарегистрирован домен. Чем длинней срок, тем большее предпочтение отдается сайту;
6.5 Создание правильного контента
Контент ( т.е. информационное содержимое сайта) играет самую важную роль в раскрутке сайта. Этому есть множество причин, о которых мы расскажем далее, и дадим советы, как правильно наполнять сайт информацией.

- уникальность контента. Поисковики ценят новую информацию, нигде ранее не опубликованную ( в Интернете, разумеется). . Поэтому при создании сайтастарайтесь сочинять собственные тексты. Сайт, изготовленный на основе чужих материалов, имеет гораздо меньшие шансы выйти в топ поисковых систем. Первоисточник обычно всегда находится выше в результатах поиска;

- при создании сайта не забывайте, что он создается для посетителей, для людей а не для роботов. Заманить посетителя на сайт – только первый и не самый трудный шаг. Удержать посетителя на сайте и превратить его в покупателя – вот на самом деле сложная задача. Добиться этого можно исключительно грамотным информационным наполнением сайта, которое интересно для человека;

- стремитесь регулярно обновлять информацию на сайте, добавляйте новые страницы. Поисковики ценят развивающиеся сайты. Кроме этого, чем больше текста – тем больше посетителей на сайте. Пишите статьи на тему вашего сайта, публикуйте отзывы посетителей, создавайте форум для обсуждения различных вопросов (последнее – только когда посещаемость проекта позволит создать активный форум). Интересный контент – залог привлечения заинтересованных, целевых посетителей;

- сайт, созданный для людей, а не для роботов, имеет большие шансы попасть в важные каталоги, такие как DMOZ, Яндекс и другие;

- интересный тематический ресурс имеет намного больше шансов на получение ссылок, отзывов, обзоров и т.д. с других тематически похожих сайтов. Эти обзоры сами по себе могут дать хороший приток посетителей, кроме этого, внешние ссылки с таких сайтов на ваш проект будут достойно отмечены ПС.

Ну и напоследок еще совет. Как говорят, хлеб печь должен булочник, а сочинять тексты копирайтер или писатель. Если вы сможете создать увлекательные и интересные материалы под ваш сайт – это классно. Но у многих из нас нет особых талантов к написанию привлекательных текстов. Тогда лучше поручить эту часть работы профессионалам. Это более дорогой вариант, но в долгосрочной перспективе он себя оправдает

Выбираем домен и хостинг

Что такое домен и что такое хостинг?

Доменное имя(домен)- это название сайта, которое вводят в адресную строку браузера, например http://www.yandex.ru , здесь yandex.ru и есть доменное имя, расширение ru означает, что ресурс принадлежит России.

Хостинг- это специальный ресурс, где размещаются собственно файлы сайта. То есть попросту говоря, это компьютер, расположенный у хостинг- провайдера (организации, предоставляющей такие услуги), на котором выделяется место под ваш сайт, и связь с которым для загрузки данных на него можно установить по сети Интернет.

Сегодня создать свою страницу в Интернет может каждый, и для этого не требуется никаких затрат. В Интернете есть конторы, предоставляющие бесплатный хостинг, у них можно поместить вашу страницу, но за это придется на ней размещать и их рекламу. Многие Интернет-провайдеры тоже выделят вам место на своем сервере, если вы являетесь их клиентом.

Однако эти варианты имеют очень серьезные недостатки, потому, при создании коммерческого проекта, вы должны относиться к этим вопросам с очень большей ответственностью.
Что такое домен и что такое хостинг?

Прежде всего необходимо купить свой личный домен. Это даст вам следующие преимущества:

- проект, не имеющий своего домена, обычно воспринимают как сайт-однодневку. И правда, с какой стати мы должны доверять такому сайту, если его создатели не готовы потратить символическую сумму для создания минимального имиджа. Размещать бесплатные материалы на таких ресурсах можно, но попытка создать коммерческий проекта без собственного домена практически всегда обречена на неудачу;

- свой домен даст вам свободу в выборе хостинга. Если компания, у которой вы покупаете хостинг сейчас, перестанет вас устраивать, то вы в любое время сможете перенести свой сайт на другую, более удобную или быструю площадку.

При выборе домена запомните о следующих моментах:

- стремитесь к тому, чтоб имя домена было легко запоминалось и его произношение и написание было бы однозначным;

- для раскрутки международных англоязычных проектов больше подходят домены с расширением .com Можно еще использовать домены из зон .net, .org, .biz и т.д., но этот вариант менее предпочтителен;

- для раскрутки национальных проектов рекомендуется брать домен в соответствующей национальной зоне (.ru – для русскоязычных проектов, .uk – для английских и т.д.);

- в случае двуязычных (и более) сайтов нужно выделять свой домен под каждый из языков. Национальные поисковики в большей степени оценят такой подход, чем наличие на основном сайте подразделов на разных языках.

Стоимость домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.

При выборе хостинга следует учитывать такие факторы:

- скорость доступа;
- время доступности серверов (uptime);
- стоимость трафика за гигабайт и количество предоплаченного трафика;
- желательно, чтобы площадка располагалась в том же географическом регионе, что и большинство из ваших посетителей;

Стоимость хостинга для небольших проектов находится в районе 2-10$ в месяц.

При выборе домена и хостинга лучше избегать "бесплатных" предложений. Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим клиентам. Обычно домены в этом случае регистрируются не на вас, а на компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер. В результате, при желании сменить хостинг для своего проекта, вы не сможете это сделать, либо будете вынуждены выкупать свой собственный, раскрученный домен.

Также в большинстве случаев необходимо соблюдать правило- не регистрировать свои домены через хостинг-компанию, потому что это может затруднить возможный перенос сайта на другой хостинг (даже несмотря на то, что вы являетесь полноправным владельцем своего домена).
крупнейший регистратор доменных имен в России - компания

RU-CENTER ( http://www.nic.ru)

Существуют также регистраторы-ресселлеры, которым предоставляют возможность регистрации доменов по более низким ценам, например, www.2domains.ru
При желании сэкономить, и регистрироваться у реселлера, обязательно обратите внимание, на кого регистрируют домен!

Он обязательно должен регистрироваться лично на вас, а не на кого либо еще.

Компаний, занимающихся услугами хостинга, существет достаточно много, различаются они как по расценкам, так и по качеству предоставляемых услуг.

Выбрать наилучший вариант можно на сайте http://hostobzor.ru

Смена адреса сайта

Случается, что по ряду причин может понадобиться сменить адрес проекта. Некоторые ресурсы, стартовавшие на бесплатном хостинге и домене, развиваются до полноценных коммерческих проектов, и им необходим переезд на личный домен. Еще бывает, находится более удачное название для сайта. При любых подобных вариантах встает вопрос правильного переноса сайта на новый адрес.

Наш совет в этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый сайт и его содержимое.

При таком подходе вы сможете получать поисковых посетителей как на новый, так и на старый ресурс. При этом у вас появляется возможность охватить дополнительные темы и ключевые слова, что было бы сложно сделать в рамках одного ресурса.

Перенос проекта на новый адрес задача сложная и не совсем приятная (так как в любом случае раскрутку нового адреса придется начать практически с нуля), однако, если этот перенос необходим, то следует извлечь максимум пользы из него.


Полезные ресурсы

В Интернете существует много ресурсов по продвижению сайтов. Приведем основные, наиболее ценные :

www.searchengines.ru – крупнейший в рунете сайт по оптимизации

forum.searchengines.ru – форум, где общаются оптимизаторы, как профессионалы так и новички

www.optimization.ru/subscribe/list.html - архив рассылок компании Ашманов и партнеры, базовый курс по поисковой оптимизации. Самая лучшая рассылка на тему seo, здесь вы сможете найти самые последние новости, статьи и т.д.

www.optimization.ru – сайт, который посвящен ежегодной конференции "Поисковая оптимизация и продвижение сайтов в Интернете". Возможность приобрести доклады предыдущих конференций, содержащич очень полезную информацию.

www.seminar.searchengines.ru - сборник материалов по теме seo. Сборник платный, но цена небольшая, отличная подборка материалов.

К оглавлению