тематический указатель:
анализ сайта
поисковые
поисковые системы
продвижение
оптимизация
оптимизация сайта
поисковики
индексация
Назад (Социальный поиск «Ответы@Mail.Ru») Вперёд (Текстовые факторы ранжирования: от анализа до разработки сайта)

Текстовые факторы ранжирования: от анализа до разработки сайта

Текстовые факторы ранжирования: от анализа до разработки сайта

Текстовые факторы ранжирования. Особенности поисковых систем в ранжировании документов. Переформулирование поисковых запросов и использование этих данных на практике.

Евгений Трофименкo, начальник отдела продвижения

Корпорация РБС/ BDBD.ru Введение

В условиях обилия информации и роста Рунета особенно актуальной для пользователя становится проблема поиска информации. При поиске нужной информации пользователь в общем случае может действовать двумя методами: один – задавать в поисковые системы «простые» запросы (или совершать иные «простые» действия, например, пользоваться каталогами) и затем долго искать в большом числе найденных результатов и второй – задавать «сложный» запрос, точнее отражающий его интересы, и искать более эффективно. Рост количества информации в Рунете приводит к необходимости точнее выражать свои пристрастия при поиске и увеличивать длину поискового запроса. По результатам исследований лог-файлов Яндекса [3], основная масса запросов – фразы со средним числом термов 2.92-2.68, т.е., достаточно длинные запросы. Результаты выдачи по запросам с большим числом слов особенно чувствительны к текстовой составляющей Интернета – к контексту поиска, к разделителям предложений, к тому, что называется «оптимизацией сайта». Именно знание особенностей расчета текстовой релевантности особенно полезно при сборе трафика по низкочастотным запросам. Низкочастотный целевой трафик составляет основу многих интернет-бизнесов, как оказывается, очень большую его часть.

Текстовые факторы ранжирования

Документы при поиске ранжируются относительно введенного пользователем запроса с учетом данных о ссылках извне и данных о содержимом конкрентного сайта (текстах конкретного документа). Данные о текстах могут быть разными – нахождение слов из запроса в различных «выделенных» зонах документа, релевантность сайта в целом, естественность текста. Неиндексируемые зоны документа

Такие зоны документа, как:

Для целей ограничения индексации отдельных страниц можно использовать директивы файла robots.txt – он является стандартом, и должен соблюдаться всеми автоматическими системами. Он состоит из набора директив вида

User-Agent: [*,Yandex, StackRambler, Aport, Googlebot,…] Disallow: /dir1

Disallow: /dir2/file1.htm

Эти директивымогут запрещать индексацию разделов (для Google есть разрешительные директивы), решать задачи выбора главного зеркала для Яндекса, ограничивать периодичность посещения сайта роботом. Регулярно появляются другие расширения, подробную информацию можно найти в [17].

Другой способ запретить индексацию – выдача серверных HTTP-заголовков [18] с кодами 4ХХ-5ХХ, которые соответствуют отсутствию документа на сервере в той или иной форме или программным ошибкам при исполнении кода.

Назад (Социальный поиск «Ответы@Mail.Ru») Вперёд (Текстовые факторы ранжирования: от анализа до разработки сайта)
Связаться с нами: info@internet-marketing-theory.ru