М Б С

Бесплатная помощь в раскрутке форума и сайта
Текущее время: 04-05, 19:15

Часовой пояс: UTC + 4 часа




Начать новую тему Ответить на тему  [ Сообщений: 2 ] 
Автор Сообщение
 Заголовок сообщения: Там где останавливаются боты
СообщениеДобавлено: 15-07, 12:56 
Не в сети
Администратор
Аватара пользователя

Зарегистрирован: 10-07, 10:14
Сообщения: 2347
Откуда: Москва
Там где останавливаются боты

Сообщество SEO'шников славится множеством различных мнений
относительно обьема текста, индексируемого поисками на единичной
web-странице.

Вопрос в том, насколько большой должна быть оптимизированая страница и
где баланс между "слишком маленькой" страницей, которую поисковики
сочтут неинформативной, и "слишком большой" страницей, на которой
потенциально важный контент может остаться без внимания поисковиков?
Насколько я знаю, еще никто не пытался ответить на этот вопрос с
помощью собственного эксперимента.

Участники SEO форумов обычно ограничиваются цитированием
рекоммендаций, опубликованых самими поисковиками. До сих пор святая
уверенность SEO сообщества в то, что лидирующие поисковики
ограничивают объем индексируемого текста пресловутой сотней килобайт,
заставляет их клиентов чесать голову в попытках понять что делать с
текстом, который выходит за эти рамки.

Эксперимент

Когда я решил поставить эксперимент, чтобы ответить на этот вопрос
опытным путем, моими целями были:
* Определить объем текста на странице, фактически индексируемого и
кешируемого поисковиками.
* Вычислить объем индексируемого текста, в зависимости от общего
размера страницы.

Вот как проходил эксперимент. Я взял 25 страниц различного размера (от
45кб до 4151кб), ввел уникальные, несуществующие ключевые слова на
каждую страницу с интервалами в 10кб (приблизительно через каждые
10000 символов (прим.пер.)). Ключевые слова генерировались
автоматически, специально для эксперимента, и служили метками глубины
индексации. Затем страницы были опубликованы, и я пошел сделать себе
кофе, ибо ожидание прихода поисковиков обещало быть долгим (это же
сколько надо было выпить кофе! (прим.пер.)).

Наконец-то я увидел следы ботов Большой Тройки (Google, Yahoo, MSN) в
логах сервера. Логи сервера дали мне искомую информацию для успешного
проведения эксперемента.

Важно заметить, что я использовал специальные, экспериментальные
страницы для этого теста. Эти страницы находятся на домене, который я
зарезервировал для подобных экспериментов, и содержат только текст с
ключевыми словами, которые мне нужны для теста. Если человеку случится
попасть на эти страницы, наполненые бессмысленой абракадаброй и
ключевыми словами, то его брови немедленно поползут наверх, но люди -
совсем нежеланная аудитория здесь.

После того как я просмотрел логи и убедился в том, что боты
поисковиков заглядывали, единственное что мне осталось сделать - это
проверить ранжирование в выдаче для каждой экпериментальной страницы
по каждому ключевому слову, использованому мной. Для этого я
использовал Web CEO Ranking Checker. Как вы наверное догадались, если
поисковики индексируют только часть страницы, то в выдаче она будет
фигурировать только по тем ключевым словам, которые были выше
сканируемого лимита.

Результаты

Этот график показывает где Большая Тройка перестала выдавать мои
тестовые страницы:

ranking

Сейчас, когда у меня есть информация о количестве текста на странице,
скачанного поисковыми ботами, я могу вычислить длину текста на
странице, индексируемого поисковиками. Поверьте мне, результаты
неожиданны - мягко говоря. Но тем более приятно поделиться ими со
всеми, кто интересуется этими животрепещущеми вопросами поисковой
оптимизации.

yahoo

Второе место принадлежит Великому (по качеству поиска) и Ужасному (по
своему отношению к SEO) Google. Googlebot может утащить на свои
бесчисленые сервера больше 600кб информации. Но в то же самое время в
выдаче Google присутствуют только те страницы, на которых ключевые
слова были расположены не далее чем 520кб от начала страницы. Страница
именно такого размера, по мнению Google, является наиболее
информативной и дает максимум полезной информации посетителям, не
заставляя их углубляться в нескончаемые тексты.

Этот график показывает сколько информации индексирует Google на
тестовых страницах.

google

Абсолютный чемпион по глубине индексирования - MSN. MSNbot может
скачать до 1.1МБ текста с одной страницы. Самое главное, что он
индексирует весь этот текст и выдает его в результатах. Если размер
страницы больше 1.1МБ, то контент, присутствующий ниже лимита,
останется неиндексированым.

Вот как MSN работает с тестовыми страницами:

msn

MSN повел себя удивительным образом во время первого визита на
страницы. Если страница была меньше 170кб, она была отлично показана в
выдаче. Любые другие страницы, превышающие этот барьер, не были
представлены в выдаче вобще, несмотря на то что MSN скачать и
полностью.

Казалось, что если размер страницы превышает 170кб, то у нее
фактически нет шансов появиться в выдаче. Однако через 4-5 недель
большие страницы стали появляться в результатах, раскрывая возможность
поисковика индексировать большие страницы со временем. Это заставляет
меня думать, что скорость индексирования MSN зависит от размера
страницы. Так что, если вы хотите чтобы часть информации на вашем
сайте присутствовала в выдаче MSN как можно скорее - расположите ее на
страницах с "весом" меньше чем 170кб.

Суммарный график показывает сколько информации скачивают поисковики и
сколько затем сохраняют в своих индексах.

table

Таким образом, эксперемент подтвердил факт того, что лидирующие
поисковые системы значительно различаются в обьеме информации на
странице, который они фактически могут просканировать. Для Yahoo лимит
составляет 210кб, для Google 520кб, а для MSN - 1030кб. Страницы
меньшего обьема индексируются полностью, большего же не индексируются
вобще.

Выходя за рамки

Получается, что это плохо, располагать на своем сайте тексты,
выходящие за лимит индексирования поисковиков?

Конечно же нет! Если текста будет больше, чем поисковик может
индексировать, это не повредит вашим позициям в выдаче. Но скорее
всего и не поможет. Если информация важна и полезна вашим посетителям
- не сомневайтесь и оставляйте ее на странице.

Впрочем, существует широко распространенное мнение что поисковики
уделяют больше внимания словам, расположеным в начале и в конце
страницы. Другими словами, если на вашей странице есть фраза
"теннисный мяч" и она расположена в первом и в последнем абзаце
страницы, то у нее будет существенно больший вес для выдачи чем у той
же фразы, написанной дважды где-нибудь по середине текста.

Если вы хотите воспользоваться этой рекоммендацией, но размеры вашего
текста выходят за рамки индексирования, важным моментом будет помнить
что последним абзацем будет не то место, где вы закончили писать, а
тот лимит, где поисковик закончил индексировать вашу страницу.

Источник http://www.allseo.ru/archives/67
Перевод статьи Serge Bondar - Search Engine Indexing Limit: Where Do
the Bots Stop
http://www.sitepoint.com/article/indexi ... -bots-stop
При перепечатке статьи ссылка на http://mbs.flybb.ru/ обязательна


Вернуться к началу
 Профиль  
 
 Заголовок сообщения:
СообщениеДобавлено: 23-07, 19:33 
Не в сети
Прохожий
Аватара пользователя

Зарегистрирован: 08-07, 18:33
Сообщения: 3
Интересно и полезно! Спасибо!


Вернуться к началу
 Профиль  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 2 ] 

Часовой пояс: UTC + 4 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения

Найти:
Перейти:  
cron
Powered by Forumenko © 2006–2014
Русская поддержка phpBB