Мэтт Каттс попросил вебмастеров не закрывать для Googlebot страницы на Javascript

 
 
 

27.04.2012

В очередном обучающем видео от Google, опубликованном на этой неделе, главный инженер и руководитель команды Google по борьбе с поисковым спамом Мэтт Каттс (Matt Cutts) ответил на вопрос о том, насколько эффективно алгоритмы крупнейшего в мире поисковика умеют обрабатывать веб-страницы, построенные на Ajax (асинхронном Javascript).

«Отвечая на ваш вопрос, сосредоточусь на вопросах распознавания Javascript: Google постоянно совершенствуется в данном аспекте. К примеру, если вы закроете объекты Javascript или CSS файлом robots.txt или директивой Disallow, то поисковый робот Google не сможет просканировать страницы.

Доступ к сканированию страниц, построенных на Javascript, позволяет Google не только совершенствоваться в обработке таких страниц, но и получать расширенные сведения о конкретной странице на сайте. Вот почему я бы порекомендовал вебмастерам проверить подобные элементы и страницы на наличие запретов для Googlebot сканировать страницы и веб-приложения, построенные с использованием Javascript, CSS и др. И, в случае обнаружения, убрать эти запреты», — разъяснил Мэтт Каттс.


Источник: http://www.searchengines.ru