«Аякс» и «Адсенсе»
Сочетание Adsense и современных технологий, таких как Ajax, является источником дилемм для веб-мастеров. Adsense предоставляет контекстную рекламу, будь то графическую или текстовую, которая выбирается в соответствии с содержанием страницы. Чтобы добиться этого, робот разбирает страницу, когда она приходит и обслуживается сервером, извлекает ключевые слова и выбирает из своей базы, какие ключевые слова (определенные в панели управления AdWords, а не в тексте рекламы) совпадают с теми, что есть на странице, и таким образом назначает странице соответствующую рекламу. страница.
С другой стороны, Ajax - это технология (объект XMLHttpRequest, JavaScript, DOM, CSS), позволяющая частично изменить содержимое страницы после ее загрузки.
Web 2.0 усложняет жизнь роботам: текст не сканируется
Когда роботы сканируют страницу либо для ее индексации, либо для выбора наиболее релевантной контекстной рекламы, динамический контент им недоступен. Контекстная реклама относится только к статической части страницы.
Загруженный текст динамически и не видимый поисковикам - не единственный недостаток Ajax. Страницы или даже целая часть сайта могут быть совершенно неизвестны роботам и отсутствовать в результатах поиска, если навигация по сайту полностью динамическая. Однако оказывается, что ссылки так же важны для робота AdSense, как и содержимое страницы, в поиске актуальности.
В этом недостаток Web 2.0: контент динамический, генерируется CMS, скриптами JavaScript, с целью привлекательной презентации и удобного доступа. для пользователя, но без учета роботов.
JavaScript делает навигацию практически невозможной для краулеров, даже несмотря на то, что Мэтт Каттс говорит нам, что Googlebot иногда может найти ссылки в коде, это не всегда возможно.
Ссылка JavaScript обычно имеет следующий вид:
<p onclick="myfunction()"> ...text... </p>
Чтобы сделать его видимым для роботов, просто преобразуйте его в HTML-ссылку:
<a href="mypage.html" onclick="myfunction()"> ...text... </p>
Это не имеет никакого значения для пользователя; это все еще значение onclick, которое будет учитываться браузером, но сама ссылка может учитываться роботом, который интерпретирует содержимое href и игнорирует значение onclick. Теперь имя файла будет использоваться для определения ключевых слов для целевой страницы.
Как решить проблему
Существует способ индексирования контента поисковыми системами, даже если он динамически загружается на страницу. Идея состоит в том, чтобы иметь в объекте XMLHttpRequest атрибут responseHTML, позволяющий динамически добавлять на страницу текст, извлеченный из других HTML-страниц, которые индексируются поисковыми системами.
Я не уверен, применимо ли это здесь, так как мы хотим, чтобы текст сканировался ВНУТРИ страницы, чтобы реклама соответствовала контексту. Это можно сделать только в том случае, если при загрузке страницы присутствует весь текст.
Поисковые системы теперь умеют индексировать контент Ajax, как объясняется в статье Ajax scannable. Это нелегко сделать непрограммистам.
Вопрос о внутренних связях
Роботы игнорируют внутренние ссылки, обозначаемые символом #, за которым следует ссылка на главу или раздел страницы.
Ссылка на раздел другой страницы будет иметь следующий вид:
<a href="mypage.html#mysection"> </a>
Робот увидит только ссылку на mypage.html, а не раздел. Так было бы и с динамической связью (которую, помните, иногда можно учесть, иногда проигнорировать роботами).
<p onclick="myfunction('mypage.html#anchor=mysection')"> </p>
При этом внутренняя ссылка на секции эквивалентна параметру. Мы преобразуем его следующим образом:
<a href="mypage.html?anchor=mysection">...anchor...</a>
И liwill индексироваться как единое целое, с именем страницы и параметром. Затем ссылку увидит робот AdSense, и ключевые слова, содержащиеся в ссылке и в привязке, будут учтены, в результате чего на целевой странице появится более релевантная реклама.
Заключение
С самого начала вы должны проектировать свои страницы, а также свой сайт, не для поисковых систем, а интегрируя концепцию отслеживания ссылок. Должна быть возможность для каждой страницы, перейдя по ссылкам, попасть на любую другую страницу сайта, как для посетителей, так и для роботов.
Использование Ajax может потребовать жертв, и эта технология должна использоваться в первую очередь для представления данных, которые не должны индексироваться в контексте страницы Ajax, а вместо этого должны индексироваться внутри других документов.