20 ошибок, которых следует избегать для поисковых систем

Erreur dans le référencement

Хорошее соответствие между качеством сайта и тем, что движки хотят предложить интернет-пользователям в ответ на их поиск - вот что нужно искать веб-мастеру.
Однако, будь то из-за неловкости или из-за желания искусственно продвигать свой сайт, веб-мастер может совершать ошибки, которые приведут к тому, что вместо того, чтобы оказаться на хорошем месте на страницах результатов, его рассекреченный наоборот сайт будет удален из индекса!

Вот список вещей, которых необходимо избегать на сайте :

  1. Не строить площадку на кадрах.
    Использование фреймсета облегчает создание сайта типа «курс», где можно легко перемещаться по главам. Но ты получаешь тот же результат с помощью шаблона, редакционное содержание которого меняется только или распространяя меню между страницами между сценариями типа Site Update.
  2. Не строить его во вспышке.
    Вспышка может использоваться в качестве аксессуара для одобрения сайта, но на нее плохо ссылаются движки и не облегчает индексацию страниц.
  3. Избегать динамических связей.
    Доступ к содержанию по ссылкам в JavaScript лишает тебя преимущества внутренних связей и может помешать индексации, если ситемап не построен в другом месте. Если только ты не хочешь предотвратить индексацию страниц.
  4. И
  5. динамическое содержание.
    То же самое касается содержания, которое добавляется в Ajax на страницах. Этот контент роботы не видят и не индексируют. Ajax должен быть зарезервирован за данными, предоставленными по запросу посетителям .
  6. Дубликат рад.
    Чтобы сделать одну и ту же страницу доступной для роботов в нескольких экземплярах или дать им доступ к одной и той же странице с двумя разными URL-адресами, то же самое и для движков, страница будет удалена из индекса. Если страница скопирована на другой сайт, движки удалят последнюю страницу или страницу с наименьшим количеством возвращенных ссылок.
    Если дублируется слишком много страниц, движок подумает, что ты пытаешься набить свой индекс и оштрафовать сайт.
  7. Никакого скрытого текста.
    Есть несколько способов скрыть текст от посетителей и сделать его видимым для роботов, и все они запрещены. Независимо от того, используются ли правила CSS, которые помещают текст за пределами видимой страницы, или цвет текста, идентичный цвету заливки, эти процессы отслеживаются, а сайт наказывается.
    Google подала патент № 8392823 на систему обнаружения текста и скрытые ссылки.
  8. Несколько экранов.
    Даже если это связано с законным намерением, как, например, на двуязычном сайте представлять разные страницы в зависимости от языка браузера, необходимо избегать представления роботам контента, отличного от того, что видят посетители.
  9. Мета освежает.
    В том же духе, но намеренно, использование тега meta refresh, чтобы представить пользователю содержимое, отличное от того, что видят роботы, запрещено.
  10. Строящиеся страницы.
    Оставлять на сайте страницы в конструкциях, доступных роботам, не рекомендуется.
  11. Разорванные связи.
    Значительное количество разорванных ссылок является синонимом оставленного сайта. Движки учитывают, что сайт ведется регулярно, для подтверждения этого см. патент на оценку страниц Google. Периодически используйте сценарий проверки нарушенных ссылок, поскольку веб-сайт развивается, страницы исчезают или меняются адреса.
  12. Нет названия.
    Теги <title> важны, они используются двигателями для страниц результатов. Она должна отражать содержание статьи в информативной, а не рекламной форме.
    Тег «Описание» необходим, если страница содержит мало текста и содержимого flash, изображений или видео.
    Тег keyword можно пропустить, так как Google не учитывает его, как прямо сказано в интервью.
  13. Повторение названия.
    Иметь одно и то же название на всех страницах, в теге <title> очень вредно. Этого достаточно, чтобы страницы не индексировались так, как это видно на форумах для веб-мастеров. Иметь одни и те же ключевые слова во всех заголовках тоже стоит избегать.
  14. Doorway или спутник
    Создать страницы специально для движков, с выбранными ключевыми словами и неинтересным контентом, так Google называет страницы «Doorway». Это запрещено. Вспомогательная страница - это страница, созданная в другом домене только для добавления количественных ссылок в основной домен. Это запрещено.
  15. Обмен ссылками и взаимные связи
    Google просит не обмениваться ссылками («link scheme») с целью улучшения PageRank сайта.
    Зарегистрироваться в справочниках и предоставить им взаимную ссылку - не одно дело. Нельзя штрафовать за ссылки на его сайт, даже если каталог оштрафован, но будем штрафовать за ссылки на штрафном сайте. Обратите внимание, что не все книги должны быть наказаны, только те, содержание которых не является умеренным.
  16. Суроптимизация.
    Suroptimisation d'un site webБольшинство советов, которые можно дать веб-мастеру, чтобы лучше проиндексировать его содержимое, можно извращать и использовать неправильно, это становится сверхоптимизацией.
    • Страница должна содержать все ключевые слова, которые актуальны, но у нее есть сверхоптимизация, когда она набита ключевыми словами, предназначенными только для того, чтобы вызвать посетителя, не принося ничего нового. Двигатели прекрасно способны различать оригинальность и актуальность страницы.
      Мы все еще оптимизируемся, используя те же привязки ссылок слишком часто на сайте, вставляя те же ключевые слова в заголовок, в URL, в привязки, субтитры, маяки alt и т. Д.
    • Бэклинки - это способ обеспечить популярность сайта. Происходит сверхоптимизация, когда ты сам создаешь ссылки в ежегодниках без посетителей, на страницах форума, с неестественными якорями, явно предназначенными для двигателей. На самом деле Пингвинский фильтр как раз направлен против этого.
      Обмены ссылками - это также злоупотребления, которые легко обнаружить поисковикам.
    • Перенаправление может быть методом black hat. Когда ты покупаешь или строишь сайты с единственной целью размещения ссылок на основной сайт, ты все равно запускаешь отрицательный сигнал.
    • Маяки H1, H2 необходимы для организации текста и его более удобочитаемости. Их учитывают альго. Но если слишком много тегов и не хватает текста, то это все-таки переоптимизация. На самом деле блоги теперь склонны делать страницы без субтитров из страха самооптимизировать, что фактически делает их нечитаемыми.
    • Можно обобщить все аспекты сайта. Оптимизирован ли он для посетителей или для двигателей?
    Не всегда очевидно, когда сайт переоптимизирован или нет. Лучше всего сравнить свои страницы с ссылочными сайтами в своем домене, чтобы судить об этом.
  17. Перенаправление домена.
    Перенаправить одно имя домена на другое с одним кадром - ошибка. Должно быть, с перенаправлением 301.
    При перенаправлении контента с одного домена на другой следует сохранить ту же структуру сайта и, это совет от Google, ту же презентацию. Мы можем изменить его позже.
  18. Переменные URL-адреса.
    Иметь переменные в URL-адресе, в виде article.php? x = y не мешает индексировать, CMS форума делают это бегло. Но наличие нескольких может помешать индексации. Часто допускается, что переменная с именем id или ID препятствует индексированию, поскольку она рассматривается как переменная сеанса
  19. .
  20. Двойное перенаправление.
    Ссылка на страницу другого сайта, которая приводит к перенаправлению на начальный узел (это может произойти при слиянии узлов), неизбежно приводит к аннулированию страницы, содержащей ссылку.
  21. Простое перенаправление.
    Есть вполне легитимные действия, которые все-таки могут привести к выводу из эксплуатации. Примером является частое перемещение страниц по сайту с перенаправлением 301. Это метод, который используют спамеры: перенаправлять посетителей с одной страницы на другую, чтобы вернуть пробку. Когда ты реорганизуешь свой сайт и используешь направления 301 на другом контенте или даже другой макет, ты запускаешь отрицательный сигнал, который вызывает штраф.
  22. Заблокировать доступ роботов к CSS и JavaScript
    Если директива в robots.txt запретит краулерам Google разбираться в CSS-файлах и JavaScript, сайт будет оштрафован, как это уже пережили несколько важных сайтов, потерявших две трети посещений, но восстановивших свой трафик после снятия блокировки. Это пенальти, появившаяся в 2014 году.
    Google хочет иметь возможность просматривать страницы так же, как это делает пользователь, из-за того, что директивы или сценарии могут менять отображаемый контент.

Еще одна ошибка - забыть читать наставления. Любой веб-мастер, который рассчитывает на услуги Google для улучшения трафика своего веб-сайта, должен читать советы веб-мастерам .

Заключение

Хотя список кажется длинным, тем не менее в нем нет ничего обязывающего. Если ориентироваться на контент, достаточно выстроить сайт в правилах, чтобы он получил место, которого заслуживает в результатах, в зависимости от его богатства и оригинальности.

См. также