Эволюция алгоритма Google с самого начала
Изменения, отмеченные или анонсированные на алгоритме Google и его средствах классификации страниц. Отдельная статья посвящена эволюции страниц результатов и интерфейса.
1 июня 2024 - утечка раскрывает алгоритм Google
Утечка внутреннего документа в Google Search раскрыла работу текущего алгоритма позиционирования Google, а опубликовала его SearchEnglineLand. В Google подтвердили подлинность документов.
Страница может быть понижена по следующим причинам:
- Ссылка не соответствует целевой странице.
- Поведение пользователей движка свидетельствует о недовольстве страницей (например, о быстром возвращении).
- Журналы продуктов.
- Местоположение.
- Порнография.
Google сохраняет последние 20 изменений ссылок на каждой странице.
Google Chrome используется для получения информации о поведении пользователей.
Позиционирование зависит от этих критериев
- Ссылки на другие страницы должны быть диверсифицированы на разные сайты и иметь отношение к содержанию страницы.
- Оценка содержания страницы по полученным ссылкам и поведению: хорошие и плохие (случайные) клики, время на странице после клика .
- Количество кликов по ссылке на странице результатов (хотя это отрицает Google).
- Оригинальность улучшает положение.
- Бренды важны.
- Google пытается выяснить, кто мы - автор документа.
- Свежесть информации имеет значение (это не ново).
- Название страниц имеет значение.
- Размер шрифта учитывается для важности текста.
- Информация о домене учитывается.
Мы больше не говорим о Панде, которая основывала позиционирование на «популярности» сайта, другими словами, упоминания о названии сайта, что, вероятно, было в значительной степени отклонено отправителями. Но есть критерий авторитета «SiteAuthority», который эквивалентен. То, что Google заботится об авторе документа - ново.
Если он действительно хочет иметь возможность использовать искусственный интеллект в поиске, Google должна серьезно озаботиться обоснованностью содержания страниц .
12 сентября 2019 - Продвижение оригинальных источников в новостях
Для результатов, касающихся новостей, Google теперь хочет уделять меньше внимания популярности, а больше - оригинальности. Таким образом, сайт с большой аудиторией, который повторяет содержание оригинальной статьи, теперь должен занять второе место на страницах результатов. Это касается прежде всего статей, которые требуют большой работы по расследованию.
В алгоритмы были добавлены новые критерии для продвижения такого рода статей среди актуальных результатов. Мы хотим, чтобы статья, которая является источником всех новостей, оказалась на первом месте.
30 августа 2019 - Пенализация сайтов, кредитующих субмодели
Предоставление другой компании поддомена или подкаталога, чтобы она могла воспользоваться своей популярностью - за вознаграждение в целом - теперь наказывается алгоритмом. Google выпустила предупреждение об этом.
Было отмечено значительное сокращение объема трафика в местах, где этот процесс приносит пользу.
24 сентября 2018 - Позиционирование изображений
Google объявляет об изменении алгоритма выбора изображений, который сейчас приближается к текстовому контенту. Авторитет сайта становится более важным фактором и учитывается «свежесть» страницы (факт ее обновления или создания в последнее время) и размещение в ней изображения.
Авторитет связан с актуальностью: если тема картины - тоже тема сайта, то эта картина позиционируется лучше. Размещение считается более благоприятным, если изображение находится в центре и начале страницы .
8 марта 2017 - Обновление «Фреда»
Многие сайты наказываются за неестественный контент, особенно если у них есть страницы, предназначенные для продвижения других коммерческих сайтов. Критерии фильтрации достаточно размыты, даже если эффект был замечен широко, и отмечают попытку понизить популярность сайтов, не связанных с контентом, как это делает Panda.
Февраль 2017 - Призрак 5
Обновления Phantom поисковик официально не признает. Их даты оцениваются в мае 2013 года, мае 2015 года, ноябре 2015 года и июне 2016 года.
Опять нечеткие критерии в попытках продвижения «качества», то есть популярности с минимумом контента.
10 января 2017 - Для мобильных
Об этом было объявлено задолго до этого, сайты, на которых появляются всплывающие окна и интерстициальная реклама, наказаны.
23 сентября 2016 - Пингвин встроен в основной алгоритм
Об этом сообщает блог Google, предназначенный для веб-мастеров. Пингвин, этот алгоритм, запущенный в 2012 году, штрафует сайты, которые хотят увеличить PageRank искусственно, создавая ссылки на спутниковые сайты на сайт, который будет продвигаться. Это касается и связей в футболе или подписях.
Алгоритм запускался периодически, но сейчас он работает в режиме реального времени при каждом прохождении робота на сайте. И он тоже совершенствовался. Он скорее влияет на страницы, чем на весь сайт.
1 июля 2016 - RankBrain, все большая доля
RankBrain является элементом общего алгоритма и служит для поиска ответа, когда поиск не имеет очевидного ответа в запасе страниц индекса.
Это алгоритм машинного обучения по большим объемам данных (Deep learning), поэтому алгоритм, который учит и учитывает поведение пользователя для повышения его производительности.
5 февраля 2016 - Поисковая система в Deep learning
Замена Амита Сингхала на Джона Джаннандреа во главе Google - символ продолжающейся эволюции поисковика. В то время как второй - специалист в области искусственного интеллекта и глубокого обучения, компьютерного обучения на основе количества данных и повторных экспериментов, первый был более традиционалистичным и больше полагался на программистов для реализации алгоритмов ранжирования ссылок. Мы привыкли видеть, как поисковик придерживается набора правил классификации страниц, и это принесло счастье специалистам по SEO. Это исчезает, и мы понятия не имеем, что происходит, когда результаты определяются глубоким обучением.
Искусственный интеллект уже используется с RankBrain для понимания некоторых запросов, на него в настоящее время приходится 15% работы. Под влиянием нового начальника она постепенно сделает это целиком. Там можно увидеть конец отсылки, потому что инженеры Google сами не понимают, как машина выбирает страницы.
28 октября 2015 - RankBrain
Это обновление датируется несколькими месяцами и только что раскрылось: это был бы третий по значимости критерий позиционирования! (После ключевых слов и ссылок). Ему дали прозвище RankBrain, этот алгоритм искусственного интеллекта, основанный на глубоком обучении, пытается интерпретировать неизданный запрос, чтобы придать ему смысл и выбрать страницы, содержащие ответ .
21 апреля 2015 - Мобильный дисплей становится сигналом
«С 21 апреля мы будем расширять наш учет совместимости с мобильными в качестве сигнала позиционирования».
Об этом сообщает блог Google Webmaster Central, а также то, что это окажет большое влияние на рейтинги для поисков, сделанных с мобильного.
Google предлагает тебе зайти на свой аккаунт Webmaster Tools, чтобы увидеть проблемы на твоем сайте, а также предлагает тестовый сайт.
Март 2015 - менее любимая Википедия
С начала 2014 года аудитория Википедии перестала расти и даже медленно падает. Алгоритм менее благосклонен к сайту, чем раньше.
Это может быть связано с компанией Knowledge Graph, которая с начала 2014 года предоставляет все больше энциклопедической информации и поэтому делает Википедию менее актуальной.
Смотрите Карту отчета Викимедии.
27 февраля 2015 года. Индексация приложений, новый фактор ранжирования.
Индексировать приложение становится возможным, см. руководство Google.
Октябрь 2014 - Пенализация сайтов-копий
Сайты, в отношении которых Google получает множество запросов об изъятии контента (DMCA) и в отношении которых проверяется действительность, штрафуются в результатах. Лишь 1% запросов признаны необоснованными. В противном случае ссылка на контент удаляется и теперь штрафуют весь сайт .
28 августа 2014 - Конец тега author
Вебмастеры на самом деле не следили и массово не принимали тег rel = author, чтобы лучше позиционировать свои страницы в результатах. Поэтому Google решила больше не принимать ее во внимание. Точно так же полностью исчезнет и показ информации об уже уменьшившемся со временем авторе. К июню 2014 года снимки уже исчезли. Казалось бы, ссылки с фотографиями получают не больше кликов, чем остальные.
Но в Google утверждают, что остальные типы структурированных данных останутся в использовании .
24 июля 2014 - Обновление голубя
Изменение для улучшения местных исследований путем применения усиления к положительным сигналам (например, обратным линиям) при наличии локального источника.20 мая 2014 - Новая панда
Новая версия математической формулы Панды, которая меняет оценку позиционирования сайтов, применяется 21 мая. Похоже, что этот патч менее жесток по отношению к сайтам среднего или малого размера. Сообщается, что это коснулось 7,5% сайтов на английском языке (по данным SearchEngineLand).
18 мая 2014 - Алгоритм загрузки Payday
Это изменение алгоритма касается групп ключевых слов, которые больше всего обеспокоены спамом, то есть страниц, сделанных только для показа рекламы. Он не имеет отношения к Панде или Пингвину. Это обновление алго, введенное прошлым летом (так в 2013 году).
28 февраля 2014 - Пенализация сайтов-копировщиков
Google запускает поиск сайтов-копировщиков, которые лучше позиционируются в результатах, чем сайты, которые они копируют. Видимо, алгоритм не способен их идентифицировать, поэтому к свидетелям обращаются (сейчас закрыты).
На данный момент самый осужденный сайт - это сама Google, которая берет абзацы из Википедии за свой график знаний !
На самом деле в архивах по состоянию на 29 августа 2011 года видно, что Google не в первый раз запускает эту инициативу .
27 сентября 2013 года, Hummingbird отправляется в рейс
Это конец черно-белых, после Панды и Пингвина, вот птица-муха. Этот новый алгоритм касается и фронтенда, и бэкенда: он умеет обрабатывать вопросы в целом, а не как набор ключевых слов, и он умеет ссылаться на содержание страниц, другими словами, находить в своей базе те, которые лучше всего отвечают на вопрос. Этот алгоритм, если его только что раскрыла Google, действует уже несколько недель .
18 июля 2013, Панда смягчила
Обновление Panda, которое добавляет сигналы о авторитете сайта в нише, чтобы предотвратить наказание полезных сайтов.
Для завершения глобального обновления требуется 10 дней.
22 мая 2013, Пингвин 2
В то время как предыдущая версия Penguin затронула главную страницу сайта, новая итерация касается непосредственно всех страниц (а не косвенно, поскольку они зависят от домашней страницы). Это штрафует сайты с искусственными бэклинками, обычно с оптимизированными якорями.
15 мая 2013 года. Программа на предстоящий год
В видео (на английском языке) менеджер Google по веб-спаму указывает, чего ждать от изменений в Algo в ближайшие месяцы:
- Лучше обнаруживать авторитет в разных нишах благодаря лучшим сигналам, чтобы умерить негативный эффект Панды.
Утверждается, что сайты, которые находятся на пределе, выиграют от сомнений и больше не будут наказаны. Здесь, как всегда, все дело в сигналах и в сигналах, свидетельствующих о компетенции в той или иной области, которые будут улучшены. Будем надеяться, что это не означает регистрацию на социальных сайтах !
- Более сложные методы анализа ссылок и удаления любой ценности из деятельности спамеров.
- Слишком много ссылок для сайтов, которые имеют слишком большое значение в СЕРП.
Об этом идет и приходит от Google со скидкой и увеличением в зависимости от случая, что оставляет мало доверия к этому намерению. - Улучшение категорий результатов, имеющих слишком много спама. Так что уменьшите количество спама .
- Больше не ходите по PageRank через рекламу.
- Лучшая информация для веб-мастера, когда сайт взломан.
Это объявление подтверждает вес, приданный «сигналам» для оценки страниц. Кроме извлечения ключевых слов, альго игнорирует их содержание, что является источником всех спамов. По сути, список показывает намерение сократить спам, что не имеет ничего очень нового и признается, что Panda примерна.
17 ноября 2012 года. Загадочное обновление
Сообщений об этом изменении, затронувшем многие сайты, нет, иначе это не итерация Панды. Моя теория в том, что это касается учета лайков на социальных сайтах и комментариев, но это чисто личное.
Стоит отметить, что в то же время из GWT исчез подсчет лайков в Google plus.
Обновление Panda состоялось 5 и 21 ноября.
10 октября 2012 года. Звенья в футболе - фактор штрафного
Webmaster Guidelines недавно эволюционировали. Как они всегда уточняют, что торговля и продажа ссылок запрещены, но появляется новая строка:
Широко распространенные ссылки в нижнем колонтитуле различных сайтов.
Эти ссылки не считаются естественными и, следовательно, нарушают инструкции вебмастеров.
28 сентября 2012 года. Доменные имена из ключевых слов
Сайты, имеющие выбранное имя домена для его ключевых слов, без оценки качества содержания (см. Panda), теперь наказаны. Это затрагивает менее 1% сайтов на английском языке .
14 сентября 2012 года. Вернуться к разнообразию
После изменения 17 ноября 2012 года, позволившего одному домену спамить страницы результатов, Google делает откат назад и вновь ограничивает количество ссылок на один и тот же домен.
10 августа 2012 года. Жалобы на нарушение авторских прав штрафуют сайт
Даже если Google не удаляет из своего индекса контент, на который поступает жалоба, она теперь штрафует страницу, когда сайт слишком часто подвергается жалобам. Интересно, накажут ли Скрибда!
Вероятно, не потому, что Google уточняет, что многие популярные сайты от этого уйдут. В частности, Youtube использует иную форму DMCA, которая не учитывается этим критерием своего алгоритма: ее нельзя штрафовать .
24 апреля 2012 года. Изменение Algo на спам, затрагивающее 3% сайтов: Penguin update !
И, очевидно, в связи с объявленной сверхоптимизацией, даже если термин будет уточнен. Сайт нацелен при накоплении негативных сигналов, таких как обмен звеньями, обратные ссылки, созданные самостоятельно. Даже внутренние связи, если у них такие же ключевые слова в якоре. Неактуальные внешние ссылки, то есть не связанные с окружающим его текстом, это тоже отрицательный сигнал. Как и заполнение страницы тем же ключевым словом, как уже известно.
Исследования показали, что сайт наказывается, когда большинство бэклинков не приходит с сайтов в одной тематике и когда якоря содержат ключевые слова, которые не входят в тему страницы, которые их делают.
Именно весь комплекс негативных сигналов вызывает штрафные санкции. Это критерии, которые всегда учитывались, известно, но новый алгоритм проводит более глубокий и систематический анализ, чтобы лучше штрафовать методы black hat.
На самом деле Google сообщил об изменении и говорит точнее о «черном hat webspam». Эта смена имеет название, кстати, это penguin update (обновленный пингвин), намек на противопоставление чёрного и белого хата (это не шутка).
Также в апреле был изменен алгоритм, чтобы больше не давать премию за свежесть новинкам, когда сайт оценивается как некачественный.
Это среди других изменений, затрагивающих прежде всего представление результатов.
Март 2012 года. Вскоре суроптимизация будет наказана. Привязать просматриваемые ссылки. Графический интерфейс, критерий позиционирования .
Оштрафовав сайты, чей алгоритм считает контент недостаточно другим и субстантивным (что чаще всего выражается в продвижении многословных и делающих отступление), Google готовится сделать новый шаг и атаковать сайты, которые подталкивают оптимизацию слишком далеко, это то, что только что анонсировал Мэтт Каттс на SXSW.
Какие оптимизации будут штрафовать?
- Искусственное наличие множества ключевых слов, бесполезных для читателя. Следует также избегать повторных предложений на одной странице и на всех страницах.
- Обмены ссылками, которые приносят бесполезные обратные ссылки. Справочники, запрашивающие обратную связь, если они еще не получены, будут охватываться, как и платные ссылки и обмены ссылками в футболе.
- Слишком много манипуляций в целом. Например, слишком много нофоллоу-ссылок на внешних сайтах, без причины.
Все это уже противоречило алгоритму, но кажется, что Google хочет улучшить распознавание подобных действий и более жестко штрафовать сайты. Эффект будет через пару недель.
Некоторые уже считают, что ди-оптимизация сайта (игнорирование всех правил оптимизации), чтобы сделать его более естественным и избежать наказания, может дать положительный эффект, что может подтвердить это с этой плановой сменой альго. Но в Google уточняют, что хорошая оптимизация, сделанная только для того, чтобы помочь движкам найти контент, по-прежнему рекомендуется .
Google сообщает, что способ интерпретации привязки ссылок был изменен. Без уточнений критерий классификации был исключен. Трактовка якоря в зависимости от запроса была уточнена. Другие изменения касаются синонимов, даты обсуждения ниток, свежести, качества сайтов.
Также стало известно, что в algo учитывается интерфейс и рендеринг на мобильных для позиционирования. Считается, что наличие икон, звезд и т. д... составляет индекс качества.
Февраль 2012 года. Через несколько лет изменился способ анализа ссылок
"Мы часто используем характеристики ссылок, чтобы помочь нам понять тему связанной страницы. Мы изменили, как оцениваем связи. В частности, мы отказываемся от метода анализа связей, который использовался годами".
Даже если Google не уточняет, что изменилось в его манере оценки ссылок, эта формула сильно подразумевает, что это сигналы, связанные с актуальностью ссылки, которые обеспокоены и одна из них больше не учитывается. Вот список этих сигналов:
- Привязка связи, формулировки.
- Текст, окружающий ссылку.
- Положение на странице. В зависимости от того, находится ли ссылка в статье, в конце страницы в футляре у нее другая роль и другое отношение к связанной странице.
- Атрибуты title, rel и nofollow. Последнее, из-за чего ссылка игнорируется (потребляя ее часть PageRank), единственное возможное изменение - это то, что она сама игнорируется.
- PageRank страницы, содержащей ссылку.
- Социальная связь или ссылка в статье.
Можно было бы ознакомиться с различными патентами Google на анализ ссылок, чтобы узнать, что было отменено. Каждый из этих факторов можно девальвировать, кроме одного: актуальная ссылка, в тексте .
Объявление об изменениях в марте противоречит тому, что именно якорь связи сейчас девальвируется. Может, и придется?
- Этот критерий заменяется другими сигналами, включая содержимое страницы, содержащей ссылку.
- В основном именно референты работают над подбором слов в якорях.
- Часто видно, что веб-мастера выбирают ключевые слова для якорей, когда это касается их собственных сайтов, и ставят что угодно для других.
- Самое правильное на самом деле - поместить название связанного предмета в якорь. Но это ничего не приносит поисковикам, поэтому настолько игнорируйте этот критерий.
19 января 2012 года. Избыток рекламы в начале страницы теперь является критерием позиционирования
Как было объявлено в ноябре прошлого года, страницы, на которых сначала размещается реклама, а затем содержание, видимое при проведении текста, будут наказаны.
Это влияет на 1% поисков .
Пользователи жаловались, что для поиска контента, отвечающего их запросу, необходимо раскрутить страницу и пройти рекламу.
Но как определить, что такое «лай с фолдом», поскольку это зависит от разрешения экрана. На мобильнике, в зависимости от того, держат его в портретном или пейзажном режиме, это уже не то же самое. Можно предположить, что это затрагивает страницы, на которых размещаются две рекламы высотой 280 пикселей от высоты бок о бок. На самом деле Google дает статистическое измерение высоты страницы, видимой без процесса с помощью инструмента Browser Size. 550 пикселей - приемлемое значение .
Имеет ли эффект размер header? Нет, если оно считается частью содержания.
Сайт Browsersize в Google (теперь закрытый) давал оценку тому, что такое «ватерлиния» веб-страницы.
Объявление в Inside Search.
2 декабря 2011 года. Обнаружение паркованных доменов.
И чья домашняя страница заполнена рекламой. Добавляется новый алгоритм для их обнаружения и исключения из результатов. Это является частью примерно десяти мер, объявленных на ноябрь, а также в отношении свежести контента, благоприятствующих последним страницам.
Ноябрь.
14 ноября 2011 года. Бонусы для официальных сайтов.
Сайты, связанные с товаром, человек, когда его идентифицируют как официальные сайты (сделанные соответствующей стороной), теперь получат льготный режим при позиционировании, согласно объявленному 14 ноября 2011 года изменению алгоритма.
10 ноября 2011 года. Слишком много рекламы на одной странице: теперь прямой критерий алго.
На PubCon 2011 Мэтт Каттс уточнил, что слишком много рекламы на одной странице становится прямым (отрицательным) фактором позиционирования.
Это всегда было косвенным фактором, поскольку это может побудить посетителей покинуть сайт и таким образом увеличить скорость отскока и сократить время посещения. Но сейчас это будет приниматься во внимание напрямую.
Это также подтверждает, что это не было критерием Панды.
Отметим, что «слишком много рекламы» сильно зависит от размера страницы, а также уточнялось, что учитывается их размещение в первой части страницы.
3 ноября 2011 года. Новый рейтинг по свежести страниц.
Изменение в алгоритме затрагивает 35% запросов в поисковой системе. Это касается новизны страниц, которую можно продвигать в зависимости от контекста поиска .
Это исследования, касающиеся последних событий или актуальных тем, а также тем, которые регулярно появляются в новостях (Ex: Grand Prix de F1), и которые постоянно обновляются без каких-либо новостей (Ex: Software).
Другие темы, такие как, например, кулинарные рецепты, не должны затрагиваться этой модификацией.
29 августа 2011 года. Лучшее признание «скраперов».
Следует лучше определять сайты, которые используют страницы других сайтов для размещения рекламы. Бывает, что они лучше позиционируются на страницах результатов, чем оригиналы !
Google тестирует новый алгоритм и просит пользователей сообщать об этих сайтах, чтобы помочь ему разработать его.
Сообщить о скрапере
Речь идет не о нарушениях авторских прав или авторских прав, а о тех сайтах, которые используют какой-либо инструмент для передачи содержания и размещения его на своих страницах.
12 августа 2011 года. Панда обобщена на всех языках.
В настоящее время на сайты на французском языке влияет этот алгоритм, направленный на улучшение выбора страниц в результате, но иногда несправедливо поражающий качественные сайты. В зависимости от языка на каждом языке задействовано от 6 до 9% сайтов.
Панда.
Сообщить о несправедливо пострадавшем качественном сайте.
При этом Google изменила способ расчета «Аналитикой» коэффициента отскока.
20 июня 2011 года. Тень Панды.
С 15 июня во многих сайтах их аудитория в основном сокращается, в других - растет, что объясняется расширением Панды на Google.fr.
Однако важные сайты с бедным или дублированным контентом не пострадали, и поэтому это нельзя сравнить с Panda Update, которая не является модификацией авититума, а самостоятельной программой, запущенной вручную и которая присваивает баллу сайтам.
Не исключено, что часть этой программы была включена в общий алгоритм.
8 июня 2011 года. Атрибут автора.
Несколько тегов распределения, которые нужно разместить в теле страницы, признаются Google:
<a rel="author" href="pageauteur.html">Moi même</a>
<a rel="me" href="pageauteur.html">Moi même</a>
Это поможет классифицировать страницы по автору .
Страница профиля должна находиться на сайте, содержащем этот атрибут.
6 июня 2011 года. Schema.org.
Формат для включения метаданных в свои страницы и, таким образом, для уточнения их значения принимается Bing, Google, Yahoo!.
Она несовместима с RDFa и не может использоваться на одной странице без ее деиндексирования.
Этот формат основан на спецификации микродаты W3C, не путать с микроформатом (hRecipe, hCard), который является общим термином для несвободного формата, определенного для конкретного приложения.
Примером использования (для всех форматов) является описание рецепта с такими данными, как фото и время приготовления, чтобы можно было произвести специальный сниппет на страницах результатов.
Schema.org.
Богатый отрывок для тестирования. Инструмент онлайн-тестирования для проверки соответствия страниц.
11 апреля 2011 года. Общемировая инициатива Панда.
Panda Update против бедного контента становится общим и распространяется на весь мир.
Но это касается только запросов на английском языке (на местных движках).
Google также начинает принимать во внимание тот факт, что некоторые вечерние сайты заблокированы пользователями. Это еще один, но незначительный критерий.
От обновления пострадали такие новые важные сайты, как ehow, но менее значимое количество сайтов с косвенным результатом: ссылки с этих сайтов девальвируются, что влияет и на другие, не затронутые напрямую .
Панда Апдейт. Какие критерии применяет Panda Update?
24 февраля 2011 года. Обновлено 3 марта 2011 года. Важные изменения в отношении ферм контента (Panda Update).
Внутреннее название «Panda» (это имя инженера) повлияло на 11,8% исследований, уменьшив присутствие в результатах страниц бедного, неоригинального или малопригодного содержания. Наоборот, предпочтение отдается тем, кто предоставляет подробные статьи, полученные в результате первоначального поиска.
«Мы хотим поощрять здоровую экосистему»... - говорится в сообщении Google .
Google уточняет, что изменение произошло не из нового расширения для Chrome, которое позволяет блокировать сайты. Но сравнение с собранными данными показывает, что в списке заблокированных сайтов значатся 84% пострадавших сайтов .
Эффект появится только сегодня в США. Позже это коснется и остального мира. Одним из результатов будет увеличение доходов Adsense для других сайтов, поскольку фермы контента в основном используются для показа рекламы.
Еще неизвестно, как пострадают фермы контента, на Alexa или Google Trends и будет ли это День фермера.
Поиск более качественных сайтов.
28 января 2011 года. Изменение на скопированное содержимое.
Для борьбы с сайтами, которые забирают контент с других сайтов или содержимое которых не имеет оригинальности, в начале недели было внесено изменение в алгоритм, то есть с 24 января.
Это влияет только на 2% запросов, но, по словам Мэтта Каттса, этого достаточно, чтобы ты мог увидеть изменение в позиционировании (так обстоит дело с Script, аудитория выросла на 10%).
Это новое улучшение, влияющее на длинную тягу. Это может повлиять на фермы содержимого, которые производят статьи в цепочке, но не в оригинале.
Об этом сообщил Мэтт Каттс.
21 января 2011 года. Новая формула классификации.
Новый алгоритм более эффективен для обнаружения спама в содержании страницы, представляемого повторением слов, с явным намерением быть расположенным на этих словах.
Их можно найти в статье или в комментариях к блогу.
См. ссылку ниже.
21 января 2011 года. Лучше, чем когда-либо, алгоритм против спама.
Об этом говорится в письме Google, которое отвечает на критику качества поисковой системы в частности в борьбе со спамом.
Google утверждает, что показ рекламы Adsense не мешает рассекречивать сайт без полезного контента не больше, чем участие в программе Adwords.
В 2010 году алгоритм испытал две основные поправки против спама. Много говорили о переменах, повлиявших на длинную тусовку за счет сайтов без контента.
Google обязуется пойти дальше в 2011 году и предлагает вебмастерам высказать свое мнение. Целью в основном являются «фермы содержимого», которые предоставляют бесцельные страницы, наполненные ключевыми словами, чтобы позиционировать себя в результатах (например, eHow, Answerbag, Associated Content).
Будет улучшен алгоритм распознавания скопированного или без исходного содержимого.
Google search and search engine спам.
2 декабря 2010 года. Анализ чувств, добавленный в алгоритм.
После статьи в The New York Times, осуждающей тот факт, что продавец, который вызывает недовольство своих клиентов и порождает множество жалоб в блогах и на форуме, получает от этого преимущество перед поисковиками, Google отреагировала.
Действительно, когда ты осуждаешь практику или контент сайта, ты помещаешь на него ссылки, чтобы привести примеры, и эти бэклинки рассматриваются как индекс популярности движками, что приводит к лучшей позиции в результатах!
Поэтому Google разработала алгоритм анализа чувств, который призван распознать, является ли текст, окружающий ссылку, положительным или отрицательным по отношению к ней, согласно содержащимся в нем ключевым словам, чтобы наказать сайты, на которые жалуются.
Google также советует атрибуту nofollow поместить ссылку на сайт, не желая способствовать его позиционированию.
Быть плохим для твоих клиентов - это плохо для бизнеса.
Анализ чувств большого масштаба для новостей и блогов. Анализ алгоритма на английском языке.
17 ноября 2010 года. Те же области более представлены в результатах.
Хотя одна и та же область ограничивалась двумя связями в результатах, сейчас это число увеличивается. Это может привести к потере трафика на других сайтах.
5 ноября 2010 года. Черная пятница.
С 21 по 22 октября в зависимости от регионов изменение алгоритма ранжирования в результатах затронуло огромное количество сайтов, некоторые потеряли до 80% трафика. Поисковик Alexa, опубликовал графики, показывающие огромные потери или эквивалентные прибыли для некоторых сайтов.
Эти изменения кажутся окончательными. Как представляется, цель поправок заключается в повышении актуальности результатов.
31 августа 2010 года. SVG проиндексирован.
Содержимое SVG теперь индексируется независимо от того, находится ли он в файле для включения или вложен в HTML-код.
20 августа 2010 года. Вредная интернационализация?
Некоторые вебмастеры увидели, что их трафик растет от поисковых систем Google, кроме Google.com, или из своей страны.
Так американцы могут видеть приезд посетителей, которые консультируются с google.fr, что предполагает, что французский движок включает в результаты американские сайты.
Это может сократить аудиторию французских сайтов.
8 июня 2010 года. Каффайн обновляет индекс.
Компания Google 8 июня объявила, что новый движок индексации - Caffeine - дорабатывается. Он предлагает новый индекс с более свежими результатами на 50%.
Она отличается от прежней системы, которая обновлялась в целом по волнам. Каффайн обновляет индекс инкрементно. Новые страницы можно добавить и сделать доступными для поиска сразу после их обнаружения.
Новая архитектура также позволяет связать страницу с несколькими странами.
Каффейн против предыдущей системы.
27 мая 2010 года. MayDay: Длинная тяга меняется.
Это было подтверждено Матом Каттсом на майском Google I/O, в апреле в алгоритм «Длинная цепочка» было внесено радикальное изменение, чтобы повысить качество контента.
This is an algorithmic меняется в Google, looking for high quality sites to surface for long tail queries. It went through vigorous testing и isn 't going to be rolled back.
Перевод: "Это алгоритмическое изменение Google, поиск более качественных сайтов, которые поднимаются на поверхность для запросов по длинной цепочке. Он прошел тщательное тестирование и не будет подвергнут сомнению".
Реппелоны, что длинное тащение - это набор запросов с несколькими ключевыми словами, по одному редко, но которые все вместе составляют основную часть трафика сайта.
Вебмастеры дали этой эволюции название MayDay. Я уже назвал его Черным вторником. Это было катастрофическим для некоторых хорошо зарекомендовавших себя сайтов, но с недостаточным содержанием. Это произошло в конце апреля и начале мая по данным сайтов, хотя другие сайты испытали потерю трафика по другим причинам.
Это усилило трафик scriptol.com и iqlevsha.ru.
MayDay объяснил Мэтт Каттс в видео.
Это не зависит от Каффеина и окончательно. Веб-мастерам необходимо добавить содержимое для восстановления трафика.
27 апреля 2010 года. Черный вторник: позиционирование меняется на длинной волне.
Длинный тейл (long train) - это все страницы, множество, на сайте, который мы мало посещаем, но вместе имеют широкий трафик.
Запросы по нескольким ключевым словам составляют длинную цепочку.
На многих сайтах с 27 апреля произошло изменение позиционирования этих страниц. Некоторые потеряли до 90% трафика.
Это изменение было приписано Cafeine - новой инфраструктуре Google, которая индексирует больше страниц и создает больше конкуренции, но Google подтвердила изменение своего алгоритма (см. 27 мая).
14 апреля 2010 года. Реальное время.
В поисковую выдачу встроены MySpace, Facebook, Buzz, Twitter. Когда после отображения страницы результатов отображается больше параметров и нажата кнопка «Обновить» (Update), можно увидеть активность в социальных сетях, связанную с запросом.
Повтор на Twitter.
Обновление 2011: Twitter и Facebook запрещают доступ к роботу от Google .
9 апреля 2010 года. Скорость официально является фактором позиционирования.
Это было объявлено несколько месяцев назад, оно стало реальностью: слишком медленный сайт сейчас рассекречен на страницах результата, или, по крайней мере, имеет шансы быть им в сочетании с другими факторами .
«Сегодня мы включаем новый сигнал в наших алгоритмах ранжирования поиска: сайт speed».
«Сегодня мы включаем новый сигнал в наши алгоритмы позиционирования для поиска: скорость сайта».
Узнать, слишком ли медленный ли ваш сайт, можно из Google Tools для Webmaster (Labs -> Performance Site).
Использовать сайт speed in web search ranking.
15 декабря 2009 года. Каноническое между доменами.
Учет атрибута rel = «canonical», который был реализован несколько месяцев назад, чтобы избежать дублирования между страницами одного и того же сайта, только что был распространен на идентичные страницы на разных доменных именах.
При переносе сайта на другой домен лучше использовать перенаправления 301.
Источник Google.
Чтобы защитить сайт от сайтов, которые могут копировать содержимое, посмотрите, как создать общий канонический тег в PHP.
19 ноября 2009 года. Скорость загрузки участка станет фактором позиционирования в 2010 году.
Об этом только что заявил Мэтт Каттс в интервью.
"Исторически мы не учитывали это в нашем поисковом позиционировании, но beacoup людей в Google считают, что Сеть должна быть быстрой.
Это должно позволить более приятное использование и, следовательно, было бы правильно сказать, что если у тебя быстрый сайт, он мог бы получить небольшой бонус .
Если ваш сайт очень медленный, могут появиться пользователи, которым это совсем не нравится.
Думаю, в 2010 году многие задумаются о том, как иметь быстрый сайт, как разбогатеть без необходимости писать кучу личного JavaScript".
Это должно отдавать предпочтение статическим, а не SQL-сайтам... Смотрите нашу статью, Как построить CMS без базы данных.
Читайте также: Сделаем интернет-фейстер.
11 августа 2009 года. Новый поисковик Caffeine.
Google тестирует новую поисковую систему. Он нужен быстрее и актуальнее.
2 июля 2009 года. Меньше веса для неуместных ссылок.
Официально это не подтверждает Google (которая в любом случае мало говорит о своем алгоритме), однако вебмастеры считают, что результаты изменились и позиции в СЕРПах потеряны, которые исходили из количества бэклинков меньшего качества.
Неуместные ссылки означают:
- Блоги блогов.
- ссылки на социальные сайты.
- ссылки на книги.
- Ссылки в нижнем колонтитуле на сайтах партнеров.
- ссылки на шаблоны CMS.
На самом деле Google недавно объявила, что больше не будет принимать в расчет блогроллы. Мы, наверное, видим результат. И это не просто потеря значимости для этих связей: они уже не имеют значения.
Что касается социальных сайтов (например, Delicious, Stumbleupon), то, напротив, Google заявила в круглом столе с веб-мастерами: «Они считаются другими сайтами».
19 июня 2009 года. Флэш и его ресурсы.
Флэш-приложения индексируются поисковой системой, и отныне используемые ими ресурсы, изображения или тексты, также индексируются.
Источник Webmaster Central Blog.
2 июня 2009 года. Подтверждение изменений с nofollow - ссылки onclick.
Атрибут nofollow игнорирует ссылку на странице для поисковых систем. Так что пиар распределяется между оставшимися ссылками.
Кажется, что сейчас пиар распределяется между всеми ссылками (с нофоллоу или без него), а затем не распространяется для нофоллоу-ссылок.
Пример: Ты с 10 пиар-баллами и 5 ссылками, по 2 балла начисляется каждому. Если две ссылки в нофоллоу, то ни один пиар им не прошел, но остальные не получат все баллы, он получит только 6 очков, разделенных в 3 .
Последствия важные, ссылки в комментариях блогов лишились бы пиара на других страницах.
Цитата Мэтта Каттса:
Предполагается, что у вас есть 10 линков и 5 из них. Thera's это предполагает, что этот other 5 звеньев get ALL that PageRank и это не может быть истинным анимором.
Предположим, у вас 10 связей и 5 из них в нофоллоу. Предполагается, что остальные 5 получают ВСЕ PageRank и это уже может быть неправдой.
Подробнее - в статье PageRank и nofollow.
Кроме того, Google учитывает ссылки, назначенные в событии onclick.
12 апреля 2009 года. Пользовательский поиск.
Она обобщается среди всех пользователей поисковой системы. Результаты поиска учитывают поведение пользователя, если он чаще кликает по страницам сайта или типа сайта, эти страницы будут отображаться в последующих поисках в качестве главного результата только для него. Ссылка: Персональный поиск для everyone .
4 апреля 2009 года. Локальный поиск.
Google улучшает местный поиск на основе IP-адреса, который позволяет найти страну и город пользователя Интернета. С его помощью Google старается показывать сайты, которые они локализуют как можно ближе.
Чтобы воспользоваться этим вариантом, необходимо включить в поиск имя места, в котором должна отображаться карта.
Источник в блоге Google.
26 февраля 2009 года. Имена брендов.
Алгоритм повышает вес названий брендов и, следовательно, благоприятствует соответствующим сайтам. Это подтверждает Мэтт Каттс (руководитель персонала и коммуникатор Google) на видео.
Видео. (Английский).
25 февраля 2009 года. Канонический маяк.
Новый тег указывает роботу поисковой системы, какой URL нужно хранить, когда страница доступна с разными адресами.
Проблема дубликата с доверием решена.
16 июля 2008 года.
Google в экспериментальном порядке вводит в свой поисковик немного Wikia. Пользователи могут отметить результаты как хорошие или нежелательные.
Движок учитывает это, но только для пользователя, который их отметил. Пока что...
Июль 2008 года.
Google объявляет, что в ее базе данных 1000 миллиардов URL-адресов веб-страниц.
Не все страницы проиндексированы.
Июнь 2008 года. Нофоллоу учитывал.
Ссылки в nofollow не имеют значения для передачи PageRank, но их пиар не распределяется по нормальным ссылкам.
Так что пиар, переданный на связанные страницы, делится по количеству ссылок сначала, потом испаряется, когда на нофоллоу ссылки.
Источник: PageRank Sculpting.
17 мая 2007 года. Универсальные исследования
Новая архитектура и алгоритм заполнения страниц различными материалами, такими как изображения, видео, карты, новости.
19 октября 2005 года. Обновление Jagger (Jagger Update).
Это обновление повышает актуальность ссылок. Важным объектам, как представляется, также отдается предпочтение.
С спамом борются, особенно приемами, использующими CSS для маскировки контента для посетителей.
20 мая 2005 года. Обновление Бурбона (Bourbon Update).
Обновление для наложения штрафа на сайты с дубликатом содержимого, ссылками на неуместные страницы (не связанные со связанной страницей), взаимными ссылками по количеству, ссылками по количеству на близкий сайт.
Это коснулось многих участков с сопутствующим ущербом.
2003. Обновлена Флорида (Florida Update).
Она расстроила СЕРПов. Одно из важных изменений и то, что алгоритм работает по-разному в зависимости от типов запросов, а SERPs заполнены результатами разных и взаимодополняющих типов.
1998.
Размещение поисковой системы Google в сети.
Дополнительная информация
- Как Google работает над своим алгоритмом! (Видео. Французский перевод, нажав cc).
- Алгоритм Google. Описание исходного алгоритма.
- Анатомия Google. Схема инфраструктуры поисковой системы.