Алгоритмы Google

Если Яндекс - это в первую очередь поиск, то Google – это монополия очень качественных сервисов, таких как YouTube и Blogger, которые максимально интегрированы друг в друга и непрерывно развиваются во времени. Изучение истории данной могущественной системы, которая выросла из учебного проекта студентов Стэнфордского университета, позволит понять дальнейший путь её развития.
  • 1997 год - введён алгоритм PageRank - технология проверки обратных ссылок для определения важности ресурса.
  • 2003 год - Local Connectivity Analysis - сайты, на которые ссылаются более авторитетные источники ранжируются выше.
  • 2003 год - Fritz - обновления индекса может происходить постоянно, а не в больших партиях.
  • 20/04/2005 полезная вещь - история вашего поиска.
  • 28/06/2005 введен персональный поиск, основанный на истории ваших предыдущих действий.
  • 2005 год - Bigdaddy - более всеобъемлющее сканирование Интернета.
  • 16/05/2007 - универсальный поиск - смешанные результаты для разных типов документов (веб-страницы, изображения, видео, книги и т.д.).
  • 27 июля 2007 мета-тег unavailable_after исключит из выдачи Гугол страницу к конкретной дате. Нужен для сайтов-объявлений с миллионами страниц.
  • 08/25/2008 работа над ошибками в правописании.
  • 12/03/2009 перевод результатов поиска.
  • 03/03/2010 нажатие на звезду даёт возможность в дальнейшем увидеть сайт на верхней позиции вашего поиска. По-видимому, это ответ на кнопку Facebook "Мне нравится".
  • 27/04/2010 в конце страницы появляются "Поисковые запросы, связанные с...".
  • 21/05/2010 зашифровываются соединения между Google и браузером, в результате чего меньше вероятности попадания информации о переходах с поисковой системы третьим лицам.
  • 02/06/2010 выбор своего индивидуального фона для стартовой страницы.
  • 08/06/2010 поисковый индекс Caffeine - страницы стали ещё быстрее индексироваться.
  • 08/09/2010 запуск живого поиска: во время того, как люди печатают текст происходит автоматическое дозаполнение оставшейся части запроса.
  • 09/11/2010 предосмотр страниц (значок лупы).
  • 19/11/2010 при наличии дополнительной информации на сайте в поисковой выдаче отображается до четырех URL того же ресурса.
  • 01/12/2010 негативные отзывы вредят вашему сайту.
  • 14/02/2011 приблизился день создания своей выдачи для каждого пользователя: теперь появилась возможность блокировать сайты в поиске Google с помощью браузера Chrome.
  • 17/02/2011 появление в верхних результатах поиска публикаций друзей в блоге, YouTube или Twitter. По-видимому, относится только к ресурсам, которые имеют отношение к Google.
  • 24/02/2011 занижение сайтов с низким качеством, которые не интересны пользователям или содержат дублирующий материал с других сайтов (алгоритм "Панда").
  • 10/03/2011 пользователи при наличии аккаунта на Гугл могут блокировать весь сайт (домен), который они не хотят видеть в результатах поиска. Ели после перехода на сайт посетитель возвращается в результаты выдачи с помощью кнопки "Назад" в браузере, то ему будет предложено заблокировать ресурс. Для этого не должна быть установлена галочка "Показывать результаты поиска в новом окне".
  • 30/03/2011 кнопка +1 поможет рекомендовать заслуживающие внимания ресурсы вашим друзьям. Микроразметка для кнопки.
  • 6 мая 2011 года страницы с низким по качеству содержанием будут влиять на рейтинг сайта в целом. Их представители поисковой системы советуют удалять, либо объединять с другими страницами.
  • 2 июня 2011 года принят общий словарь для структурированной разметки (микроразметки) данных на веб-страницах. Страница помощи Google, для видео.
  • 7 июня 2011 года учитывается rel=”author” (устаревшее).
  • 16 августа 2011 года расширенный сниппет для бренда. Видимые ссылки управляются из "Инструментов для веб-мастеров"-"Конфигурация сайта"-"Ссылки сайта".
  • 26 августа 2011 года при наличии структурированного списка на странице в сниппете будет показан список из трёх строк.
  • 15 сентября 2011 года поддерживаются rel="next" и rel="prev", которые не стоит применять совместно с rel="canonical":
  • 18 октября 2011 года в результаты выдачи добавляется контент на английском.
  • 18 октября 2011 года будут скрыты данные, по какому именно запросу пришел на сайт пользователь с поиска Гугл. При этом для рекламодателей контекстной рекламы остаётся возможность изучения конкретного запроса.
  • 1 ноября 2011 года индексируется контент на AJAX.
  • 3 ноября 2011 года по ряду запросов (новости, регулярные события, такие как, выборы президента, частые обновления, например, лучшая марка машины) выше ранжируются недавно проиндексированные страницы (алгоритм "Кофеин" или "Google Fresh").
  • 14 ноября 2011 года официальные страницы будут ранжироваться выше, в заголовке не всегда показана информация из title.
  • 1 декабря 2011 года у припаркованных доменов позиции будут ниже.
  • 5 декабря 2011 года поддержка rel="alternate" для многоязычных сайтов. В Sitemaps. Наиболее распространённые ошибки.
  • 11 января 2012 года всё более обширное внедрение социальной сети в поиск. Фото автора влияет на кликабельность по снипету в выдаче.
  • 19 января 2012 года смотрим участок до прокрутки страницы, если большая часть на нём занимает реклама, то такой документ будет хуже ранжироваться.
  • 24 января 2012 года личными данными (имя, адрес электронной почты, номера телефонов и кредитных карт, местоположение, другими словами всё, что поможет проследить цепочку к конкретному человеку), которые были оставлены в одном сервисе Гугл, могут воспользоваться другие его сервисы. Так, если во входящих письмах Gmail говорится о желании найти туроператора, то при наборе пользователем слова «тур» он увидит в подсказках варианты «заказать тур» или «туроператор выбрать».
  • 3 февраля 2012 года набирая запрос на испанском, увидим испанские уточнения запроса, даже при установленном русском языке. При поиске по картинкам приоритет будет отдан изображениям, которые находятся на более качественных страницах (с большим значением PR).
  • 29 марта 2012 года страница с возможностями поиска.
  • 3 апреля 2012 года региональная выдача. Что делать:
    1. Уникальная целевая страница под определённый регион. Title и description, заголовки, контент, анкоры ссылок должны содержать регион + ключевое слово.
    2. Зарегистрироваться в Адреса Google и применить микроразметку.
  • 24 апреля 2012 года фильтр Пингвин, призванный уменьшить СПАМ в анкорах входящих ссылок. По вылетало:
    1. ссылки с низкокачественных доноров,
    2. нетематические,
    3. с маленьким анкорным листом,
    4. с маленьким процентом безанкорных,
    5. с маленьким процентом nofollow-бэклинков,
    6. продажа ссылок с сайта.
  • 25 апреля 2012 года для анализа изображений анализируется содержание страницы рядом с картинкой, её заголовок, имя файла и alt. Мета для адалт-контента
    <meta name="rating" content="adult" />
  • 16 мая 2012 года введён в действие Граф Знаний (алгоритм семантического поиска) - поскольку запрос может быть неоднозначным, то он уточняется; обобщаются сведения вокруг темы (например по запросу "Мари Кюри" будут показаны фото, научные достижения, семейное положение - данные, которые искали другие люди).
  • 10 августа 2012 года на ранжирование влияет количество запросов на удаление контента.
  • 14 августа 2012 года при подозрении, что оптимизаторы пытаются воздействовать на поисковую выдачу (перенасыщенный ключевыми словами текст и мета-теги; невидимый текст; редиректы страниц; манипуляции через ссылки), Гугл провоцирует спамера на внесение изменений, непредсказуемо меняя выдачу. Если подозрение подтверждается, то страница, сайт, домен и/или участвующие ссылки определяются как спам.
  • 19 сентября 2012 года появляется мета-тег news_keywords для Google News. These words don’t need to appear anywhere within the headline or body text.
  • 29 сентября 2012 года караются сайты с прямым вхождением ключевого слова в домене.
  • 12 декабря 2012 года разметка Highlighter внесена в Webmaster Tools.
  • 10 апреля 2013 года содержимое для разных стран с помощью rel=”alternate” hreflang=”x”.
  • 31 мая 2013 года стиль CSS для читающих справа на лево.
  • 26 сентября 2013 года алгоритм Hummingbird (Колибри) заменяет алгоритма Google Caffeine. Он запросы в несколько слов воспринимает как фразы, а не как отдельные слова.
  • 9 октября 2013 года Трафик должен быть максимально целевым, нецелевые посетители сайта наводят на мысль о спамности страницы.
  • 23 октября 2013 года авторитетные в своей области сайты ранжируются выше. Сайт должен отлично и быстро загружаться на мобильном устройстве. Формы автоматически заполняться (ссылка, ссылка)
  • Программа Riot плюс этот патент. Всё, включая личные данные из соц.сетей вплоть до их переписки в базе данных Google.
  • 12 марта 2014 года авторитетность автора является сигналом ранжирования (устаревшее)
  • Так Гугл отличает мобильную версию сайта от адаптивного сайта
  • 6 августа 2014 года на ранжирование сайта влияет какой протокол у сайта. Google хочет чтобы у всех был HTTPS.
  • 5 сентября 2014 года поиск по сайту в результатах поиска.
  • 16 сентября 2014 года просмотренные телепередачи используются как сигнал ранжирования
  • 27 октября 2014 года файлы JavaScript и CSS участвуют в ранжировании, их не нужно закрывать в robots.txt. В частности нужно стремиться к зелёным цифрам для мобильной версии в https://developers.google.com/speed/pagespeed/insights/
  • 21 апреля 2015 года адаптированные под мобильные устройства сайты будут ранжироваться выше.
  • 16 апреля 2015 года сигналом ранжирования для пользователей Android является наличие приложения в Google Play.
  • май 2015 год для медленного интернета (мобильный трафик) в результатах поиска показываются "облегчённые" страницы сайта.
  • 27 июля 2015 года идея свести всё в один инструмент под именем "Google" провалилась. Начинается процесс размежевания сервисов. Ориентация на Google+ закончена.
  • 1 сентября 2015 года предложение установить мобильное приложение (реклама приложений) не должно закрывать значительную часть экрана сотового телефона.
  • 5 октября 2015 года взломанные сайты отсутствуют в результатах выдачи.
  • 26 октября 2015 года алгоритм RankBrain использует машинное обучение. Он догадывается по контексту, что страницы релевантны запросу, даже когда на них не присутствуют ключевые слова из запроса.
  • 14 апреля 2016 года зарегистрирован патент: измеряются биометрические данные (мимика, температура тела, пульс, диаметр зрачков, скорость мигания), в том числе с помощью камеры смартфона, чтобы понять удовлетворённость человека.
в f t
наверх ↑

18 комментариев:

Вася
А твиттер не принадлежит гуглу. там все хотят твиттер продать, у него постоянно денег на развитие не хватает, но его хозяева пока выкручиваются.
NMitra
А ведь и правда! Но он постоянно употребляется в блоге Google и с ним по-видимому он имеет очень тесное сотрудничество, в отличие от Facebook.
Вася
Дело было темное, подробности не помню, но в нете периодически появляются подробности этой истории. Когда фейсбук решил сделать поиск, он обратился к нескольким поисковикам, чтобы использовать их бота. Гугля тогда нос отвернула, сказала, что им некогда думать о социальном поиске фейсбук, т.к. она (гугля) работает над своим социальным поиском и персональной выдачей. Тогда у гугля появилась кнопка Buzz, чтобы пользователи по ней кликали, а гугля считала, какой сайт понравился больше. Но кнопка особо не прижилась. Сейчас вон другие кнопки +1 и -. Да момент уже упущен. Фейсбук тогда ещё закорешилась с поиском от Microsoft - Bing. Теперь у бинг (как пишут электронные сми) самая социальная выдача, на основе лайков фейсбук, а у гугля воз и ныне там...
В общем, это мое вольное изложение когда-то прочитанных новостей, где-то мог ошибиться, что-то уже забыл. Но как-то так.
NMitra
Это много проясняет. Спасибо за рассказ. Познавательно!
Elchin Vahid
Google не индексирует страницу блога. Почему?
NMitra
Какую? Укажите URL.
Elchin Vahid
Я внёс соответствующие изменения в шаблон на основе http://shpargalkablog.ru/2010/07/kontent.html.

Может статические страницы не подлежат индексации?

URL страницы -
http://blog-elchin-vahid.blogspot.com/p/useful-links-for-new-bloggers.html
NMitra
Подлежат. У вас все указано верно. Только я не нашла ссылку на эту страницу. Чтобы робот поисковика узнал о новой странице, он должен перейти на неё по ссылке с уже проиндексированной.

Sitemap в данном случае не подходит, так как в Blogger это RSS-канал, в которой не входят ссылки с статических страниц.
Elchin Vahid
Спасибо за внимание, советы и разъяснения.
Фаско
Отличный пример
Irina Valentino
А можно вопросик задать относительно последнего телодвижения Гугла?

7 июня они ввели - учитывается rel-author (это что? релевантность-автор?)
NMitra
Вот здесь посмотрите - http://shpargalkablog.ru/2011/06/warning-missing-required-hcard-author.html и здесь - http://shpargalkablog.ru/2010/12/kak-izbezhat-plagiata-vebmasteru.html#rel
Aldous Snow
> на ранжирование сайта влияет какой протокол у сайта. Google хочет чтобы у всех был HTTPS.
Не влияет. Только на безопасность. Не стоит путать "положительные сигналы" с факторами ранжирования.
Наталья, смотри встречу и вопросы отпадут https://plus.google.com/118347960776898767637/posts/RM8rCkPPVF3
NMitra
Не спорю, может заголовок неверно перевела "HTTPS as a ranking signal".

Что ты понимаешь под "положительными сигналами"? Влияют ли они на конечную позицию страницы сайта? Чем "положительные сигналы" отличаются от "факторов ранжирования"?

Если "положительные сигналы" не влияют на конечную позицию страницы сайта, то зачем их учитывать, тратить свои мощности на расчёт "положительных сигналов" для КАЖДОГО сайта?
NMitra
Почему HTTPS влияет на ранжирование:
1) это тоже самое как домен, оформленный на 5 лет, или как плата за Яндекс.Каталог. Раз в сайт вкладывают деньги, а HTTPS стоит от 3 000 до 40 000 рублей в год, то на него стоит обратить внимание.
2) обычные пользователи будут больше доверять сайту???? Обычные пользователи не знают что это такое.

Правильно, зачем заморачиваться, выделять транзакционные запросы, как это сделал Яндекс, если можно все запросы под одну гребёнку отправить.
NMitra
Ещё дополнение к HTTPS http://moz.com/blog/seo-tips-https-ssl
Aldous Snow
Фактор ранжирования - аптайм
Положительный сигнал - присутствие микроразметки, к примеру
Отсутствие аптайма выкинет сайт, а отсутствие микроразметки никак не повлияет. Никто её не расчитывает. Сигналы работают сами на себя. Например, рейтинги увеличивают ctr сниппета (как думали и авторство тоже). Комментарии обновляют страницу. Если страница долго не апалась и изначально была внизу, так и будет сидеть там пожизненно. А комменты может поднимут её, запросов подбросят, если воспринимаются пс в качестве таковых.
Впоследствии как-то в сумме улучшит "карму сайта", но это всего лишь рекомендация. Ты проживёшь без миллиона долларов, но согласись, с ним веселее :-).
NMitra
Человек не увидит HTTPS или HTTP пока не перейдёт на сайт. Ни на сниппет, ни на обновляемость он не влияет. HTTPS можно рассматривать как скорость загрузки сайта, а последний, насколько понимаю фактор ранжирования.