Google сможет наказывать сайты за публикацию недостоверных фактов Статьи редакции
Предложенный учёными метод носит названием KBT — «Knowledge-Based Trust» или «траст, основанный на знаниях». В таких случаях «трастом» называют «доверие» поисковой системы к сайту.
Качество веб-ресурсов традиционно оценивалось с использованием экзогенных [внешних] сигналов вроде структуры гиперссылок. Мы предлагаем новый подход, который основан на эндогенных [внутренних] сигналах, а конкретно — корректности фактической информации, предоставленной источником. Источник, несущий в себе лишь небольшое количество ложных фактов, считается надёжным.
из документа исследователей
Уникальный механизм основан на информации, которую Google годами автоматически собирала в базы Knowledge Graph (только проверенные источники) и Knowledge Vault (все доступные источники).
Находя в тексте факты и сравнивая их с миллиардами записей из Knowledge Vault, поисковик сможет определять степень достоверности определённых фрагментов. Более того, если на нужной странице будет недостаточно данных для анализа, то система исследует весь ресурс и при ранжировании будет отталкиваться от его комплексной оценки.
В рамках эксперимента исследователи извлекли из сети порядка 2,8 миллиарда «фактических элементов» и с их помощью предсказали надёжность 119 миллионов веб-страниц и 5,6 миллиона сайтов.
Создатели технологии отметили, что она не является полностью универсальной: некоторые сайты просто не созданы для того, чтобы нести в себе достоверную информацию. Поэтому алгоритм скорее всего дополнит уже существующую систему ранжирования ссылок, нежели заменит её.
На момент написания заметки поиск Google помимо базового ссылочного ранжирования (выше поднимаются те источники, на которые чаще ссылаются) оценивает ещё порядка двухсот факторов, включая местоположение пользователя и историю его запросов.
В разговоре с TJ представители «Яндекса» усомнились в том, что метод Google действительно поможет оценить правдивость информации в сети.
Называть фактами всё, что опубликовали в интернете и никто на правдивость не проверял, по меньшей мере странно. Скорее речь идёт об оценке уникальности контента. В «Яндексе» с августа 2011 года существует инструмент, который позволяет вебмастерам заявить об авторстве своих материалов и быть в результате поиска «Яндекса» выше тех, кто позаимствовал их тексты.
пресс-служба «Яндекса»
Сам «Яндекс» в конце 2013 года объявил от отказе «ссылочного ранжирования» коммерческих сайтов, таким образом обвалив целую индустрию продвижения интернет-страниц в сети.
Половина паблков "а вы знали?" по закрывают нахуй. Ура
Пабликам гугл вообще не нужен. Они почти не получают аудиторию из поисковиков
Комментарий недоступен
Это не совсем так. 8-10% посещений приходится у пабликов на поиск.
Да, но в поиске он отлично находится. Так что думаю это тоже весьма важно
А можно им в техподдержку написать парочку сайтов который, вот однозначно, пиздят? Я думаю десяток наберу (как минимум рт, лайфньюз, рен-тв)
а вот Рен-ТВ не нужно трогать!
кто же нам расскажет про Нибиру, инопланетные коды инопланетян в ASCII графике и правителей-рептилойдов в США
так увлекательно бают, у меня на работе один человек смотрит и потом "среди меня разъяснительную работу проводит".
я вот прямо чувствую, как ̶т̶у̶п̶е̶ю̶ повышается_мой_интеллект_и_кругозор от его рассказов :)
P.S. есть у нас еще космонавт-подводник, воевал в морях Анголы и пустынях Кубы, так, что Рен ТВ еще не самое худшее :)
Гугл построил свой Роскомнадзор, с PR и релевантностью.
Бегло просмотрел PDF-ник по ссылке (http://arxiv.org/pdf/1502.03519v1.pdf), в нем вполне конкретно изложен алгоритм. Никаких особых чудес там нет, алгоритм вероятностный, причем очень смахивает на байесовский спам-фильтр, но применительно к контенту сайтов. Копипасту они не детектят, в чем авторы честно признаются, пишут, что она должна отсеиваться другими механизмами.
А как быть с LifeNews и большей частью новостников в зоне .ru? Все заблочат же =)
Истина где-то рядом...
Первым делом Гуглу нужно выпилить из серпа lifenews
http://scinquisitor.livejournal.com/59832.html - вот такое мне кажется получше будет. Не просто поисковая цензура недостоверных фактов, а разжевывание, почему они не достоверные.
Комментарий недоступен
Это же плюс.
В базе Knowledge Vault зафиксирован достоверный факт - Путин хороший! Если какой-то сайт пишет, что Путин плохой, то ему с Гугл не по пути.
Как Seoшник, могу предположить, что алгоритм будет не столько проверять достоверность фактов, сколько искать жёлтые новости и занижать площадки с ними, Сайты, где их много, скорее всего будут полностью банить. А там, где просто мало факторов достоверности (ссылок на достоверные источники и др.) - будут позиции занижать.
Комментарий Яндекса прям в точку.
Как это работает? Речь про достоверность фактов или уникальность текстов?
Уникальность текстов алгоритм не анализирует. Если упростить, то алгоритм вычисляет, насколько изложенные на сайте факты отличаются от их общепринятых (в интернете) трактовок. То есть, например, сайты с конспирологическими теориями уйдут вниз, даже если на них часто ссылаются другие сайты. В то же время не раскрученные, но предоставляющие достаточно взвешенные трактовки событий новостные сайты начнут подниматься вверх.
Супер, спасибо. Тогда в топ выйдут самые популярные, но не факт, что достоверные?
Популярные - в смысле, трактовки фактов? Ну, в общем-то, да. В конце концов, правда - это всего лишь общепринятое представление о чем-то, которое может со временем меняться.
Минкультуры не может, Гугл поможет