Интернет
Даша Лейзаренко

WSJ: главный фактор для ленты рекомендаций в TikTok — это не лайки и подписки, а потраченное на просмотр роликов время

Отслеживая реакцию на видео, алгоритмы определяют интересы пользователей и составляют ленту, которая до 93% может состоять из тиктоков об одном и том же.

На рекомендации в тиктоке влияет время просмотра роликов — как долго пользователь останавливался на видео, даже если не лайкнул и не поделился им, говорится в расследовании The Wall Street Journal.

  • Самая популярная функция в тиктоке — это лента рекомендаций. В 2020 году компания заявляла, что система основана на четырёх основных факторах: лайки, репосты, подписки и взаимодействие с видео;
  • Пользователи тиктока часто удивляются, насколько точно работает алгоритм — будто бы он «читает мысли». Они отмечают, что не ищут в поиске и даже не произносят вслух определённые вещи, которые потом появляются у них в ленте рекомендаций;
  • Детали работы алгоритма рекомендаций компания ByteDance, владеющая соцсетью, не раскрывает. Чтобы выяснить, как именно он работает, журналисты WSJ создали более сотни ботов в тиктоке, которые «просмотрели» сотни тысяч роликов;
  • Ботам присвоили локацию, дату рождения и несколько «интересующих» их тем. Они не лайкали видео, а только досматривали до конца или смотрели дважды те ролики, которые соответствовали их темам. Тикток выяснил интересы одних ботов спустя два часа, а других — быстрее, чем за 40 минут;
  • Новому пользователю тикток предлагает разные мейнистримовые видео с большим количеством просмотров. Когда алгоритм понимает, на каких видео пользователь чаще останавливается, но начинает предлагать более «нишевые» ролики — например, о готовке или ремонте домов;
  • Одному из ботов присвоили интересы «депрессия» и «грусть». Сначала тикток предлагал ему видео о том, как пережить расставание, но поскольку бот на них не реагировал, в рекомендации попали ролики о проблемах с ментальными здоровьем. В итоге лента «депрессивного бота» на 93% состояла из такого контента — остальные 7% в основном были рекламой;
  • В TikTok отметили, что симуляция WSJ не отражает реальную ситуацию, потому что обычно у людей разнообразный круг интересов. Но, как заявили журналисты, даже аккаунты с разносторонними интересами рано или поздно оказывались в «кроличьей норе». Боты выходили из «нор», только когда журналисты меняли им интересы;
  • Бот, интересующийся политикой, спустя несколько десятков видео дошёл до конспирологических теорий QAnon, а бот, интересующийся сексом, попал в «нору» о БДСМ. Чем глубже пользователь проникает в «нору», тем опаснее может быть контент, поскольку его меньше модерируют — журналисты нашли ролики про булимию, анорексию, призывы к суициду и рассказы о передозировках;
  • «Приложение отслеживает каждую секунду, на которую вы задерживаетесь на видео. Тикток узнаёт о ваших тайных интересах и эмоциях — и отправляет вас в „кроличью нору“ контента, из которой сложно выйти», — отмечают журналисты;
  • Гийом Шасло, основатель организации Algotransparency, которая обеспечивает прозрачность алгоритмов ютуба, рассказал изданию, что тиктоку важно находить контент, который пользователи будут смотреть чаще: «Алгоритм определяет, что депрессивный контент создаёт вовлечённость, поэтому продвигает его. Таким образом, алгоритм подталкивает людей ко всё более и более опасному контенту, чтобы заставить смотреть больше видео».

#новости #tiktok #расследования