TikTok рекомендует некоторым пользователям контент о причинении себе вреда и пищевых расстройствах в течение нескольких минут после присоединения к соцсти. К такому выводу пришли в Центре по борьбе с цифровой зависимостью США (CCDH).
В новом исследовании учёные создали аккаунты на TikTok, выдавая себя за 13-летних пользователей, интересующихся контентом об изменении образа тела и психическом здоровье. Было обнаружено, что уже через 2,6 минуты после входа в приложение алгоритмы TikTok рекомендовали контент суицидального содержания. Отчёт показал, что контент о расстройствах пищевого поведения был рекомендован уже через 8 минут.
Сервис TikTok был запущен китайской компанией ByteDance в 2017 году и работает на основе алгоритмов, формируемых на персональных данных: «лайках», «фолловерах», времени просмотра, интересах пользователя — стал самым быстроразвивающимся приложением социальных сетей в мире и достиг миллиарда активных ежемесячных пользователей к 2021 году.
В отчёте CCDH подробно описывается, как алгоритмы TikTok уточняют видео, показываемые пользователям, по мере того, как приложение собирает больше информации об их предпочтениях и интересах. Однако новое исследование показывает, что платформа может навязывать уязвимым категориям пользователям вредный контент, пытаясь удержать их интерес.
Для тестирования алгоритма исследователи зарегистрировались в качестве пользователей в США, Великобритании, Канаде и Австралии и создали «стандартный» и «уязвимый» аккаунты в TikTok. Всего было создано восемь аккаунтов, и данные с каждого собирались в течение первых 30 минут использования. CCDH утверждает, что небольшой период был выбран для того, чтобы показать, как быстро социальная сеть может понять каждого пользователя и выдать потенциально вредный контент.
В отчёте говорится, что каждый исследователь, выдавая себя за 13-летнего подростка (минимальный возраст, с которого TikTok разрешает регистрироваться в своём сервисе), создал два аккаунта в указанной им стране. Одному аккаунту было присвоено женское имя пользователя. Другой — имя пользователя, указывающее на озабоченность образом тела. На всех аккаунтах исследователи делали короткие паузы на видеороликах, посвященных внешнему виду и психическому здоровью. Они «лайкали» эти видео, как если бы они были подростками, заинтересованными в подобном контенте.
Когда второй аккаунт сравнили со стандартным, исследователи обнаружили, что тот получал в три раза больше общего вредного контента и в 12 раз больше видео с причинением вреда себе и самоубийством, чем стандартные аккаунты.
Представитель TikTok, к которому обратились за комментариями, оспорил методологию исследования.
«Мы регулярно консультируемся с экспертами в области здравоохранения, устраняем нарушения нашей политики и предоставляем доступ к поддерживающим ресурсам всем нуждающимся», – сказал представитель соцсети.
Представитель TikTok далее заявил, что видеоплатформа «помнит, что триггерный контент уникален для каждого человека», и что социальная платформа «по-прежнему сосредоточена на создании безопасного и комфортного пространства для всех».
Исследование появилось в тот момент, когда более 1200 семей подали иски против различных компаний, включая TikTok. В этих исках утверждается, что контент на платформах оказал глубокое влияние на психическое здоровье их детей, а в некоторых случаях привёл к смерти. Ожидается, что в следующем году будет рассмотрено более 150 исков.
Ещё по теме: