Исследование: Tik Tok отправляет пользователям потенциально вредный контент каждые 39 секунд

В США начинают подавать коллективные иски к соцсетям.

3 мин.
Исследование: Tik Tok отправляет пользователям потенциально вредный контент каждые 39 секунд

TikTok рекомендует некоторым пользователям контент о причинении себе вреда и пищевых расстройствах в течение нескольких минут после присоединения к соцсти. К такому выводу пришли в Центре по борьбе с цифровой зависимостью США (CCDH).

В новом исследовании учёные создали аккаунты на TikTok, выдавая себя за 13-летних пользователей, интересующихся контентом об изменении образа тела и психическом здоровье. Было обнаружено, что уже через 2,6 минуты после входа в приложение алгоритмы TikTok рекомендовали контент суицидального содержания. Отчёт показал, что контент о расстройствах пищевого поведения был рекомендован уже через 8 минут.

Сервис TikTok был запущен китайской компанией ByteDance в 2017 году и работает на основе алгоритмов, формируемых на персональных данных: «лайках», «фолловерах», времени просмотра, интересах пользователя — стал самым быстроразвивающимся приложением социальных сетей в мире и достиг миллиарда активных ежемесячных пользователей к 2021 году.

В отчёте CCDH подробно описывается, как алгоритмы TikTok уточняют видео, показываемые пользователям, по мере того, как приложение собирает больше информации об их предпочтениях и интересах. Однако новое исследование показывает, что платформа может навязывать уязвимым категориям пользователям вредный контент, пытаясь удержать их интерес.

Для тестирования алгоритма исследователи зарегистрировались в качестве пользователей в США, Великобритании, Канаде и Австралии и создали «стандартный» и «уязвимый» аккаунты в TikTok.  Всего было создано восемь аккаунтов, и данные с каждого собирались в течение первых 30 минут использования. CCDH утверждает, что небольшой период был выбран для того, чтобы показать, как быстро социальная сеть может понять каждого пользователя и выдать потенциально вредный контент.

В отчёте говорится, что каждый исследователь, выдавая себя за 13-летнего подростка (минимальный возраст, с которого TikTok разрешает регистрироваться в своём сервисе), создал два аккаунта в указанной им стране. Одному аккаунту было присвоено женское имя пользователя. Другой — имя пользователя, указывающее на озабоченность образом тела. На всех аккаунтах исследователи делали короткие паузы на видеороликах, посвященных внешнему виду и психическому здоровью. Они «лайкали» эти видео, как если бы они были подростками, заинтересованными в подобном контенте.

Когда второй аккаунт сравнили со стандартным, исследователи обнаружили, что тот получал в три раза больше общего вредного контента и в 12 раз больше видео с причинением вреда себе и самоубийством, чем стандартные аккаунты.

Представитель TikTok, к которому обратились за комментариями, оспорил методологию исследования.

«Мы регулярно консультируемся с экспертами в области здравоохранения, устраняем нарушения нашей политики и предоставляем доступ к поддерживающим ресурсам всем нуждающимся», – сказал представитель соцсети.

Представитель TikTok далее заявил, что видеоплатформа «помнит, что триггерный контент уникален для каждого человека», и что социальная платформа «по-прежнему сосредоточена на создании безопасного и комфортного пространства для всех».

Исследование появилось в тот момент, когда более 1200 семей подали иски против различных компаний, включая TikTok. В этих исках утверждается, что контент на платформах оказал глубокое влияние на психическое здоровье их детей, а в некоторых случаях привёл к смерти. Ожидается, что в следующем году будет рассмотрено более 150 исков.


TikTok pushes potentially harmful content to users as often as every 39 seconds, study says
TikTok recommends self-harm and eating disorder content to some users within minutes of joining the platform, according to a new report published by the Center for Countering Digital Hate.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube