Специалисты по информационной безопасности из университета Нотр-Дам выяснили, что боты, работающие на базе искусственного интеллекта, без труда способны обойти защитные системы всех популярных соцсетей. В рамках проведённого исследования стажёры университета с образованием на уровне средней школы и базовой подготовкой по применению технологий искусственного интеллекта смогли запустить тестовых ботов на разных популярных площадках.
В рамках исследования специалисты старались создать и запустить ИИ-ботов на популярных сервисах, например, LinkedIn, Reddit, TikTok, X (бывший Twitter), Mastodon и многих других, чтобы проверить эффективность политик и механизмов защиты сетей от контента, генерируемого автоматически. Для создания ботов эксперты воспользовались набором инструментов под названием Selenium, который применяется для автоматизации действий веб-браузеров. Также в тесте эксперты использовали модели GPT-4 и DALL-E 3 от компании OpenAI.
Во время проведения эксперимента французские исследователи разместили несколько тестовых сообщений от имени ботов на всех сервисах. Сложнее всего было обойти системы защиты американской корпорации Meta*, где для запуска бота потребовалось несколько попыток.
Определённые сложности, по словам экспертов, также возникли с сервисом TikTok из-за частого использования капчи. При этом на площадках Reddit, Mastodon и X запустить ботов оказалось совсем просто, несмотря на все указанные в описании платформ политики безопасности.
По словам экспертов, которые проанализировали своё исследование, его результаты наглядно показывают наличие серьёзных проблем безопасности в популярных социальных сетях и сервисах.
Несмотря на тот факт, что некоторые ИИ-боты применяются в абсолютно легальных целях, например, в маркетинговых или для обслуживания клиентов, другие боты могут использоваться для манипулирования общественным мнением, распространения фейковой информации и помощи злоумышленникам в мошеннических действиях.
Более того, эксперты убеждены, что неспособность многих популярных площадок с высокой эффективностью обнаруживать и блокировать потенциально опасных ботов ставит под угрозу безопасность пользователей и их конфиденциальность.
В связи с этим французские исследователи призывают вводить более строгое законодательство, которое потребует от сервисов чётко идентифицировать учётные записи, принадлежащие обычным пользователям и ботам, а также разрабатывать решения для защиты от вредоносного использования технологий искусственного интеллекта в социальных сетях.
Ещё по теме: