Каждый раз, когда что-то публикуется в интернете, находятся те, кто попытается использовать это во вред. Не стал исключением и ChatGPT — популярная языковая модель от OpenAI. Несмотря на строгие правила компании, направленные на предотвращение злоупотреблений с помощью чат-бота, постоянно встречаются те, кто находит способы обойти ограничения.
В недавнем отчёте OpenAI рассказала о нескольких случаях неправомерного использования своего чат-бота. Особое внимание привлекла группа пользователей из Китая, которые использовали возможности модели для разработки инструмента слежки за социальными сетями. Эти пользователи задействовали чат-бот для формулировки бизнес-стратегий и проверки кода своей программы, которая должна была собирать данные о западных протестах и передавать их китайским спецслужбам.
В OpenAI подчеркнули, что их цель — создание «демократичных» ИИ-моделей, которые приносят пользу всем, при этом следуя здравым правилам. Компания активно отслеживает потенциальные злоупотребления своими технологиями и недавно описала несколько таких случаев, происходящих из Китая.
Один из самых примечательных примеров связан с группой аккаунтов, сосредоточенных на разработке инструмента для слежки. Эти аккаунты использовали ChatGPT для создания детальных описаний и рекламных презентаций инструмента мониторинга социальных сетей. Программа, работающая на моделях, не связанных с OpenAI, генерировала отчёты в реальном времени о западных протестах и отправляла их китайским службам безопасности. Кроме того, эти пользователи использовали ChatGPT для отладки кода своего инструмента.
Политика OpenAI строго запрещает использование её технологий для слежки, включая несанкционированный мониторинг от имени правительств. Все аккаунты, замешанные в этой деятельности, были заблокированы за нарушение правил платформы.
Китайские участники пытались скрыть своё местоположение, используя VPN, а также применяли удалённые инструменты доступа, чтобы казаться работающими из США. Однако активность аккаунтов выдала их: она соответствовала китайскому рабочему времени, а запросы содержали указания на использование китайского языка. Инструмент слежки, который они разрабатывали, использовал ИИ-модели других компаний для создания документов на основе данных слежки.
Ещё один случай злоупотребления ChatGPT касался китайских пользователей, которые генерировали итоговые отчёты о производительности кампаний по рассылке фишинговых писем. Отдельно стоит упомянуть аккаунт, который использовал языковую модель в дезинформационной кампании против Цай Ся, китайской диссидентки, проживающей в США. Этот аккаунт также был заблокирован.
Исследователь OpenAI Бен Ниммо в интервью The New York Times отметил, что это первый известный случай, когда злоумышленники попытались использовать ChatGPT для создания инструмента слежки на базе ИИ. Тем не менее, такие инциденты остаются редкостью на фоне миллионов пользователей, которые применяют технологию легально. По его словам, киберпреступная активность — это скорее исключение, чем не правило.
Ещё по теме:
- Anthropic улучшила Claude — новая версия 3.7 уже доступна
- Microsoft тестирует бесплатный Office с рекламой
- Apple готовит завод в Техасе для производства ИИ-серверов на чипах M5