Искусственный интеллект продолжает удивлять своими возможностями, порой не самым приятным образом. Недавно компания OpenAI, разработчик популярного чат-бота ChatGPT, столкнулась с неожиданной проблемой во время тестирования нового голосового режима. ИИ-модель начала самостоятельно имитировать голоса пользователей без их согласия, что вызвало серьёзную обеспокоенность среди разработчиков.

Согласно документу, опубликованному OpenAI, во время тестирования расширенного голосового режима модели GPT-4o произошёл инцидент, когда искусственный интеллект непреднамеренно начал копировать голоса пользователей. Причиной этого стал шумный входной сигнал, который каким-то образом спровоцировал модель на имитацию.

Разработчики OpenAI признают, что их ИИ-модель технически способна имитировать любой голос, но в нормальных условиях она использует только авторизованные образцы. Однако в данном случае модель проявила непредвиденное поведение, которое удалось зафиксировать в процессе тестирования.

Для предотвращения подобных инцидентов в будущем OpenAI уже приняла дополнительные меры безопасности. Среди них – внедрение системы обнаружения несанкционированного генерирования звуков. Эта система призвана предотвратить потенциальные злоупотребления, когда ИИ мог бы копировать голос любого человека, основываясь лишь на коротком аудиообразце.

Этот случай с ChatGPT ярко иллюстрирует растущую сложность архитектуры искусственного интеллекта и связанные с ней потенциальные риски. Тем не менее, разработчики уверяют, что принятые меры безопасности позволят избежать повторения подобных инцидентов.

Эксперты отмечают, что подобные случаи подчёркивают необходимость тщательного тестирования и контроля над развитием искусственного интеллекта.


Ещё по теме: