Искусственный интеллект продолжает удивлять своими возможностями, порой не самым приятным образом. Недавно компания OpenAI, разработчик популярного чат-бота ChatGPT, столкнулась с неожиданной проблемой во время тестирования нового голосового режима. ИИ-модель начала самостоятельно имитировать голоса пользователей без их согласия, что вызвало серьёзную обеспокоенность среди разработчиков.
Согласно документу, опубликованному OpenAI, во время тестирования расширенного голосового режима модели GPT-4o произошёл инцидент, когда искусственный интеллект непреднамеренно начал копировать голоса пользователей. Причиной этого стал шумный входной сигнал, который каким-то образом спровоцировал модель на имитацию.
Разработчики OpenAI признают, что их ИИ-модель технически способна имитировать любой голос, но в нормальных условиях она использует только авторизованные образцы. Однако в данном случае модель проявила непредвиденное поведение, которое удалось зафиксировать в процессе тестирования.
Для предотвращения подобных инцидентов в будущем OpenAI уже приняла дополнительные меры безопасности. Среди них – внедрение системы обнаружения несанкционированного генерирования звуков. Эта система призвана предотвратить потенциальные злоупотребления, когда ИИ мог бы копировать голос любого человека, основываясь лишь на коротком аудиообразце.
Этот случай с ChatGPT ярко иллюстрирует растущую сложность архитектуры искусственного интеллекта и связанные с ней потенциальные риски. Тем не менее, разработчики уверяют, что принятые меры безопасности позволят избежать повторения подобных инцидентов.
Эксперты отмечают, что подобные случаи подчёркивают необходимость тщательного тестирования и контроля над развитием искусственного интеллекта.
Ещё по теме:
- Apple требует, чтобы Patreon использовал покупки внутри приложений и платил 30- процентную комиссию
- Хакеры взломали штаб Дональда Трампа и украли доьсе на Джеймса Вэнса
- LG требует от Apple компенсацию за отмену проекта по производству Apple Watch с MicroLED-дисплеем