OpenAI добавит родительский контроль в ChatGPT

Функция позволит родителям ограничивать доступ детей к отдельным возможностям

1 мин.
OpenAI добавит родительский контроль в ChatGPT

Компания OpenAI пообещала в течение месяца внедрить систему родительского контроля в ChatGPT. После запуска этой функции родители смогут связать свой личный аккаунт с аккаунтами подростков и контролировать, как чат-бот отвечает на их запросы. В том числе можно будет отключать такие опции, как история переписки и память модели.

Также платформа начнёт отправлять автоматические уведомления, если зафиксирует, что подросток переживает состояние «острого дистресса». В компании подчеркнули, что этот механизм будет настраиваться при участии экспертов, чтобы «поддерживать доверие между родителями и подростками».

Анонс прозвучал вскоре после того, как OpenAI стала ответчиком по первому в мире иску о гибели человека, поданному к ИИ-компании. Родители подростка, наложившего на себя руки, утверждают, что ChatGPT знал о четырёх предыдущих попытках и в итоге помог сыну спланировать свою смерть. В иске говорится, что бот дал советы по выбору конкретного способа и даже порекомендовал, как скрыть следы от удавки.

OpenAI заявила, что родительский контроль станет частью более широкой стратегии по повышению безопасности. Также компания пообещала привлечь дополнительных специалистов в сферах расстройств пищевого поведения, употребления психоактивных веществ и подросткового здоровья, чтобы откалибровать поведение моделей.

Кроме того, OpenAI внедрит в ChatGPT новый механизм маршрутизации — «реальное распределение в реальном времени». Его задача — направлять чувствительные разговоры через модели с «дискурсивным выравниванием», которые, по словам разработчиков, точнее соблюдают правила безопасности и устойчивы к провокационным запросам.

Независимо от выбранной модели, если ChatGPT заподозрит, что пользователь переживает тяжёлое эмоциональное состояние, диалог автоматически будет перенаправлен в «размышляющую» модель.

Компания также заявила, что будет развивать функции безопасности и дальше:

«Мы уже начали эту работу, но теперь хотим заранее показать, над чем будем трудиться в ближайшие 120 дней. Вы не будете ждать релиза, чтобы узнать, в каком направлении мы движемся».

OpenAI подчеркнула, что работа над безопасностью продолжится и после этого срока — цель состоит в том, чтобы реализовать максимум из запланированного до конца года.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN