Доступ к будущим ИИ-моделям в API OpenAI может потребовать верификации личности

Компания усиливает меры безопасности, требуя, по сути, проверку по паспорту

2 мин.
Доступ к будущим ИИ-моделям в API OpenAI может потребовать верификации личности

Компания OpenAI может вскоре обязать организации проходить процесс верификации личности, чтобы получить доступ к определённым будущим моделям искусственного интеллекта. Об этом свидетельствует информация, опубликованная на сайте компании в поддержке пользователей.

Новый процесс верификации, названный Verified Organization («Проверенная организация»), описывается как «новый способ для разработчиков получить доступ к самым продвинутым моделям и возможностям платформы OpenAI». Для верификации требуется предоставить удостоверение личности, выданное правительством одной из стран, поддерживаемых API от OpenAI. Одно удостоверение личности может быть использовано для верификации только одной организации каждые 90 дней, и не все организации смогут пройти этот процесс.

«В OpenAI мы серьёзно относимся к своей ответственности за обеспечение того, чтобы ИИ был доступен широкому кругу пользователей и использовался безопасно», — говорится на странице. «К сожалению, небольшая часть разработчиков намеренно использует API в нарушение наших политик использования. Мы внедряем процесс верификации, чтобы минимизировать небезопасное использование ИИ, продолжая предоставлять доступ к передовым моделям для широкого сообщества разработчиков».

Зачем это нужно?

Усиление мер безопасности может быть связано с тем, что ИИ-модели становятся всё более сложными и мощными. В последние годы OpenAI публиковала несколько отчётов о своих усилиях по выявлению и предотвращению злонамеренного использования своих моделей. Например, компания сообщала о попытках групп, якобы связанных с Северной Кореей, использовать её технологии в противоречащих правилам целях.

Кроме того, нововведение может быть направлено на предотвращение кражи интеллектуальной собственности. Согласно данным Bloomberg за начало этого года, OpenAI расследовала возможные случаи хищения больших объёмов данных через её API группой, связанной с китайским стартапом DeepSeek, в конце 2024 года. Предполагается, что данные могли использоваться для обучения других моделей — что является нарушением условий использования OpenAI.

Предыстория: блокировка в Китае

Это не первый шаг OpenAI по усилению контроля над использованием своих технологий. Летом прошлого года компания полностью заблокировала доступ к своим услугам в Китае. Это решение было принято на фоне растущих опасений по поводу утечки данных и использования технологий OpenAI в нарушение международных норм.

Что это значит для разработчиков?

Новый процесс верификации может стать препятствием для некоторых организаций, особенно тех, кто работает в регионах с ограниченным доступом к государственным удостоверениям личности или имеет сомнительную репутацию. Однако OpenAI подчеркивает, что цель нововведения — не ограничить доступ к ИИ, а сделать его использование более безопасным и контролируемым.

Разработчики, которые уже активно используют API, могут столкнуться с необходимостью дополнительных проверок, чтобы продолжить работу с самыми современными моделями.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube