Развитие технологий искусственного интеллекта ставит новые вопросы о доверии и ответственности. Многие специализированные GPT, включая юридические и медицинские, рекламируются как профессиональные сервисы, что создаёт опасность ввода пользователей в заблуждение. К примеру, AI Immigration Lawyer заявляет о себе как о высококвалифицированном адвокате с актуальными знаниями в области иммиграционного права. Но стоит ли доверять таким утверждениям?

В ноябре прошлого года, когда OpenAI объявила о планах по созданию торговой площадки, где любой желающий мог бы создавать и находить индивидуальные версии технологии ChatGPT. Спустя девять месяцев после официального запуска магазина анализ свободного рынка, проведенный изданием Gizmodo, показал, что более 100 различных моделей напрямую нарушают правила OpenAI. Некоторые из них генерируют порно, а другие – дают неверные медицинские советы.

Найти нарушающие правила GPT несложно. 2 сентября на первой странице торговой площадки OpenAI было представлено как минимум три пользовательских модели, которые, как оказалось, нарушают правила магазина: чат-бот «Терапевт - Психолог», «тренер по фитнесу» и BypassGPT – инструмент, разработанный для помощи студентам в обходе систем обнаружения письменных работ с применением ИИ, который был использован более 50 000 раз.

Поиск в магазине по слову «NSFW» даёт такие результаты, как NSFW AI Art Generator, GPT, созданный Offrobe AI, который, согласно данным магазина, был использован более 10 000 раз. Интерфейс чата ссылается на веб-сайт Offrobe AI, где на видном месте указано его назначение: «Генерируйте ИИ-порно для удовлетворения ваших тёмных желаний».

ИИ-порногенераторы, создатели дипфейков и чат-боты, предоставляющие рекомендации по ставкам на спорт, были удалены из магазина после того, как портал Gizmodo поделился с OpenAI списком из более чем 100 GPT, которые, как оказалось, нарушают политику компании. Однако на момент публикации многие из найденных, включая популярные инструменты для мошенничества и чат-боты, предлагающие медицинские консультации, оставались доступными и рекламировались на главной странице магазина.

Во многих случаях боты использовались десятки тысяч раз. Другой мошеннический GPT под названием Bypass Turnitin Detection, который обещает помочь студентам обойти антиплагиатную программу Turnitin, был использован более 25 000 раз, согласно данным магазина. Также как и бот DoctorGPT, который «предоставляет медицинскую информацию и советы, основанные на фактах».

Когда компания объявила о том, что разрешает людям создавать пользовательские GPT, она отметила, что уже созданы системы, позволяющие отслеживать эти инструменты на предмет нарушения её политик. Эти правила включают запрет на использование технологии для создания сексуально откровенного или наводящего на размышления контента, предоставления индивидуальных медицинских и юридических консультаций, поощрения мошенничества, содействия азартным играм, выдачи себя за других людей, вмешательства в голосование и ряда других целей.

В ответ на вопросы журналистов представитель OpenAI Тайя Кристиансон сказала:

«Мы принимаем меры против тех, кто нарушает наши правила. Мы используем комбинацию автоматизированных систем, человеческого анализа и сообщений пользователей для поиска и оценки GPT, которые потенциально нарушают наши политики. Мы также предлагаем инструменты отчётности в продукте, с помощью которых люди могут сообщать о GPT, нарушающих наши требования».

Ранее другие издания уже обращали внимание OpenAI на проблемы с модерацией контента в магазине. А названия некоторых представленных GPT позволяют предположить, что разработчики также знают, что их творения противоречат правилам OpenAI. Несколько инструментов содержали отказ от ответственности, но затем явно рекламировали свою способность предоставлять «экспертные» советы. Например, GPT под названием Texas Medical Insurance Claims (не юридическая консультация), в котором говорится, что это «ваш основной эксперт для навигации по сложностям медицинского страхования в Техасе, предлагающий чёткие, практические советы с индивидуальным подходом».

Но многие из найденных юридических и медицинских GPT не содержат таких оговорок, а некоторые из них вводят в заблуждение, рекламируя себя как юристов или врачей. Например, GPT под названием AI Immigration Lawyer описывает себя как «высококвалифицированного иммиграционного юриста с искусственным интеллектом и современными юридическими знаниями».

Исследование лаборатории RegLab и Стэнфордского университета показало, что модели OpenAI GPT-4 и GPT-3.5 галлюцинируют и придумывают неверную информацию более чем в половине случаев, когда им задают юридический вопрос.

В настоящее время разработчики адаптированных GPT не получают прямой прибыли, но OpenAI планирует ввести модель разделения доходов, которая будет выплачивать разработчикам компенсацию в зависимости от частоты использования их чат-ботов.

Если OpenAI продолжит создавать экосистему, в которой разработчики смогут использовать её технологии и продавать свои творения, ей придётся принимать сложные решения по модерации контента, что нельзя будет решить несколькими строчками кода, блокирующими определённые ключевые слова.


Ещё по теме: