Корпорация Google зафиксировала более 250 случаев злоупотребления её ИИ-инструментами, когда технологииприменялись для создания поддельных материалов на тему терроризма и насилия над детьми. Эти данные были обнародованы в рамках требований австралийского законодательства.
В соответствии с отчётом Австралийской комиссии по электронной безопасности, в течение года Google столкнулась с сотнями жалоб от пользователей по всему миру, заявлявших, что её ИИ-модель Gemini применялась для генерации ложных террористических материалов. Помимо этого, десятки обращений касались использования модели Gemini для создания контента, связанного с насилием над детьми.
Эти сведения стали частью обязательной отчётности, которой придерживается компания в соответствии с австралийскими нормами, требующими регулярных докладов о мерах по защите от вредоносного контента. За несоблюдение требований предусмотрены финансовые санкции. Представленный отчёт охватывает период с апреля 2023 г. по февраль 2024 г.
В Австралийской комиссии по электронной безопасности охарактеризовали предоставленные Google сведения как «первый в мире детальный взгляд на то, каким образом искусственный интеллект может быть задействован для создания запрещённого контента».
Джули Инман Грант, занимающая пост комиссара по электронной безопасности, отметила, что для предотвращения подобных инцидентов Google и другие компании-разработчики ИИ-инстурментов обязаны заранее закладывать эффективные механизмы защиты и проверять их работоспособность.
В соответствии с отчётными данными, корпорация Google получила 258 заявлений о том, что её ИИ использовался для генерации поддельных террористических или экстремистских материалов. Также зафиксировано 86 случаев, когда пользователи жаловались на создание системой контента, связанного с эксплуатацией и жестоким обращением с детьми.
В Google при этом не стали уточнять, какие из поступивших жалоб были признаны обоснованными. Представители компании заявили, что в борьбе с подобным контентом применяется технология хеш-сопоставления. Этот метод позволяет автоматически выявлять и удалять изображения и контент, связанный с насилием над детьми. При этом на контент террористической или экстремистской направленности такой подход не распространяется, о чём отдельно заявили в Австралийской комиссии по электронной безопасности.
Ещё по теме:
- Китай расширяет применение RISC-V во имя независимости от x86 и Arm
- Cellebrite начала использовать ИИ для анализа данных с изъятых смартфонов
- Австралийская полиция придумала интересный способ использования CarPlay