ИИ научился генерировать лица людей, которые не отличить от настоящих

Пока только белых женщин и мужчин

2 мин.
ИИ научился генерировать лица людей, которые не отличить от настоящих

В исследовании, проведённом под руководством учёных Австралийского национального университета утверждается, что искусственный интеллект достиг таких возможностей, что может генерировать лица людей ещё более похожие на настоящие, чем реальные люди. Такое явление уже имеет своё название – «Гиперреализм».

Гиперреализм: Больше, чем кажется на первый взгляд

Исследование, опубликованное в журнале Psychological Science, выявило поразительный факт: белые лица, сгенерированные искусственным интеллектом с помощью алгоритма StyleGAN2, часто ошибочно идентифицируются как настоящие человеческие лица.

Это не просто ошибка, а результат гиперреалистичного качества сгенерированных ИИ изображений. Удивительно, но участники тестирования, часто ошибавшиеся в оценках, демонстрировали более высокую уверенность в своих неверных суждениях. Это свидетельствует о сильной уверенности людей в реалистичности изображений, созданных искусственным интеллектом.

Расовая предвзятость в алгоритмах искусственного интеллекта

В исследовании также освещается актуальная проблема – расовая предвзятость алгоритмов искусственного интеллекта. Эти алгоритмы часто обучаются на изображениях преимущественно белых людей, что приводит к более высокой степени реалистичности белых лиц по сравнению с лицами других рас. Такая расовая предвзятость ИИ имеет серьёзные последствия для профилирования, кражи личных данных и распространения дезинформации, усиливая тем самым расовые предубеждения в Интернете.

Устранение рисков, связанных с гиперреализмом

Появление гиперреализма в ИИ подчёркивает острую необходимость повышения прозрачности в этой сфере. Растёт спрос на инструменты, позволяющие точно идентифицировать сгенерированные лица людей, чтобы снизить риски, связанные с этой технологией. Кроме того, в исследовании подчёркивается важность повышения осведомлённости общественности и просвещения людей, чтобы привить им здоровый скептицизм по отношению к изображениям, с которыми они сталкиваются в Интернете.

В заключение следует отметить, что исследование, проведённое специалистами Австралийского национального университета, даёт чёткое представление о возможностях и потенциальных «подводных камнях» ИИ. Будь то трудности с доверием к своим глазам или усиление расовых предубеждений. По мере того как мы будем ориентироваться в новой реальности, крайне важно применять более инклюзивный и непредвзятый подход к исследованиям в области ИИ, чтобы избежать укоренения предубеждений.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube