В Государственной Думе РФ сообщили о начале разработки законопроекта о маркировке контента, созданного с использованием нейросетей контента. Соответствующее заявление сделал член думского комитета по информационной политике Антон Немкин, заявив, что без обеспечения соответствующего контроля над распространением подобной информации развитие искусственного интеллекта несёт в себе непредвиденные риски, сообщает издание «Известия».
Антон Немкин также указал на то, что если смотреть на отдалённую перспективу, то развитие технологии искусственного интеллекта без должного контроля несёт в себе опасность возникновения грандиозных массивов различного текстового контента, который никем не проверяется. Помимо этого, также есть риски возникновения материалов с полностью выдуманными данными, цифрами и фактами.
Парламентарий также заявил, что соответствующая маркировка созданного нейросетью контента может быть выполнена с применением водяных или графических знаков. Такая маркировка, как считает депутат, должна быть максимально ненавязчивой, но при этом заметной пользователям.
В том случае, если соответствующий законопроект будет принят Государственной Думой, все отечественные сервисы искусственного интеллекта должны будут в автоматическом режиме маркировать сгенерированные тексты. Поэтому, как уверен Антон Немкин, задуматься о соответствующем функционале компаниям необходимо уже сегодня.
Эксперты при этом отмечают, что на данный момент не совсем понятно, как именно будут распознаваться написанные не человеком тексты. По словам Антона Немкина, соответствующие полномочия будут переданы Роскомнадзору, который смог бы работать в сфере обнаружения деструктивного контента, сгенерированного нейросетями.
Алексей Коробченко, глава отдела по информационной безопасности компании «Код безопасности», рассказал журналистам, что продвигаемый законопроект о маркировке созданного нейросетями контента имеет две ключевые цели. Прежде всего, любой сервис искусственного интеллекта на начальных стадиях развития сталкивается с так называемыми «галлюцинациями», когда технология попросту выдаёт выдуманную и ложную информацию. Поэтому маркировка должна уведомлять пользователей о том, что тексты были сгенерированы нейросетью, в связи с чем их необходимо перепроверить.
Помимо этого, как отмечает Алексей Коробченко, современные возможности искусственного интеллекта достаточно высоки, поэтому многим неопытным пользователям крайне сложно отличить картинки, видеоролики и, особенно, текстовые данные, которые были созданы человеком или искусственным интеллектом. Подобный подход, по словам эксперта, открывает широкий простор для злоумышленников по обману пользователей и манипуляций их мнением.
К примеру, недобросовестные компании могут создавать с помощью технологий искусственного интеллекта видеоролики, рекламируя различные товары и услуги. Но за счёт наличия маркировки российские пользователи будут понимать, что представленные в рекламе возможности продукта могут отличаться от реальных характеристик, резюмировал Алексей Коробченко.
Ещё по теме: