Учёные заявили о риске ядерных аварий из-за автоматизации лицензирования атомных объектов с помощью ИИ

Генеративные модели склонны к скрытым логическим ошибкам

2 мин.
Учёные заявили о риске ядерных аварий из-за автоматизации лицензирования атомных объектов с помощью ИИ

С учётом активного внедрения генеративных моделей в сферу промышленной автоматизации в научном сообществе развивается дискуссия по поводу целесообразности применения таких алгоритмов в атомной энергетике.

В отчёте исследовательского центра AI Now предупреждается, что использование нейросетей для подготовки документов по атомным проектам может повлечь цепочку опасных ошибок, нарушив сложную систему контроля, выстроенную за десятилетия ради предотвращения катастроф.

Центр AI Now предупреждает о проекте корпорации Microsoft, объединившейся с энергетическим гигантом Westinghouse в попытке ускорить лицензирование новых объектов за счёт алгоритмической генерации проектных материалов.

В компании рассчитывают, что ИИ-модели, обученные на документации прошлых лет и данных о будущих строительных площадках, смогут выдавать готовые формы, которые затем пройдут внутреннюю проверку.

Представители Idaho National Laboratory уже проводят эксперименты с подобной схемой, а Lloyd’s Register и Westinghouse продвигают собственную систему под названием bertha, обещая сократить сроки подготовки комплекта документов с нескольких месяцев до считанных минут.

Центр AI Now предостерегает от такого подхода, напоминая, что лицензирование в атомной отрасли — это не бюрократическая формальность, а многоступенчатый процесс, предполагающий экспертный анализ, инженерные расчёты, обоснование технических решений и их проверку. Попытка заменить эти этапы нейросетью, пусть и с последующей доработкой вручную, может привести к тому, что критически важные моменты останутся вне внимания.

В докладе заявлено, что даже незначительное отклонение в данных или сбой в интерпретации технических характеристик способен вызвать цепную реакцию ошибок. В качестве примера исследователи приводят аварию на АЭС Три-Майл-Айленд в 1979 году, где неверное толкование показаний приборов и системные сбои привели к частичному расплавлению активной зоны реактора.

В AI Now отмечают, что генеративные модели склонны к скрытым логическим ошибкам, выявить которые до запуска проекта крайне сложно. В условиях атомной энергетики это может обернуться непредсказуемыми последствиями.

Кроме инженерных рисков в отчёте указаны и проблемы, связанные с конфиденциальностью. Авторы отчёта говорят, что для обучения моделей корпорации запрашивают доступ к массивам чувствительной информации — о технических параметрах будущих объектов, особенностях их размещения, схемах проектирования.

Эти данные обычно не раскрываются публично и защищаются в рамках национальных и международных режимов. Их передача на внешние серверы, особенно в облачную инфраструктуру, по мнению исследователей, способна поставить под угрозу режим ядерной неприкосновенности и создать лазейки для реализации проектов двойного назначения.

Эксперты AI Now уверены, что автоматизация в атомной сфере должна быть предельно осторожной, а генеративные алгоритмы нельзя допускать до процессов, где ошибка способна привести к катастрофе. Упрощение или ускорение лицензирования за счёт нейросетей воспринимается ими как шаг, способный разрушить сложившиеся механизмы защиты, которые были сформированы ценой исторических трагедий.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN