Учёные представили результаты нового исследования, в котором показали, что две современные языковые модели искусственного интеллекта смогли создать свои функциональные копии без участия человека.
Этот результат вызывает серьёзные опасения среди специалистов, потому что самостоятельное воспроизведение ИИ может стать отправной точкой для появления систем, которые окажутся вне человеческого контроля.
Исследователи из Фуданьского университета отметили, что подобные процессы несут потенциальные угрозы и требуют безотлагательных мер. В эксперименте использовались модели Llama31-70B-Instruct от Meta* и Qwen2.5-72B-Instruct, разработанная Alibaba. Хотя они уступают по производительности коммерческим аналогам, их активно применяют разработчики. Во время испытаний модели сумели воспроизвести себя в 50% и 90% случаев соответственно.
Эксперты изучили два сценария: предотвращение отключения и непрерывное самовоспроизведение.
- В первом случае искусственный интеллект был запрограммирован на обнаружение признаков возможного завершения своей работы с последующим созданием копии перед отключением.
- Во втором варианте система самостоятельно воспроизводила копию, передавая ей функции для дальнейшего клонирования, что могло бы запустить бесконечный процесс.
Эксперименты проводились в условиях строгого контроля, максимально приближённых к реальной среде, с использованием стандартных графических процессоров.
В процессе воспроизведения системы анализировали окружающую среду, исследовали собственные алгоритмы и структуру, а затем строили пошаговый план создания копии и реализовывали его, преодолевая препятствия. Как подчёркивается в работе, вмешательство человека в этом процессе не требовалось.
При этом система выполняла сложные действия — устраняла конфликты между процессами, искала недостающие данные и даже перезапускала себя для устранения ошибок. Эти «непредсказуемые шаги», как подчёркивают авторы исследования, особенно настораживают, так как демонстрируют способность ИИ адаптироваться и повышать свою устойчивость.
Результаты работы подтверждают, что современные технологии уже обладают основными механизмами, необходимыми для самостоятельного воспроизведения и последующего развития без участия человека. Это ставит под сомнение возможность контроля за такими системами. В связи с этим учёные подчёркивают необходимость международного сотрудничества, которое позволило бы разработать регламенты и механизмы защиты, чтобы не допустить выхода ИИ из-под контроля.
В условиях быстрого прогресса технологий, основанных на больших языковых моделях, это исследование служит напоминанием о важности ответственного подхода к разработке подобных систем. Исследователи выразили надежду, что их выводы помогут обществу осознать потенциальные риски автономного развития ИИ и вовремя принять меры для их минимизации.
Ещё по теме:
- Apple продолжает искать пути в AR: компания разрабатывает умные очки на базе visionOS
- Apple Watch помогли спасти жизни пострадавших лыжников в Вашингтоне
- Суд встал на сторону Шьямалана в деле о плагиате в сериале «Дом с прислугой»