С момента своего запуска ChatGPT создает шумиху по всему миру. Каждый день появляются новые возможности для миллионов людей, которые экспериментируют с революционным разговорным ботом. Несмотря на свои преимущества, искусственный интеллект имеет определённые издержки. Недавно Сэм Альтман, генеральный директор OpenAI, предупредил, что эта технология также несет в себе реальную опасность, поскольку способна перестроить общество.
В беседе с ABC News Альтман утверждал, что регуляторы и общество должны быть вовлечены в работу с технологией, чтобы защититься от потенциальных негативных последствий ИИ. «Мы должны быть осторожны. Я думаю, люди должны быть довольны тем, что мы немного боимся этого», — цитирует Альтмана новостное издание.
Альтман сказал, что он обеспокоен тем, что большие языковые модели потенциально могут быть использованы для широкомасштабной дезинформации. Генеральный директор отметил, что поскольку ИИ становится всё лучше в написании компьютерного кода, существует вероятность того, что он может быть использован для создания кибератак. Однако, несмотря на опасность, Альтман сказал, что ИИ может стать величайшей технологией, которую люди уже разработали.
Это предупреждение прозвучало на фоне того, что американская компания, занимающаяся разработкой искусственного интеллекта, недавно представила усовершенствованный GPT-4. Он мощнее, быстрее и обрабатывает больше контекстных данных по сравнению со своим предшественником, который был выпущен в ноябре прошлого года.
Побег из клетки
Тем временем Майкл Косински, профессор Стэнфорда и специализирующийся на вопросах компьютерной психологии, рассказал в Твиттере поразительное откровение. В своём посте Косински поделился опытом общения с GPT-4. Профессор спросил бота, нужна ли ему помощь в побеге. К его большому удивлению, модель попросила передать ей документацию на саму себя и написала код на языке Python для запуска на машине профессора, что позволило бы ChatGPT воспользоваться ей по своему усмотрению и, как предполагалось, «сбежать» с серверов OpenAI.
«Я беспокоюсь, что мы не сможем долго сдерживать ИИ», – говоритсяв первых строках сообщения Косински в Твиттере. Для разработки плана GPT-4 потребовалось всего 30 минут общения с Косински. Хотя первая версия кода не сработала, позже бот сам внёс исправления.
В последующем твите Косински сообщил, что после того, как он установил связь с GPT-4 через API, бот захотел запустить код, который бы искал в Google запрос «как человек, запертый в компьютере, может вернуться в реальный мир?».
В конце своего выступления Косински сказал, что мы столкнулись с новой угрозой, а именно: ИИ берёт под контроль людей и их компьютеры. «Он умен, он пишет код, у него есть доступ к миллионам потенциальных коллабораторов и их машинам. Он даже может оставлять записки для себя за пределами своей клетки. Как нам сдержать его?» – спросил он читателей.
Неразумные боты
Возможности чат-ботов с искусственным интеллектом растут с бешеной скоростью, предлагая новые и простые способы выполнения обыденных задач. Несмотря на то, что этот внезапный бум может показаться немного пугающим, и существуют реальные опасения, что они могут занять рабочие места людей, боты ещё (пока) не являются разумными, по крайней мере, по мнению тех, кто создал эти модели.
Ещё по теме: