Совет от ChatGPT едва не стоил людям жизни

История с приливом в Уэльсе и опасности рекомендаций от ИИ

2 мин.
Совет от ChatGPT едва не стоил людям жизни

Владелец прибрежного ресторана в Южном Уэльсе практически спас двоих пловцов, которые чуть не утонули, решив отправиться на остров после того, как спросили у ChatGPT о времени отлива.

По информации местных новостей, пловцы попытались вернуться с острова Санли – скалистого участка в нескольких тысячах футов от берега – как раз перед возвращением прилива. Хозяин ресторана Гордон Хэдфилд взял мегафон и закричал им, чтобы те повернули обратно, вероятно, спася их жизни.

Регион знаменит вторым по величине приливом в мире – его перепад воды достигает примерно 15 метров. Летом же здесь часто случается, что отдыхающие попадают в ловушку из-за быстро приходящего прилива. Узкая коса к острову Санли затапливается водой очень быстро – скорость прилива может достигать трёх с половиной метров в секунду.

Этот случай – лишь очередной пример, когда увлечённые приключениями люди оказались в реальной опасности из-за советов чат-ботов на базе ИИ. Технология уже известна тем, что «галлюцинирует» – генерирует несуществующую или ошибочную информацию, что иногда приводит к трагическим последствиям. Хотя разработчики утверждают, что их продукты сравнимы с «академиками уровня PhD», такие сервисы, как ChatGPT, часто путаются даже в элементарных вопросах и зачастую сообщают полностью вымышленную информацию.

Один из пловцов рассказал:

«Я совершил ошибку, воспользовавшись ChatGPT, чтобы узнать время отлива. Он выдал 9:30 утра, мы отправились на остров, а когда решили возвращаться – всё оказалось совсем иначе. Для меня это стало уроком».

Пользователи в сети были шокированы безрассудством ситуации.

Я бы не доверил ChatGPT даже объяснить, как набрать ванну! – написал один из них в Bluesky.
Удивительно, что существует масса способов узнать время приливов, даже в газетах эти данные публикуют, так зачем доверять ChatGPT? Для меня, как для пловца, это совершенно безумно, – отреагировал другой.

Были и похожие случаи: к примеру, два туриста в окрестностях Ванкувера вызвали спасателей, когда не учли, что на возвышениях весной всё ещё лежит снег, а их обувь была предназначена для городских тротуаров. Как выяснилось, маршрут они спланировали с помощью ChatGPT.

Также совсем недавно сообщалось, что ИИ частенько заводит туристов в потенциально опасные места в поисках несуществующих достопримечательностей.

Профессор машинного обучения из Университета Карнеги-Меллона, Райид Гани, отмечает:

ИИ не отличает советы по путешествиям, направления или даже рецепты – он просто прогоняет слова. Вот почему возникает множество ошибок.

К счастью, в уэльском инциденте всё закончилось благополучно.

Представитель Королевского национального общества спасения на воде отметил:

«Здорово, что местные жители и такие, как Гордон Хэдфилд, хорошо осведомлены об опасностях. Их бдительность и своевременное предупреждение зачастую спасают жизни».

Ситуация могла бы закончится куда хуже, не будь Хэдфилда на своём месте.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN