Владелец прибрежного ресторана в Южном Уэльсе практически спас двоих пловцов, которые чуть не утонули, решив отправиться на остров после того, как спросили у ChatGPT о времени отлива.
По информации местных новостей, пловцы попытались вернуться с острова Санли – скалистого участка в нескольких тысячах футов от берега – как раз перед возвращением прилива. Хозяин ресторана Гордон Хэдфилд взял мегафон и закричал им, чтобы те повернули обратно, вероятно, спася их жизни.
Регион знаменит вторым по величине приливом в мире – его перепад воды достигает примерно 15 метров. Летом же здесь часто случается, что отдыхающие попадают в ловушку из-за быстро приходящего прилива. Узкая коса к острову Санли затапливается водой очень быстро – скорость прилива может достигать трёх с половиной метров в секунду.
Этот случай – лишь очередной пример, когда увлечённые приключениями люди оказались в реальной опасности из-за советов чат-ботов на базе ИИ. Технология уже известна тем, что «галлюцинирует» – генерирует несуществующую или ошибочную информацию, что иногда приводит к трагическим последствиям. Хотя разработчики утверждают, что их продукты сравнимы с «академиками уровня PhD», такие сервисы, как ChatGPT, часто путаются даже в элементарных вопросах и зачастую сообщают полностью вымышленную информацию.
Один из пловцов рассказал:
«Я совершил ошибку, воспользовавшись ChatGPT, чтобы узнать время отлива. Он выдал 9:30 утра, мы отправились на остров, а когда решили возвращаться – всё оказалось совсем иначе. Для меня это стало уроком».
Пользователи в сети были шокированы безрассудством ситуации.
Я бы не доверил ChatGPT даже объяснить, как набрать ванну! – написал один из них в Bluesky.
Удивительно, что существует масса способов узнать время приливов, даже в газетах эти данные публикуют, так зачем доверять ChatGPT? Для меня, как для пловца, это совершенно безумно, – отреагировал другой.
Были и похожие случаи: к примеру, два туриста в окрестностях Ванкувера вызвали спасателей, когда не учли, что на возвышениях весной всё ещё лежит снег, а их обувь была предназначена для городских тротуаров. Как выяснилось, маршрут они спланировали с помощью ChatGPT.
Также совсем недавно сообщалось, что ИИ частенько заводит туристов в потенциально опасные места в поисках несуществующих достопримечательностей.
Профессор машинного обучения из Университета Карнеги-Меллона, Райид Гани, отмечает:
ИИ не отличает советы по путешествиям, направления или даже рецепты – он просто прогоняет слова. Вот почему возникает множество ошибок.
К счастью, в уэльском инциденте всё закончилось благополучно.
Представитель Королевского национального общества спасения на воде отметил:
«Здорово, что местные жители и такие, как Гордон Хэдфилд, хорошо осведомлены об опасностях. Их бдительность и своевременное предупреждение зачастую спасают жизни».
Ситуация могла бы закончится куда хуже, не будь Хэдфилда на своём месте.
Ещё по теме:
- Исследование: Игроки не готовы покупать GTA VI за 100 долларов
- M4 и M5 в iPad Pro: сравнение поколений
- Автор скандальной картины, созданной ИИ, доказывает в суде, что он настоящий художник