Использование ИИ для планирования поездок стало массовым, но вместе с удобством пришли и серьёзные риски. Как сообщает BBC, туристы всё чаще попадают в опасные ситуации, когда алгоритмы придумывают несуществующие локации или искажают данные о реальных маршрутах.
Так, в Перу двое путешественников направлялись в «Священный каньон Хумантай» — место, которого не существует. Их случайно услышал местный гид Мигель Анхель Гонгора Меса и срочно остановил.
«Подобная дезинформация в Перу крайне опасна, — отметил он. — Высота, климатические условия и доступность маршрутов требуют тщательного планирования. Когда программа вроде ChatGPT соединяет картинки и названия в фантазии, турист может оказаться на высоте 4000 метров без кислорода и связи».
Схожие инциденты происходят и в других странах. В Японии пара туристов застряла на вершине горы из-за того, что ChatGPT неверно указал время открытия тропы. Подобные случаи напоминают проблемы первых лет с картографическими приложениями, когда небольшие деревни внезапно сталкивались с наплывом машин из-за «шорткатов» в навигаторах. Но с ИИ ситуация сложнее: он не просто ошибается, а порой выдумывает целые объекты.
По данным глобального исследования компании Global Rescue, в 2025 году уже 24% путешественников используют ИИ при планировании поездок. Вместе с этим растёт число мошеннических схем: злоумышленники применяют ботов и дипфейки, чтобы обманом заставить туристов платить через поддельные сервисы.
«Распространение ИИ представляет собой угрозу для путешествий», — предупредил Хардинг Буш, бывший спецназовец ВМС США и директор по безопасности в Global Rescue. Эксперты призывают туристов проверять рекомендации ИИ трижды, прежде чем отправляться в путь.
Ещё по теме:
- Пользовательницы оплакивают «убитых» ИИ-бойфрендов после обновлений OpenAI
- Стартап Маска ищет «репетиторов по видеоиграм» для обучения Grok
- В Китае пиротехническое шоу закончилось падением сотен дронов