Искусственный интеллект стал с лёгкостью обходить даже самую сложную капчу

Искусственный интеллект без труда распознаёт искажённые символы

1 мин.
Искусственный интеллект стал с лёгкостью обходить даже самую сложную капчу

Используемая в течение многих последних лет в интернете система проверки CAPTCHA, отделяющая реальных пользователей от ботов, столкнулась к 2024 году с серьёзными проблемами из-за развития современных технологий искусственного интеллекта. Это связано с тем, что нейросети способны за доли секунды решать задачи, которые по задумке должны были быть максимально сложными для роботов.

Искусственный интеллект без труда распознаёт искажённые символы, находит объекты на изображениях, а также имитирует действия обычного пользователя интернета.

Разработанная в начале 2000-х годов CAPTCHA изначально предлагала пользователям решать простые задачи, например вводить текст с искажённым изображением, что было невероятно сложно для алгоритмов того времени. В течение последних лет появлялись новые модернизированные версии, в том числе ReCaptcha и ReCaptcha v2 с задачами на выбор изображений.

Теперь же технологии искусственного интеллекта, например Google Vision и OpenAI Clip, способны распознавать искажённые изображения и изменённый текст намного быстрее и точнее человека. Благодаря этому ИИ-боты без труда обходят все проверки, создают поддельные учётные записи, распространяют спам, скупают билеты и совершают другие вредоносные действия. Из-за этого многие простые пользователи сталкиваются с проблемами доступа к различным сайтам и сервисам, а сами системы остаются беззащитными перед подобными автоматизированными кибератаками.

Обеспечить высокий уровень защиты от ботов планировали с помощью новой версии ReCaptcha v3, появившейся в 2018 году. Эта система проводит анализ пользовательского поведения, отслеживает движение курсора, скорость набора текста и другие характеристики, что позволяет с высокой точностью отличать человека от бота. Но подобный подход вызывает критику из-за вопросов обеспечения конфиденциальности пользователей и недостаточной надёжности.

Аналитики в качестве иных методов проверки пользователей предлагают использовать биометрические данные, например отпечатки пальцев, сканирование лица и изучение голосовых образцов. Но это остаётся ограниченной практикой, поскольку далеко не все пользователи готовы предоставлять свои биометрические данные.

В связи с этим становится понятно, что развитие современных технологий искусственного интеллекта вынуждает разработчиков профильных компаний полностью пересматривать подходы к проверке пользователей и созданию систем, позволяющих отличать их от ботов.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube