В новом отчёте компании Harmonic Security, опубликованном в начале 2026 года, приводятся тревожные данные о безопасности использования генеративного искусственного интеллекта в корпоративном секторе. Проанализировав 22,4 миллиона промптов за прошедший год, эксперты выяснили, что подавляющее большинство рисков утечки данных (92,6%) исходит от крайне узкой группы приложений.
ChatGPT и состав «Большой шестёрки»
Безусловным лидером по количеству инцидентов остаётся ChatGPT. На долю чат-бота от OpenAI приходится 71,2% всех зафиксированных случаев раскрытия данных, при том что его доля в общем объёме проанализированных запросов составляет 43,9%.
Однако аналитики Harmonic Security отмечают диспропорцию рисков и у других ключевых игроков. Microsoft Copilot и Google Gemini демонстрируют более высокий уровень риска утечек по сравнению с их долей использования, хотя их масштабы значительно скромнее: Copilot использовали в 2,9% случаев, а Gemini — в 3,2%.
Общий уровень угрозы распределён неравномерно, что заставляет службы безопасности фокусироваться именно на лидерах рынка, получивших название «Большая шестёрка».
Угроза «Теневого ИТ» и личных аккаунтов
Особое внимание в исследовании уделено проблеме так называемого «теневого ИТ». Хотя большинство утечек происходит через корпоративные инструменты, 17% инцидентов связаны с использованием личных или бесплатных аккаунтов сотрудников. Эти каналы находятся вне зоны видимости корпоративных ИТ-отделов: здесь отсутствуют журналы аудита, а загруженные данные могут быть использованы для обучения публичных ИИ-моделей.
Статистика в этом сегменте показательна: 87% утечек чувствительной информации через личные аккаунты приходится на бесплатную версию ChatGPT. Оставшаяся доля распределена между другими популярными сервисами: Google Gemini (5 935 инцидентов), Microsoft Copilot (3 416), Claude (2 412) и Perplexity (1 245). Традиционные системы безопасности зачастую не могут различить типы аккаунтов и вынуждены применять грубые блокировки.
Проблема «длинного хвоста» и встроенного ИИ
Помимо лидеров рынка, головную боль для бизнеса создаёт «длинный хвост» из более чем 600 различных приложений. Полная блокировка доменов, связанных с ИИ, становится неэффективной, так как различные возможности искусственного интеллекта всё чаще встраиваются в привычные рабочие инструменты, будь то Canva, Google Translate, Grammarly или Gamma.
«Блокировка подобных сервисов создаёт значительные организационные трения», — отмечают авторы отчёта, добавляя, что слишком жёсткие меры часто приводят к полному отказу от контроля.
Отдельный риск представляют приложения из Китая: на их долю пришлось 4% использования, при этом какой-либо надзор за передачей данных в этих сервисах полностью отсутствует.
Что утекает в сеть
Из общего массива в 22,4 млн запросов около 579 000 (2,6%) содержали чувствительные корпоративные данные. Обнаружить такие утечки сложно из-за неструктурированного характера информации.
Структура скомпрометированных данных выглядит следующим образом:
- Исходный код: 30% всех утечек.
- Юридическая информация: 22,3%.
- Данные о слияниях и поглощениях (M&A): 12,6%.
- Финансовые прогнозы: 7,8%.
- Инвестиционные портфели: 5,5%.
В промптах также регулярно встречались ключи доступа, персональные данные (PII) и информация о воронках продаж.
От запретов к безопасному внедрению
Аластер Патерсон, генеральный директор Harmonic Security, подчёркивает, что простые запреты контрпродуктивны.
«Организациям необходимо перейти к стратегии внедрения, предоставляя сотрудникам доступ к лучшим ИИ-инструментам, но с сохранением надзора», — заявляет он.
По мнению эксперта, регулирование доступа к «Большой шестёрке» позволяет сделать гигантский шаг к контролю над ситуацией, но компаниям необходимо также внедрять точечные меры для управления «длинным хвостом» приложений.
«Бизнес, который выигрывает, сначала фокусируется на главных игроках, а затем работает с остальными инструментами, используя гибкие настройки контроля данных», — резюмирует Патерсон.