Специалисты технологического института штата Иллинойс обнаружили, что дезинформация, генерируемая сегодня большими языковыми моделями, несёт в себе намного более значительную угрозу, если сравнивать с дезинформацией, создаваемой людьми. Результаты соответствующего исследования будут представлены на международной конференции International Conference on Learning Representations в мае 2024 года.
Как рассказывают исследователи, основная проблема состоит в том, что большие языковые модели продолжают сейчас насыщать глобальную сеть весьма сомнительным по правдоподобности контентом. Например, аналитическая компания News Guard выявила около 700 веб-ресурсов, генерирующих новости практически без участия человека. Кроме того, эксперты продолжают отслеживать фейковые нарративы, создаваемые в глобальной сети с использованием искусственного интеллекта.
Как подчёркивают специалисты по информационной безопасности из технологического института штата Иллинойс, дезинформация в больших количествах генерируется популярным чат-ботом ChatGPT и другими большими языковыми моделями, потому что они создают контент на основе разработанных людьми наборов дезинформационных данных, например, Politifact, Gossipcop и CoAID. В ходе своего исследования специалисты оценили образцы дезинформации, созданные как человеком, так и искусственным интеллектом. Изученные образцы имели практически одинаковые семантические модели, но присутствовали при этом различия в стиле и формулировках из-за разных авторов и подсказок для генерации контента. Исследователи отмечают, что стиль дезинформации, создаваемой искусственным интеллектом, существенно усложняет её обнаружение по сравнению с человеческими текстами.
Специалисты также указывают на то, что в процессе создания дезинформации большие языковые модели применяют четыре основных стратегии: перефразирование данных, переписывание текста, открытую генерацию и манипуляцию данными. Исследователи также заявили о том, что большие языковые модели можно проинструктировать таким образом, чтобы они писали произвольную дезинформацию, не используя справочные источники и создавали, по сути, неправдоподобный контент. Помимо этого, большие языковые модели могут самостоятельно создавать дезинформацию из-за каких-либо внутренних ошибок, что обычно называется «галлюцинацией искусственного интеллекта».
В резюме своего исследования специалисты заявляют о том, что разные стороны, включая научное сообщество, правительства различных стран, крупные интернет-сайты и общественность, должны прилагать совместные усилия, чтобы бороться с распространением дезинформации, генерируемой большими языковыми моделями. Подобный контент представляет значительную угрозу для безопасности в глобальной сети и общественного доверия, в особенности, если принимать во внимание лёгкость, с которой киберпреступники могут использовать большие языковые модели для разработки огромного количества неправдоподобного материала.
Ещё по теме: