Разработчики команды Google DeepMind сообщили о создании технологии искусственного интеллекта, которая превосходит среднестатистического человека в работе по проверке фактов. По словам специалистов, подобный инструмент позволит существенно уменьшить расходы и повысить точность получаемых результатов.
Проведённое Google DeepMind исследование наглядно продемонстрировало, что созданные технологии искусственного интеллекта превосходят по многим параметрам человеческие фактчекеры во время оценки достоверности информации, которая генерируется большими языковыми моделями. Разработчиками был представлен [PDF] метод, который называется Search-Augmented Factuality Evaluator (SAFE). Эта технология проводит анализ текста на предмет наличия там отдельных фактов, после чего проверяет достоверность написанного с помощью поисковика Google.
Во время исследования новую технологию SAFE сравнили с оценками людей в наборе, состоящем приблизительно из 16 000 различных фактов. В результате выяснилось, что искусственный интеллект давал примерно те же оценки, как и человек, в 72% случаях. При этом в случаях, когда оценки технологии SAFE и человека не совпадали, суждение искусственного интеллекта оказывались верными в 76% случаев.
По словам аналитиков, на данный момент есть определённые вопросы относительно того, что конкретно значит «сверхчеловеческая эффективность». Поэтому в подобном контексте необходимо сравнивать оценки ИИ и оценки достоверности фактов, которые были предоставлены экспертами в сфере фактчекинга, а не простыми пользователями.
Представители Google DeepMind отмечают, что основным достоинством новой технологии SAFE является её стоимость, поскольку эксплуатация этого сервиса обойдётся заинтересованным организациям примерно в 20 раз дешевле, чем работа человека по оценке фактов. Помимо этого, по мере роста объёмов данных, которые создаются большими языковыми моделями, наличие недорогого и масштабированного способа проверки фактов является максимально важной возможностью.
Ещё по теме: