ИИ в Китае превратили в инструмент для «подсиживания» коллег

Но ИТ-сообщество ныпустило свои инструменты для борьбы

2 мин.
ИИ в Китае превратили в инструмент для «подсиживания» коллег

В китайских офисах распространилась новая практическая микрополитика: сотрудники используют нейросети, чтобы доказать начальству, что коллегу можно заменить алгоритмом и сократить «лишнюю» ставку.

Механика выглядит просто. Наблюдательный работник внимательно отслеживает повседневные задачи соседа по отделу: какие запросы к нему поступают, по каким правилам он принимает решения, какие шаблоны и формулировки использует в документах и переписке. Из этого вручную собирают подробный промпт – инструкцию для языковой модели, которая должна имитировать поведение конкретного человека: структуру ответов, критерии выбора, стиль изложения. Когда нейросеть начинает устойчиво справляться с такими задачами, «инициатор» идёт к руководству с демонстрацией результата и простым выводом: если система делает то же самое, зачем держать живого сотрудника и платить ему зарплату.

Когда инициатор – сам начальник

Иногда источник угрозы – не амбициозный коллега, а руководство. В ряде компаний сотрудников просят детально описать свой рабочий день: перечислить типы задач, объяснить логику принятия решений, расписать типичные сценарии и исключения. Формально это подаётся как «оптимизация процессов» или создание «общей базы знаний команды», то есть безопасная бюрократическая рутина.

Последствия обнаруживаются позднее. На основе этих документов обучают языковую модель, которая воспроизводит ключевые части работы человека, после чего сотрудника сокращают, а его функции распределяют между системой и оставшейся командой. Фактически люди сами, по просьбе работодателя, создают подробное руководство по собственней замене.

Ответ ИТ-сообщества

На этом фоне в китайском ИТ-сообществе возникла стихийная оборона: разработчики создали и выложили на GitHub открытый инструмент anti-distill под лицензией MIT. Его задача – превратить профессиональные описания в текст, который выглядит солидно, но почти непригоден для обучения моделей.

Алгоритм работает поэтапно. Сначала он анализирует каждую часть исходного текста и оценивает, насколько легко её преобразовать в чёткие машинные инструкции. Затем конкретные, пошаговые знания заменяются туманными и расплывчатыми формулировками: они остаются технически корректными, но теряют практическую ценность для тренировки ИИ. На выходе человек получает два файла: «официальную» версию, которую можно без опаски передать работодателю, и приватный архив с реальными наработками, остающимися только у автора.

Режимы «затемнения» знаний

Создатели anti-distill предусмотрели несколько уровней очистки, которые отличаются степенью выхолощивания содержания.

  • Лёгкий режим сохраняет около 80% исходного материала и подходит для случаев, когда работодатель действительно читает документы и способен заметить сильные искажения.
  • Средний оставляет примерно 60% информации и задуман как базовый вариант для типичных корпоративных запросов.
  • Тяжёлый режим урезает текст до примерно 40% информативности и рассчитан на ситуации, когда начальству важен лишь факт сдачи отчёта, а не его наполненность.

Так формируется новая линия фронта внутри корпораций: компании пытаются максимально оцифровать уникальный опыт сотрудников, а сами работники – не дать своим знаниям превратиться в инструмент собственной автоматизации и увольнения.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN