В Великобритании реализуется проект, напоминающий сценарий из фильма «Особое мнение». Министерство юстиции разработало алгоритм, способный заранее определять, кто может совершить убийство. Этот «проект по прогнозированию убийств» базируется на данных полиции и анализирует не только подозреваемых, но и жертв, свидетелей и даже людей с психическими заболеваниями.
Невидимая слежка
По данным правозащитной организации Statewatch, алгоритм разрабатывался втайне и использует чувствительные данные до полумиллиона человек, включая сведения о психическом здоровье, зависимости, суицидальных наклонностях и инвалидности. Это, конечно же, вызывает серьёзные опасения по поводу дискриминации и нарушений прав.
Как отмечает исследовательница София Лайалл:
«... снова и снова исследования показывают: системы, пытающиеся предсказать преступления, по своей сути ошибочны. Использование данных от структур с укоренённым расизмом лишь усиливает системную дискриминацию».
Мировая тенденция
Английский случай — не исключение. В США Университет Чикаго разработал алгоритм, предсказывающий преступления на неделю вперёд. Однако система лишь усилила контроль над уже и без того тщательно отслеживаемыми районами.
В Австралии программа STMP нацелена на молодёжь и коренные народы, а в Южной Корее и Аргентине также применяются предиктивные системы, вызывающие критику за вмешательство в частную жизнь и презумпцию невиновности.
В ответ на запрос журналистов Министерство юстиции заявило, что алгоритм используется исключительно «в исследовательских целях» для анализа рисков среди лиц, находящихся на испытательном сроке. Однако такие проекты часто переходят из эксперимента в официальную практику, особенно если они обещают снижение уровня насилия.
Опасный прецедент
Опыт применения ИИ в правоохранительной сфере вызывает опасения у правозащитников. В США, к примеру, алгоритмы используются для составления полицейских отчётов и работы систем аудиофиксации выстрелов, что усиливает слежку за уязвимыми сообществами.
Проблема в том, что ИИ не нейтрален — он обучается на исторически предвзятых данных. Если алгоритм построен на информации из дискриминирующей системы, он не исправит несправедливость, а только закрепит её, прикрывшись «объективной математикой».
Мы всё дальше отходим от базовых демократических принципов, считают правозащитники. В мире «предпреступлений» каждый может стать потенциальным подозреваемым, чей «уровень опасности» определяет алгоритм, скрытый от общественного контроля.
Поэтому, возможно, стоит вспомнить, что в «Особом мнении» предсказательная система была уничтожена — потому что оказалась несправедливой по самой своей природе.
Ещё по теме: