В Великобритании реализуется проект, напоминающий сценарий из фильма «Особое мнение». Министерство юстиции разработало алгоритм, способный заранее определять, кто может совершить убийство. Этот «проект по прогнозированию убийств» базируется на данных полиции и анализирует не только подозреваемых, но и жертв, свидетелей и даже людей с психическими заболеваниями.

Невидимая слежка

По данным правозащитной организации Statewatch, алгоритм разрабатывался втайне и использует чувствительные данные до полумиллиона человек, включая сведения о психическом здоровье, зависимости, суицидальных наклонностях и инвалидности. Это, конечно же, вызывает серьёзные опасения по поводу дискриминации и нарушений прав.

Как отмечает исследовательница София Лайалл:

«... снова и снова исследования показывают: системы, пытающиеся предсказать преступления, по своей сути ошибочны. Использование данных от структур с укоренённым расизмом лишь усиливает системную дискриминацию».

Мировая тенденция

Английский случай — не исключение. В США Университет Чикаго разработал алгоритм, предсказывающий преступления на неделю вперёд. Однако система лишь усилила контроль над уже и без того тщательно отслеживаемыми районами.

В Австралии программа STMP нацелена на молодёжь и коренные народы, а в Южной Корее и Аргентине также применяются предиктивные системы, вызывающие критику за вмешательство в частную жизнь и презумпцию невиновности.

В ответ на запрос журналистов Министерство юстиции заявило, что алгоритм используется исключительно «в исследовательских целях» для анализа рисков среди лиц, находящихся на испытательном сроке. Однако такие проекты часто переходят из эксперимента в официальную практику, особенно если они обещают снижение уровня насилия.

Опасный прецедент

Опыт применения ИИ в правоохранительной сфере вызывает опасения у правозащитников. В США, к примеру, алгоритмы используются для составления полицейских отчётов и работы систем аудиофиксации выстрелов, что усиливает слежку за уязвимыми сообществами.

Проблема в том, что ИИ не нейтрален — он обучается на исторически предвзятых данных. Если алгоритм построен на информации из дискриминирующей системы, он не исправит несправедливость, а только закрепит её, прикрывшись «объективной математикой».

Мы всё дальше отходим от базовых демократических принципов, считают правозащитники. В мире «предпреступлений» каждый может стать потенциальным подозреваемым, чей «уровень опасности» определяет алгоритм, скрытый от общественного контроля.

Поэтому, возможно, стоит вспомнить, что в «Особом мнении» предсказательная система была уничтожена — потому что оказалась несправедливой по самой своей природе.


Ещё по теме: