Когда система распознавания лиц не видит в вас лицо

Почему технологии игнорируют миллионы людей с особенностями внешности

3 мин.
Когда система распознавания лиц не видит в вас лицо

Люди с нетипичными чертами лица всё чаще начали сталкиваться с тем, что системы распознавания просто не признают их человеческими. Алгоритмы, на которых строятся современные методы идентификации, оказываются неспособными распознать целую категорию людей — тех, чья внешность не вписывается в привычные цифровые шаблоны.

Отем Гардинер из Коннектикута пришла в местное отделение департамента автотранспорта, чтобы обновить права после замужества. Всё шло как обычно, пока фотоаппарат не сделал снимок для новой карточки. Машина дважды подряд отказалась принять фотографию, выдав ошибку: система не видела на снимке человеческого лица. Всё дело в том, что Гардинер страдает редким генетическим заболеванием — синдромом Фримена–Шелдона, который влияет на развитие лицевых мышц.

«Они мне просто сказали: "Ничего не можем сделать — система вас не распознаёт"», — вспоминает Отем. После нескольких часов попыток и консультаций с руководством сотрудница Департамента транспортных средств всё же оформила документ вручную. Но для Гардинер этот случай стал тревожным сигналом — машина отказалась признать её человеком.

История Отем далеко не единична. По оценкам исследователей, около 100 миллионов человек по всему миру живут с различными особенностями лица — от рубцов и врождённых синдромов до последствий ожогов и операций. Для многих из них распознавание лиц — не просто неудобство, а источник постоянных цифровых барьеров. Сбои алгоритмов блокируют им доступ к услугам банков, аэропортов, смартфонов и социальных сетей.

Организация Face Equality International регулярно получает жалобы от людей, которых автоматические системы либо не распознают, либо ошибочно помечают как подозрительных. Некоторые вспоминают, как не смогли пройти онлайн-верификацию для открытия счёта в банке. Другие теряли доступ к государственным документам, требующим биометрического подтверждения.

Причина этих ошибок кроется в самих данных, на которых обучены системы. Большинство алгоритмов машинного зрения тренируют на стандартных выборках изображений, где преобладают лица без отклонений в симметрии, с типичными пропорциями и выражениями. Люди с особенностями — например, с параличом лицевых мышц, удалённым глазом или шрамами — остаются вне поля модели. Для ИИ их лица буквально не существуют.

Профессор по работе с искусственнм интеллектом из Оксфорда Эмма Роудс отмечает:

«Мы научили машины видеть только то, что считаем "нормой". Всё, что за её пределами, алгоритмы автоматически помечают как ошибку».

В результате технологии, которые должны были сделать мир доступнее, фактически усиливают социальное исключение. Устройства не просто «не видят» этих людей — они исключают их из цифровой инфраструктуры современности.

Для большинства пользователей распознавание лиц стало повседневностью: разблокировать смартфон, пройти через рамку аэропорта, подтвердить покупку. Но для тех, чьи лица не «вписываются» в модель, каждая такая процедура превращается в стресс и унижение. Люди рассказывают о попытках подобрать ракурс, освещение, фон — лишь бы алгоритм сработал. Некоторые вынуждены добиваться разрешения на ручное подтверждение личности или носить документы постоянно при себе.

И хотя крупные компании, включая Apple, Google и Microsoft, заявляют о «повышении инклюзивности» своих систем, на практике изменения остаются точечными. Исправить фундаментальную ошибку — отсутствие разнообразия данных — чрезвычайно сложно. Ведь речь идёт не просто о дополнительной категории пользователей, а о самой архитектуре машинного восприятия.

Проблема распознавания лиц с особенностями напоминает более широкий кризис ИИ — встроенные предвзятости алгоритмов. Исследования неоднократно показывали, что системы хуже справляются с идентификацией женщин, пожилых людей и представителей этнических меньшинств. Теперь к этому списку добавились и люди с атипичной внешностью.

Технология, наделённая «зрением», оказалась зависимой от ограниченного набора образов, навязанных человеку. И это ставит вопрос гораздо шире, чем доступ к смартфону: кто решает, какое лицо считать «нормальным»?

Эксперты призывают к переосмыслению принципов разработки систем машинного зрения. Решением может стать обучение алгоритмов на более разнообразных выборках, включающих реальных людей с видимыми особенностями. Кроме того, необходимо внедрение альтернативных методов идентификации — от многомодальных решений до традиционных визуальных проверок, выполняемых человеком.

Отем Гардинер продолжает выступать за изменение подхода к биометрии.

«Я не хочу, чтобы нас жалели, — говорит она. — Хочу, чтобы системы перестали считать нас ошибкой».

Получается, что в цифровом мире, где алгоритмы становятся посредниками между человеком и обществом, невидимость может оказаться самой жестокой формой исключения. Когда техника перестаёт видеть в вас человека, выбор между комфортом и достоинством уже не кажется личным — он становится гражданским.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN