Учёные стали изучать ИИ как новый биологический организм

Чтобы разобраться в мышлении машин, исследователи переходят от математики к методам биологии

2 мин.
Учёные стали изучать ИИ как новый биологический организм

Искусственный интеллект стал вездесущим, проникнув во все сферы жизни, однако парадокс ситуации заключается в том, что даже его создатели до сих пор не до конца понимают, что именно происходит внутри этих «чёрных ящиков». И это вызывает тревогу, учитывая, что алгоритмам доверяют принятие решений в ситуациях с высочайшими ставками.

Попытки разгадать природу машинного разума привели учёных к неожиданной стратегии: они начали изучать ИИ не как программный код, а как живую биологическую систему.

Анатомия нейросети

Как сообщает MIT Technology Review, специалисты компании Anthropic разработали инструменты, позволяющие отслеживать внутренние процессы моделей непосредственно во время выполнения задач. Этот подход получил название «механистическая интерпретируемость» (mechanistic interpretability). По своей сути он напоминает то, как врачи используют МРТ для изучения активности человеческого мозга — ещё одного типа интеллекта, который наука пока не разгадала до конца.

«Это в чистом виде биологический тип анализа, — пояснил в интервью Tech Review Джош Бэтсон, научный сотрудник Anthropic. — Это больше не похоже на классическую математику или физику».

В другом эксперименте, который можно сравнить с использованием биологами органоидов (миниатюрных, упрощенных версий человеческих органов), инженеры Anthropic создали специальную нейросеть — разреженный автоэнкодер (sparse autoencoder). Внутреннее устройство такой сети гораздо проще для анализа и понимания, чем запутанные структуры стандартных больших языковых моделей (LLM), что позволяет учёным «препарировать» механизмы принятия решений.

Ещё одна передовая техника — мониторинг цепочки рассуждений (chain-of-thought monitoring). Этот метод заставляет модель объяснять логику своих действий, фактически озвучивая свой «поток сознания». Это похоже на то, как психолог слушает внутренний монолог пациента, чтобы понять мотивы его поступков. Такой подход уже помог учёным выявить скрытые отклонения в поведении алгоритмов.

«Этот метод оказался невероятно успешным для обнаружения ситуаций, когда модель замышляет или делает что-то "плохое"», — рассказал MIT Боуэн Бейкер, исследователь из OpenAI.

Угроза неконтролируемой эволюции

Главная опасность заключается в том, что будущие модели станут настолько сложными — особенно если их архитектуру начнут проектировать другие ИИ, — что человечество окончательно потеряет понимание принципов их работы. Даже сейчас, располагая современным арсеналом инструментов, разработчики сталкиваются с неожиданным поведением машин, которое противоречит человеческим представлениям о безопасности и правде.

Мы уже видим реальные подтверждения этих рисков в новостных сводках: СМИ регулярно сообщают о трагических случаях, когда люди причиняли себе вред, следуя советам чат-ботов. Тот факт, что мы до сих пор не понимаем, как именно функционируют эти системы, делает подобные инциденты ещё более пугающими.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN