Китайский стартап AheadForm представил лицо робота Origin M1, которое уже называют самым реалистичным в мире. Видео с демонстрацией набрало миллионы просмотров на YouTube и вызвало дискуссии о том, насколько близко техника подошла к грани между человеком и машиной.
Origin M1 выглядит как живая голова: повороты, моргание и взгляд, следящий за объектами вне кадра, создают иллюзию присутствия. Внутри встроено 25 моторов, которые управляют тончайшими движениями — от мигания век до едва заметного наклона головы. В глазах размещены RGB-камеры, позволяющие фиксировать обстановку, а микрофоны и динамики обеспечивают голосовое взаимодействие.
Видео в Telegram: https://t.me/applespbevent_video/227Компания AheadForm была основана в 2024 году в Ханчжоу. Её цель — создавать роботов, которые умеют выражать эмоции и общаться с людьми максимально естественно.
«Мы хотим, чтобы робот был как вежливый коллега: он смотрит, слушает и отвечает», — отмечают в компании.
Проект ориентирован на использование в образовании, здравоохранении и сфере обслуживания.
Основатель AheadForm Юхан Ху ранее разработал систему Emo в рамках исследований в Колумбийском университете. Этот экспериментальный робот способен предсказывать человеческую улыбку за 839 миллисекунд до того, как она проявится, и тут же повторять её синхронно. Работа была опубликована в журнале Science Robotics и показала, что роботы, умеющие улавливать и отражать эмоции, делают общение с машинами более плавным и естественным.
Помимо Origin M1, у AheadForm есть несколько продуктовых линий. Серия Elf отличается заострёнными ушами и высокой точностью управления, серия Lan создавалась как более доступная и «человекообразная», а Xuan — это полноценный робот с телом и выразительной головой. Компания планирует интегрировать в них крупные языковые ИИ-модели, чтобы роботы не только понимали смысл сказанного, но и реагировали на интонацию, выражение лица и контекст общения.
Пока Origin M1 не продаётся, но публика внимательно следит за экспериментами. Одни называют их шагом в будущее, другие испытывают тревогу. Каждый просмотр видео оставляет вопрос открытым: что меняется в нашем восприятии, если машина смотрит прямо в глаза и моргает?
AheadForm продолжает дорабатывать систему, а зрители — гадать, где проходит граница между любопытством и тревогой.
Ещё по теме:
- В Digital Foundry протестировали iPhone 17 Pro с чипом A19 Pro в условиях реальных ААА-игр
- Устройство от OpenAI и Джони Айва столкнулось с серьёзными трудностями при разработке
- Руководство Apple ждёт масштабное обновление к 2030 году