Конец эры команд: «Алиса» начала понимать человеческий язык

Голосовой помощник «Яндекса» больше не требует чётких формулировок — достаточно намёка

1 мин.
Конец эры команд: «Алиса» начала понимать человеческий язык

«Яндекс» объявил о запуске нового режима работы «Алисы» в экосистеме умного дома: ассистент научился распознавать свободную речь и анализировать контекст диалога. Теперь владельцам умных устройств не нужно заучивать точные фразы для каждого действия – достаточно высказать мысль вслух.

Пользователь может попросить «прибраться», не называя робот-пылесос. Сказать про «свет на столе» – без упоминания настольной лампы. Заменить официальное «зал» бытовым «гостиная». Фраза «мне нужно встать в семь утра» автоматически установит будильник.

Раньше каждое действие требовало отдельной команды: сначала включить свет, затем задать цвет, после – настроить яркость. Теперь «Алиса» выполнит всё за один раз: «Включи жёлтый свет на сорок процентов».

В основе изменений – технология tool calling (вызов функций). Она работает как диспетчер между языковой моделью и устройствами: анализирует запрос, разбивает сложные задачи на простые шаги и определяет, какие гаджеты задействовать. В компании обещают, что с каждым обновлением нейросеть будет распознавать всё больше разговорных формулировок.

По данным GfK за 2024 год, 52% жителей крупных российских городов уже пользуются устройствами умного дома, ещё 23% планируют подключиться в ближайшее время. Лидеры спроса – умные колонки, чайники и роботы-пылесосы.

Типичная система состоит из управляющего центра (хаба) и датчиков, связанных беспроводными протоколами. Умная колонка, подключённая к Wi-Fi, играет роль хаба: получает голосовую команду, передаёт её на сервер «Яндекса» для распознавания речи, затем алгоритмы отправляют запрос в облако производителя устройства, а тот – конечной лампочке или чайнику.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN