Более совершенная версия голосового помощника Siri, которую разрабатывает Apple, будет работать на базе Google Gemini, согласно сообщению издания Bloomberg. Компания Apple будет платить Google примерно один миллиард долларов в год за использование нейросети с 1,2 триллионом параметров.
Для справки: параметры — это показатель, характеризующий, насколько хорошо модель понимает и реагирует на запросы пользователя. В общем случае большее количество параметров указывает на более высокие способности, хотя архитектура и методы обучения также играют важную роль. По словам Bloomberg, модель Google значительно превосходит параметры нынешних моделей Apple.
Текущая облачная версия Apple Intelligence использует 150 миллиардов параметров, однако специфических данных о характеристиках других разрабатываемых компанией моделей нет.
Apple будет использовать Gemini для функций, связанных с суммированием информации и планированием многошаговых задач, а также их выполнением, но собственные модели Apple также будут задействованы для некоторых функций Siri. Модель искусственного интеллекта, которую Google разрабатывает специально для купертиновцев, будет работать на серверах Apple Private Cloud Compute, поэтому Google не будет иметь доступ к данным пользователей Apple.
Gemini использует архитектуру Mixture-of-Experts, благодаря чему, несмотря на наличие более триллиона параметров в целом, для обработки каждого запроса активируется лишь часть из них. Такая архитектура позволяет компании располагать большой общей вычислительной мощностью, не неся при этом значительных затрат на обработку данных.
Apple рассмотрела вариант использования собственных моделей искусственного интеллекта для голосовой версии Siri и также тестировала варианты от OpenAI и Anthropic, но в итоге выбрала Gemini, поскольку расценки Anthropic оказались слишком высокими. Apple уже имеет партнёрское соглашение с Google по поисковым запросам — Google платит Apple около 20 миллиардов долларов в год за то, чтобы быть поисковой системой по умолчанию на устройствах Apple.
Хотя Apple на данный момент планирует полагаться на искусственный интеллект Google, компания продолжает работать над собственными моделями и перейдёт на своё решение, когда её языковые модели станут достаточно совершенными. Apple уже разрабатывает облачную модель с одним триллионом параметров, которая может быть готова уже в 2026 году. Маловероятно, что компания будет публично говорить о своём соглашении с Google, пока разрабатывает внутренние модели.
Apple планировала представить обновленную версию Siri вместе с iOS 18, но из-за выявленных недостатков компании пришлось полностью переработать основную архитектуру ассистента и отложить запуск.
Обновленная Siri сможет отвечать на более сложные запросы и выполнять более сложные задачи внутри приложений и между ними. По функциональности она будет ближе к Claude и ChatGPT, однако Apple не планирует выпустить отдельное приложение с чат-ботом.
Ещё по теме:
- Второй сезон сериала «Последнее, что он сказал мне» выйдет 20 февраля 2026 года
- Китайские астронавты установили духовку на космической станции
- iOS 26.2 откроет доступ к сторонним магазинам приложений в Японии