Сегодня компания Apple представила набор новых функций «Универсального доступа» когнитивных возможностей, зрения и речи. Эти инструменты появятся на iPhone, iPad и Mac в конце текущего года. Являясь признанным лидером в области доступности основных технологий, компания Apple подчёркивает, что эти инструменты созданы с учётом мнения сообщества людей с ограниченными возможностями.

Assistive Access, который скоро появится в iOS и iPadOS, предназначен для людей с когнитивными нарушениями. Функция упрощает интерфейс iPhone и iPad, уделяя особое внимание тому, чтобы упростить общение с близкими, обмен фотографиями и прослушивание музыки. Например, приложения «Телефон» и FaceTime будут объединены в одно.

Дизайн также стал более удобным для восприятия благодаря крупным значкам, повышенной контрастности и более чётким текстовым обозначениям. Однако пользователь может настроить эти визуальные функции по своему вкусу, причём эти настройки будут распространяться на все приложения, совместимые с Assistive Access.

В рамках существующего инструмента «Лупа» незрячие и слабовидящие пользователи уже могут использовать свой телефон для определения местоположения близлежащих дверей, людей или указателей. Теперь Apple представляет функцию Point and Speak, которая использует камеру устройства и сканер LiDAR, чтобы помочь инвалидам по зрению взаимодействовать с физическими объектами, имеющими несколько текстовых надписей.

Так, если слабовидящий пользователь хочет разогреть еду в микроволновой печи, он может использовать Point and Speak, чтобы определить разницу между кнопками «попкорн», «пицца» и «уровень мощности» – когда устройство распознает текст, оно прочтёт его вслух. Point and Speak будет доступен на английском, французском, итальянском, немецком, испанском, португальском, китайском, кантонском, корейском, японском и украинском языках.

Особенно интересной функцией из этой группы является Personal Voice, которая создаёт автоматический голос, звучащий как ваш, а не как Siri. Этот инструмент предназначен для людей, которые могут быть подвержены риску потери способности говорить из-за заболеваний, подобных БАС. Чтобы создать персональный голос, пользователь должен потратить около пятнадцати минут на чтение в микрофон случайно выбранных текстовых подсказок. Затем, используя машинное обучение, звук обрабатывается локально на iPhone, iPad или Mac для создания персонального голоса.

Легко представить, как хранилище уникальных, высокообученных моделей преобразования текста в речь может быть опасным в чужих руках. Но, по словам Apple, эти пользовательские голосовые данные никогда не передаются никому, даже самой компании. Более того, Apple утверждает, что даже не связывает ваш личный голос с вашим Apple ID, поскольку некоторые домохозяйства могут иметь общий логин. Вместо этого пользователи должны выбрать, хотят ли они, чтобы персональный голос, сделанный ими на Mac, был доступен на iPhone, или наоборот.

На момент запуска Personal Voice будет доступен только для англоговорящих пользователей, а создать его можно будет только на устройствах с собственными чипами от Apple.

Кроме того, функция Live Speech, доступная на всех устройствах Apple, позволит людям набирать текст, который они хотят сказать, чтобы их слова были произнесены вслух. Инструмент будет доступен на экране блокировки, но его можно использовать и в других приложениях, например, в FaceTime. Кроме того, если пользователям часто приходится повторять одни и те же фразы — например, регулярно заказывать кофе, — они могут сохранять в Live Speech предустановленные фразы.

Существующие инструменты Apple для преобразования речи в текст также получат обновление. Теперь в «Управлении голосом» будет включено фонетическое редактирование текста, что облегчит людям, набирающим текст голосом, исправление ошибок. Эта функция будет доступна изначально на английском, испанском, французском и немецком языках.

Ожидается, что новые функции появятся в различных продуктах Apple в этом году.


Ещё по теме: