Сегодня Apple анонсировала новые функции доступности для своей гарнитуры дополненной реальности Vision Pro. Основная камера гарнитуры будет использоваться для увеличения объектов и показа «живых описаний окружения» с использованием искусственного интеллекта и машинного обучения. Новые возможности применимы как к реальным, так и к виртуальным объектам. Они появятся в visionOS в конце этого года.
В качестве примера работы новой функции Apple показывает вид от первого лица, когда владелец Vision Pro переходит от чтения увеличенного изображения реальной книги рецептов к приложению «Напоминания», также увеличенному для удобства чтения. Также в рамках обновления функция доступности VoiceOver от Apple будет «описывать окружение, находить объекты, читать документы и многое другое».
Apple объявила о выпуске специализированного API для сторонних разработчиков приложений доступности. По словам компании, API может быть использован для «живой, индивидуальной помощи при визуальной интерпретации, […] предоставляющей пользователям больше возможностей понять своё окружение без помощи рук». Сейчас возможность разработки сторонних приложений может показаться не особенно востребованной, учитывая скромные продажи Vision Pro, но она, несомненно, обретёт популярность в следующих поколениях носимых устройств Apple.
Apple также сообщила о добавлении в visionOS, iOS и iPadOS нового протокола, который поддерживает интерфейсы мозг-компьютер (brain-computer interface, BCI) с помощью функции доступности Switch Control. Эта функция обеспечивает альтернативные методы взаимодействия с устройством, например, при помощи движений головы или отслеживания зрачков.
Стандарт BCI разрабатывался совместно с Synchron — компанией, создающей мозговые импланты. Благодаря этому партнёрству Apple планирует углубить разработку интерфейсов мозг-компьютер для преобразования мозговых сигналов в команды взаимодействия с интерфейсами iPhone, iPad, Mac и Apple Vision Pro. Разработанный Synchron имплант предназначен для установки в двигательную кору головного мозга.