
Чтобы превратить Apple Watch в полноценное носимое устройство с поддержкой искусственного интеллекта, Apple разрабатывает несколько часов, оснащенных камерами. Благодаря им устройство сможет «видеть» окружающую среду, сообщает Марк Гурман из Bloomberg.
Эта разработка связана с продвижением технологии Visual Intelligence, которую Apple также планирует внедрить в AirPods. В настоящее время Visual Intelligence базируется на решениях ChatGPT и Google, однако, по словам Гурмана, компания стремится перенести эту функциональность на собственные разработки:
Apple хочет сделать Visual Intelligence основной технологией будущих устройств, в частности AirPods с камерами, о которых я писал несколько месяцев назад. Компания также намерена перевести Visual Intelligence на свои ШИ-модели, чтобы не зависеть от OpenAI и Google».
По Apple Watch с камерами, Гурман отмечает, что компания разрабатывает такие решения как для стандартной версии часов, так и для модели Ultra.
В обычной версии Apple Watch камеру могут интегрироваться непосредственно в дисплей, подобно реализации в iPhone. Пока неизвестно, речь идет о камере под экраном или классическом вырезе.
В версии Apple Watch Ultra камера может размещаться сбоку корпуса, рядом с колесиком Digital Crown и кнопкой. Благодаря большему размеру корпуса Ultra это место кажется удобным для сканирования объектов.
Благодаря новой камере часы могут использовать инструменты Visual Intelligence, например, для распознавания объектов или перевода текста с изображений.
Ожидается, что Apple Watch с камерами выйдут не раньше 2027 вместе с AirPods, оснащенными камерами. Однако термины зависят от прогресса Apple в развитии искусственного интеллекта, поскольку в настоящее время компания сталкивается со многими нерешенными проблемами, задерживающими внедрение ИИ-функций.
Некоторые изображения и информационные материалы в данной публикации взяты с официального сайта Apple.com и принадлежат их правообладателям.
Часть информации получена из открытых источников сети интернет.