Щоб перетворити Apple Watch на повноцінний носимий пристрій із підтримкою штучного інтелекту, Apple розробляє кілька моделей годинників, оснащених камерами. Завдяки їм пристрій зможе «бачити» навколишнє середовище, повідомляє Марк Гурман із Bloomberg.

Ця розробка пов’язана з просуванням технології Visual Intelligence, яку Apple планує також впровадити в AirPods. Наразі Visual Intelligence переважно базується на рішеннях ChatGPT та Google, однак, за словами Гурмана, компанія прагне перенести цю функціональність на власні розробки:

«Apple хоче зробити Visual Intelligence основною технологією майбутніх пристроїв, зокрема AirPods із камерами, про які я писав кілька місяців тому. Компанія також має намір перевести Visual Intelligence на свої ШІ-моделі, щоб не залежати від OpenAI та Google».

Щодо Apple Watch із камерами, Гурман зазначає, що компанія розробляє такі рішення як для стандартної версії годинника, так і для моделі Ultra.

У звичайній версії Apple Watch камеру можуть інтегрувати безпосередньо в дисплей, подібно до реалізації в iPhone. Поки що невідомо, чи йдеться про камеру під екраном, чи про класичний виріз.

У версії Apple Watch Ultra камера може розташовуватися збоку корпусу, поряд із коліщатком Digital Crown і кнопкою. Завдяки більшому розміру корпусу Ultra це місце здається зручним для сканування об’єктів.

Завдяки новій камері годинники зможуть використовувати інструменти Visual Intelligence, наприклад, для розпізнавання об'єктів або перекладу тексту із зображень.

Очікується, що Apple Watch із камерами вийдуть не раніше 2027 року разом із AirPods, оснащеними камерами. Проте терміни залежать від прогресу Apple у розвитку штучного інтелекту, оскільки наразі компанія стикається з багатьма невирішеними проблемами, що затримують впровадження ШІ-функцій.