Великі мовні моделі (LLM) здатні генерувати природну мову для різних програм, таких як голосові помічники та чат-боти. Однак для своєї роботи вони вимагають значного обсягу пам'яті, що створює виклик для мобільних пристроїв з обмеженими ресурсами оперативної пам'яті. Apple запропонувала вирішення цієї проблеми, використовуючи флеш-пам'ять, зазвичай призначену для зберігання програм та фотографій, для ефективного виконання LLM.

У новій науковій роботі дослідники з штучного інтелекту з Apple розповідають про створення нової технології зберігання даних для LLM на флеш-пам'яті. Вони також розробили два методи, які знижують обсяг даних, що передаються, і збільшують швидкість читання даних з флеш-пам'яті.

За словами дослідників, їхня технологія дозволяє LLM використовувати вдвічі більше пам'яті порівняно з iPhone. Вони також стверджують, що досягли збільшення швидкості в 4-5 разів на звичайних процесорах (CPU) і в 20-25 разів на графічних процесорах (GPU). Це важливий крок для впровадження передових LLM в умовах обмежених ресурсів, роблячи їх більш доступними та функціональними.

Нова технологія відкриває нові перспективи для майбутніх моделей iPhone, таких як покращені функції Siri, реальний переклад мови, складні функції, засновані на ШІ, в області фотографії та доповненої реальності. Це також дає можливість запускати на iPhone складні помічники та чат-боти з використанням ШІ, над якими, за даними джерел, вже працює Apple.

Apple планує інтегрувати свою роботу над генеративним штучнимим інтелектом у свій голосовий асистент Siri. У лютому 2023 року Apple провела конференцію з ШІ, де розповіла своїм співробітникам про роботу над великою мовною моделлю. Згідно з повідомленням від Bloomberg, Apple прагне створити більш розумну версію Siri, яка буде тісно взаємодіяти з ШІ.

Крім того, за чутками, Apple має плани додати штучний інтелект в більшість своїх власних програм і створити щось на зразок AppleGPT, інтегруючи Siri в повідомлення.