Большие языковые модели (LLM) способны генерировать естественный язык для различных приложений, таких как голосовые ассистенты и чат-боты. Однако для своей работы они требуют значительного объема памяти, что представляет вызов для мобильных устройств с ограниченными ресурсами оперативной памяти. Apple предложила решение этой проблемы, используя флэш-память, обычно предназначенную для хранения приложений и фотографий, для эффективного выполнения LLM.

В их новой научной работе исследователи по искусственному интеллекту из Apple рассказывают о создании новой технологии хранения данных для LLM на флэш-памяти. Они также разработали два метода, которые снижают объем передаваемых данных и увеличивают скорость чтения данных с флэш-памяти.

Согласно словам исследователей, их технология позволяет LLM использовать вдвое больше памяти по сравнению с iPhone. Они также утверждают, что добились увеличения скорости в 4-5 раз на обычных процессорах (CPU) и в 20-25 раз на графических процессорах (GPU). Это является важным шагом для внедрения передовых LLM в условиях ограниченных ресурсов, делая их более доступными и функциональными.

Новая технология открывает новые перспективы для будущих моделей iPhone, таких как улучшенные функции Siri, реальный перевод языка, сложные функции, основанные на ИИ, в области фотографии и дополненной реальности. Это также дает возможность запускать на iPhone сложные ассистенты и чат-боты с использованием ИИ, над которыми, по данным источников, уже работает Apple.

Apple планирует интегрировать свою работу над генеративным ИИ в свой голосовой ассистент Siri. В феврале 2023 года Apple провела конференцию по ИИ, где рассказала своим сотрудникам о работе над большой языковой моделью. Согласно сообщению от Bloomberg, Apple стремится создать более разумную версию Siri, которая будет тесно взаимодействовать с ИИ.

Кроме того, по слухам, у Apple есть планы добавить ИИ в большинство своих собственных программ и создать нечто вроде AppleGPT, интегрируя Siri в сообщения.