站長之家(ChinaZ.com) 12 月 22 日消息:蘋果公司的人工智能研究人員表示,在將大型語言模型(LLMs)部署到 iPhone 和其他內(nèi)存有限的蘋果設(shè)備上取得了關(guān)鍵性突破。他們發(fā)明了一種創(chuàng)新的閃存利用技術(shù),可有效應(yīng)對內(nèi)存限制問題。
LLMs 與內(nèi)存限制
像 ChatGPT 和 Claude 這樣基于 LLM 的聊天機器人,通常需要大量的數(shù)據(jù)和內(nèi)存才能運行。對于內(nèi)存容量有限的設(shè)備如 iPhone,這是一個挑戰(zhàn)。蘋果研究人員開發(fā)了一種新技術(shù),利用閃存(即存儲您的應(yīng)用和照片的內(nèi)存)來存儲 AI 模型的數(shù)據(jù)。
閃存中的 AI
在名為「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」的新研究論文中,作者指出移動設(shè)備中的閃存比傳統(tǒng)用于運行 LLMs 的 RAM 更為豐富。他們的方法巧妙地繞過了這一限制,使用了兩種關(guān)鍵技術(shù)來最小化數(shù)據(jù)傳輸并最大化閃存吞吐量:
- 窗口化技術(shù): 這可以看作是一種回收方法。AI 模型不是每次都加載新數(shù)據(jù),而是重用它已經(jīng)處理的一些數(shù)據(jù)。這減少了對持續(xù)內(nèi)存提取的需求,使過程更快更順暢。
- 行列捆綁技術(shù): 這種技術(shù)類似于一次閱讀更大的數(shù)據(jù)塊,而不是一次一個單詞。通過更高效地分組數(shù)據(jù),可以更快地從閃存中讀取數(shù)據(jù),加快 AI 理解和生成語言的能力。
這些方法的結(jié)合使 AI 模型能夠運行的規(guī)模達到 iPhone 可用內(nèi)存的兩倍。據(jù)論文稱,這將使標(biāo)準(zhǔn)處理器(CPU)上的速度提高 4-5 倍,圖形處理器(GPU)上的速度提高令人印象深刻的 20-25 倍。作者寫道:「這一突破對于在資源有限的環(huán)境中部署先進的 LLMs 至關(guān)重要,從而擴大了它們的應(yīng)用范圍和可及性?!?/p>
iPhone 上的更快 AI
這一 AI 效率的突破為未來的 iPhone 開啟了新的可能性,如更先進的 Siri 功能、實時語言翻譯和在攝影和增強現(xiàn)實中的復(fù)雜 AI 驅(qū)動功能。此技術(shù)還為 iPhone 上運行復(fù)雜的 AI 助手和聊天機器人鋪平了道路,據(jù)悉蘋果公司已在研究這方面的應(yīng)用。
蘋果公司正在開發(fā)自己的生成式 AI 模型「Ajax」,據(jù)稱在設(shè)計上能與 OpenAI 的 GPT-3 和 GPT-4 相媲美。Ajax 運行在 2000 億參數(shù)上,表明其在語言理解和生成方面的高度復(fù)雜性和能力。內(nèi)部稱為「Apple GPT」的 Ajax 旨在統(tǒng)一蘋果公司的機器學(xué)習(xí)開發(fā),表明了將 AI 更深入地整合到蘋果生態(tài)系統(tǒng)中的更廣泛戰(zhàn)略。
據(jù)最新報道,Ajax 被認為比早期的 ChatGPT 3.5 更有能力。然而,也有人認為,截至 2023 年 9 月,OpenAI 的新模型可能已超越了 Ajax 的能力。
根據(jù)《The Information》和分析師 Jeff Pu 的說法,蘋果預(yù)計將在 2024 年晚些時候在 iPhone 和 iPad 上推出某種生成式 AI 功能,屆時將發(fā)布 iOS 18。據(jù)稱,蘋果計劃提供云端 AI 和設(shè)備上 AI 處理的結(jié)合。
(舉報)