蘋果公布AI模型OpenELM!周五股價卻下跌 網嘆:開創者變成跟隨者

[FTNN新聞網]記者洪宗荃/綜合報導

蘋果繼微軟、Meta、Google等相繼公布AI模型後,近日也在開源AI模型資料平台Hugging Face,公布了AI語言模型「OpenELM」,並稱其具有「具有開源訓練和推理框架」的「高效語言模型系列」,不過對此,蘋果(Apple Inc. AAPL)於週五仍以下跌0.59美元、跌幅0.35%、169.3美元作收。對此,網友也表示「早就該用了」、「開創者變成跟隨者,不勝唏噓」。

蘋果繼微軟、Meta、Google等相繼公布AI模型後,近日也在開源AI模型資料平台Hugging Face,公布了AI語言模型「OpenELM」
蘋果繼微軟、Meta、Google等相繼公布AI模型後,近日公布了AI語言模型「OpenELM」。(圖/美聯社)

「OpenELM」,全稱為Open-source Efficient Language Models,而蘋果指出其使用CoreNet函數庫進行訓練,其中包含RefinedWeb、去除重覆資料的PILE、RedPajama和Dolma v1.6各一個子資料集,共1.8兆詞元,且使用分層縮放策略,來有效的分配transformer模型每一層內的參數,從而提高準確性。

蘋果本次也公布了4種尺寸,為2.7 億、4.5 億、11 億和 30 億個參數的版本,而微軟則是在去年6月,就已經公布130億參數的語言模型Orca,而日前也公布了僅需38億參數,可提高行動裝置運作效能的Phi-3 Mini 自然語言模型,Google也在今年2月公布了開源AI模型Gemma,分別為20億和70億參數,Meta也在日前公布了80億參數和700億的開源AI模型Llama 3。

而蘋果執行長在2月財報會議上,就已經首度公布生成式 AI 計劃,並將在今年稍後將 AI 技術整合到其軟體平台,今年3月蘋果的團隊也首度披露涵蓋 300 億參數的大型AI模型 MM1。

廣告

而本次公布的AI模型,雖然最小參數只有2.7億,但是蘋果動用了1.8兆詞元去做了預先訓練,讓小參數也能發揮更強的性能,11億參數版本的OpenELM,比12億參數版本的OLMo(由艾倫人工智慧研究所研發)模型,準確度高出了2.36%,不過使用的預先訓練詞元,只需要後者的一半,就是其中一個例子。

雖然蘋果也在眾家廠商之後,公布了自己的開源AI模型,但是網友仍表示「早就該用了」、「開創者變成跟隨者,不勝唏噓」、「這次跟不上不敢關門造車囉」、「沒有夢想和創新了」、「覺得夠了就會停止開源」、「東西拿出來用就知道」,不過也有其他網友認為「蘋果厲害的點是他能夠把自己的產品做成標竿然後賣最貴」、「我倒覺得不錯,嚴格來說蘋果一直都是跟隨者」。

更多FTNN新聞網報導
美股互有漲跌!半導體疲軟 輝達收黑、台積電ADR挫逾2%
AI風潮還沒停!輝達受益市值飆升 一度超過亞馬遜
「美股七雄」成過去式!「AI 5」領新風潮 台積電榜上有名