作者:Arm 作為人工智能 (AI) 的創新基礎,眾多企業都在使用通用且應用廣泛的 Arm 計算平臺。迄今為止,合作伙伴基于 Arm 架構的芯片出貨量已超過 2,900 億顆。如今,Arm 已為各類技術領域的 AI 應用提供支持,這也是為何 AI 的技術先行者們能夠基于 Arm 平臺快速創新的關鍵原因。 無論是現在還是未來,Arm 平臺都是 AI 運行的基石。若要滿足對 AI 技術和應用的旺盛需求,則必須在計算領域的方方面面實現無處不在的 AI 功能。從使用無數處理器訓練大語言模型 (LLM) 的大型數據中心,到全球數字消費者每天接觸邊緣 AI 的電子設備,計算領域的方方面面都有 AI 的身影。 高效的 AI 計算 若要滿足 AI 對高算力的需求,則少不了對高效計算性能的投入。生成式 AI 的發展推動了對 AI 算力和資源的需求空前增長。一名荷蘭研究人員指出,如果一年內每次使用 Google 進行搜索都運用到 AI,其所需的電力相當于愛爾蘭全國一年的用電量。長遠來看,考慮到地球上資源有限,這種方法是難以為繼的。 Arm 提供了計算性能和能效的卓越組合,推動了智能手機領域的技術革新,而同樣的趨勢也正發生在 AI 革新中。 數據中心中的 AI 頭部超大規模服務運營商正采用定制芯片戰略,來進行數據中心轉型,以迎接 AI 時代。 軟銀公司正在與 NVIDIA 合作,建設全球首座采用基于 Arm 架構的 Grace Hopper 超級芯片的 5G AI 數據中心。這一突破性的 AI 加速 CPU 專為超大規模 AI 和高性能計算應用而設計。Grace Hopper 基于 72 顆 Arm Neoverse V2 核心打造,在 AI 的高負荷任務中實現了 10 倍的性能飛躍,同時大幅提高了每瓦性能。微軟則在此前發布了其首款專為云計算打造的定制芯片 Azure Cobalt 100 處理器,該處理器基于 Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平臺的 AWS Graviton3 可以使 AI 推理(使用訓練后的模型對新的真實數據進行預測的過程)的成本節約 50%。 在數據中心中約有 85% 的 AI 工作負載用于運行推理,其驅動了各種用例、行業和設備的 AI 應用,因此企業有巨大的動力來降低相關的能源消耗和成本。 邊緣 AI 除了數據中心和云服務,許多 AI 工作負載還需要在設備上進行處理,以便更有效地分布 AI 工作負載。 在設備上處理 AI 工作負載已經成為現實,無論是智能手機、智能家居設備還是智能汽車,這一趨勢將繼續增長,特別是隨著大語言模型 (LLM) 變得更加高效,并針對特定任務、用例或設備而專門打造。直接在采集數據的設備上處理 AI 計算,可以帶來更快、更安全的用戶體驗并減少延遲,這對于工業和汽車應用等對安全性要求很高的用例來說至關重要。 開發者正在編寫更精簡的 AI 模型,以在小型微處理器甚至更小的微控制器上運行,從而節省能源、時間和成本。例如,Plumerai 提供的軟件解決方案可在基于 Arm Cortex-A 和 Cortex-M 的系統級芯片 (SoC) 上加速神經網絡,并在基于 Arm 架構的微控制器上運行略高于 1MB 的 AI 代碼,其可執行面部檢測和識別等功能。 基于處理器技術的 AI 無論是由 CPU 處理全部 AI 工作負載,還是由 GPU 或 NPU 等協處理器提供支持,AI 處理始于 CPU。 過去十年間,Arm 的 CPU 和 GPU 的 AI 處理能力每兩年就實現翻番,目前 70% 的第三方應用中的 AI 都基于 Arm CPU 運行,在關鍵技術市場中推動了邊緣 AI 的顯著發展。 基于 Armv9 CPU 和 GPU 技術打造的高性能 AI 手機現已問世,其中包括搭載 MediaTek 天璣 9300 的 vivo X100 和 X100 Pro 智能手機,以及 Google Pixel 8,這是首款專為 Google 的 AI 模型 Gemini Nano 進行工程研發的智能手機,可在邊緣執行一系列 AI 的任務。與此同時,超過 200 億個基于 Arm 架構的 SoC 能夠運行各種物聯網設備上廣泛的 ML 工作負載,包括基于 Cortex-M 處理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的設備。而在汽車領域,如今的車用芯片可實現基本的 AI 功能,如障礙物檢測、3D 視圖和簡單的傳感器融合,這些功能都在 Arm CPU 上運行。下一代基于 AI 的汽車功能,如先進駕駛輔助系統 (ADAS) 和自動駕駛功能,也基于 Arm CPU 而構建。 全球最大的開發者社區 Arm 持續的軟件投入正建立起全球最大的 AI 開發者社區。 Arm 致力于以最常見的方式讓開發者能夠更簡單、更快速、更安全地進行編碼,攜手實現無處不在的 AI。如今,超過一億用戶可以使用 Arm NN 軟件開發工具包,在 Arm CPU 和 GPU 上優化 ML 工作負載。對于全球 1,500 萬 Arm 架構設備開發者來說,這使他們能夠運行復雜的 AI 和 ML 工作負載,確保將應用更快地推向市場。 Arm 在其業界領先的生態系統中開展了一系列合作,以使其對開發者的 AI 承諾付諸實踐。此外,Arm還通過開源框架和庫,為基于 Arm 架構的硬件提供強大的 ML 功能,為開發者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,從而為開源社區打造 AI 創新基礎。 寫在最后 AI 為下一個技術創新奠定了基礎,引領社會進入一個潛力非凡的新時代。而實現這一切的前提正是讓 AI 無處不在。這不僅意味著要在云端、數據中心和超級計算機中實現 AI,還要確保復雜的 AI 工作負載能夠在更小、更受限的邊緣技術和設備上運行。能效與性能對于推動邊緣 AI 的發展同等重要。 Arm 正在促成這一目標。Arm提供了應用廣泛的通用計算平臺,賦能邊緣設備和其他領域的各種可能性。無論是 CPU、GPU、ISP 還是 NPU,Arm 在每一代產品中都增加了更多 AI 性能、效率功能及安全特性,同時還為合作伙伴提供了多樣的靈活性,使它們能夠集成和開發自己的創新解決方案。而在軟件、工具和生態系統方面,IP 與開源軟件和工具乃至廣泛的行業領先生態系統相結合,讓全球上千萬開發者都可以使用 Arm 計算平臺作為 AI 創新的基礎。從傳感器、智能手機,到工業級物聯網、汽車和數據中心,基于 Arm 平臺的 AI 無處不在。 |