邊緣設備在導入生成式AI方面仍面臨著容量、帶寬、能耗和散熱等方面的瓶頸,這些因素深刻影響并制約著邊緣AI的發展。 AI智馭未來,2024邁入存儲元年 “AI 一天,人間一年”,一句市場流行語完美闡釋了如今AI大模型的高速發展和廣泛應用。以人們日常使用的智能手機為例,眾多知名廠商在AI浪潮席卷之下,緊跟AI前沿趨勢,紛紛推出搭載端側大模型或采用“端云協同”部署方案的AI手機,促使手機的智慧化、智能化達到全新高度,根據市場調研機構 IDC預測,2024年全球新一代AI手機出貨量將達到1.7億部,占智能手機總出貨量的15%,體現了AI手機在電子消費市場的廣闊前景。 除手機領域外,AI在各類邊緣應用落地的趨勢也愈發顯著。自ChatGPT橫空出世以來,短短一年多的時間,生成式AI已悄然滲透至電腦、智能家居乃至汽車等多個領域,與千行百業持續深入融合,迸發出前所未有的創新活力與應用潛力。 [color=rgba(255, 255, 255, 0.5)]廣告 釋放邊緣AI潛力,“存力”成關鍵引擎 生成式AI,尤其是在處理大語言模型和高精度圖像生成任務時,往往需要龐大的存儲和計算資源作為支撐。比如在圖像生成方面,創建高分辨率圖像往往伴隨密集的卷積運算和反卷積運算,而這些運算需要高帶寬、高容量的內存來支持數據的快速傳輸。 因此,龐大的市場機遇與發展所帶來的挑戰總是緊密相依,邊緣設備在導入生成式AI方面仍面臨著容量、帶寬、能耗和散熱等方面的瓶頸,這些因素深刻影響并制約著邊緣AI的發展。 具體而言,邊緣設備導入生成式AI時通常會面臨以下瓶頸:
目前,AI技術的深度拓展應用在很大程度上仍需要借助云端,這意味著用戶的每次請求指令均需穿越網絡抵達云端,才能進行復雜的處理,隨后再將處理結果反饋至用戶,因此云端通常涉及傳輸延遲、數據隱私和效益成本方面的挑戰,這大大限制了AI技術和應用的普及廣度。 與云計算側重大規模數據處理不同,邊緣計算的數據處理發生在數據源或端點處,因此擁有實時處理、分析和決策的快速能力,可大幅降低傳輸延遲性,契合復雜多變的環境和任務處理。因此邊緣AI市場也催生了對中低容量、超高帶寬及低功耗內存解決方案的需求,并且生成式AI的出現也讓存儲行業催生了新的發展機遇——定制化的存儲需求應用而生,這主要基于兩大原因:
為滿足日益增長的邊緣AI市場需求,助推其高效創新發展,華邦專門推出CUBE(半定制化超高帶寬元件)產品,大幅優化內存技術,可實現在混合云與邊緣云應用中運行生成式 AI 的性能,為邊緣AI量身定制完美的內存解決方案。與市面上現有方案相比,CUBE 的中小容量超高帶寬的特點極具差異化,適用于機器人、可穿戴設備、邊緣服務器等多種高級應用。 CUBE在功耗、性能、尺寸設計以及帶寬等領域擁有卓越特性,全方位滿足邊緣AI的發展需求。在帶寬方面,CUBE能夠達到 256GB/s – 1TB/s,相當于 HBM2或 4-32 個 LPDDR4x 4266Mbps x16 IO;并且,CUBE的功耗低于 1pJ/bit,在提供超高帶寬的同時還可極大減少能源消耗。此外,通過創新性TSV 技術以及 uBump/ 混合鍵合,CUBE可降低功耗并節省 SoC 設計面積,從而實現高效且極具成本效益的解決方案。 整體而言,CUBE 憑借更高的帶寬、更高的能效、更快的響應時間、可定制化特性以及緊湊外形,在釋放 AI應用潛力方面發揮重要作用,能夠讓強大的 AI 從云落地至邊緣設備和混合云應用中。 隨著生成式AI不斷向邊緣端演化,不同應用場景下的邊緣端產品數據傳輸量攀升,并催生出對低功耗、高帶寬存儲產品的迫切需求,這一系列新趨勢為存儲市場開辟了廣闊的發展空間。作為深耕存儲行業的領導廠商之一,華邦秉持不懈創新、精益求精的發展理念,持續開發用于終端產品特定應用的DDR4/LPDDR4,此外,華邦還致力于研發定制化超高帶寬內存解決方案,攜手OSAT(半導體封裝測試)伙伴為邊緣設備SoC帶來理想的中小容量超高帶寬內存,共同探索內存技術的創新前沿,推動邊緣AI實現更高效、更蓬勃的發展。 |