來源: 第一財經(jīng)資訊 隨著人工智能技術(shù)和應(yīng)用的發(fā)展,作為深度學(xué)習(xí)和人工智能領(lǐng)域的專用芯片,NPU正逐漸走向舞臺中央。 NPU,神經(jīng)網(wǎng)絡(luò)處理單元,用于高效執(zhí)行神經(jīng)網(wǎng)絡(luò)的計算,通常具有優(yōu)化的硬件架構(gòu),如向量處理單元、矩陣乘法單元、卷積單元和激活函數(shù)單元等,能夠在硬件級別上執(zhí)行大規(guī)模矩陣運(yùn)算和卷積運(yùn)算,以提高神經(jīng)網(wǎng)絡(luò)計算效率。 當(dāng)前各類AI算法主要利用深度神經(jīng)網(wǎng)絡(luò)等算法模擬人類神經(jīng)元和突觸,NPU能夠?qū)崿F(xiàn)更高效率、更低能耗處理人工神經(jīng)網(wǎng)絡(luò)、隨機(jī)森林等機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)模型。如今,多家手機(jī)廠商已搭載NPU,AIPC也將通過“CPU(中央處理器)+NPU+GPU(圖形處理器)”打造本地混合計算。那么,NPU會是繼GPU之后的又一風(fēng)口嗎? NPU:高效能、低功耗、更擅長推理 “相比于CPU和GPU,NPU的優(yōu)勢在于高效能、低功耗、易于編程、降低了開發(fā)門檻,同時支持多種語言和框架方便開發(fā)者進(jìn)行模型開發(fā)和部署!盜DC中國分析師杜昀龍告訴第一財經(jīng)。 傳統(tǒng)的CPU通常用于執(zhí)行通用計算任務(wù),但對于處理大規(guī)模的神經(jīng)網(wǎng)絡(luò)計算,CPU的處理效率相對較低。 GPU通常作為CPU的協(xié)處理器,和CPU相比邏輯運(yùn)算單元更少,處理并行計算優(yōu)勢明顯,能夠分擔(dān)CPU的計算量,也是目前數(shù)據(jù)中心側(cè)應(yīng)用最廣的加速計算芯片。 NPU采用“數(shù)據(jù)驅(qū)動并行計算”的架構(gòu),在電路層模擬人類神經(jīng)元和突觸,特別擅長處理視頻、圖像類的海量多媒體數(shù)據(jù)。區(qū)別于CPU、GPU所遵循的馮諾依曼架構(gòu),NPU能夠通過突觸權(quán)重實(shí)現(xiàn)存儲計算一體化,提高運(yùn)行效率,因此比GPU更擅長推理。且NPU芯片設(shè)計邏輯更為簡單,在處理推理工作負(fù)載時具有顯著的能耗節(jié)約優(yōu)勢。 不過,由于GPU已經(jīng)具備英偉達(dá)CUDA等完善的生態(tài),杜昀龍認(rèn)為,缺少像GPU那樣完善的生態(tài)環(huán)境是目前NPU滲透率提升最大的瓶頸。 據(jù)IDC數(shù)據(jù),2022年中國實(shí)現(xiàn)數(shù)據(jù)中心計算加速仍以GPU為主,GPU在人工智能芯片市場中出貨量占比達(dá)86%;NPU占比為12%,較以往具有明顯增長。 多用于端側(cè)和邊緣側(cè) 與云側(cè)不同的是,端側(cè)對于功耗更加敏感,對低功耗芯片的需求更明顯。因此,隨著人工智能應(yīng)用場景陸續(xù)落地,NPU易開發(fā)、高效能、低功耗等優(yōu)勢逐漸突顯。業(yè)內(nèi)普遍認(rèn)為,在大算力需求爆發(fā)下,云側(cè)的算力需求將傳遞至端側(cè)。目前,實(shí)現(xiàn)智能終端算力的最常用方式是在SoC芯片中內(nèi)置NPU模塊。 “NPU是專門為人工智能應(yīng)用而設(shè)計的芯片,目前看NPU通常用于邊緣側(cè)和端側(cè)場景更多,比如人臉識別、人臉解鎖、影像處理等!倍抨例埍硎。 AIPC有望在2024年批量上市,而AIPC普遍搭載NPU,與CPU、GPU共同構(gòu)成AIPC核心算力。 英特爾近期發(fā)布了內(nèi)置NPU的第14代酷睿Ultra移動處理器。英特爾表示,2024年,將有230多款機(jī)型搭載酷睿Ultra。蘋果也將在2024年發(fā)布搭載M3處理器的MacBook,并透露其M3處理器的NPU性能相較于M1提升了60%。 手機(jī)端則更早開始搭載NPU,華為最早在Mate10采用寒武紀(jì)NPU,后在990系列上采用自研的達(dá)芬奇NPU。蘋果從A11SoC開始加入Neuralengine,最新公布的A14SoC中,NPU算力已有巨大提升,Neuralengine結(jié)合CPU上的機(jī)器學(xué)習(xí)加速器能夠大大提高AI應(yīng)用體驗(yàn)。 除智能手機(jī)、AIPC外,在汽車、邊緣側(cè)如XR及各類物聯(lián)網(wǎng)智能終端中,NPU也有應(yīng)用。隨著大模型走進(jìn)千行百業(yè),端側(cè)AI、邊緣側(cè)AI滲透率提升,也將帶來更多NPU需求。 國產(chǎn)芯片廠商深入布局 目前,國內(nèi)芯片廠商正奮力自研NPU,以把握AI浪潮。以阿里平頭哥為代表的芯片公司已推出面向數(shù)據(jù)中心AI應(yīng)用的人工智能推理芯片,目前含光800已成功應(yīng)用在數(shù)據(jù)中心、邊緣服務(wù)器等場景。 國產(chǎn)SoC廠商也在深入布局NPU,以豐富和提升SoC人工智能處理能力。 NPU在SoC中的典型應(yīng)用為機(jī)器視覺。以瑞芯微(603893.SH)的新一代機(jī)器視覺方案RV1106及RV1103為例,兩顆芯片在NPU、ISP、視頻編碼、音頻處理等性能均有顯著升級,集成度與性價比較高,可以在低待機(jī)功耗的同時提供優(yōu)秀的邊緣AI算力。瑞芯微高性能的RV1126具備四核ARMCortex-A7和RISC-VMCU,2.0TopsNPU,活體檢測率可以高達(dá)98.48%,最新旗艦芯片RK3588支持6Tops的NPU算力。 晶晨股份(688099.SH)A311D在采用高性能A73內(nèi)核的同時,搭載了5TOPS的高性能NPU,可以廣泛用于各類中高端AIOT(人工智能物聯(lián)網(wǎng))設(shè)備。 NPU IP方面,芯原股份(688521.SH)通過2016年對圖芯美國的收購,芯原獲得了圖形處理器(GPU)IP,在此基礎(chǔ)上自主開發(fā)出了NPU IP。芯原股份此前告訴第一財經(jīng),目前,在AIoT領(lǐng)域,公司用于人工智能的神經(jīng)網(wǎng)絡(luò)處理器IP已經(jīng)被50多家客戶的100多款芯片所采用,被用在物聯(lián)網(wǎng)、可穿戴設(shè)備、安防監(jiān)控、服務(wù)器、汽車電子等10個應(yīng)用領(lǐng)域。 |