由ChatGPT掀起的AI技術(shù)浪潮加速大模型產(chǎn)業(yè)的演進(jìn),昆侖芯緊密關(guān)注新時(shí)代計(jì)算產(chǎn)業(yè)發(fā)展的必然趨勢(shì),加速AI芯片產(chǎn)業(yè)化,賦能大模型應(yīng)用落地。 目前,昆侖芯圍繞大模型打造了多層級(jí)的產(chǎn)品矩陣,可支持十億、百億及千億以上模型,性能領(lǐng)先于業(yè)界主流GPU。 基于昆侖芯2代的AI加速卡R200,可支持1-10億參數(shù)大模型; 基于UBB服務(wù)器基板卡,AI加速器組R480-X8支持搭載8個(gè)昆侖芯2代OAM模組,數(shù)據(jù)帶寬大,適用于百億參數(shù)規(guī)模的訓(xùn)推一體場(chǎng)景; 多個(gè)AI加速器組R480-X8可組成多機(jī)多卡的集群,提供更為強(qiáng)大的AI算力,更適用于千億以上大規(guī)模訓(xùn)推場(chǎng)景。 針對(duì)大模型應(yīng)用,昆侖芯提供了軟硬一體的技術(shù)棧,包括昆侖芯XFT大模型推理加速庫(kù)、框架層等。框架層具備數(shù)據(jù)標(biāo)注、微調(diào)訓(xùn)練、模型評(píng)估、模型優(yōu)化、編排集成等能力,可為大模型提供推理服務(wù)與精調(diào)服務(wù)。 昆侖芯已與飛槳PaddlePaddle完成III級(jí)適配認(rèn)證,攜手打磨大模型優(yōu)化方案,通過(guò)分組切片、張量模型并行、數(shù)據(jù)并行、流水線并行等技術(shù)支持大模型高效訓(xùn)練。同時(shí),昆侖芯也與主流AI處理器、操作系統(tǒng)、AI框架完成了端到端適配。昆侖芯關(guān)注眼下技術(shù)熱點(diǎn),也關(guān)注產(chǎn)業(yè)發(fā)展趨勢(shì)。 大模型時(shí)代引起了新一輪產(chǎn)業(yè)范式變革。以往算法工程師會(huì)通過(guò)用不同的數(shù)據(jù)集訓(xùn)練專用模型,再應(yīng)用于電力、石油、金融等不同的行業(yè)場(chǎng)景。未來(lái),底層通用大模型將集成海量通用數(shù)據(jù),通過(guò)加注少量行業(yè)知識(shí)、數(shù)據(jù),即可形成行業(yè)大模型,擴(kuò)散至不同場(chǎng)景。 隨著AI技術(shù)發(fā)展,將涌現(xiàn)越來(lái)越多的大模型,對(duì)數(shù)據(jù)與AI算力的需求相應(yīng)攀升。廣義物聯(lián)網(wǎng)(IOT)將為大模型提供海量數(shù)據(jù),在AI算力的賦能下,大模型可對(duì)數(shù)據(jù)進(jìn)行處理與升華,再指導(dǎo)末端物聯(lián)網(wǎng)設(shè)備的行動(dòng),二者相輔相成,形成感知-認(rèn)知-決策-行動(dòng)的數(shù)據(jù)飛輪。 未來(lái),昆侖芯將繼續(xù)緊密關(guān)注AI技術(shù)前沿趨勢(shì),以成熟的芯片產(chǎn)品構(gòu)筑大模型時(shí)代的強(qiáng)大算力底座,攜手生態(tài)伙伴構(gòu)建軟硬一體的芯片生態(tài),賦能大模型產(chǎn)業(yè)化落地。 |