來(lái)源: 愛(ài)集微 除了大量預(yù)定臺(tái)積電產(chǎn)能外,英偉達(dá)還斥巨資拿下了HBM3內(nèi)存的供應(yīng)合同。消息人士稱(chēng),該公司從美光和 SK海力士那里預(yù)購(gòu)了700億至1萬(wàn)億韓元的HBM3內(nèi)存。雖然沒(méi)有關(guān)于這些款項(xiàng)具體用途的信息,但業(yè)界普遍認(rèn)為其目的在于確保2024年HBM供應(yīng)穩(wěn)定。 此外,還有業(yè)內(nèi)人士透露,三星電子、SK海力士、美光三大存儲(chǔ)公司明年的HBM產(chǎn)能已完全售罄。業(yè)界認(rèn)為,由于AI行業(yè)半導(dǎo)體公司之間的激烈競(jìng)爭(zhēng),HBM市場(chǎng)預(yù)計(jì)將在未來(lái)兩年內(nèi)實(shí)現(xiàn)快速增長(zhǎng)。 根據(jù)現(xiàn)有爆料信息,英偉達(dá)正準(zhǔn)備推出兩款配備HBM3E內(nèi)存的產(chǎn)品:配備141GB HBM3E 的H200 GPU以及GH200超級(jí)芯片,因此英偉達(dá)需要大量HBM內(nèi)存。 H200是目前世界上最強(qiáng)的AI芯片,也是世界上首款采用HBM3e的GPU,基于NVIDIAHopper架構(gòu)打造,與H100相互兼容,可提供4.8 TB/s速度。 在人工智能方面,英偉達(dá)表示,HGX H200在Llama 2(700 億參數(shù) LLM)上的推理速度比H100快了一倍。HGX H200將以4路和8路的配置提供,與H100系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類(lèi)型的數(shù)據(jù)中心(本地、云、混合云和邊緣),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,將于 2024 年第二季度推出。 |