來源:36氪 IBM 的幾位研究人員近日公布了一份論文,論文闡述了一種所謂的電阻式處理單元(Resistive Processing Unit,RPU)的新型芯片概念,據(jù)稱與傳統(tǒng) CPU 相比,這種芯片可以將深度神經(jīng)網(wǎng)絡的訓練速度提高至原來的 30000 倍。 深度神經(jīng)網(wǎng)絡(DNN)是一種有多隱層的人工神經(jīng)網(wǎng)絡,這種神經(jīng)網(wǎng)絡即可進行有監(jiān)督訓練,也可進行無監(jiān)督訓練,結果出來的就是能夠自行 “學習” 的機器學習(或者叫人工智能),也即所謂的深度學習。 前不久 Google(Alphabet) DeepMind 在人機大戰(zhàn)中擊敗李世石的 AI 圍棋程序 AlphaGo 就采用了類似算法。AlphaGo 由一個搜索樹算法和兩個有數(shù)百萬類神經(jīng)元連接的多層深度神經(jīng)網(wǎng)絡組成。其中一個網(wǎng)絡叫做 “策略網(wǎng)絡”,用于計算走哪一步的勝率最高,另一個網(wǎng)絡叫做 “價值網(wǎng)絡”,用于告訴 AlphaGo 怎么移動對白子和黑子都更好,這樣就可以降低可能性的深度。 由于前景看好,許多機器學習研究人員都已經(jīng)把焦點集中到深度神經(jīng)網(wǎng)絡上面。但是,為了達到一定程度的智能,這些網(wǎng)絡需要非常多的計算芯片,比如 AlphaGo 使用的計算芯片數(shù)量就達到了幾千個。所以這是一項很耗計算資源、同時也很燒錢的任務。不過現(xiàn)在 IBM 的研究人員提出了一種新的芯片概念,其強大的計算能力可以一個就頂傳統(tǒng)芯片的幾千,而如果將成千上萬個這種芯片組合起來的話,未來 AI 的能力也許就會出現(xiàn)更多的突破。 這種名為 RPU 的芯片主要利用了深度學習等算法的兩個特點:本地性以及并行性。為此 ROU 借助了下一代非易失性內(nèi)存(NVM)技術的概念,把算法用到的權重值存儲在本地,從而把訓練過程中的數(shù)據(jù)移動最小化。研究人員稱,如果把這種 RPU 大規(guī)模應用到有 10 億多個權重的深度神經(jīng)網(wǎng)絡,則訓練速度最高可以加速 30000 倍,也就是說平時需要幾千臺機器訓練幾天才能出的結果用這種芯片幾個小時就可以搞定,而且能效還要低得多。 當然,論文只是提出了一種概念,這種芯片目前還處在研究階段,同時鑒于普通非易失性內(nèi)存尚未進入主流市場,所以這樣的芯片上市估計還需要幾年的時間。不過如果這種芯片的確有那么大的計算和能效優(yōu)勢的話,相信 Google、Facebook 等從事 AI 研究和應用的巨頭一定會關注的,而 IBM 本身也是 AI、大數(shù)據(jù)的積極參與者之一,東西要是做出來市場是應該不用發(fā)愁的。 |