国产毛片a精品毛-国产毛片黄片-国产毛片久久国产-国产毛片久久精品-青娱乐极品在线-青娱乐精品

下一代芯片必備兩大天賦:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

發(fā)布時(shí)間:2015-5-8 10:38    發(fā)布者:chengong
‘深度學(xué)習(xí)’(deep learning)已經(jīng)改變了計(jì)算機(jī)在現(xiàn)實(shí)世界中觀看、傾聽與認(rèn)知事物的方式。然而,對(duì)于半導(dǎo)體產(chǎn)業(yè)來說,最重要或許也最實(shí)際的問題是:深度學(xué)習(xí)將會(huì)深入智能手機(jī)、可穿戴式設(shè)備或是自動(dòng)駕駛汽車中使用的微型計(jì)算機(jī)視覺SoC嗎?誰將致力于開發(fā)針對(duì)神經(jīng)網(wǎng)絡(luò)優(yōu)化的SoC架構(gòu)?它將會(huì)是一款什么樣的SoC?

“毫無疑問地,深度學(xué)習(xí)確實(shí)是改變游戲規(guī)則的一大突破,”嵌入式視覺聯(lián)盟(EVA)創(chuàng)辦人Jeff Bier以計(jì)算機(jī)視覺為例表示,深度學(xué)習(xí)具有強(qiáng)大的影響力,“必須說的是,目前它還只是一種經(jīng)驗(yàn)領(lǐng)域。人們正在嘗試不同的東西。”

現(xiàn)在已經(jīng)有充份的證據(jù)顯示芯片供貨商對(duì)深度學(xué)習(xí)(更具體地說是卷積神經(jīng)網(wǎng)絡(luò))的興趣不斷增加。卷積神經(jīng)網(wǎng)絡(luò)(CNN)正廣泛地應(yīng)用在影像與視頻辨識(shí)領(lǐng)域。

高通(Qualcomm)日前推出了首款可‘模擬人腦’的Zeroth認(rèn)知運(yùn)算平臺(tái)。根據(jù)高通表示,Zeroth將會(huì)被應(yīng)用在未來的移動(dòng)芯片中,包括即將推出的Snapdragon 820。

Cognivue是另一家專注于深度學(xué)習(xí)領(lǐng)域的公司。該公司開發(fā)出新的Opus嵌入式視覺SoC架構(gòu),據(jù)稱將可利用深度學(xué)習(xí)方面的進(jìn)展,大幅提高認(rèn)知偵測(cè)的準(zhǔn)確度。Cognivue目前正與加拿大渥太華大學(xué)(University of Ottawa)合作開發(fā)這一架構(gòu)。

從Nvidia今年的GPU技術(shù)大會(huì)(GTC)發(fā)布來看,就能了解Nvidia也正看好以GPU為主的深度學(xué)習(xí)領(lǐng)域。

中國(guó)搜尋巨擘百度(Baidu)也致力于開發(fā)深度神經(jīng)網(wǎng)絡(luò)模型,用于辨識(shí)數(shù)據(jù)中心的基本對(duì)象分類。百度計(jì)劃將這些模型移植到嵌入式系統(tǒng)中。

百度深度學(xué)習(xí)研究院(Baidu Research)科學(xué)家吳韌表示,“隨著智能手機(jī)的處理性能大幅提高,從數(shù)據(jù)中心的深度學(xué)習(xí)擷取的超級(jí)智能模型可執(zhí)行在我們的手機(jī)上。”一支有效配置的手機(jī)可以直接在手機(jī)上執(zhí)行這些模型,而不需要透過云端傳送與接收數(shù)據(jù)。吳韌并補(bǔ)充說:“目前所面臨的最大挑戰(zhàn)在于是否能以低功耗模式執(zhí)行作業(yè)。”

人工智能導(dǎo)入深度學(xué)習(xí)

有一點(diǎn)是明確的。籠罩在1980年代末期和1990年代早期對(duì)于人工智能(AI)的沮喪和失望已經(jīng)煙消云散了。在這個(gè)新的‘巨量數(shù)據(jù)’時(shí)代,大量的數(shù)據(jù)和超強(qiáng)運(yùn)算能力的結(jié)合,開始訓(xùn)練神經(jīng)網(wǎng)絡(luò)辨別對(duì)象。深度學(xué)習(xí)如今正被視為邁向AI道路的一種全新領(lǐng)域。

有些人宣稱,機(jī)器正取得像人類一樣準(zhǔn)確辨識(shí)對(duì)象的能力。根據(jù)微軟(Microsoft)研究人員最近發(fā)布的一篇文章,該公司基于深度CNN的計(jì)算機(jī)視覺系統(tǒng)在ImageNet 1000挑戰(zhàn)賽中的對(duì)象分類表現(xiàn),首度超越了人類的能力。就在微軟宣布其神經(jīng)網(wǎng)絡(luò)系統(tǒng)以4.94%的誤差率超越人類基準(zhǔn)的5.1%誤差率過后五天,Google也宣布該公司的系統(tǒng)表現(xiàn)更勝微軟0.04%。

然而,在電子產(chǎn)業(yè)中,不同的廠商解決深度學(xué)習(xí)的方法也各不相同。

Nvidia三款GPU產(chǎn)品進(jìn)軍深度學(xué)習(xí)領(lǐng)域

在GPU技術(shù)大會(huì)上,Nvidia執(zhí)行長(zhǎng)黃仁勛以Titan X發(fā)表專題演講,他指出這款新的GeForce游戲GPU是‘唯一適合深度學(xué)習(xí)’的系統(tǒng)。他并發(fā)表Nvidia的數(shù)字深度學(xué)習(xí)GPU訓(xùn)練系統(tǒng)——這是一款專為加速高質(zhì)量深度神經(jīng)網(wǎng)絡(luò)而設(shè)計(jì)的軟件應(yīng)用。他還發(fā)布了一套桌側(cè)深度學(xué)習(xí)機(jī)Digits DevBox,專為任務(wù)而打造,采用四個(gè)GTX Titan X顯卡,并搭配直覺使用的DIGITS訓(xùn)練系統(tǒng)軟件。

Nvidia是否計(jì)劃為其GPU擴(kuò)展至先進(jìn)駕駛輔助系統(tǒng)(ADAS)的嵌入式視覺SoC?該公司汽車部門資深總監(jiān)Danny Shapiro表示,Nvidia并不會(huì)像芯片公司一樣推出GPU,“而是為汽車OEM提供一套完整的統(tǒng),包括可利用神經(jīng)網(wǎng)絡(luò)的云端和車載計(jì)算機(jī)。” 例如Nvidia在今年的CES發(fā)表基于Tegra X1處理器的DRIVE PX平臺(tái)。該公司表示,DRIVE PX平臺(tái)是一款有能力使用機(jī)器學(xué)習(xí)的車載計(jì)算機(jī),不僅能夠幫助汽車感知環(huán)境,還有助于‘解讀’周遭世界。

當(dāng)今的ADAS技術(shù)已經(jīng)能夠檢測(cè)一些物體,并執(zhí)行簡(jiǎn)單的分類、提醒駕駛?cè)耍踔猎谟行┣闆r下暫停汽車。而Nvidia表示其Drive PX已經(jīng)進(jìn)展到下一階段了。Shapiro強(qiáng)調(diào),Drive PX平臺(tái)如今已“有能力分辨救護(hù)車和載貨卡車”。

例如,配備Drive PX的汽車能夠利用深度學(xué)習(xí)能力變得“越來越智能化,隨駕駛時(shí)數(shù)與里程數(shù)增加而更聰明。”Shapiro說,在道路上的學(xué)習(xí)過程與數(shù)據(jù)傳回?cái)?shù)據(jù)中心后,汽車再?gòu)闹芷谛缘能浖轮性黾又R(shí)與能力。

奧迪(Audi)首先宣布使用Drive PX平臺(tái)開發(fā)其汽車自動(dòng)駕駛功能的計(jì)劃。Nvidia將在今年5月開始為客戶提供Drive PX。

關(guān)于深度學(xué)習(xí)芯片算法構(gòu)架,高通選擇三緘其口

高通的認(rèn)知平臺(tái)盡管將成為全新Snapdragon移動(dòng)設(shè)備應(yīng)用處理器的一部分,但卻對(duì)其建構(gòu)模塊三緘其口。該公司僅解釋,Zeroth平臺(tái)具有“計(jì)算機(jī)視覺、設(shè)備上深度學(xué)習(xí)、可辨識(shí)場(chǎng)景與對(duì)象的智能相機(jī),以及閱讀文本與手寫”的能力。

同時(shí),加拿大公司Cognivue看好CNN的出現(xiàn)將為嵌入式視覺SoC領(lǐng)域創(chuàng)造一個(gè)公平的競(jìng)爭(zhēng)機(jī)會(huì)。

Cognivue專精于設(shè)計(jì)自有的影像認(rèn)知處理器核心、工具與軟件,并獲得像飛思卡爾(Freescale)等合作伙伴的采用。透過利用Cognivue的可程序技術(shù),飛思卡爾為其汽車視覺系統(tǒng)提供了智能成像與視頻辨識(shí)解決方案。

Cognivue產(chǎn)品管理副總裁Tom Wilson表示:“我們正開發(fā)一個(gè)非常適合深度學(xué)習(xí)應(yīng)用的大規(guī)模平行圖像處理架構(gòu)與數(shù)據(jù)路徑管理。”相對(duì)的,競(jìng)爭(zhēng)對(duì)手的方案經(jīng)常采用手動(dòng)設(shè)計(jì)其嵌入式視覺SoC,以便隨時(shí)保持與改變中的不同視覺算法同步。競(jìng)爭(zhēng)對(duì)手通常密切注意最新的算法進(jìn)展,并應(yīng)用于其SoC設(shè)計(jì)與優(yōu)化。否則他們可能會(huì)發(fā)現(xiàn)自已陷于老舊架構(gòu)而不適于新的CNN。

Cognivue的新影像認(rèn)知處理技術(shù)稱為Opus,它將利用APEX架構(gòu),從而為復(fù)雜的深度學(xué)習(xí)分類提供平行處理的能力。h(來源:Cognivue)

渥太華大學(xué)(University of Ottawa)電子工程與計(jì)算機(jī)科學(xué)系教授Robert Laganiere說:“在CNN出現(xiàn)在計(jì)算機(jī)視覺應(yīng)用以前,算法設(shè)計(jì)師必須做出涉及多個(gè)視覺算法層次和步驟的許多設(shè)計(jì)決定。”

這些決定包括用于對(duì)象偵測(cè)的分類方式,以及打造功能整合的方法(利用嚴(yán)密的檢測(cè)器,如直方圖等)。更多決策還包括如何處理對(duì)象變形部位的辨識(shí),以及是否要利用串聯(lián)方法(一系列確認(rèn)定對(duì)象的較小決定)或采用可支持的向量機(jī)器進(jìn)行處理。

Laganiere教授說:“在這個(gè)方法上為每一個(gè)步驟所做的任何一個(gè)小決定,都可能為對(duì)象辨識(shí)的準(zhǔn)確度產(chǎn)生巨大的影響。”

然而,在深度學(xué)習(xí)架構(gòu)中,你可以將所有的步驟整合于一,他解釋說:“你不需要做出決定,因?yàn)樯疃葘W(xué)習(xí)將會(huì)為你做決定。”

換言之,正如Bier總結(jié)的那樣:“傳統(tǒng)的計(jì)算機(jī)視覺在物體辨識(shí)上采用非常程序性的途徑,但深度學(xué)習(xí)則大不相同,因?yàn)槟悴恍枰俑嬖V計(jì)算機(jī)需要看什么。”

Bier將這一過程描述為兩階段法。學(xué)習(xí)和訓(xùn)練過程先在專用設(shè)施完成,例如利用數(shù)據(jù)中心的超級(jí)計(jì)算機(jī)。然后,將第一階段中的大量數(shù)據(jù)集轉(zhuǎn)為‘設(shè)定’和‘協(xié)同效率’應(yīng)用到嵌入式系統(tǒng)中。

有關(guān)CNN架構(gòu)的爭(zhēng)論才剛剛開始

以嵌入式視覺SoC來看,目前還沒有就最佳的CNN架構(gòu)達(dá)成共識(shí)。

Cognivue和渥太華大學(xué)的Laganiere認(rèn)為,大規(guī)模的平行架構(gòu)是有效處理CNN的必要方式。在平行處理中,某一影像采用特定參數(shù)可產(chǎn)生另一幅影像,而在該影像上施加另一個(gè)濾波時(shí),即產(chǎn)生另一幅影像。Laganiere說:“因此,在SoC中你需要更多的本地內(nèi)存來儲(chǔ)存中介的結(jié)果。”

遺憾的是在一個(gè)大型CNN中,最后可能會(huì)出現(xiàn)幾百萬種參數(shù)。他解釋說,“好消息是我們已經(jīng)有了簡(jiǎn)化這一過程的方法,能夠移除一些不必要的連接。”然而,在處理CNN的不同節(jié)點(diǎn)上仍然存在挑戰(zhàn),你無法預(yù)先決定要將那個(gè)節(jié)點(diǎn)連接到那個(gè)節(jié)點(diǎn)。“這就是為什么你需要一個(gè)可編程的設(shè)計(jì)架構(gòu),而不能透過硬件連接這些節(jié)點(diǎn)。”

同時(shí),Bier說,在為CNN設(shè)計(jì)處理器時(shí),“你可以用簡(jiǎn)單且統(tǒng)一的架構(gòu)。”而不是設(shè)計(jì)一個(gè)不同的SoC架構(gòu),然后在每次出現(xiàn)新算法時(shí)再進(jìn)行一次優(yōu)化;CNN處理器只需要一些附帶較少變量的簡(jiǎn)單算法。他解釋說:“話句話說,你可以減少神經(jīng)網(wǎng)絡(luò)處理器的可編程性,只要我們知道正確的設(shè)定方法和輸入系數(shù)。但很多公司都還沒準(zhǔn)備好這樣做,因?yàn)檫@些事還在發(fā)展中。” 為了實(shí)現(xiàn)視覺SoC的CNN應(yīng)用,芯片供貨商用盡了從CPU、GPU到FPGADSP的一切。因此,Bier認(rèn)為有關(guān)CNN架構(gòu)的爭(zhēng)論才剛剛開始。

無疑地,盡管深度學(xué)習(xí)預(yù)示著嵌入式視覺SoC的未來,Bier表示,像Mobileye等主要的視覺芯片供貨商已經(jīng)積累了大量基于視覺的汽車安全專業(yè)知識(shí),所以, “盡管在未來的競(jìng)爭(zhēng)激烈,Mobileye仍具有先發(fā)制人的優(yōu)勢(shì)。”

吳韌并強(qiáng)調(diào)將深度學(xué)習(xí)導(dǎo)入到嵌入式系統(tǒng)的重要性。但在談到智能手機(jī)和可穿戴式設(shè)備導(dǎo)入深度學(xué)習(xí)將面臨的挑戰(zhàn)時(shí),他總結(jié)出三個(gè)要點(diǎn):

首先,“我們?nèi)栽趯ふ覛⑹旨?jí)的應(yīng)用”,他以MP3為例表示,當(dāng)業(yè)界開發(fā)出MP3時(shí),人們知道這玩意兒是做什么用的,因此開發(fā)SoC時(shí)也較簡(jiǎn)單。盡管在設(shè)備上導(dǎo)入深度學(xué)習(xí)聽起來不錯(cuò),但最佳應(yīng)用是什么?目前還沒人能回答。

其次,“深度學(xué)習(xí)需要一個(gè)生態(tài)系統(tǒng),”他強(qiáng)調(diào),研究機(jī)構(gòu)和企業(yè)之間的合作至關(guān)重要,而且非常有幫助。

最后,“我們還得讓更小的設(shè)備具備深度學(xué)習(xí)的能力,”吳韌表示,使其得以實(shí)現(xiàn)高性能與低功耗才是關(guān)鍵。

本文地址:http://m.qingdxww.cn/thread-149169-1-1.html     【打印本頁(yè)】

本站部分文章為轉(zhuǎn)載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé);文章版權(quán)歸原作者及原出處所有,如涉及作品內(nèi)容、版權(quán)和其它問題,我們將根據(jù)著作權(quán)人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評(píng)論 登錄 | 立即注冊(cè)

廠商推薦

  • Microchip視頻專區(qū)
  • 使用SAM-IoT Wx v2開發(fā)板演示AWS IoT Core應(yīng)用程序
  • 使用Harmony3加速TCP/IP應(yīng)用的開發(fā)培訓(xùn)教程
  • 集成高級(jí)模擬外設(shè)的PIC18F-Q71家族介紹培訓(xùn)教程
  • 探索PIC16F13145 MCU系列——快速概覽
  • 貿(mào)澤電子(Mouser)專區(qū)

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權(quán)所有   京ICP備16069177號(hào) | 京公網(wǎng)安備11010502021702
快速回復(fù) 返回頂部 返回列表
主站蜘蛛池模板: 青青青青青青 | 国产成人毛片毛片久久网 | 色五月视频 | 91最新| 日本不卡一区二区三区视频 | 亚洲第一免费播放区 | 九九九热在线精品免费全部 | 曰批免费动漫视频播放免费 | 亚洲品色永久网址入口app | 男人的天堂影院 | 麻豆md传媒新剧国产在线 | 黄色免费网站视频 | 国产在线色 | 全面回忆在线观看免费完整版高清 | 亚洲精品不卡在线 | 日本一区二区三区在线播放 | 国产精品臀控福利在线观看 | 成年网站免费视频黄 | 亚洲一区二区三区免费看 | 日本在线一区 | 99精品视频在线成人精彩视频 | 黄网站在线观看永久免费 | 久久香蕉久久 | 国产99久9在线 | 国产a免费视频 | 日本天堂影院在线播放 | 亚洲国产香蕉视频欧美 | 麻豆91免费视频 | 午夜小视频男女在线观看 | 性8成人有声小说在线播放 性88分钟在线播放 性88分钟 | 久久精品国产亚洲麻豆 | 离线枕边人国语在线影视 | 向日葵app看片版免费观看 | 国产精品久久一区一区 | 欧美成人视 | 亚洲黄网址 | 91tv最新永久在线地址 | 国产精品亚洲专区在线观看 | 精品国产品香蕉在线观看75 | 一级做a爰片久久毛片 | 欧美激情久久久久久久大片 |