關(guān)鍵字:深度學(xué)習(xí) SoC神經(jīng)網(wǎng)絡(luò) 高通芯片構(gòu)架 電子實驗?zāi)K
“毫無疑問地,深度學(xué)習(xí)確實是改變游戲規(guī)則的一大突破,”嵌入式視覺聯(lián)盟(EVA)創(chuàng)辦人Jeff Bier以計算機視覺為例表示,深度學(xué)習(xí)具有強大的影響力,“必須說的是,目前它還只是一種經(jīng)驗領(lǐng)域。人們正在嘗試不同的東西。”
現(xiàn)在已經(jīng)有充份的證據(jù)顯示芯片供貨商對深度學(xué)習(xí)(更具體地說是卷積神經(jīng)網(wǎng)絡(luò))的興趣不斷增加。卷積神經(jīng)網(wǎng)絡(luò)(CNN)正廣泛地應(yīng)用在影像與視頻辨識領(lǐng)域。
高通(Qualcomm)日前推出了首款可‘模擬人腦’的Zeroth認知運算平臺。根據(jù)高通表示,Zeroth將會被應(yīng)用在未來的移動芯片中,包括即將推出的Snapdragon 820。
Cognivue是另一家專注于深度學(xué)習(xí)領(lǐng)域的公司。該公司開發(fā)出新的Opus嵌入式視覺SoC架構(gòu),據(jù)稱將可利用深度學(xué)習(xí)方面的進展,大幅提高認知偵測的準確度。Cognivue目前正與加拿大渥太華大學(xué)(University of Ottawa)合作開發(fā)這一架構(gòu)。
從Nvidia今年的GPU技術(shù)大會(GTC)發(fā)布來看,就能了解Nvidia也正看好以GPU為主的深度學(xué)習(xí)領(lǐng)域。
中國搜尋巨擘百度(Baidu)也致力于開發(fā)深度神經(jīng)網(wǎng)絡(luò)模型,用于辨識數(shù)據(jù)中心的基本對象分類。百度計劃將這些模型移植到嵌入式系統(tǒng)中。
百度深度學(xué)習(xí)研究院(Baidu Research)科學(xué)家吳韌表示,“隨著智能手機的處理性能大幅提高,從數(shù)據(jù)中心的深度學(xué)習(xí)擷取的超級智能模型可執(zhí)行在我們的手機上。”一支有效配置的手機可以直接在手機上執(zhí)行這些模型,而不需要透過云端傳送與接收數(shù)據(jù)。吳韌并補充說:“目前所面臨的最大挑戰(zhàn)在于是否能以低功耗模式執(zhí)行作業(yè)。”
網(wǎng)絡(luò)搜尋‘長得像狗的貓’所得到的結(jié)果
人工智能導(dǎo)入深度學(xué)習(xí)
有一點是明確的?;\罩在1980年代末期和1990年代早期對于人工智能(AI)的沮喪和失望已經(jīng)煙消云散了。在這個新的‘巨量數(shù)據(jù)’時代,大量的數(shù)據(jù)和超強運算能力的結(jié)合,開始訓(xùn)練神經(jīng)網(wǎng)絡(luò)辨別對象。深度學(xué)習(xí)如今正被視為邁向AI道路的一種全新領(lǐng)域。
有些人宣稱,機器正取得像人類一樣準確辨識對象的能力。根據(jù)微軟(Microsoft)研究人員最近發(fā)布的一篇文章,該公司基于深度CNN的計算機視覺系統(tǒng)在ImageNet 1000挑戰(zhàn)賽中的對象分類表現(xiàn),首度超越了人類的能力。就在微軟宣布其神經(jīng)網(wǎng)絡(luò)系統(tǒng)以4.94%的誤差率超越人類基準的5.1%誤差率過后五天,Google也宣布該公司的系統(tǒng)表現(xiàn)更勝微軟0.04%。
然而,在電子產(chǎn)業(yè)中,不同的廠商解決深度學(xué)習(xí)的方法也各不相同。
Nvidia三款GPU產(chǎn)品進軍深度學(xué)習(xí)領(lǐng)域
在GPU技術(shù)大會上,Nvidia執(zhí)行長黃仁勛以Titan X發(fā)表專題演講,他指出這款新的GeForce游戲GPU是‘唯一適合深度學(xué)習(xí)’的系統(tǒng)。他并發(fā)表Nvidia的數(shù)字深度學(xué)習(xí)GPU訓(xùn)練系統(tǒng)——這是一款專為加速高質(zhì)量深度神經(jīng)網(wǎng)絡(luò)而設(shè)計的軟件應(yīng)用。他還發(fā)布了一套桌側(cè)深度學(xué)習(xí)機Digits DevBox,專為任務(wù)而打造,采用四個GTX Titan X顯卡,并搭配直覺使用的DIGITS訓(xùn)練系統(tǒng)軟件。
Nvidia執(zhí)行長黃仁勛在GTC發(fā)表演說
Nvidia是否計劃為其GPU擴展至先進駕駛輔助系統(tǒng)(ADAS)的嵌入式視覺SoC?該公司汽車部門資深總監(jiān)Danny Shapiro表示,Nvidia并不會像芯片公司一樣推出GPU,“而是為汽車OEM提供一套完整的統(tǒng),包括可利用神經(jīng)網(wǎng)絡(luò)的云端和車載計算機。”
例如Nvidia在今年的CES發(fā)表基于Tegra X1處理器的DRIVE PX平臺。該公司表示,DRIVE PX平臺是一款有能力使用機器學(xué)習(xí)的車載計算機,不僅能夠幫助汽車感知環(huán)境,還有助于‘解讀’周遭世界。
深度學(xué)習(xí)協(xié)助汽車理解路上的對象(來源:NVidia)
當今的ADAS技術(shù)已經(jīng)能夠檢測一些物體,并執(zhí)行簡單的分類、提醒駕駛?cè)耍踔猎谟行┣闆r下暫停汽車。而Nvidia表示其Drive PX已經(jīng)進展到下一階段了。Shapiro強調(diào),Drive PX平臺如今已“有能力分辨救護車和載貨卡車”。
例如,配備Drive PX的汽車能夠利用深度學(xué)習(xí)能力變得“越來越智能化,隨駕駛時數(shù)與里程數(shù)增加而更聰明。”Shapiro說,在道路上的學(xué)習(xí)過程與數(shù)據(jù)傳回數(shù)據(jù)中心后,汽車再從周期性的軟件更新中增加知識與能力。
奧迪(Audi)首先宣布使用Drive PX平臺開發(fā)其汽車自動駕駛功能的計劃。Nvidia將在今年5月開始為客戶提供Drive PX。
關(guān)于深度學(xué)習(xí)芯片算法構(gòu)架,高通選擇三緘其口
高通的認知平臺盡管將成為全新Snapdragon移動設(shè)備應(yīng)用處理器的一部分,但卻對其建構(gòu)模塊三緘其口。該公司僅解釋,Zeroth平臺具有“計算機視覺、設(shè)備上深度學(xué)習(xí)、可辨識場景與對象的智能相機,以及閱讀文本與手寫”的能力。
高通首款認知計算機平臺Zeroth(來源:Qualcomm)
同時,加拿大公司Cognivue看好CNN的出現(xiàn)將為嵌入式視覺SoC領(lǐng)域創(chuàng)造一個公平的競爭機會。
Cognivue專精于設(shè)計自有的影像認知處理器核心、工具與軟件,并獲得像飛思卡爾(Freescale)等合作伙伴的采用。透過利用Cognivue的可程序技術(shù),飛思卡爾為其汽車視覺系統(tǒng)提供了智能成像與視頻辨識解決方案。
Cognivue產(chǎn)品管理副總裁Tom Wilson表示:“我們正開發(fā)一個非常適合深度學(xué)習(xí)應(yīng)用的大規(guī)模平行圖像處理架構(gòu)與數(shù)據(jù)路徑管理。”相對的,競爭對手的方案經(jīng)常采用手動設(shè)計其嵌入式視覺SoC,以便隨時保持與改變中的不同視覺算法同步。競爭對手通常密切注意最新的算法進展,并應(yīng)用于其SoC設(shè)計與優(yōu)化。否則他們可能會發(fā)現(xiàn)自已陷于老舊架構(gòu)而不適于新的CNN。
Cognivue的新影像認知處理技術(shù)稱為Opus,它將利用APEX架構(gòu),從而為復(fù)雜的深度學(xué)習(xí)分類提供平行處理的能力。h(來源:Cognivue)
渥太華大學(xué)(University of Ottawa)電子工程與計算機科學(xué)系教授Robert Laganiere說:“在CNN出現(xiàn)在計算機視覺應(yīng)用以前,算法設(shè)計師必須做出涉及多個視覺算法層次和步驟的許多設(shè)計決定。”
這些決定包括用于對象偵測的分類方式,以及打造功能整合的方法(利用嚴密的檢測器,如直方圖等)。更多決策還包括如何處理對象變形部位的辨識,以及是否要利用串聯(lián)方法(一系列確認定對象的較小決定)或采用可支持的向量機器進行處理。
Laganiere教授說:“在這個方法上為每一個步驟所做的任何一個小決定,都可能為對象辨識的準確度產(chǎn)生巨大的影響。”
然而,在深度學(xué)習(xí)架構(gòu)中,你可以將所有的步驟整合于一,他解釋說:“你不需要做出決定,因為深度學(xué)習(xí)將會為你做決定。”
換言之,正如Bier總結(jié)的那樣:“傳統(tǒng)的計算機視覺在物體辨識上采用非常程序性的途徑,但深度學(xué)習(xí)則大不相同,因為你不需要再告訴計算機需要看什么。”
Bier將這一過程描述為兩階段法。學(xué)習(xí)和訓(xùn)練過程先在專用設(shè)施完成,例如利用數(shù)據(jù)中心的超級計算機。然后,將第一階段中的大量數(shù)據(jù)集轉(zhuǎn)為‘設(shè)定’和‘協(xié)同效率’應(yīng)用到嵌入式系統(tǒng)中。
有關(guān)CNN架構(gòu)的爭論才剛剛開始
以嵌入式視覺SoC來看,目前還沒有就最佳的CNN架構(gòu)達成共識。
Cognivue和渥太華大學(xué)的Laganiere認為,大規(guī)模的平行架構(gòu)是有效處理CNN的必要方式。在平行處理中,某一影像采用特定參數(shù)可產(chǎn)生另一幅影像,而在該影像上施加另一個濾波時,即產(chǎn)生另一幅影像。Laganiere說:“因此,在SoC中你需要更多的本地內(nèi)存來儲存中介的結(jié)果。”
遺憾的是在一個大型CNN中,最后可能會出現(xiàn)幾百萬種參數(shù)。他解釋說,“好消息是我們已經(jīng)有了簡化這一過程的方法,能夠移除一些不必要的連接。”然而,在處理CNN的不同節(jié)點上仍然存在挑戰(zhàn),你無法預(yù)先決定要將那個節(jié)點連接到那個節(jié)點。“這就是為什么你需要一個可編程的設(shè)計架構(gòu),而不能透過硬件連接這些節(jié)點。”
同時,Bier說,在為CNN設(shè)計處理器時,“你可以用簡單且統(tǒng)一的架構(gòu)。”而不是設(shè)計一個不同的SoC架構(gòu),然后在每次出現(xiàn)新算法時再進行一次優(yōu)化;CNN處理器只需要一些附帶較少變量的簡單算法。他解釋說:“話句話說,你可以減少神經(jīng)網(wǎng)絡(luò)處理器的可編程性,只要我們知道正確的設(shè)定方法和輸入系數(shù)。但很多公司都還沒準備好這樣做,因為這些事還在發(fā)展中。”
為了實現(xiàn)視覺SoC的CNN應(yīng)用,芯片供貨商用盡了從CPU、GPU到FPGA和DSP的一切。因此,Bier認為有關(guān)CNN架構(gòu)的爭論才剛剛開始。
無疑地,盡管深度學(xué)習(xí)預(yù)示著嵌入式視覺SoC的未來,Bier表示,像Mobileye等主要的視覺芯片供貨商已經(jīng)積累了大量基于視覺的汽車安全專業(yè)知識,所以, “盡管在未來的競爭激烈,Mobileye仍具有先發(fā)制人的優(yōu)勢。”
吳韌并強調(diào)將深度學(xué)習(xí)導(dǎo)入到嵌入式系統(tǒng)的重要性。但在談到智能手機和可穿戴式設(shè)備導(dǎo)入深度學(xué)習(xí)將面臨的挑戰(zhàn)時,他總結(jié)出三個要點:
首先,“我們?nèi)栽趯ふ覛⑹旨壍膽?yīng)用”,他以MP3為例表示,當業(yè)界開發(fā)出MP3時,人們知道這玩意兒是做什么用的,因此開發(fā)SoC時也較簡單。盡管在設(shè)備上導(dǎo)入深度學(xué)習(xí)聽起來不錯,但最佳應(yīng)用是什么?目前還沒人能回答。
其次,“深度學(xué)習(xí)需要一個生態(tài)系統(tǒng),”他強調(diào),研究機構(gòu)和企業(yè)之間的合作至關(guān)重要,而且非常有幫助。
最后,“我們還得讓更小的設(shè)備具備深度學(xué)習(xí)的能力,”吳韌表示,使其得以實現(xiàn)高性能與低功耗才是關(guān)鍵。