谷歌(Google)資深院士Jeff-Dean在近日于美國(guó)舊金山舉行的SIGMOD 2016大會(huì)發(fā)表專題演說時(shí)所言,我們現(xiàn)在最需要從機(jī)器學(xué)習(xí)中取得的是“理解力(understanding)”。
“我們現(xiàn)在有充足的運(yùn)算資源,以及足夠大規(guī)模的、有趣的數(shù)據(jù)集;”Dean對(duì)SIGMOD大會(huì)的聽眾們表示:“我們可以儲(chǔ)存大量的有趣資料,但我們真正需要的是理解那些數(shù)據(jù)。”
在專題演說中,Dean概述了機(jī)器學(xué)習(xí)(machine learning,ML)與神經(jīng)網(wǎng)絡(luò)的歷史,還有利用以影音呈現(xiàn)的原始數(shù)據(jù)編程模型之不同方法;他也詳細(xì)介紹Google初具規(guī)模的ML研究成果,該公司最近將在歐洲設(shè)置一個(gè)機(jī)器學(xué)習(xí)研究中心。Google繼去年發(fā)表TensorFlow算法后,又宣布自己開發(fā)了命名為張量處理單元(TPU)的人工智能加速器芯片。
Dean表示:“隨著時(shí)間推移,我們看到越來(lái)越多利用ML技術(shù)來(lái)解決各種問題的成功案例,這導(dǎo)致了Google內(nèi)部數(shù)百個(gè)開發(fā)團(tuán)隊(duì)對(duì)相關(guān)技術(shù)的使用出現(xiàn)真正大幅度成長(zhǎng)。”
Google對(duì)深度學(xué)習(xí)技術(shù)的使用趨勢(shì)(來(lái)源:SIGMOD/Jeff Dean)
Dean舉例指出,Google的語(yǔ)音識(shí)別開發(fā)團(tuán)隊(duì),透過利用神經(jīng)網(wǎng)絡(luò)將字詞錯(cuò)誤率降低了30%;該團(tuán)隊(duì)以神經(jīng)網(wǎng)絡(luò)取代了語(yǔ)音識(shí)別流水線(pipeline)的聲學(xué)模型──也就是利用原始音波來(lái)判別聲音與字詞──并達(dá)成了二十年來(lái)最大幅度的改善成果。
利用機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)解決的基礎(chǔ)性問題,也能在其他領(lǐng)域看到,例如醫(yī)療與衛(wèi)星影像;在這些案例中,可能是需要在地圖上識(shí)別某棟房子以勘查太陽(yáng)能光電板的安裝,或是進(jìn)行糖尿病患黃斑部病變的篩選。用于語(yǔ)音識(shí)別的相同模型,可以輕易被利用來(lái)解決其他問題。
“那些模型有很多類似的地方;”Dean指出,Google翻譯應(yīng)用程序現(xiàn)在可以利用畫素識(shí)別(pixel identification),實(shí)時(shí)將符號(hào)翻譯成不同語(yǔ)言。
機(jī)器學(xué)習(xí)的未來(lái)發(fā)展
不過在機(jī)器學(xué)習(xí)以及神經(jīng)網(wǎng)絡(luò)的理解能力發(fā)展方面,還有一些待克服的障礙;包括模型必須要能在無(wú)人監(jiān)督的狀況下學(xué)習(xí)、處理多任務(wù)任務(wù)并轉(zhuǎn)換學(xué)習(xí),還有根據(jù)現(xiàn)實(shí)世界情況采取行動(dòng)(也被稱為強(qiáng)化學(xué)習(xí))。
Dean表示,研究人員已經(jīng)開始關(guān)注機(jī)器學(xué)習(xí)的隱私保護(hù)技術(shù),并將該模型架構(gòu)添加到mdash廣告程序中;在這部分的機(jī)器學(xué)習(xí)中,人類的互動(dòng)扮演在權(quán)衡時(shí)扮演重要角色,是很大的進(jìn)步:“確保你提供的資料實(shí)際遵循你想要的隱私權(quán)政策很重要,或者你可以強(qiáng)加更高層級(jí)的政策到模型之上。”
從系統(tǒng)的角度來(lái)看,Dean表示下一個(gè)挑戰(zhàn)是如何:“利用高層級(jí)的機(jī)器語(yǔ)言算法描述,以及將那些不同的描述映像到廣泛的不同硬件上;”他也期望能將機(jī)器學(xué)習(xí)整合到更多傳統(tǒng)的數(shù)據(jù)處理方案中。
摩爾定律(Moore’s Law)的尾端為機(jī)器學(xué)習(xí)提供了有趣的發(fā)展方向,Dean預(yù)期會(huì)有越來(lái)越多進(jìn)行機(jī)器學(xué)習(xí)運(yùn)算的異質(zhì)或特制硬件;Google的TensorFlow ASIC是一個(gè)例子,而最近則是嘗試?yán)靡訲ensorFlow啟動(dòng)的機(jī)器人進(jìn)行大規(guī)模數(shù)據(jù)收集。
“我認(rèn)為這一次神經(jīng)網(wǎng)絡(luò)已經(jīng)準(zhǔn)備就緒;在90年代,我認(rèn)為它們雖然帶來(lái)很多激勵(lì),但就是缺乏運(yùn)算資源。而現(xiàn)在,我想該類技術(shù)已經(jīng)展現(xiàn)它們能解決相關(guān)有趣問題的能力;”Dean結(jié)論指出:“如果你還沒考慮如何為數(shù)據(jù)庫(kù)提供深度神經(jīng)網(wǎng)絡(luò),現(xiàn)在應(yīng)該要開始了。”