DeepScale的解決方案是深度神經(jīng)網(wǎng)絡(luò)傳感器的融合組成
DeepScale近日接受EE Times獨(dú)家專訪時(shí),介紹了該公司獨(dú)特的“感知系統(tǒng)”解決方案;該公司所開發(fā)的感知技術(shù)是獲取原始數(shù)據(jù)(raw data)而非目標(biāo)數(shù)據(jù)(object data),并以嵌入式處理器來加速傳感器融合。
所謂的無人駕駛汽車是如何——即時(shí)、安全且準(zhǔn)確地——感知周遭的世界呢?如果你認(rèn)為這是一個(gè)已經(jīng)有解答的問題,可能得再想一想。
總部位于美國硅谷(Mountain View, Calif.)、擅長高級駕駛輔助系統(tǒng)(ADAS)與高度自動(dòng)化駕駛技術(shù)的新創(chuàng)公司DeepScale近日接受EE TImes獨(dú)家專訪時(shí),介紹了該公司獨(dú)特的“感知系統(tǒng)”解決方案;該公司所開發(fā)的感知技術(shù)是獲取原始數(shù)據(jù)(raw data)而非目標(biāo)數(shù)據(jù)(object data),并以嵌入式處理器來加速傳感器融合。
“今日的深度神經(jīng)網(wǎng)絡(luò)(DNN)研究有很大一部分,是以現(xiàn)有DNN進(jìn)行調(diào)整或修改;”DeepScale首席執(zhí)行官Forrest Iandola分享他的觀察,不過表示在該公司的情況是:“我們從頭開始利用原始數(shù)據(jù)開發(fā)自己的DNN——那些數(shù)據(jù)不只來自圖像傳感器,還有雷達(dá)與激光雷達(dá)(LiDAR)?!?/p>
早期融合 vs. 晚期融合
車用視覺技術(shù)(Vision Systems Intelligence, VSI)顧問公司創(chuàng)始人兼首席顧問Phil Magney認(rèn)為,DeepScale的解決方案“非常新穎”,代表了“將人工智能(AI)導(dǎo)入自動(dòng)駕駛的最新想法”。那么DeepScale方案——利用原始數(shù)據(jù)來訓(xùn)練神經(jīng)網(wǎng)絡(luò)——與其它傳感器融合方法有什么不同呢?
對此Magney表示:“首先,如今大多數(shù)傳感器融合應(yīng)用是融合目標(biāo)數(shù)據(jù)而非原始數(shù)據(jù);再者,于大多數(shù)的案例中,智能傳感器在傳感器中產(chǎn)生目標(biāo)數(shù)據(jù),同時(shí)其它傳感器會(huì)傳送原始數(shù)據(jù)到主處理器——在其中,目標(biāo)物件會(huì)在饋入融合引擎之前被產(chǎn)生?!彼麑⑦@種方法稱為“晚期融合”(late fusion)。
晚期融合:傳統(tǒng)的傳感器融合方法
顯然,DeepScale的Iandola是看到了這種“晚期融合”方法的內(nèi)在問題;他點(diǎn)出融合目標(biāo)數(shù)據(jù)與原始數(shù)據(jù)會(huì)遭遇的問題,特別是當(dāng)傳感器融合任務(wù)得處理不同種類的傳感器數(shù)據(jù)時(shí):“試想激光雷達(dá)產(chǎn)生的3D點(diǎn)云(point cloud);當(dāng)你要在傳感器中重新建構(gòu)3D點(diǎn)云,你也會(huì)收到來自攝影頭的數(shù)據(jù),而后者的畫面更新率(frame rate)大不相同?!?/p>
Iandola指出,在建立目標(biāo)時(shí),原始數(shù)據(jù)可能會(huì)與流失的其它傳感器數(shù)據(jù)相關(guān)聯(lián);想像當(dāng)陽光直接照射到車用攝影機(jī)鏡頭的那一刻,或者是雪覆蓋住雷達(dá)。此外當(dāng)傳感器數(shù)據(jù)與其它傳感器數(shù)據(jù)不一致的情況發(fā)生時(shí),進(jìn)行目標(biāo)融合會(huì)變得非常具挑戰(zhàn)性。
DeepScale的解決方案是深度神經(jīng)網(wǎng)絡(luò)傳感器融合
“這是為什么我們相信必須要在早期而非晚期進(jìn)行原始數(shù)據(jù)融合,而且要在更接近傳感器的地方進(jìn)行;”Iandola表示:“我們認(rèn)為早期融合有助于解決上述問題?!?/p>
自家設(shè)計(jì)的DNN
計(jì)算機(jī)視覺是其中一個(gè)已經(jīng)存在、發(fā)展良好的DNN框架,很多早期無人駕駛汽車技術(shù)開發(fā)商是利用這種框架;但對其它傳感器數(shù)據(jù),例如雷達(dá)與激光雷達(dá),并沒有太多經(jīng)過訓(xùn)練的DNN。這也是DeepScale希望能搶進(jìn)的領(lǐng)域——而且該公司具備自行設(shè)計(jì)DNN的技術(shù)能力與經(jīng)驗(yàn)。
Iandola是還在學(xué)界時(shí)與加州大學(xué)伯克利分校(UC Berkeley)的研究人員,一起合作開發(fā)出名為SqueezNet的DNN模型;那些研究人員現(xiàn)在也有幾位加入了DeepScale。他表示,SqueezNet并非是為無人駕駛應(yīng)用量身打造,他的團(tuán)隊(duì)開發(fā)該模型:“是為了讓它的尺寸盡可能小一點(diǎn),同時(shí)又能在計(jì)算機(jī)視覺資料集方面保有合理的準(zhǔn)確度?!?/p>
而Iandola也參與過開發(fā)一個(gè)類似的DNN框架FireCaffe,是為了加速訓(xùn)練以及實(shí)現(xiàn)嵌入式實(shí)作而設(shè)計(jì);在一篇論文中,他與他的團(tuán)隊(duì)聲稱,F(xiàn)ireCaffe能成功將深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練擴(kuò)展至一整個(gè)圖形處理器(GPU)叢集。
在被問到雷達(dá)與激光雷達(dá)缺乏DNN框架的問題時(shí),Iandola表示:“這是有充分理由的,因?yàn)殚L期以來,攝影頭仍是最受歡迎(也是最容易取得)的傳感器,并已經(jīng)產(chǎn)生大量數(shù)據(jù);你從YouTube就可以抓到足夠的數(shù)據(jù),結(jié)合地圖資訊,那些可用數(shù)據(jù)使得建構(gòu)DNN框架容易得多?!?/p>
目前DeepScale正在與幾家雷達(dá)與激光雷達(dá)供應(yīng)商合作,著手為車廠開發(fā)經(jīng)過充分訓(xùn)練的算法;Iandola表示,該公司的合作伙伴包括雷達(dá)與激光雷達(dá)領(lǐng)域老牌供應(yīng)商以及新技術(shù)開發(fā),其Deep目標(biāo)是催生不一定需要定制化的DNN,同時(shí)又能從各種傳感器(包括新型傳感器)汲取數(shù)據(jù)。
DeepScale聲稱,他們是采用“來自多個(gè)傳感器的共有數(shù)據(jù),以最大化準(zhǔn)確度并解決不確定性”;此外,“標(biāo)記過的訓(xùn)練數(shù)據(jù)能橫跨不同的傳感器數(shù)據(jù)集重復(fù)使用,僅需要最小化的重新校準(zhǔn)”。
VSI的Magney認(rèn)為DeepScale解決方案聲稱能“傳感器未知”(sensor agnosTIc)以及其DNN能在不同處理器平臺上執(zhí)行的特性是大加分:“這能讓車廠以及一級零組件供應(yīng)商打造以AI為基礎(chǔ)的環(huán)境建模(environmental modeling)解決方案,不需要自己訓(xùn)練網(wǎng)絡(luò)或是撰寫算法?!? ? ? ?責(zé)任編輯:pj