訂閱
糾錯(cuò)
加入自媒體

自動(dòng)駕駛中常提的模仿學(xué)習(xí)是什么?

當(dāng)談及自動(dòng)駕駛模型學(xué)習(xí)時(shí),經(jīng)常會提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動(dòng)駕駛中的模仿學(xué)習(xí),就是把人類司機(jī)在各種路況下的行為做成范例,記錄下看到了什么和做了什么等信息,然后將這些一一對應(yīng)起來當(dāng)作訓(xùn)練數(shù)據(jù),并訓(xùn)練出一個(gè)模型。

當(dāng)模型訓(xùn)練好以后,遇到類似場景就可以嘗試輸出類似的人類動(dòng)作。這種學(xué)習(xí)方式不需要工程師把每一種情況的規(guī)則一條條寫出來,也不需要設(shè)計(jì)一個(gè)復(fù)雜的獎(jiǎng)勵(lì)函數(shù)讓機(jī)器在虛擬世界里靠試錯(cuò)學(xué)會開車,只要有質(zhì)量較好的“人類示范”,就能把人的“駕駛風(fēng)格”灌輸?shù)侥P屠铩?/p>

模仿學(xué)習(xí)有不同的實(shí)現(xiàn)方式。最直接的叫行為克。╞ehavior cloning),就是把專家看見與執(zhí)行的對應(yīng)關(guān)系作為監(jiān)督學(xué)習(xí)任務(wù),其輸入是傳感器數(shù)據(jù)、前視圖、速度等信息,輸出是方向盤角度、油門剎車等控制量。還有一種思路是逆強(qiáng)化學(xué)習(xí)(inverse reinforcement learning),它不是直接學(xué)“做什么”,而是試圖從人類的行為里反推出一個(gè)“潛在的目標(biāo)函數(shù)”或者偏好,再用這個(gè)目標(biāo)去訓(xùn)練模型。除此之外,還有對抗式模仿、層次化模仿等更復(fù)雜的變體,這些方法能夠在一定程度上緩解簡單模仿學(xué)習(xí)在泛化能力和魯棒性上的不足。

模仿學(xué)習(xí)對自動(dòng)駕駛有什么用

在自動(dòng)駕駛這樣高風(fēng)險(xiǎn)的領(lǐng)域,讓模型在真實(shí)世界里靠“試錯(cuò)”學(xué)習(xí)顯然不現(xiàn)實(shí)。模仿學(xué)習(xí)可以利用已有的人類駕駛數(shù)據(jù),讓模型在安全的條件下學(xué)習(xí)“合格駕駛員”的行為模式。

對于很多常見場景,尤其是城市道路或高速路上的常規(guī)操作,模仿學(xué)習(xí)能教會車輛如何平順變道、如何與前車保持距離、如何在擁堵路段保持合理速度,這種“像人開車”的行為將提升乘客的體驗(yàn),并會讓社會有更高的接受度。

此外,模仿學(xué)習(xí)在工程上好上手、訓(xùn)練效率也相對更高。模仿學(xué)習(xí)本質(zhì)上是監(jiān)督學(xué)習(xí),訓(xùn)練目標(biāo)直接、損失明確,數(shù)據(jù)處理管道成熟。因此在研發(fā)早期,以及做端到端感知-控制的探索時(shí),模仿學(xué)習(xí)是首選方法。

模仿學(xué)習(xí)還能把多模態(tài)傳感器的信息(攝像頭、毫米波雷達(dá)、LiDAR、里程計(jì)等)合并到一個(gè)網(wǎng)絡(luò)中,直接從原始感知到控制量學(xué)習(xí)一條端到端的映射,這在某些應(yīng)用場景能顯著簡化系統(tǒng)架構(gòu)。

模仿學(xué)習(xí)還有一個(gè)好處,就是能把“人類的駕駛習(xí)慣”保留下來。人類駕駛員在很多情形里會做出既安全又舒適的動(dòng)作,像是平滑的加減速、合理的避讓、符合社會駕駛習(xí)慣的決策等,都是人類駕駛員可以輕松應(yīng)對的動(dòng)作。把這些行為灌輸?shù)侥P屠,有助于自?dòng)駕駛車輛在混合交通環(huán)境中更自然地與人類駕駛者共存,從而減少被其他車輛或行人誤判的風(fēng)險(xiǎn)。

如何用模仿學(xué)習(xí)訓(xùn)練模型?

想用模仿學(xué)習(xí)訓(xùn)練模型,要先進(jìn)行采集示范數(shù)據(jù),然后做數(shù)據(jù)清洗與標(biāo)注,接著訓(xùn)練模型并在模擬器或封閉道路上測試,最后再做在線改進(jìn)與驗(yàn)證。

采集階段不是簡單地采集更多場景,也不是無腦地堆砌各種場景,而是要找到場景多樣且高質(zhì)量的數(shù)據(jù),像是白天夜晚、雨雪、高架與城市擁堵、復(fù)雜交叉口等場景場景必須都覆蓋到。訓(xùn)練時(shí)可用卷積神經(jīng)網(wǎng)絡(luò)處理圖像輸入,并把時(shí)序信息通過遞歸結(jié)構(gòu)或時(shí)間窗口的方式納入,讓模型能記住短時(shí)間內(nèi)的動(dòng)態(tài)變化。

在模型上線之前,需要通過仿真和閉環(huán)測試來驗(yàn)證模型的魯棒性。單純在靜態(tài)測試集上做得好并不代表閉環(huán)駕駛也能穩(wěn)健運(yùn)行,控制策略的每一步動(dòng)作都會改變后續(xù)的狀態(tài)分布,這種分布偏移會導(dǎo)致誤差積累。

為此,要引入在線糾偏機(jī)制,如在模型駕駛時(shí)讓專家在線糾正,將這些新的“偏離狀態(tài)-專家動(dòng)作對”加入數(shù)據(jù)集繼續(xù)訓(xùn)練,像是DAgger(Dataset Aggregation,數(shù)據(jù)集聚合)就是采用的這種方法。還有技術(shù)方案中會先用模仿學(xué)習(xí)學(xué)一個(gè)“基礎(chǔ)策略”,再用強(qiáng)化學(xué)習(xí)或規(guī)則化的規(guī)劃層對其微調(diào)與約束,以增強(qiáng)對稀有或危險(xiǎn)場景的處理能力。

當(dāng)然,模仿學(xué)習(xí)并不等同于完全放手不設(shè)規(guī)則。為確保自動(dòng)駕駛系統(tǒng)的安全性,很多技術(shù)方案中會采用混合架構(gòu),模仿學(xué)習(xí)負(fù)責(zé)感知-決策的快速映射,規(guī)劃層負(fù)責(zé)長時(shí)間尺度的路徑規(guī)劃,規(guī)則模塊負(fù)責(zé)硬性安全約束(比如絕對剎停條件、最小車距限制等)。這種分層與混合的策略不僅可以利用模仿學(xué)習(xí)的高效性,也能通過規(guī)則化模塊彌補(bǔ)它在極端情況上的不足。

模仿學(xué)習(xí)的局限與現(xiàn)實(shí)挑戰(zhàn)

模仿學(xué)習(xí)雖好,但其存在泛化能力有限與誤差積累等問題。模仿模型在訓(xùn)練時(shí)學(xué)到的是“在那些見過的狀態(tài)里該做什么”,一旦遇到訓(xùn)練集中沒有覆蓋到的罕見場景,模型將不知道應(yīng)該如何處理。尤其是在序列決策問題中,模型自己的每一步?jīng)Q定都會改變未來觀測的分布,哪怕開始只是輕微偏差,也可能隨著時(shí)間放大成嚴(yán)重錯(cuò)誤,這就是所謂的分布偏移或誤差累積問題。

模仿學(xué)習(xí)主要學(xué)習(xí)專家示范的內(nèi)容,提供給模型的專家示范總希望是高質(zhì)量的且具代表性的,但人類司機(jī)并不完美,總會存在疏忽、習(xí)慣性錯(cuò)誤或?qū)δ承﹫鼍安磺‘?dāng)?shù)呐袛唷H绻P椭皇菣C(jī)械地模仿這些行為,就可能學(xué)到不良駕駛習(xí)慣。尤其對于人類社會來說,道德和法律層面的約束不是簡單靠模仿就能學(xué)會的,如何在多方?jīng)_突情形下如何取舍、如何展現(xiàn)可辯護(hù)的決策過程等,都需要額外的規(guī)則與可解釋性的支撐。

端到端的模仿學(xué)習(xí)模型還存在內(nèi)部決策過程不透明的問題,其安全邊界難以被嚴(yán)格界定和驗(yàn)證。對于汽車這種涉及生命財(cái)產(chǎn)安全的關(guān)鍵領(lǐng)域,監(jiān)管與認(rèn)證體系要求系統(tǒng)具備可解釋的邏輯或明確的安全保證。因此,單純依賴數(shù)據(jù)驅(qū)動(dòng)的模仿學(xué)習(xí),在應(yīng)對復(fù)雜多變的長尾場景時(shí),可能面臨可驗(yàn)證性不足的挑戰(zhàn)。

要把模仿學(xué)習(xí)做得足夠魯棒,要覆蓋足夠廣的高質(zhì)量示范數(shù)據(jù),這就帶來了采集成本高、標(biāo)注難、隱私與合規(guī)等問題。尤其是極端天氣、罕見事故或復(fù)雜交互場景,本身就少見,要人工制造這些場景又有風(fēng)險(xiǎn),仿真雖然能補(bǔ)充一部分,但仿真與現(xiàn)實(shí)間的差距也會影響模型遷移效果,因此,對于模仿學(xué)習(xí)來說,數(shù)據(jù)方面的挑戰(zhàn)不容忽視。

最后的話

模仿學(xué)習(xí)為自動(dòng)駕駛系統(tǒng)提供了實(shí)現(xiàn)擬人化駕駛行為的重要基礎(chǔ),但其數(shù)據(jù)驅(qū)動(dòng)的黑箱特性在安全驗(yàn)證和長尾場景泛化方面存在局限。想應(yīng)用好模仿學(xué)習(xí),就要將模仿學(xué)習(xí)置于一個(gè)包含規(guī)則約束、規(guī)劃模塊及多重安全冗余的混合系統(tǒng)架構(gòu)中,從而確保其在發(fā)揮其高效學(xué)習(xí)優(yōu)勢的同時(shí),更能確保系統(tǒng)的整體行為符合可解釋、可驗(yàn)證的安全規(guī)范。

-- END --

       原文標(biāo)題 : 自動(dòng)駕駛中常提的模仿學(xué)習(xí)是什么?

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號