小弟雖然寫程式但不是 AI 也不是自動駕駛領域的人
若有說的不正確還請錢大指教
小弟粗淺認為目前自動駕駛系統本身就分成兩派
傳統派 - 使用原型車搭配駕駛行為收集數據與訓練
創新派 - 像特斯拉使用大數據去涵蓋大量場景進行訓練
雖然運作上的確有錢大說的不同
但我想整體來說,兩派在做的事情並無二致
只是因為學術與邏輯上的精準定義造成一些糾結
影子模式訓練雖然是針對之後遇到類似場景做出預設反應
但是當預設場景有 100 萬甚至 1000 萬種的情況下
是否可以視為對「當下」環境做出反應呢?
邏輯上來說當然不能,時間點就是不一樣,不能畫上等號
但是實務上就是 極限趨近於某數 的意義
雖然我不知道特斯拉究竟收集了多少數據
但是至少有前後兩側共四顆鏡頭還有雷達的情況下
在系統做出某個決策之後
持續蒐集周遭路況、記錄相對鄰車位置、相對速度改變
甚至是車主介入系統決策的行為
記錄這些資料應該不是難事
所以回到上面的極限概念來說
個人覺得實務上跟傳統派的訓練方式可以畫上等號
在一般情況下,影子模式的確不能和實際路駕畫上等號
就像菜鳥過了駕訓班路考,實際上路怕到爆是一樣的情況
但是對於擁有海量資料的AI系統來說
(註:不是想使用中國用語,但真的是快跟海水一樣大量)
車子經歷過的 "駕訓班路況" 本身就是發生過的各式各樣實際路況
上路後應該可以做到駕輕就熟的決策
至於駕駛人的介入行為是否為「正確」操作行為
在經過海量資料訓練後,也是可以稀釋掉所謂的「不正確」操作
所以整體來說
現在這些在美國啟用的 L4 自駕路試方式
特斯拉是靠著砸了一堆錢
直接放在世界多國做 L4 自駕路試了
然後很多人當 L5 在用,眼睛都不看前方,真心死不介入系統
所以出了這麼多問題
題外話
我個人覺得所謂正確與不正確操作是相對的情況,不是絕對的
例如路口保持淨空,在台灣、美國、中國、越南的執行落差就有多大
所以在人類操作都沒有絕對正確的情況下
要求 AI 做正確決策,邏輯上就矛盾了
頂多就是符合多數人的決策即可
(這裡的多數人可能也是區域當中的多數人而已,並不是整體的多數人)
: 就算有影子模式訓練,也絕對無法取代自駕車實際路試
: 自駕車路試的重點
: 1. 環境(號誌/他車/行人) -> 自駕電腦
: 感測器從環境收集數據,由自駕電腦運算和決策
: 2. 自駕車輛 -> 環境
: 自駕電腦的決策(例如變換車道),進而影響環境(他車/行人)
: 也就是說
: 不只環境會影響自駕決策/行為,自駕決策/行為也會影響到環境
: 被自駕決策/行為影響後的環境,又再進一步影響自駕決策/行為
: 影響並非單邊而是雙向溝通,且形成迴圏
: 因此也考驗自駕電腦即時(real time)運算的能力
: Tesla所謂的影子模式本身只做到第1點
: 用"已經蒐集好"的場景環境訓練自駕電腦
: 場景是不會變動的既定pattern
: 一旦自駕電腦做了任何跟原駕駛不同的決策
: 由於當下沒有實際行為(介入駕駛),因此自駕電腦的決策並沒有實際反饋到環境
: 所以就算Tesla數據量較Waymo龐大許多
: 但前者本質上仍然是AP和車主的駕駛數據
: 雖有大量數據供自駕電腦訓練,但自駕電腦決策和行為並不影響到數據
: 而後者則是由自駕電腦與環境實際互動的純自駕數據
: 並不是說影子模式沒有意義
: 但你說有了影子模式就不需要昂貴數量少的原型車上路試驗
: 標準外行講的話
--
若有說的不正確還請錢大指教
小弟粗淺認為目前自動駕駛系統本身就分成兩派
傳統派 - 使用原型車搭配駕駛行為收集數據與訓練
創新派 - 像特斯拉使用大數據去涵蓋大量場景進行訓練
雖然運作上的確有錢大說的不同
但我想整體來說,兩派在做的事情並無二致
只是因為學術與邏輯上的精準定義造成一些糾結
影子模式訓練雖然是針對之後遇到類似場景做出預設反應
但是當預設場景有 100 萬甚至 1000 萬種的情況下
是否可以視為對「當下」環境做出反應呢?
邏輯上來說當然不能,時間點就是不一樣,不能畫上等號
但是實務上就是 極限趨近於某數 的意義
雖然我不知道特斯拉究竟收集了多少數據
但是至少有前後兩側共四顆鏡頭還有雷達的情況下
在系統做出某個決策之後
持續蒐集周遭路況、記錄相對鄰車位置、相對速度改變
甚至是車主介入系統決策的行為
記錄這些資料應該不是難事
所以回到上面的極限概念來說
個人覺得實務上跟傳統派的訓練方式可以畫上等號
在一般情況下,影子模式的確不能和實際路駕畫上等號
就像菜鳥過了駕訓班路考,實際上路怕到爆是一樣的情況
但是對於擁有海量資料的AI系統來說
(註:不是想使用中國用語,但真的是快跟海水一樣大量)
車子經歷過的 "駕訓班路況" 本身就是發生過的各式各樣實際路況
上路後應該可以做到駕輕就熟的決策
至於駕駛人的介入行為是否為「正確」操作行為
在經過海量資料訓練後,也是可以稀釋掉所謂的「不正確」操作
所以整體來說
現在這些在美國啟用的 L4 自駕路試方式
特斯拉是靠著砸了一堆錢
直接放在世界多國做 L4 自駕路試了
然後很多人當 L5 在用,眼睛都不看前方,真心死不介入系統
所以出了這麼多問題
題外話
我個人覺得所謂正確與不正確操作是相對的情況,不是絕對的
例如路口保持淨空,在台灣、美國、中國、越南的執行落差就有多大
所以在人類操作都沒有絕對正確的情況下
要求 AI 做正確決策,邏輯上就矛盾了
頂多就是符合多數人的決策即可
(這裡的多數人可能也是區域當中的多數人而已,並不是整體的多數人)
: 就算有影子模式訓練,也絕對無法取代自駕車實際路試
: 自駕車路試的重點
: 1. 環境(號誌/他車/行人) -> 自駕電腦
: 感測器從環境收集數據,由自駕電腦運算和決策
: 2. 自駕車輛 -> 環境
: 自駕電腦的決策(例如變換車道),進而影響環境(他車/行人)
: 也就是說
: 不只環境會影響自駕決策/行為,自駕決策/行為也會影響到環境
: 被自駕決策/行為影響後的環境,又再進一步影響自駕決策/行為
: 影響並非單邊而是雙向溝通,且形成迴圏
: 因此也考驗自駕電腦即時(real time)運算的能力
: Tesla所謂的影子模式本身只做到第1點
: 用"已經蒐集好"的場景環境訓練自駕電腦
: 場景是不會變動的既定pattern
: 一旦自駕電腦做了任何跟原駕駛不同的決策
: 由於當下沒有實際行為(介入駕駛),因此自駕電腦的決策並沒有實際反饋到環境
: 所以就算Tesla數據量較Waymo龐大許多
: 但前者本質上仍然是AP和車主的駕駛數據
: 雖有大量數據供自駕電腦訓練,但自駕電腦決策和行為並不影響到數據
: 而後者則是由自駕電腦與環境實際互動的純自駕數據
: 並不是說影子模式沒有意義
: 但你說有了影子模式就不需要昂貴數量少的原型車上路試驗
: 標準外行講的話
--
All Comments