特斯拉FSD beta 來比眼力有沒有比AI好 - 特斯拉
By Valerie
at 2021-04-08T23:15
at 2021-04-08T23:15
Table of Contents
關於對車輛周遭環境的判別討論還不錯,
但是自動駕駛的進步還有一個關鍵就是駕駛行為,
何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等
參考影片:https://youtu.be/uClWlVCwHsI
(看看特斯拉如何處理越過多線道左轉)
這也是特斯拉跟其他公司有優勢的地方,
就是在電腦駕駛時,人為干預產生時的數據,
為何人類駕駛會在這個環境下干預電腦?
特斯拉會把干預當下八顆鏡頭的影像傳回伺服器,
收集並做為訓練AI的數據庫,
這個需要很多人類駕駛才能做出來的資料,非常非常的有價值,
當然FSD beta還是有很大的進步空間,
但是已經很令人興奮了
※ 引述《ykjiang (York)》之銘言:
: 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
: 三維的部分是經過一些設計、運算後得到的
: 反而攝像頭一開始就是二維資訊,然後可以經過運算得到三維的資訊,特
: 斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)
: 以目前的技術:
: 距離方面,光達的精度比較高
: 平面部分,攝像頭的精度較高,然後攝像頭還可以判斷顏色這個重要資訊
: 以自動駕駛而言,兩者的精度都超過人眼了
: 所以關鍵還是在 AI 等其他方面
: ※ 引述《airforce1101 (我不宅)》之銘言:
: : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來
: : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻
: : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目
: : 標,可以帶回更高精度的資訊。
: : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
: : 的這篇文章 Extended object tracking: Introduction, overview, and application.
: : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達
: : 先天上的差距還是存在。
: : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。
--
Tags:
特斯拉
All Comments
By Olive
at 2021-04-09T17:39
at 2021-04-09T17:39
By Hedda
at 2021-04-13T23:08
at 2021-04-13T23:08
By Irma
at 2021-04-15T06:09
at 2021-04-15T06:09
By William
at 2021-04-16T18:01
at 2021-04-16T18:01
By Dorothy
at 2021-04-17T14:39
at 2021-04-17T14:39
By Daniel
at 2021-04-19T22:36
at 2021-04-19T22:36
Related Posts
特斯拉FSD beta 來比眼力有沒有比AI好
By Franklin
at 2021-04-08T22:54
at 2021-04-08T22:54
特斯拉FSD beta 來比眼力有沒有比AI好
By Lydia
at 2021-04-08T22:23
at 2021-04-08T22:23
特斯拉FSD beta 來比眼力有沒有比AI好
By Iris
at 2021-04-08T19:39
at 2021-04-08T19:39
Model3在挪威取得所有車種第一名
By Skylar DavisLinda
at 2021-04-08T13:23
at 2021-04-08T13:23
Model3取得英國3月份所有車種第四名
By Damian
at 2021-04-08T13:09
at 2021-04-08T13:09