特斯拉FSD beta 來比眼力有沒有比AI好 - 特斯拉

Queena avatar
By Queena
at 2021-04-09T02:08

Table of Contents

※ 引述《ykjiang (York)》之銘言:
: 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
: 三維的部分是經過一些設計、運算後得到的
: 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊,

這邊看完,我的感想只有“供三小?”

雷達與光達在原理上是利用掃描的方式,取得距離與向量,本質上資料的維度就是大於二維了。

是什麼時候變一維的?如果要這麼瞎扯,那鏡頭裡的CMOS一次也只能讀一個cell的資料,
一樣得要逐個掃描才能得到二維影像(這個就是所謂的果凍效應的成因),
照你的說法,鏡頭不也一樣是一維的?

: 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)

這邊也不知道在供三小

在半個世紀前,雷達後處理技術就已經發展出利用比對前後時間目標的變化,預測目標未來位置,
並且持續追蹤的技術。甚至還有類似合成孔徑雷達(SAR)那種利用時間與位移積分,
利用二維掃描形成3維雷達影像的技術。

而利用都卜勒濾波技術,甚至不需要比對前後時間的資料,就能直接得到目標的速度,
在半個世紀前,雷達就能直接利用都卜勒測速,外插推估目標的未來位置。

但也沒人講雷達是四維資料的探測器。

而特斯拉的前鏡頭並沒有構成立體視覺,就算加上時間預測,也只能構成2.5D,
(三個定焦鏡只能利用影像模糊的程度大致判斷距離),這也是特斯拉自動駕駛在視覺深度一直為人所詬病的地方。


: 以目前的技術:
: 距離方面,光達的精度比較高
: 平面部分,鏡頭的精度較高,然後鏡頭還可以判斷顏色這個重要資訊
: 以自動駕駛而言,兩者的精度都超過人眼了
: 所以關鍵還是在 AI 等其他方面

無腦特粉才會覺得只靠鏡頭和AI就行

真的在搞自動駕駛的,在研究的是怎麼做多感測器的融合。

https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg
像是直接將光達和攝影機做成同一個感測器,就是其中一個方向。

: ※ 引述《airforce1101 (我不宅)》之銘言:
: : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來
: : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻
: : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目
: : 標,可以帶回更高精度的資訊。
: : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
: : 的這篇文章 Extended object tracking: Introduction, overview, and application.
: : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達
: : 先天上的差距還是存在。
: : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。

--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已

--

All Comments

Jessica avatar
By Jessica
at 2021-04-11T02:45
特斯拉也有雷達OK 不是只靠鏡頭
Edith avatar
By Edith
at 2021-04-12T03:12
我看完你寫的感想也是公三小?!?
Robert avatar
By Robert
at 2021-04-15T03:25
特斯拉的前雷達分辨度大於7度,在50公尺外並排行駛
的兩輛卡車,特斯拉雷達上也會辨識成同一個物體。
Poppy avatar
By Poppy
at 2021-04-19T04:35
而特斯拉用了這種等級的雷達,雷達測距資料與影像資
料的融合,基本上和用AI預測擲筊結果差不多吧
Jack avatar
By Jack
at 2021-04-21T12:11
螢幕顯示一輛車 並不代表他就只能看到一輛 只是你
看的越細需要的電腦資源就越多 那有沒有這個必要
Ophelia avatar
By Ophelia
at 2021-04-24T07:01
我認為特斯拉比較著重在視覺辨識,雷達只是輔助
Damian avatar
By Damian
at 2021-04-28T10:45
我覺得不太需要下定論啦 如果真覺得光達終勝那可以
買Mobileye股票 應該會賺翻
Zanna avatar
By Zanna
at 2021-05-02T13:00
特斯拉用三顆定焦鏡的鳥玩法,反而增加了電腦運算的
需求量。光達+鏡頭,關聯性演算法的需求可以低到只
Cara avatar
By Cara
at 2021-05-02T21:07
用單晶片距離,但是特斯拉就要用到礦卡級的處理器。
Ina avatar
By Ina
at 2021-05-07T13:13
但我記得NIO用光達卻配了4顆N牌高階處理器耶
Irma avatar
By Irma
at 2021-05-10T08:06
https://i.imgur.com/xnmwZQW.jpg
Heather avatar
By Heather
at 2021-05-11T21:08
人家NIO要搞的ADAS,是要直接衝Level 4,才要開發這
個規模的硬體。可沒像特斯拉還要求車主雙手不能離開
方向盤呢。
Lydia avatar
By Lydia
at 2021-05-16T03:45
另外,用NIO沒像特斯拉小器的使用低解析度的攝影機
,影像串流處理的量本來就比較高,把tops去除pixel
Lauren avatar
By Lauren
at 2021-05-19T21:19
數量,特斯拉用的運算資源還比較高勒。
Necoo avatar
By Necoo
at 2021-05-21T12:29
三個定焦鏡是指三個不同焦距的鏡頭?
Andrew avatar
By Andrew
at 2021-05-22T05:00
是的話對同一物體可以同時準焦吧
Suhail Hany avatar
By Suhail Hany
at 2021-05-23T15:00
只是成像時物體大小會不同 不會只有一個準焦
Edward Lewis avatar
By Edward Lewis
at 2021-05-25T23:49
不會有你說的一個鏡頭清楚 其他模糊的情況
Agatha avatar
By Agatha
at 2021-05-30T02:35
到底在公三小,講的好像特斯拉沒有要衝Level4一樣
Eartha avatar
By Eartha
at 2021-06-01T23:37
你要針對物件辨識、車輛辨識、道路辨識好像不用運
Hedwig avatar
By Hedwig
at 2021-06-06T15:39
算資源一樣
James avatar
By James
at 2021-06-08T19:07
你好像分不清焦距跟對焦距離的差別,特斯拉用了三
顆不同焦距的鏡頭,但是這三顆鏡頭的對焦距離基本
Mason avatar
By Mason
at 2021-06-11T13:59
上可以視為泛焦。加上三顆鏡頭的位置並不重疊,是
完全可以計算出深度的,可惜的是並不是全畫面都算
Carol avatar
By Carol
at 2021-06-11T15:28
得出來。
Isla avatar
By Isla
at 2021-06-11T19:16
你講的不就我上面已經講過的2.5D?
Sarah avatar
By Sarah
at 2021-06-15T22:47
而且特斯拉前向的鏡頭總共有五個,另兩個在側前方
側前方那兩個鏡頭的規格是完全一樣的
Xanthe avatar
By Xanthe
at 2021-06-17T00:15
你對緯度的定義有問題,兩顆鏡頭只要能看到同一個
物體,就必定可以辨識出三維的位置。可辨識範圍不
會影響維度。而且這三顆鏡頭只有一顆是長焦的,你
的望遠鏡舉例根本不合邏輯。
Belly avatar
By Belly
at 2021-06-17T03:16
不知你怎麼看出十度,而且只要那兩個重疊夠大就夠了
Olga avatar
By Olga
at 2021-06-17T07:14
你忽略了wide forward camera跟main forward cam
era的重疊區了。
Kama avatar
By Kama
at 2021-06-18T11:24
十度應該是廁後方那兩個鏡頭
Tristan Cohan avatar
By Tristan Cohan
at 2021-06-19T14:21
重點是Tesla這樣的鏡頭配置行之有年了,
要真有如此低級的設計錯誤發生,早就更正了
Belly avatar
By Belly
at 2021-06-24T03:04
查了一下Tesla 3D視覺主要是靠正前向的那三個鏡頭
可行的原理如 kmlvli84 說的
Lily avatar
By Lily
at 2021-06-26T18:59
只要兩個鏡頭拍出的同一個物體有不同位置或大小,
Andy avatar
By Andy
at 2021-07-01T12:35
理論上就能估算出距離
Michael avatar
By Michael
at 2021-07-02T16:36
不同大小,可以因為視角範圍不同或焦距不同造成的
Daph Bay avatar
By Daph Bay
at 2021-07-06T08:05
好了別吵 來看資料 Tesla其實用單鏡頭就能判斷距離
Bennie avatar
By Bennie
at 2021-07-08T23:10
原理說明 http://bit.ly/TeslaHere519
Zanna avatar
By Zanna
at 2021-07-10T20:05
實測遮到剩一個鏡頭還能在路口轉彎
https://bit.ly/TeslaHere609
Erin avatar
By Erin
at 2021-07-14T17:11
無腦特黑的最高表現?理性討論不行嗎
Heather avatar
By Heather
at 2021-07-14T20:13
不懂就虛心求教 整天扣人帽子
Ida avatar
By Ida
at 2021-07-16T20:24
嗯嗯 口氣很大水準很高 哈哈哈哈哈
Megan avatar
By Megan
at 2021-07-17T13:45
供三小 然後咧 其他車廠現在在幹嘛
Callum avatar
By Callum
at 2021-07-17T18:32
單鏡頭理論上可行,但是特斯拉目前的鏡頭規格有風險
...
Todd Johnson avatar
By Todd Johnson
at 2021-07-21T20:55
換鏡頭分分鐘的事情而已 目前特斯拉鏡頭解析度不高
Andrew avatar
By Andrew
at 2021-07-26T14:02
不光是鏡頭的問題,早些年前晶片設計接收鏡頭影像格
式的接面可能也不堪使用。
Olivia avatar
By Olivia
at 2021-07-31T06:46
現在的鏡頭不會只丟純影像的內容給晶片,還會伴隨其
Connor avatar
By Connor
at 2021-08-03T17:15
他感測資料,然後車用鏡頭這幾年吃記憶體頻寬越來越
恐怖,車用壓縮也不太可能用lossy的方式,不過這看
車廠對於風險的拿捏。
Connor avatar
By Connor
at 2021-08-08T11:43
那篇果然沒內容
Puput avatar
By Puput
at 2021-08-09T15:11
你太小看軟體了
Bethany avatar
By Bethany
at 2021-08-14T05:39
感覺你是在硬體廠,現在軟體單鏡頭就能看深度了。
看物體大小加上時間就能判斷
上面推文很多人寫了,而且這是潮流
Linda avatar
By Linda
at 2021-08-15T22:10
謝謝你帶來歡樂
Audriana avatar
By Audriana
at 2021-08-18T06:24
做硬體的怎麼不知道景深這件事.....

特斯拉FSD beta 來比眼力有沒有比AI好

Valerie avatar
By Valerie
at 2021-04-08T23:15
關於對車輛周遭環境的判別討論還不錯, 但是自動駕駛的進步還有一個關鍵就是駕駛行為, 何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等 參考影片:https://youtu.be/uClWlVCwHsI  (看看特斯拉如何處理越過多線道左轉) 這也是特斯拉跟其他公司有優勢的地方, 就是在電腦駕駛 ...

特斯拉FSD beta 來比眼力有沒有比AI好

Franklin avatar
By Franklin
at 2021-04-08T22:54
從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊 三維的部分是經過一些設計、運算後得到的 反而鏡頭得到的一開始就是二維資訊,然後可以經過運算得到三維的資訊, 特斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測) 以目前的技術: 距離方面,光達的精度比較高 平面部分,鏡頭的精度較高,然後 ...

特斯拉FSD beta 來比眼力有沒有比AI好

Lydia avatar
By Lydia
at 2021-04-08T22:23
影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目 標,可以帶回更高精度的資訊。 光達的領域上有關延展性目標,可以參考 ...

特斯拉FSD beta 來比眼力有沒有比AI好

Iris avatar
By Iris
at 2021-04-08T19:39
這個youtuber將FSD AI看到的畫面結合實際行車畫面 https://www.youtube.com/watch?v=qRjY55ELYnc 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特 ...

Model3在挪威取得所有車種第一名

Skylar DavisLinda avatar
By Skylar DavisLinda
at 2021-04-08T13:23
連結 https://www.tesmanian.com/blogs/tesmanian-blog/tesla-model-3-became-the-best-s elling-ev-in-march-in-norway-where-90-of-new-registrations-were-ev 內文 ...