特斯拉FSD beta 來比眼力有沒有比AI好 - 特斯拉
By Franklin
at 2021-04-10T10:59
at 2021-04-10T10:59
Table of Contents
※ 引述《ykjiang (York)》之銘言:
: ※ 引述《ewings (火星人當研究生)》之銘言:
: : ※ 引述《ykjiang (York)》之銘言:
: : : OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
: : : 這部分跟光達有差異。
: : 笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
: : 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三
: 維資料的技術。
: : 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,
: : 有差別的只是更新率而已。
: : 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
: 我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧
: 妙設計後得到三維的資料
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”!
https://www.researchgate.net/publication/250192756_Three-Dimensional_Imaging_Laser_Radars_with_Geiger-Mode_Avalanche_Photodiode_Arrays
20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了,
一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar
: : : 你講的應該是 Rolling Shutter 造成的果凍效應,
: : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等
: : : CMOS 後來也有 Global Shutter 的設計
: : : Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: : : Global Shutter 是全部的 cell 一起曝光
: : : 至於 CCD 是採用 Global Shutter 的設計
: : : 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
: : 笑死,再掰嘛
: : 特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
: : 現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,
: : 都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
: 這部分也是,我一開始表達的也是 camera 的感測元件一開始就是二維的 cell 陣列
: 一個 cell 一個 cell 讀是你要抬槓,才提出來的,然後你還提了果凍效應佐證。
: 另外,camera 一般內部有 buffer 儲存完整的 2D data
: 輸出時才用你說的 NTSC 序列輸出,NTSC 基本上是舊時 TV 格式,高解析度的 camera
: 不用這種輸出格式了。而且 NTSC 還有奇偶交錯的問題,在處理上容易碰到另一種跟果
: 凍效應有點類似的問題,不過這也扯遠了。
: 其餘的輸出格式還有很多,也是各種取捨,不再贅述。
總歸來說,就是你自己鬼扯說啥“一維”的鬼東西,結果,CMOS的工作原理打你的臉罷了。
CMOS要在每一個cell就將電荷轉換為電壓,就注定只能逐個掃描讀取,
就剛好打臉你所謂“光達是一維,而攝影機不是”的蠢說法
: : : 1__2_.5e834778af184.png
: : : 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: : : 而且這已經不是重點了,
: : : 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: : : 基本上沒側前方那兩個鏡頭的事了
: : 別搞笑了
: : 特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
: : iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
: : 不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體
: 都要消耗不少演算力了,
: : 還妄想能構成深度視覺?
: : 更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點
: 機會構成2.5D
: : 如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白
: 癡才要額外用Lidar了。
: 我不確定你說的 2.5D 多出的那 0.5D 指的是什麼
笑死,連2.5D都沒聽過,那你是要啥資格在前面鬼扯深度視覺的東西?
第三維的資料精度只能當參考用,統計學上達不到七成的可靠度,就只配用0.5D
: 不過前面推文中也有人給連結了,證明一個攝像頭就能測得深度,多個攝像頭更準確。
證明啥?證明用Lidar的apple公司是傻子,你才是天才?
要用偽測距騙這種傻瓜特教教徒還不簡單?
直接假設路人的身高是170公分,再用攝影機焦距和像素高度換算,就得到偽測距了,
這個方式在100年前就出現了,像狙擊鏡上面就有刻度讓射手可以用人當參考物,粗略的估算距離。
但是如果路人身高不到150,又恰巧特別瘦,或是行進間突然彎腰,使像素高度變化率大幅改變,
讓偽測距出現很高的誤差怎麼辦?
你以為特斯拉之前出包,撞上橫躺地上的貨車、撞上等等紅燈的機車的事件是怎麼來的?
AI再怎麼訓練,還是會有大數據資料沒涵蓋到的少數情況。當自駕車數量增加至上千萬輛時
就算這些少數情況發生機率再低,在這麼大的母體數量下,發生次數也會變得很高。
所以對自駕系統真正負責任的公司,才會用光達等可以真測距的感測器來設計。
: 因為車子行進間可以拍很多個對同一物體不同距離下的 frame
: 至於特斯拉是怎麼辦到的細節部分,我不知道,唯一確定的要耗費很多算力,
: 連結如下:
: 《Autopilot》AK談論AP開發細節 (2020/02)
: https://www.mobile01.com/topicdetail.php?f=741&t=6137451
: 《Autopilot》FSD初探25-遮住鏡頭還能在路口轉彎嗎?
: https://www.mobile01.com/topicdetail.php?f=741&t=6246238
--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已
--
: ※ 引述《ewings (火星人當研究生)》之銘言:
: : ※ 引述《ykjiang (York)》之銘言:
: : : OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
: : : 這部分跟光達有差異。
: : 笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
: : 如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三
: 維資料的技術。
: : 對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,
: : 有差別的只是更新率而已。
: : 而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
: 我沒說光達最後的輸出資料不是三維,我只是說初代的光達是用一維的雷射測距,經巧
: 妙設計後得到三維的資料
笑死,你又把你自己的妄想拿來當證據了,啥“初代光達”!
https://www.researchgate.net/publication/250192756_Three-Dimensional_Imaging_Laser_Radars_with_Geiger-Mode_Avalanche_Photodiode_Arrays
20年前,連名稱都還沒統一叫Lidar時,就已經在研究使用光電感測器陣列直接生成三維影像了,
一開始研究光達的時候,就有人從雷射全像技術出發,從來沒有你想像的“一維”Lidar
: : : 你講的應該是 Rolling Shutter 造成的果凍效應,
: : : CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等
: : : CMOS 後來也有 Global Shutter 的設計
: : : Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: : : Global Shutter 是全部的 cell 一起曝光
: : : 至於 CCD 是採用 Global Shutter 的設計
: : : 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
: : 笑死,再掰嘛
: : 特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
: : 現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,
: : 都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
: 這部分也是,我一開始表達的也是 camera 的感測元件一開始就是二維的 cell 陣列
: 一個 cell 一個 cell 讀是你要抬槓,才提出來的,然後你還提了果凍效應佐證。
: 另外,camera 一般內部有 buffer 儲存完整的 2D data
: 輸出時才用你說的 NTSC 序列輸出,NTSC 基本上是舊時 TV 格式,高解析度的 camera
: 不用這種輸出格式了。而且 NTSC 還有奇偶交錯的問題,在處理上容易碰到另一種跟果
: 凍效應有點類似的問題,不過這也扯遠了。
: 其餘的輸出格式還有很多,也是各種取捨,不再贅述。
總歸來說,就是你自己鬼扯說啥“一維”的鬼東西,結果,CMOS的工作原理打你的臉罷了。
CMOS要在每一個cell就將電荷轉換為電壓,就注定只能逐個掃描讀取,
就剛好打臉你所謂“光達是一維,而攝影機不是”的蠢說法
: : : 1__2_.5e834778af184.png
: : : 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: : : 而且這已經不是重點了,
: : : 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: : : 基本上沒側前方那兩個鏡頭的事了
: : 別搞笑了
: : 特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
: : iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
: : 不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體
: 都要消耗不少演算力了,
: : 還妄想能構成深度視覺?
: : 更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點
: 機會構成2.5D
: : 如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白
: 癡才要額外用Lidar了。
: 我不確定你說的 2.5D 多出的那 0.5D 指的是什麼
笑死,連2.5D都沒聽過,那你是要啥資格在前面鬼扯深度視覺的東西?
第三維的資料精度只能當參考用,統計學上達不到七成的可靠度,就只配用0.5D
: 不過前面推文中也有人給連結了,證明一個攝像頭就能測得深度,多個攝像頭更準確。
證明啥?證明用Lidar的apple公司是傻子,你才是天才?
要用偽測距騙這種傻瓜特教教徒還不簡單?
直接假設路人的身高是170公分,再用攝影機焦距和像素高度換算,就得到偽測距了,
這個方式在100年前就出現了,像狙擊鏡上面就有刻度讓射手可以用人當參考物,粗略的估算距離。
但是如果路人身高不到150,又恰巧特別瘦,或是行進間突然彎腰,使像素高度變化率大幅改變,
讓偽測距出現很高的誤差怎麼辦?
你以為特斯拉之前出包,撞上橫躺地上的貨車、撞上等等紅燈的機車的事件是怎麼來的?
AI再怎麼訓練,還是會有大數據資料沒涵蓋到的少數情況。當自駕車數量增加至上千萬輛時
就算這些少數情況發生機率再低,在這麼大的母體數量下,發生次數也會變得很高。
所以對自駕系統真正負責任的公司,才會用光達等可以真測距的感測器來設計。
: 因為車子行進間可以拍很多個對同一物體不同距離下的 frame
: 至於特斯拉是怎麼辦到的細節部分,我不知道,唯一確定的要耗費很多算力,
: 連結如下:
: 《Autopilot》AK談論AP開發細節 (2020/02)
: https://www.mobile01.com/topicdetail.php?f=741&t=6137451
: 《Autopilot》FSD初探25-遮住鏡頭還能在路口轉彎嗎?
: https://www.mobile01.com/topicdetail.php?f=741&t=6246238
--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已
--
All Comments
By Todd Johnson
at 2021-04-10T14:45
at 2021-04-10T14:45
By Necoo
at 2021-04-15T08:47
at 2021-04-15T08:47
By Noah
at 2021-04-19T07:32
at 2021-04-19T07:32
By Puput
at 2021-04-21T17:34
at 2021-04-21T17:34
By Hardy
at 2021-04-21T22:44
at 2021-04-21T22:44
By Erin
at 2021-04-24T18:25
at 2021-04-24T18:25
By Edith
at 2021-04-29T12:31
at 2021-04-29T12:31
By Skylar Davis
at 2021-05-04T02:18
at 2021-05-04T02:18
By Hardy
at 2021-05-08T13:44
at 2021-05-08T13:44
By Emma
at 2021-05-10T02:23
at 2021-05-10T02:23
By Hedwig
at 2021-05-14T22:09
at 2021-05-14T22:09
By Madame
at 2021-05-17T05:33
at 2021-05-17T05:33
By Isabella
at 2021-05-20T12:25
at 2021-05-20T12:25
By Frederic
at 2021-05-21T02:53
at 2021-05-21T02:53
By Puput
at 2021-05-23T05:11
at 2021-05-23T05:11
By Frederica
at 2021-05-24T06:21
at 2021-05-24T06:21
By Kelly
at 2021-05-25T06:59
at 2021-05-25T06:59
By Adele
at 2021-05-29T18:15
at 2021-05-29T18:15
By Ula
at 2021-05-30T14:23
at 2021-05-30T14:23
By Christine
at 2021-06-01T02:08
at 2021-06-01T02:08
By Jessica
at 2021-06-05T14:20
at 2021-06-05T14:20
By Audriana
at 2021-06-10T13:20
at 2021-06-10T13:20
By Valerie
at 2021-06-13T14:54
at 2021-06-13T14:54
By Candice
at 2021-06-13T21:33
at 2021-06-13T21:33
By Rosalind
at 2021-06-18T16:35
at 2021-06-18T16:35
By Hazel
at 2021-06-20T19:05
at 2021-06-20T19:05
By Victoria
at 2021-06-21T18:39
at 2021-06-21T18:39
By Hardy
at 2021-06-23T19:22
at 2021-06-23T19:22
By Sarah
at 2021-06-27T05:01
at 2021-06-27T05:01
By Iris
at 2021-06-27T20:47
at 2021-06-27T20:47
By Steve
at 2021-07-02T14:17
at 2021-07-02T14:17
By Donna
at 2021-07-04T12:12
at 2021-07-04T12:12
By Andy
at 2021-07-09T05:08
at 2021-07-09T05:08
By Kama
at 2021-07-10T16:50
at 2021-07-10T16:50
By Rae
at 2021-07-14T13:55
at 2021-07-14T13:55
By Zanna
at 2021-07-17T14:43
at 2021-07-17T14:43
By Hedda
at 2021-07-22T12:13
at 2021-07-22T12:13
By Annie
at 2021-07-23T10:01
at 2021-07-23T10:01
By Skylar Davis
at 2021-07-24T03:48
at 2021-07-24T03:48
By Olga
at 2021-07-28T14:43
at 2021-07-28T14:43
By Agnes
at 2021-07-29T11:35
at 2021-07-29T11:35
By Emma
at 2021-08-01T12:49
at 2021-08-01T12:49
Related Posts
TOYOTA GR Yaris接單破300張
By Quintina
at 2021-04-10T10:34
at 2021-04-10T10:34
隱私全被看光!特斯拉 Model 3 車內鏡頭
By Rosalind
at 2021-04-10T10:31
at 2021-04-10T10:31
Ford旅玩家Tourneo Connect玩咖版試駕
By Edith
at 2021-04-09T23:22
at 2021-04-09T23:22
特斯拉FSD beta 來比眼力有沒有比AI好
By Selena
at 2021-04-09T22:29
at 2021-04-09T22:29
特斯拉為什麼不是LV3?
By Damian
at 2021-04-09T22:17
at 2021-04-09T22:17