特斯拉FSD beta 來比眼力有沒有比AI好 - 特斯拉
By Olga
at 2021-04-09T20:41
at 2021-04-09T20:41
Table of Contents
※ 引述《ykjiang (York)》之銘言:
: ※ 引述《ewings (火星人當研究生)》之銘言:
: : ※ 引述《ykjiang (York)》之銘言:
: : : 二維了。
: : : 雷達基本上是機械動作在掃描
: : : 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過
: : : 解析度還是個問題
: : 還是不曉得你在供三小
: : 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達
: : https://en.m.wikipedia.org/wiki/Lichtenstein_radar
: : 拿二戰裡的德國Lichtenstein銾p達來說好了,雷達發射天線是固定在飛機的機首,
: : 也沒有任何的機械機構讓天線搖動或轉動。
: : 但是利用雷達波打到目標,再反射回上下左右四個天線的時間差,以及A-scope顯示器,
: : 就能得知目標的在三維空間中的向量與距離。
: : 而這個方式,特斯拉的雷達也在使用,只是特斯拉選的雷達,精度相比之下像玩具。
: OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
: 這部分跟光達有差異。
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。
對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,
有差別的只是更新率而已。
而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
: : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體,
: : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。
: : 這邊也是看不懂你在講三小
: : 就算是類比式的CCD,為了輸出NTSC/PAL的序列訊號,也是逐個cell掃描
: : 和數位化一點鳥毛關係都沒有
: 你講的應該是 Rolling Shutter 造成的果凍效應,
: CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等
: CMOS 後來也有 Global Shutter 的設計
: Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: Global Shutter 是全部的 cell 一起曝光
: 至於 CCD 是採用 Global Shutter 的設計
: 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
笑死,再掰嘛
特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,
都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
: : 另外,也一樣在半個世紀前,就已經有電子掃描陣列雷達的技術
: : (electronically scanned array)
: : 只是這種技術受到管制,車廠還想車賣到世界各地,多半不是很想用
: : : 未來位置,
: : : 你可以搜尋一下,有人就說這個是 4D 雷達
: : 那只是營銷用的名詞,沒有一本教科書用4D雷達這種講法。
: : : 去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已經有立體視覺
: : : 預計四月(如果沒延期的話)推出的 FSD Beta 9 會是 Musk 說的 4D 視覺
: : : 深度一直為人所詬病的地方。
: : : 就算如後面推文你說的,特斯拉前向三個鏡頭是不同測交距離的鏡頭,搞不出立體視覺
: : : 但你忽略了特斯拉側前方還有兩個前向鏡頭,是完全對稱的測焦距離是一樣的80M以內
: : https://img.laserfocusworld.com/files/base/ebm/lfw/image/2020/03/2004LFW_jh_
: 1__2_.5e834778af184.png
: : 前方還有另外兩個80m的前向鏡頭?你是還沒睡飽嗎?
: : 麻煩在圖裡面指給我看一看。
: 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: 而且這已經不是重點了,
: 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: 基本上沒側前方那兩個鏡頭的事了
別搞笑了
特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體都要消耗不少演算力了,
還妄想能構成深度視覺?
更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點機會構成2.5D
如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白癡才要額外用Lidar了。
--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已
--
: ※ 引述《ewings (火星人當研究生)》之銘言:
: : ※ 引述《ykjiang (York)》之銘言:
: : : 二維了。
: : : 雷達基本上是機械動作在掃描
: : : 初代的光達也一樣,最新的發展小型化後,有搞陣列方式同時發射好幾組雷射,不過
: : : 解析度還是個問題
: : 還是不曉得你在供三小
: : 從雷達誕生以來,也從來沒出現過你口中的“一維”雷達
: : https://en.m.wikipedia.org/wiki/Lichtenstein_radar
: : 拿二戰裡的德國Lichtenstein銾p達來說好了,雷達發射天線是固定在飛機的機首,
: : 也沒有任何的機械機構讓天線搖動或轉動。
: : 但是利用雷達波打到目標,再反射回上下左右四個天線的時間差,以及A-scope顯示器,
: : 就能得知目標的在三維空間中的向量與距離。
: : 而這個方式,特斯拉的雷達也在使用,只是特斯拉選的雷達,精度相比之下像玩具。
: OK, 以雷達波的特性,的確如你說的,可以一個雷達波出去,同時有多組天線接收
: 這部分跟光達有差異。
笑死,光達輸出的資料從來就是三維的,只有一維的叫雷射測距儀。
如果是更早之前還在用LADAR為名的時代,還有更多是利用全像原理,用相位差生成三維資料的技術。
對系統來說,不過感測器是用甚麼原理,輸出的資料格式如果是三維的,那就是三維,
有差別的只是更新率而已。
而光達輸出的一直都是三維資料,即使是平面光達,也是三維資料降維。
: : : 你講的 CMOS 果凍效應,不是 CMOS 的本質,而是數位化後,要將資料放在記憶體,
: : : 從記憶體讀取時有先後順序,這基本上是電子式的掃描,跟前面的機械式有差距。
: : 這邊也是看不懂你在講三小
: : 就算是類比式的CCD,為了輸出NTSC/PAL的序列訊號,也是逐個cell掃描
: : 和數位化一點鳥毛關係都沒有
: 你講的應該是 Rolling Shutter 造成的果凍效應,
: CMOS 會採取 Rolling Shutter 有很多因素,例如為了功耗、快門速度、共用元件等
: CMOS 後來也有 Global Shutter 的設計
: Rolling Shutter 是同時一排 cell 曝光(不算逐個 cell,硬要挑的話)
: Global Shutter 是全部的 cell 一起曝光
: 至於 CCD 是採用 Global Shutter 的設計
: 你說的為了輸出 NTSC/PAL 逐個 cell 掃描,是發生在後段處理上
笑死,再掰嘛
特斯拉用的就是CMOS影像感測器,照你的講法,那也是一維的。
現在不管是哪種攝影機,都是輸出序列訊號,不管是用rolling還是globe shutter,
都是一個一個cell的資料丟到暫存器,再以一維資料格式(NTSC)輸出
: : 另外,也一樣在半個世紀前,就已經有電子掃描陣列雷達的技術
: : (electronically scanned array)
: : 只是這種技術受到管制,車廠還想車賣到世界各地,多半不是很想用
: : : 未來位置,
: : : 你可以搜尋一下,有人就說這個是 4D 雷達
: : 那只是營銷用的名詞,沒有一本教科書用4D雷達這種講法。
: : : 去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已經有立體視覺
: : : 預計四月(如果沒延期的話)推出的 FSD Beta 9 會是 Musk 說的 4D 視覺
: : : 深度一直為人所詬病的地方。
: : : 就算如後面推文你說的,特斯拉前向三個鏡頭是不同測交距離的鏡頭,搞不出立體視覺
: : : 但你忽略了特斯拉側前方還有兩個前向鏡頭,是完全對稱的測焦距離是一樣的80M以內
: : https://img.laserfocusworld.com/files/base/ebm/lfw/image/2020/03/2004LFW_jh_
: 1__2_.5e834778af184.png
: : 前方還有另外兩個80m的前向鏡頭?你是還沒睡飽嗎?
: : 麻煩在圖裡面指給我看一看。
: 80m鏡頭,我是敲「側」前方的兩個前向鏡頭,不是敲(正)前向鏡頭
: 而且這已經不是重點了,
: 如之前推文說的,特斯拉 3D 視覺,主要是靠正前方那三個鏡頭
: 基本上沒側前方那兩個鏡頭的事了
別搞笑了
特斯拉的三個鏡頭焦距相差那麼多,說能構成視覺深度,是你在幻想吧
iphone手機上面有兩到三顆鏡頭,但是還不是乖乖的上Lidar?
不同焦段的鏡頭,物體的影像在鏡頭內的像素差距非常大,光是判斷是不是同一個物體都要消耗不少演算力了,
還妄想能構成深度視覺?
更別提特斯拉用的還是非常悲劇的1.2M像素鏡頭。如果像NIO用的是8M的,還勉強有點機會構成2.5D
如果兩個焦段差那麼多的鏡頭就能構成深度視覺,你都可以去apple總部前面嗆他們白癡才要額外用Lidar了。
--
亂餵流浪狗的人其實和渣男沒什麼兩樣
一個是讓狗以為自己是有主人的狗,一個是讓人以為感情有了歸宿
但都只是做半套不想完全負責而已
--
Tags:
特斯拉
All Comments
By Emily
at 2021-04-10T05:13
at 2021-04-10T05:13
By Dora
at 2021-04-12T02:53
at 2021-04-12T02:53
By Rachel
at 2021-04-12T10:41
at 2021-04-12T10:41
By Sierra Rose
at 2021-04-13T15:17
at 2021-04-13T15:17
By Frederica
at 2021-04-15T01:46
at 2021-04-15T01:46
Related Posts
特斯拉FSD beta 來比眼力有沒有比AI好
By Edwina
at 2021-04-09T12:10
at 2021-04-09T12:10
特斯拉FSD beta 來比眼力有沒有比AI好
By Skylar DavisLinda
at 2021-04-09T11:16
at 2021-04-09T11:16
特斯拉FSD beta 來比眼力有沒有比AI好
By Olive
at 2021-04-09T10:18
at 2021-04-09T10:18
特斯拉在日本的銷售額攀升1300%
By Liam
at 2021-04-09T09:26
at 2021-04-09T09:26
特斯拉FSD beta 來比眼力有沒有比AI好
By Lauren
at 2021-04-09T08:36
at 2021-04-09T08:36