光達與毫米波雷達 自駕技術的未來之戰 - 特斯拉

Table of Contents

https://youtu.be/bPaSqgg7aws

今天網路有一位曲博士分析了未來自駕技術所使用的雷達與光達的差異

並大膽分析特斯拉未來自駕技術的選擇

因為影片很長相信大多數人不會看完

所以總結一下

特斯拉目前硬體配置能否在未來升級到LV2以上?

特斯拉目前搭配正前方的三個影像感測器作為偵測前中後車況

搭配AI演算,在數據量足夠分析後,有可能能達成

但曲博並不看好

為何人類兩個眼睛就能開車,特斯拉三個影像感測器的即時訊息量還不足以達成自駕?

人類兩個眼睛可以抓到同一物體的成像差別,足以判斷物體的遠近。並且人類眼睛對焦極
快,處理影像的速度也比電腦快,所以兩隻眼睛即能開車。
而特斯拉的三個鏡頭畫素太低,且都只能定焦前中後還需做影像處理,所以目前無法對多
變的路況做即時的分析。

光達與雷達兩者的優缺點為何?

雷達分辨率太低,角解析度量產只能做到2-5度,路況無法做精確的偵測。
但是價格便宜,且能跟車體做較好的整合
光達有很好的分辨率,但是整個硬體像個大水桶,用在車上不美觀又會有配置的麻煩,且
價格高達一萬美金大部分車廠都很難接受

光達與雷達的未來為何?

雷達分辨率正在進步,而光達的價格與體積也在進步

目前來看還不知道誰會勝出,但曲博看好光達

特斯拉未來有沒有可能採用光達?

曲博認為未來光達價格與體積都進步到一個程度,且有其他車廠採用後,特斯拉就有可能
改變目前的硬體規格採用光達。

其他的論點還有特斯拉明明沒有自動駕駛,取名卻叫做Auto Pilot有點誤導消費者,特斯
拉不想被加州監管,這樣子的行為在一個與生命有關的造車行業是不正確的。







--

All Comments

Selena avatarSelena2021-03-26
這樣打馬神跟信徒的臉很不厚道啦
Connor avatarConnor2021-03-29
3個鏡頭?前中後?基本調查都沒做好就來評論?
Hazel avatarHazel2021-04-03
知不知道人開車的反應時間是多少?看到不動手?
Oliver avatarOliver2021-04-03
曲博士的背景是??
Elizabeth avatarElizabeth2021-04-04
畫素太低的確可以嘴 但前三鏡頭的左右兩隻就等同於
Belly avatarBelly2021-04-07
人的雙眼可以有距離資訊 486的eyesight也是這樣幹
Quintina avatarQuintina2021-04-11
畫素低就會造成看不夠遠 但他怎麼知道畫素多低?行
John avatarJohn2021-04-13
車記錄器錄的不見得等於sensor的原始解析度啊
Carolina Franco avatarCarolina Franco2021-04-16
光達要搭配高精地圖 這點就GG了啦 不是普遍方案
要用高精地圖 注定只有在地車企能做
Carolina Franco avatarCarolina Franco2021-04-21
沒有國家會讓其他非本國車企掌握高精地圖的
Megan avatarMegan2021-04-24
Tesla的視覺辨識 神經網路訓練才 有可能 成功
只能說 有可能 成功
如果像waymo這樣 我就是只做一個區域 也行
Barb Cronin avatarBarb Cronin2021-04-29
看車企的目標擺在哪 就會決定往哪走
Frederic avatarFrederic2021-05-04
高精地圖精密到幾公分的程度 這資安問題太嚴重
Emma avatarEmma2021-05-06
深度跟ai完全無關吧 他在鬼扯什麼
Faithe avatarFaithe2021-05-10
光達 目前都是要搭配 高精地圖 這是很棒的區域解
Isabella avatarIsabella2021-05-11
現在硬體的神經網路影像輸入解析度都不會太大,放4
析度也很低
Oliver avatarOliver2021-05-12
K sensor最後也要縮小再餵入,光達掃出來的矩陣解
John avatarJohn2021-05-16
深度是純光學跟數學
Oscar avatarOscar2021-05-19
沒錯 深度學習是純光學+數學
Vanessa avatarVanessa2021-05-23
如果搭配Garmin的圖資
Oscar avatarOscar2021-05-25
光達+高速晶片,車可能直接產生智能視覺+高精地圖
Lauren avatarLauren2021-05-27
高精地圖跟garmin或估狗圖資等級差太多
Franklin avatarFranklin2021-05-28
就看車商要否把資訊上傳變資料庫,地圖商死光光
Franklin avatarFranklin2021-05-31
這些都是幾年前就知道的東西了..
Agnes avatarAgnes2021-06-04
p光達的目的是判斷車在高精地圖上的哪一點用
Robert avatarRobert2021-06-06
高精地圖的產生可能不是你開過去 就有的
高精地圖準確度達到幾公分的等級
Robert avatarRobert2021-06-11
目前汽車車上晶片的算力 是沒辦法達到這種程度的
特斯拉深度學習也是用dojo超級電腦訓練
Suhail Hany avatarSuhail Hany2021-06-11
主要還是電腦對圖形判斷太差
Sandy avatarSandy2021-06-13
跟車上的晶片沒什麼關係
Skylar DavisLinda avatarSkylar DavisLinda2021-06-15
兩歲小朋友,只要幾筆畫的圖,就能說出是貓狗
電腦需要大量數據還沒辦法快
Todd Johnson avatarTodd Johnson2021-06-15
自駕不需要全部地圖,只要知道是路+可以通過,其他
走線可用舊圖資
Linda avatarLinda2021-06-20
plug大 不行 你這樣就是特斯拉的方案
Gary avatarGary2021-06-21
所以人可以輕易判斷什麼是白色貨車,什麼是天際線
電腦一出錯就撞
Bennie avatarBennie2021-06-24
車載光達即時製作路面環境給AI判斷能不能過就好
Andrew avatarAndrew2021-06-28
AI判斷 就是特斯拉現在在做得 怎麼判斷?訓練!
AI能不能訓練成功? 天知道
Dora avatarDora2021-07-03
內文都過時資訊 S大推的才是目前各方案的現況
Belly avatarBelly2021-07-06
現在很多公司用點雲建立機器視覺了,即時路面環境
Hedda avatarHedda2021-07-08
不是問題
Yuri avatarYuri2021-07-10
現在感測器可以一直裝,就看晶片多快算出視覺
Regina avatarRegina2021-07-14
把空載光達位態同步與計算晶片作一起放車上
Catherine avatarCatherine2021-07-15
陣列式光達鏡頭已經大幅降價,要多裝不是問題
Cara avatarCara2021-07-17
曲建仲 成大化工學士 清大材料碩士 台大電機博士
Freda avatarFreda2021-07-21
德儀資深工程師
Aaliyah avatarAaliyah2021-07-26
高精度地圖誰來維護啊 花多少錢? waymo走不出鳳
凰城 還看不出來嗎?
Kyle avatarKyle2021-07-27
Tesla不是用3鏡頭 曲低能 做好功課再來
Noah avatarNoah2021-07-30
軟體才是關鍵
Joe avatarJoe2021-08-04
影片有解釋下雨光達就失效基本還是視覺作用,那下
雨可以自駕為何晴天就不能?精度較低不等於不能
Hedda avatarHedda2021-08-06
幫Lin大補充一下 Tesla是用8顆鏡頭在訓練
Isla avatarIsla2021-08-11
目前來看,混合影像+光達較能面對環境變數
Heather avatarHeather2021-08-14
樓上從哪裡看出來的
Lauren avatarLauren2021-08-17
plug大 完全誤會這些東西的能力了 有空我發一篇
Yuri avatarYuri2021-08-20
除了天氣,光達有反射率的差異,辨識距離會縮短,
Emma avatarEmma2021-08-20
還有噪訊,都會環境單純,在鄉村會搞死AI
Jack avatarJack2021-08-21
舉例,90度正面,光達看鐵門300米、混凝土150、土
Ursula avatarUrsula2021-08-26
牆60,若時速90,偵測到牆要AI多遠開始煞車到停?
Tristan Cohan avatarTristan Cohan2021-08-28
有勞S大,我只是對air bone 跟TSLR應用有興趣
Jacky avatarJacky2021-09-01
他的youtube 有很多謬論 當科普看就好
Elizabeth avatarElizabeth2021-09-03
主要還是在感知這塊,電腦遠不如人類,電腦99%情況
做得比人類駕駛好,但還是卻會發生離譜錯誤
Kristin avatarKristin2021-09-05
摻在一起就好啦,沒有影像辨識怎麼可能完全掌控路況
Jacky avatarJacky2021-09-09
主流是多感應器融合(sensor fusion),Tesla擺明不
用lidar,那在視覺無法辨識&濾掉毫米波雷達的靜止
物量測資訊下,就變成災難啊
Tristan Cohan avatarTristan Cohan2021-09-13
視覺在lane tracking的應用上就很成功,但全都丟給
視覺&深度學習,有夢最美囉
Sarah avatarSarah2021-09-18
看到白灰的翻覆貨車頂以為是天空就不意外了
Steve avatarSteve2021-09-19
特斯拉的戰略蠻正確的,lidar又貴整合難度又高,
William avatarWilliam2021-09-20
裝這個根本拖累上市時程,至於少裝的後果就打媒體戰
解決就好
Ina avatarIna2021-09-23
Lidar也不是萬靈丹啦!即時有lidar資訊,還是需要
去做後處理跟分類!一樣會有分錯類的可能性
Poppy avatarPoppy2021-09-24
我猜馬斯克打的算盤是幾年之後顯卡晶片效能滿出來
Freda avatarFreda2021-09-27
所以他的演算法賭的是軟改硬幹
Frederic avatarFrederic2021-09-29
影像辨識解析度會影響判斷結果沒錯,但是電腦需要的
解晰度比你想像的要低很多就能正確判斷。人眼看起來
Olga avatarOlga2021-09-29
根本馬賽克的東西只要training正確,ANN判斷的正確
率高的讓人莫名其妙。而實際上要拉高影像解析度以現
在的技術根本也沒有太多難度,ANN即時辨識的運算需
求也根本不龐大(運算慢是在training)。所以特不拉
Kelly avatarKelly2021-10-03
高光學解析度,並不是技術難以克服,更多是不需要
Charlie avatarCharlie2021-10-08
應該是說解析度高反而增加 training 的成本與困難度
只要對物體有一定程度的辨別度,解析度是越低越好
Elma avatarElma2021-10-10
光達是Lidar嗎