NASA報告與AutoPilot半自動駕駛的侷限 - 汽車
By Queena
at 2017-03-04T18:57
at 2017-03-04T18:57
Table of Contents
「科學美國人」雜誌有一篇批評Tesla AutoPilot問題的報導,
內容有引述「美國太空總署」NASA的人因工程心理學專家Stephen Casner,
他對半自動駕駛系統的研究報告。
從第一艘太空船的研發專案開始,NASA鑽研「人類心理與自動化駕駛」相關課題,
已經有近60年的歷史經驗了。
(1958~1963, Project Mercury「水星計劃」中文簡介 https://is.gd/KJCXgG )。
(圖) 美國NASA水星計劃的太空船照片,前後共有7名太空人參與任務。
http://i.imgur.com/AQCet4C.jpg
(source: Dan Beaumont Space Museum https://is.gd/yqyofa )
根據幾十年來的相關研究,已經警告「人類專注力的有效週期」這件事,
會影響人們在(太空船)自動駕駛艙的表現。
Decades of research have warned about the human attention span in automated
cockpits
◇人類的注意力 有其侷限性 最多只能撐15分鐘 然後注意力會開始疲乏下滑
THE LIMITS OF ATTENTION
NASA的人因工程心理學專家Stephen Casner,他認為半自動駕駛輔助系統要求駕駛人
必須隨時不斷的注意路況,這是不切實際,非常不可行的。
Casner說,如果你只是坐在那邊,監視著系統運作,而這個系統又運作良好的話,
那會是一件很疲累的差事。
事實上,要求人類長時間的去精準監控那不斷重複的程序步驟,是件極度困難的事,
人類精準的注意力只能維持15分鐘,這就是所謂的「警覺性遞減」現象
(vigilance decrement)。
這是1948年,英國認知心理學家Robert Mackworth 在研究英國雷達操作人員的工作表現
後,所發表的重大發現。
二次世界大戰期間,為了監控德國空軍跨海來犯,英國政府在各地設置了許多雷達站。
Mackworth他發現雷達操作人員在監控雷達銀幕時,面對不斷重複掃過的銀幕畫面,
操作人員的準確度只能維持30分鐘,之後準確度會直線下降,快速滑落。
而且後來有更多更新的類似研究指出,人類的注意力只能持續15分鐘,
然後就會出現「警覺性遞減」現象。
Casner says. "If you're sitting there watching the system and it's doing
great, it's very tiring." In fact, it's extremely difficult for humans to
accurately monitor a repetitive process for long periods of time.
This so-called "vigilance decrement" was first identified and measured
in 1948 by psychologist Robert Mackworth, who asked British radar operators
to spend two hours watching for errors in the sweep of a rigged analog clock.
Mackworth found that the radar operators' accuracy plummeted after 30 minutes
; more recent versions of the experiment have documented similar vigilance
decrements after just 15 minutes.
◇AutoPilot出錯的死亡車禍,即使當時駕駛人有注意路況,可能也難逃一劫
科學人他們認為,車禍當時,即使Joshua Brown沒有在他的Tesla車上一邊AutoPilot,
一邊觀看哈利波特電影,在AutoPilot出錯時,他的心理狀態仍然會與魔鬼共謀對他不利
(因為注意力疲乏,會使他來不及察覺到AutoPilot出錯的危機,並及時做出反應)。
Even if Joshua Brown was not watching Harry Potter behind the wheel,
his own psychology may still have conspired against him
(圖) Tesla的Autopilot被NASA專家批評違反人因工程心理學,並不安全。
http://i.imgur.com/XOl7rGz.jpg
◇英國的半自動駕駛安全性研究
無獨有偶,英國南安普敦大學的研究人員也對半自動駕駛的安全性表達憂心。
英國「人因工程」研究權威Neville Stanton教授,在學術期刊上發表論文,
他們的研究發現,半自動駕駛車會有「反應時間落差」的問題。
(圖) 英國南安普敦大學的自動駕駛車模擬實驗室,他們改裝一輛Jaguar XJ,
並賦予它具備虛擬自動駕駛的功能。
http://i.imgur.com/nbuisUc.jpg
(source: Southampton University Driving Simulation https://is.gd/iTz1LH )
有26名受測人員,在XJ虛擬車上使用半自動駕駛模式,在時速112公里的情境下,
結果發現即使駕駛人有專心注意路況,沒有滑手機、看影片,
在模擬機出現要求受測人員接手駕駛的提示後,
他們從察覺到做出反應動作所需時間的中位數為「4.56秒」,
如果駕駛人有分心,例如使用手機等等的情況下,所需反應時間的中位數為「6.06秒」
在時速112公里的情況下,4.56秒後車輛都已經行駛142公尺了,再加上煞車距離,
以現行Golf GTI的112kph緊急煞停距離49.7公尺為例,總共就要近200公尺了。
如果半自動駕駛系統出錯,駕駛人想靠自身反應能力來避免車禍並不容易。
(圖) Neville Stanton教授,是英國「人因工程」界的研究權威
http://i.imgur.com/xgrD2kl.jpg
英國皇家航空學會曾頒發青銅勳章給他,感謝他對航空母艦飛行甲板的安全性所作的
貢獻。
英國「人體工學及人因工程」研究院也曾頒發獎章,感謝他對人體工學研究的貢獻。
南安普敦大學是英國研究型大學的第8強,他們的理工領域研究很強,
尤其是海洋、海事、水下機械工程領域素來享有盛名,在全球海洋與水下工程可排前10名
。
==心得==
汽車自動駕駛技術牽涉到人類心理和硬體技術層面,未來還有一段很長的路要走,
相信總有一天自駕車相關技術會成熟到進入實用化階段的。
在自駕車技術還沒成熟之前,不鬧出人命是業界開發的最高原則。
"Fail Fast And Iterate - But Not At The Cost Of Human Lives."
最近發生幾起自駕車意外事件,幸好都沒有出人命。
1. 德州達拉斯TX-121高速公路,第一代AutoPilot自駕車對路況判讀出錯,
直接撞上施工路障的車禍事件,可能就跟注意力疲乏現象有關。。
(https://is.gd/ZU0OZF )
2. 前幾天,兩名Uber員工跟紐約時報爆料,去年12月Uber的Volvo自駕車在舊金山市區
闖紅燈事件,是因為電腦自駕系統出錯才會闖紅燈,而非Uber官方所宣稱的是隨車駕駛人
員開車犯錯。
當時自駕車服務才上路短短幾天,Uber自駕車就已經闖紅燈至少有「六次」了。
(https://is.gd/DfKA1Z )
Uber信用破產,公司謊言被自家員工戳破了。
推動自動駕駛技術是一件好事,但廠商不能為了賺錢,就無視他人性命與車輛交通安全
連技術層次較低的AEB自動緊急煞停系統都可能有1/3車款不及格了 (5/15輛),
顯見目前還是不能過於倚賴新科技。
延伸閱讀
[情報] 德州Tesla Model S自駕車撞分隔島路障事件,車禍照片與車主發文
https://www.ptt.cc/bbs/car/M.1488584023.A.0CE.html
[外電] 員工爆料 Uber自駕車闖紅燈是電腦出錯 並非人為疏失
https://www.ptt.cc/bbs/car/M.1488588559.A.680.html
[情報] 澳洲實測AEB自動煞車系統,15輛車受測,其中有5款車不及格
https://www.ptt.cc/bbs/car/M.1488181584.A.3BD.html
出處
[科學美國人] 關於Autopilot的侷限 NASA能教Tesla的事
What NASA Could Teach Tesla about Autopilot's Limits
https://is.gd/onp3h1
[NASA論文] The Challenges of Partially Automated Driving
https://is.gd/yBqaUC
[論文PDF] The Challenges of Partially Automated Driving
https://is.gd/gpKnWG
(圖) NASA論文的三項重點
http://i.imgur.com/Nm2Sz9m.jpg
'Takeover time' in driverless cars crucial to safety
https://is.gd/UtLgAn
--
內容有引述「美國太空總署」NASA的人因工程心理學專家Stephen Casner,
他對半自動駕駛系統的研究報告。
從第一艘太空船的研發專案開始,NASA鑽研「人類心理與自動化駕駛」相關課題,
已經有近60年的歷史經驗了。
(1958~1963, Project Mercury「水星計劃」中文簡介 https://is.gd/KJCXgG )。
(圖) 美國NASA水星計劃的太空船照片,前後共有7名太空人參與任務。
http://i.imgur.com/AQCet4C.jpg
(source: Dan Beaumont Space Museum https://is.gd/yqyofa )
根據幾十年來的相關研究,已經警告「人類專注力的有效週期」這件事,
會影響人們在(太空船)自動駕駛艙的表現。
Decades of research have warned about the human attention span in automated
cockpits
◇人類的注意力 有其侷限性 最多只能撐15分鐘 然後注意力會開始疲乏下滑
THE LIMITS OF ATTENTION
NASA的人因工程心理學專家Stephen Casner,他認為半自動駕駛輔助系統要求駕駛人
必須隨時不斷的注意路況,這是不切實際,非常不可行的。
Casner說,如果你只是坐在那邊,監視著系統運作,而這個系統又運作良好的話,
那會是一件很疲累的差事。
事實上,要求人類長時間的去精準監控那不斷重複的程序步驟,是件極度困難的事,
人類精準的注意力只能維持15分鐘,這就是所謂的「警覺性遞減」現象
(vigilance decrement)。
這是1948年,英國認知心理學家Robert Mackworth 在研究英國雷達操作人員的工作表現
後,所發表的重大發現。
二次世界大戰期間,為了監控德國空軍跨海來犯,英國政府在各地設置了許多雷達站。
Mackworth他發現雷達操作人員在監控雷達銀幕時,面對不斷重複掃過的銀幕畫面,
操作人員的準確度只能維持30分鐘,之後準確度會直線下降,快速滑落。
而且後來有更多更新的類似研究指出,人類的注意力只能持續15分鐘,
然後就會出現「警覺性遞減」現象。
Casner says. "If you're sitting there watching the system and it's doing
great, it's very tiring." In fact, it's extremely difficult for humans to
accurately monitor a repetitive process for long periods of time.
This so-called "vigilance decrement" was first identified and measured
in 1948 by psychologist Robert Mackworth, who asked British radar operators
to spend two hours watching for errors in the sweep of a rigged analog clock.
Mackworth found that the radar operators' accuracy plummeted after 30 minutes
; more recent versions of the experiment have documented similar vigilance
decrements after just 15 minutes.
◇AutoPilot出錯的死亡車禍,即使當時駕駛人有注意路況,可能也難逃一劫
科學人他們認為,車禍當時,即使Joshua Brown沒有在他的Tesla車上一邊AutoPilot,
一邊觀看哈利波特電影,在AutoPilot出錯時,他的心理狀態仍然會與魔鬼共謀對他不利
(因為注意力疲乏,會使他來不及察覺到AutoPilot出錯的危機,並及時做出反應)。
Even if Joshua Brown was not watching Harry Potter behind the wheel,
his own psychology may still have conspired against him
(圖) Tesla的Autopilot被NASA專家批評違反人因工程心理學,並不安全。
http://i.imgur.com/XOl7rGz.jpg
◇英國的半自動駕駛安全性研究
無獨有偶,英國南安普敦大學的研究人員也對半自動駕駛的安全性表達憂心。
英國「人因工程」研究權威Neville Stanton教授,在學術期刊上發表論文,
他們的研究發現,半自動駕駛車會有「反應時間落差」的問題。
(圖) 英國南安普敦大學的自動駕駛車模擬實驗室,他們改裝一輛Jaguar XJ,
並賦予它具備虛擬自動駕駛的功能。
http://i.imgur.com/nbuisUc.jpg
(source: Southampton University Driving Simulation https://is.gd/iTz1LH )
有26名受測人員,在XJ虛擬車上使用半自動駕駛模式,在時速112公里的情境下,
結果發現即使駕駛人有專心注意路況,沒有滑手機、看影片,
在模擬機出現要求受測人員接手駕駛的提示後,
他們從察覺到做出反應動作所需時間的中位數為「4.56秒」,
如果駕駛人有分心,例如使用手機等等的情況下,所需反應時間的中位數為「6.06秒」
在時速112公里的情況下,4.56秒後車輛都已經行駛142公尺了,再加上煞車距離,
以現行Golf GTI的112kph緊急煞停距離49.7公尺為例,總共就要近200公尺了。
如果半自動駕駛系統出錯,駕駛人想靠自身反應能力來避免車禍並不容易。
(圖) Neville Stanton教授,是英國「人因工程」界的研究權威
http://i.imgur.com/xgrD2kl.jpg
英國皇家航空學會曾頒發青銅勳章給他,感謝他對航空母艦飛行甲板的安全性所作的
貢獻。
英國「人體工學及人因工程」研究院也曾頒發獎章,感謝他對人體工學研究的貢獻。
南安普敦大學是英國研究型大學的第8強,他們的理工領域研究很強,
尤其是海洋、海事、水下機械工程領域素來享有盛名,在全球海洋與水下工程可排前10名
。
==心得==
汽車自動駕駛技術牽涉到人類心理和硬體技術層面,未來還有一段很長的路要走,
相信總有一天自駕車相關技術會成熟到進入實用化階段的。
在自駕車技術還沒成熟之前,不鬧出人命是業界開發的最高原則。
"Fail Fast And Iterate - But Not At The Cost Of Human Lives."
最近發生幾起自駕車意外事件,幸好都沒有出人命。
1. 德州達拉斯TX-121高速公路,第一代AutoPilot自駕車對路況判讀出錯,
直接撞上施工路障的車禍事件,可能就跟注意力疲乏現象有關。。
(https://is.gd/ZU0OZF )
2. 前幾天,兩名Uber員工跟紐約時報爆料,去年12月Uber的Volvo自駕車在舊金山市區
闖紅燈事件,是因為電腦自駕系統出錯才會闖紅燈,而非Uber官方所宣稱的是隨車駕駛人
員開車犯錯。
當時自駕車服務才上路短短幾天,Uber自駕車就已經闖紅燈至少有「六次」了。
(https://is.gd/DfKA1Z )
Uber信用破產,公司謊言被自家員工戳破了。
推動自動駕駛技術是一件好事,但廠商不能為了賺錢,就無視他人性命與車輛交通安全
連技術層次較低的AEB自動緊急煞停系統都可能有1/3車款不及格了 (5/15輛),
顯見目前還是不能過於倚賴新科技。
延伸閱讀
[情報] 德州Tesla Model S自駕車撞分隔島路障事件,車禍照片與車主發文
https://www.ptt.cc/bbs/car/M.1488584023.A.0CE.html
[外電] 員工爆料 Uber自駕車闖紅燈是電腦出錯 並非人為疏失
https://www.ptt.cc/bbs/car/M.1488588559.A.680.html
[情報] 澳洲實測AEB自動煞車系統,15輛車受測,其中有5款車不及格
https://www.ptt.cc/bbs/car/M.1488181584.A.3BD.html
出處
[科學美國人] 關於Autopilot的侷限 NASA能教Tesla的事
What NASA Could Teach Tesla about Autopilot's Limits
https://is.gd/onp3h1
[NASA論文] The Challenges of Partially Automated Driving
https://is.gd/yBqaUC
[論文PDF] The Challenges of Partially Automated Driving
https://is.gd/gpKnWG
(圖) NASA論文的三項重點
http://i.imgur.com/Nm2Sz9m.jpg
'Takeover time' in driverless cars crucial to safety
https://is.gd/UtLgAn
--
All Comments
By Caroline
at 2017-03-07T07:21
at 2017-03-07T07:21
By Michael
at 2017-03-10T13:10
at 2017-03-10T13:10
By Sierra Rose
at 2017-03-10T18:12
at 2017-03-10T18:12
By Dora
at 2017-03-12T19:06
at 2017-03-12T19:06
By Ida
at 2017-03-16T08:58
at 2017-03-16T08:58
By Mary
at 2017-03-18T18:16
at 2017-03-18T18:16
By Ula
at 2017-03-21T05:02
at 2017-03-21T05:02
By Lily
at 2017-03-25T07:44
at 2017-03-25T07:44
By Hedwig
at 2017-03-29T08:01
at 2017-03-29T08:01
By Ethan
at 2017-04-02T13:12
at 2017-04-02T13:12
By Rebecca
at 2017-04-03T11:50
at 2017-04-03T11:50
By Jack
at 2017-04-06T03:25
at 2017-04-06T03:25
By Jake
at 2017-04-09T08:54
at 2017-04-09T08:54
By Ingrid
at 2017-04-11T15:41
at 2017-04-11T15:41
By Rosalind
at 2017-04-15T12:43
at 2017-04-15T12:43
By Eden
at 2017-04-19T05:28
at 2017-04-19T05:28
By Leila
at 2017-04-19T13:49
at 2017-04-19T13:49
By Poppy
at 2017-04-21T12:55
at 2017-04-21T12:55
By Frederica
at 2017-04-26T08:24
at 2017-04-26T08:24
By Franklin
at 2017-04-29T11:12
at 2017-04-29T11:12
By Emily
at 2017-05-03T05:53
at 2017-05-03T05:53
By Poppy
at 2017-05-05T15:24
at 2017-05-05T15:24
By Edith
at 2017-05-10T12:06
at 2017-05-10T12:06
By Heather
at 2017-05-14T14:20
at 2017-05-14T14:20
By Aaliyah
at 2017-05-19T13:46
at 2017-05-19T13:46
By Andrew
at 2017-05-21T19:20
at 2017-05-21T19:20
By Mia
at 2017-05-23T09:42
at 2017-05-23T09:42
By Andrew
at 2017-05-27T23:38
at 2017-05-27T23:38
By Jake
at 2017-05-30T00:17
at 2017-05-30T00:17
By Genevieve
at 2017-05-31T23:00
at 2017-05-31T23:00
By Andrew
at 2017-06-03T20:51
at 2017-06-03T20:51
By Charlotte
at 2017-06-04T01:36
at 2017-06-04T01:36
By Rae
at 2017-06-06T01:16
at 2017-06-06T01:16
By Susan
at 2017-06-10T08:08
at 2017-06-10T08:08
By Lauren
at 2017-06-11T11:48
at 2017-06-11T11:48
By Catherine
at 2017-06-14T08:38
at 2017-06-14T08:38
By William
at 2017-06-15T13:51
at 2017-06-15T13:51
By Bennie
at 2017-06-19T03:27
at 2017-06-19T03:27
By Yuri
at 2017-06-22T06:30
at 2017-06-22T06:30
By Skylar Davis
at 2017-06-25T04:36
at 2017-06-25T04:36
By Hedda
at 2017-06-29T01:45
at 2017-06-29T01:45
By Candice
at 2017-07-04T01:36
at 2017-07-04T01:36
By Brianna
at 2017-07-05T16:25
at 2017-07-05T16:25
By Annie
at 2017-07-08T03:39
at 2017-07-08T03:39
By Edward Lewis
at 2017-07-11T07:40
at 2017-07-11T07:40
By Caitlin
at 2017-07-13T23:01
at 2017-07-13T23:01
By Franklin
at 2017-07-17T07:48
at 2017-07-17T07:48
By Gilbert
at 2017-07-17T16:49
at 2017-07-17T16:49
By Hamiltion
at 2017-07-18T20:54
at 2017-07-18T20:54
By Eden
at 2017-07-19T08:19
at 2017-07-19T08:19
By Rae
at 2017-07-19T23:56
at 2017-07-19T23:56
By Bethany
at 2017-07-22T14:11
at 2017-07-22T14:11
By Olga
at 2017-07-24T10:26
at 2017-07-24T10:26
By Liam
at 2017-07-24T13:19
at 2017-07-24T13:19
By Olga
at 2017-07-25T00:07
at 2017-07-25T00:07
By Carol
at 2017-07-25T21:07
at 2017-07-25T21:07
By Aaliyah
at 2017-07-26T07:59
at 2017-07-26T07:59
By Aaliyah
at 2017-07-30T14:44
at 2017-07-30T14:44
By Ingrid
at 2017-08-04T12:01
at 2017-08-04T12:01
By Harry
at 2017-08-05T07:42
at 2017-08-05T07:42
By Dinah
at 2017-08-05T09:27
at 2017-08-05T09:27
By Audriana
at 2017-08-08T15:42
at 2017-08-08T15:42
By Jake
at 2017-08-09T15:12
at 2017-08-09T15:12
By Necoo
at 2017-08-09T18:46
at 2017-08-09T18:46
By Callum
at 2017-08-12T00:45
at 2017-08-12T00:45
By Gary
at 2017-08-13T11:27
at 2017-08-13T11:27
By Dora
at 2017-08-17T08:36
at 2017-08-17T08:36
By Rae
at 2017-08-20T06:08
at 2017-08-20T06:08
By Kama
at 2017-08-21T15:16
at 2017-08-21T15:16
By Necoo
at 2017-08-22T07:09
at 2017-08-22T07:09
By Rosalind
at 2017-08-22T15:04
at 2017-08-22T15:04
By Mason
at 2017-08-27T05:06
at 2017-08-27T05:06
By Rachel
at 2017-08-28T15:46
at 2017-08-28T15:46
By Blanche
at 2017-08-30T11:59
at 2017-08-30T11:59
By James
at 2017-08-31T18:13
at 2017-08-31T18:13
By Daph Bay
at 2017-09-05T08:46
at 2017-09-05T08:46
By Gary
at 2017-09-06T01:54
at 2017-09-06T01:54
By John
at 2017-09-07T03:19
at 2017-09-07T03:19
By Kelly
at 2017-09-09T14:02
at 2017-09-09T14:02
By Valerie
at 2017-09-11T13:35
at 2017-09-11T13:35
By Puput
at 2017-09-14T19:45
at 2017-09-14T19:45
Related Posts
現在中古車是不是都不好賣?
By Noah
at 2017-03-04T17:22
at 2017-03-04T17:22
馬三4d尊榮中部菜單
By Heather
at 2017-03-04T17:05
at 2017-03-04T17:05
汽車電壓奇怪現象
By Candice
at 2017-03-04T16:47
at 2017-03-04T16:47
車內浸水
By Puput
at 2017-03-04T15:40
at 2017-03-04T15:40
Mazda CX-3安心特仕菜單請教
By Irma
at 2017-03-04T15:32
at 2017-03-04T15:32