倍可親

自動駕駛汽車難以克服的局限性

作者:8288  於 2017-4-7 15:05 發表於 最熱鬧的華人社交網路--貝殼村

作者分類:網路文摘|通用分類:我的車車|已有3評論

關鍵詞:局限性, 汽車

人類啟動了自動駕駛汽車計劃,並且相信這項技術將加強安全。但在當前發展階段,這顯然是一個過於大膽的假設。

我們人類容易犯錯,不完美,容易犯錯和出現基本的判斷失誤。因此,我們發明技術來幫助自己。

以推出自動駕駛汽車的計劃為例。人們相信,這項技術將加強安全。但在當前發展階段,這是一個非常大膽的假設。

首先,支持這種觀點的證據並不存在。我們擁有的最好數據來自加州在2016年期間進行的測試。必須記住,這個州擁有溫暖的氣候,很難代表全球的駕駛狀況。

谷歌(Google)的Waymo得分最高,每駕駛5127英里需要一次人為干預。這比上一年有所改善,但遠遠算不上完美。2016年,Waymo的60輛測試汽車的駕駛總里程約為1.0597萬英里(比美國每輛汽車的年度平均里程少3000英里),其間每輛汽車需要至少兩次干預。

特斯拉(Tesla)的表現糟糕得多。去年,這家電動汽車製造商有4輛汽車接受測試,每輛汽車的平均行駛里程為137英里,每輛汽車發生45次人為干預,大約每3英里一次。每次干預代表著一起潛在被避免的事故。

鑒於多數行業觀察者認為公眾不會容忍任何故障,因此這些結果都不振奮人心。相關技術確實在改進。但還有一個事實,自動駕駛汽車早在上世紀90年代中期就已出現,甚至當時就有一款汽車的「自動駕駛比例」達到了98.2%。

然而,即便能夠克服技術挑戰,意料之外的負面外部性也很可能難以逾越。

優步(Uber)在亞利桑那州的最新自動駕駛汽車事故恰恰說明了這點,事故責任方是另一輛汽車的人類駕駛員,而非優步的汽車。在這個例子里,責任人沒有讓路,這令人關注即將到來的自動化過渡的最大挑戰之一:人類和自動駕駛汽車必須能夠安全互動。

然而,推動人類行動的因素與演演算法的運行迥然不同。在基本層面,多數駕駛者(除了那些醉酒、有自殺傾向或者蓄意製造害怕或恐懼的人)都有意保護自己,保護其他人。複雜的演演算法並不能保證會如此。

也有例外,例如最近倫敦發生的恐怖襲擊。但是淘汰人類駕駛員不一定會減輕風險。那些自動駕駛汽車可能很容易變成武器,因為他們只需要被黑客入侵,而不需要由恐怖分子駕駛。

與此同時,2014年,因酒精中毒導致死亡的美國人數量是致命車禍的3倍。因此,如果駕車會鼓勵人們保持清醒,另一個意外後果可能是當人類擺脫了這種責任后,濫用酒精和藥物的人數會上升。

還有就是我們不得不相信程序員。通常,在企業界,僱主會精心設計獎懲計劃,以確保員工有動力把工作做得儘可能好,即便偷工減料對他們有利。他們會被追究責任。在人類草率行為可能對他人造成特別糟糕影響的領域(例如銀行業或空中交通管制),這種激勵更為重要。

然而,自動駕駛汽車將由程序員大軍編程和維護,就問責機制而言,這些程序員受益於他們人數眾多。我們能夠確定他們會一直得到妥善激勵嗎?

最後,儘管自動駕駛技術將增強人類駕駛技能的說法理由充足,但風險在於這可能導致人類能力的退化。我們肯定不想冒這個險:在我們真正需要這些能力時,卻發現它們不存在了。

譯者/梁艷裳


高興

感動

同情

搞笑

難過

拍磚
1

支持
6

鮮花

剛表態過的朋友 (7 人)

發表評論 評論 (3 個評論)

回復 Nanshanke 2017-4-9 00:26
有點強詞奪理的感覺。自動駕駛不完善,但仍會比人類駕駛安全的多。
回復 前兆 2017-4-9 02:22
誰承擔責任?製造商?程序員?或者是......?
回復 沁霈 2017-4-9 03:57
同意該文觀點,我也覺得這個自動駕駛設想比較大膽。

facelist doodle 塗鴉板

您需要登錄后才可以評論 登錄 | 註冊

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2020-2-27 10:08

返回頂部