倍可親

回復: 1
列印 上一主題 下一主題

明天的無人車,也許會「故意」撞向你(圖)

[複製鏈接]

1萬

主題

3萬

帖子

6萬

積分

貝殼光輝歲月

倍可親決策會員(19級)

Rank: 6Rank: 6

積分
60345
跳轉到指定樓層
樓主
新鮮人 發表於 2014-7-10 07:54 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
伏維閣主 發表於  果殼網    2014-06-25 09:48

  

  圖片來源:U.S.DOT

  (文/Patrick Lin)假設有一輛無人駕駛車,正面臨艱難抉擇:它必須向左或向右急轉彎。但如果向左轉,就會撞上一輛沃爾沃越野車;如果向右轉,就會撞上一輛小型車Mini Cooper。如果讓你來給無人車設計演演算法,而且要追求一個合情合理的目標——把無人車對他人的傷害降到最小,那麼你會如何選擇?

  如果單純從物理學角度考慮,你應該選擇撞向重量較大的車,因為它能更好地吸收撞擊產生的衝擊力。也就是說,你的演演算法應該指揮無人車撞向沃爾沃。而且去撞一輛以安全性能著稱的車也是合情合理的,無論如何,無人車都應該撞向沃爾沃。

  但物理學並不是我們唯一需要考慮的問題。如果我們給無人車設計這樣一個「撞擊優化演演算法」,指揮它放過哪些車、撞向哪些車,那這演演算法簡直就是軍事武器系統里的「靶向演演算法」了。如果無人車真的採用了這種演演算法,那麼整個無人車產業就會被帶上一條法律和道德都堪憂的道路。

  雖然優化演演算法的本意是降低傷害,但是它確實通過系統運算做出了撞向大型車的決定。至於那些不幸被當成靶子的大型車,其駕駛員或所有者沒有犯任何錯誤,卻不得不獨自承擔惡果;也許他們唯一的「過錯」,就在於自己太注重安全,或者確實需要一輛大型SUV才能帶全家人一起出行。但他們卻有可能平白無故遭受衝撞,這樣真的公平嗎?

  

  雖然無人車市場上最著名的是谷歌公司的產品,但他們絕非唯一的研究組。圖中是斯坦福大學2009年的自駕車,在普通汽車基礎上改裝而來。圖片來源:Stanford

  看起來很合理的演演算法就這樣遇到了道德挑戰。如果無人車選擇撞向大型車,而非小型車,那麼沃爾沃和其他SUV車主當然有權憤憤不平——哪怕物理學告訴我們,這是當時情境下的最佳選擇。這個問題現實嗎?

  確實有許多道路交通事故無可避免,就算是無人駕駛車也不能逃脫噩運。比如一頭野鹿忽然跳到車前,或者本來在旁邊車道好好行駛的汽車忽然向你別過來。除非扭曲物理定律,不然事故近在眼前。但無人車或自動駕駛車也許能讓撞車後果變得稍微好一點。

  人類司機只能在緊急情況突發之際,憑本能快速做出反應。而無人駕駛車則受到軟體控制,可以用它那「不眨眼」的監視器連續掃描周圍環境。遠在我們人類察覺危險之前,它就已經進行過無數次運算了。所以它們在剎那之間就能做出決定,撞向哪裡才能把傷害減到最小。但是軟體也要由人來寫,而我們還不知道該如何處理這樣的道德難題。

  之所以要討論這些極端案例,當然不是為了模擬現實世界中的真實場景。這些情景就算會成真也肯定是極其罕見的,但是它們卻能暴露出正常案例里潛藏的問題。就拿剛才那個例子而言,撞擊優化演演算法可能會表現出令人不安的歧視。也許等我們下次需要權衡兩害、犧牲其一的時候,我們就該好好想一想了。

  幾年之前,絕大多數無人車還只是在高速公路或者野路上行駛,相對來說路況環境比較簡單,也不必太過擔心行人或者其他種種都市行車常會遇到的意外情況。但是谷歌最近宣布,它決定在真正的市區街道上測試它的無人駕駛車。從此以後,無人車面對的路況環境只會越來越複雜。在未來的某一天,它們勢必會迎來艱難抉擇:應該撞向何處?甚至撞向何人?

  

  1956年人們設想的無人駕駛車。那時應該沒有人意識到它可能帶來的倫理問題吧。圖片來源:wikipedia倫理關心的,不止是傷害

  美國弗吉尼亞州交通創新與研究中心的科學家諾亞•古道爾(Noah Goodall)提出了另一種場景,更加凸顯了問題的嚴重性:和上一個案例一樣,假設一輛無人車馬上就要撞到障礙物。它可以選擇向左邊或右邊急轉彎,但一邊的「目標」是戴頭盔的摩托車手,另一邊的「目標」是不戴頭盔的摩托車手。在這種情況下,該怎樣為汽車編程才是正確的?

  按照撞擊優化演演算法的原則,你會編程讓小車撞向那個在撞車之後生存幾率最大的目標——在第一個案例中,無人車會撞向沃爾沃;在第二個案例中,它會撞向戴頭盔的摩托車手。從統計數據來看,不戴頭盔的車手更有可能死於車禍,好演演算法當然會把這概率計算在內,因為任何一家汽車製造商都不希望自己的車撞死人。

  但我們很快就能發現這個選擇的不公平之處——哪怕從演演算法角度來說十分合理。如果我們編程讓無人車撞向戴頭盔的摩托車手,難道不是因為他/她負責任地帶了頭盔而懲罰他/她?與此同時,我們卻給另一個不注意安全、連頭盔都沒戴的摩托車手放了一條生路——在美國大多數州,不戴頭盔都算違法行為。

  這一歧視不單違反了道德準則,而且還不利於交通管制。隨著無人車在城市街道上逐漸普及,這種撞擊優化演演算法可能會迫使部分摩托車手為了不被當成靶子而摘下頭盔。另外,在第一個案例中,消費者可能都不想讓自己的車成為靶子,所以某些以安全係數高聞名的名牌車經銷商就要倒霉。道德運氣的作用?

  其實這些惱人的道德困境有個十分優雅的解法:不去刻意做選擇不就成了。我們完全可以設計一輛無人車,讓它靠隨機數生成器來做某些決策。換言之,假如無人車只要選擇了一個被撞的對象——無論大車或小車,戴頭盔或不戴頭盔——就一定會遇到倫理問題,那幹嘛非要精打細算去選呢?

  無人車的程序完全可以隨機生成一個數字。如果得到奇數,它就拐向其中一邊;如果得到偶數,它就拐向另外一邊。這樣一來就沒人能指責無人車演演算法歧視了SUV、戴頭盔的摩托車手或者任何東西了。

  隨機選擇看起來也沒有引入什麼全新的東西:無論是好運氣還是壞運氣,我們都已屢見不鮮。隨機選擇也能更好地模仿人類司機的行為,畢竟司機需要在電光火石之間緊急做出反應,其結果完全無法預料,而且也不會遵從邏輯——因為一切都發生得太突然,我們人類沒時間進行理性思考。

  然而隨機數字生成器也不是理想的方案,原因至少有如下幾點:第一,模仿人類駕駛行為好像沒有什麼明顯的益處,畢竟我們一開始之所以會設計無人車,不就是因為無人車能在關鍵時刻做出比我們人類更好的選擇嗎?人類犯錯、分神或酒駕等等因素造成了90%以上的交通事故。僅在美國境內,每年就有超過32000人因此喪生。
知之為知之,不知為不知,是知也

海納百川,  有容乃大

1萬

主題

3萬

帖子

6萬

積分

貝殼光輝歲月

倍可親決策會員(19級)

Rank: 6Rank: 6

積分
60345
沙發
 樓主| 新鮮人 發表於 2014-7-10 07:55 | 只看該作者
 第二,人類就算緊急之下做出了錯誤的選擇,別人也容易原諒他——比如撞向容易爆炸的小車而不是更穩定的物件這種。可是無人車就沒有這種特權了。程序員們擁有充足時間來完善程序,無需立即做出反應。這同樣也是「預謀殺人」和「過失殺人」的區別。

  

  人的衝動是可以原諒的,但假如這並不是衝動,而是蓄謀已久呢?就算結果完全無法區分?圖片來源:Simpsons

  第三,在可預見的未來里,找到倫理難題的「正確」解法固然很好,但這不是全部——同樣重要的,是你的解法經過深思熟慮,能夠為這一決策辯護,向別人展示你的道德計算。在倫理學里,思考一個問題的過程就和最終結果一樣重要。而隨機選擇卻是在逃避這一責任——不是靠深思熟慮的決策,而是靠不加思索的運氣,這可能比人類反思決斷之後的壞判斷更糟。我們會不會「知道得太多」?

  我們也可以採取不那麼極端的辦法:屏蔽關鍵信息,讓無人車無從得知兩邊都有誰,也就不能做出差別對待——也就是為無人車打造一個「無知之幕」。在上述兩個案例中,無人車將無從得知其他車輛的品牌或型號,以及摩托車駕駛員是否配備了頭盔等安全設備——雖然「車對車通訊」等現代科技能讓我們輕易獲取相關信息。但如果我們能為無人車打造「無知之幕」,就等於是徹底消滅了偏向選擇的立足之本。

  不光撞擊優化演演算法不能使用關鍵信息;為了免除道德責任,也許無人車本來就不應該收集這類信息。如果無人車已經得到信息,而運用這些信息本可以拯救生命、把傷害減到最小;那麼明知不為,恐怕是要被追究法律責任的。這就相當於某國家情報機關明明收集了大量恐怖襲擊情報,但卻沒能憑此來阻止恐怖襲擊一樣。怎能不激起公憤。

  但這種思路的問題是,無人車製造商和保險公司都希望在技術允許的範圍內儘可能收集情報,這樣才能了解車禍詳情,或者滿足其他目的——比如投放某種新型車內廣告。既然收集信息的誘惑如此強烈,而且技術又允許,那麼自動屏蔽關鍵信息,是否不切實際?應該怎麼辦?

  未來的無人車光靠躲避撞擊是不夠的,因為總有一些撞車事故因為客觀原因而無法避免:來不及剎車、出現技術故障、感測器錯位、天氣太糟糕或者僅僅是運氣不好。因此,無人車也確實需要擁有撞擊優化的策略。

  但要優化撞擊,程序員就必須設計出損失函數演演算法,負責評估每個選項的預期損失,然後無人車會選擇預期損失最小的那個撞上去——可能就決定了事故中誰生誰死。究其本質,無人車演演算法其實是個道德難題,我們需要進行審慎和透明的推理。

  本文所舉的例子確實罕見,但這不是問題:最罕見的例子往往會成為最重要的案例,寫滿各大報紙的頭條。在美國,平均行駛每一億英里會發生一次致命的交通事故。也就是說,你可能開100輩子車也沒碰上過一次致命事故——但正是為了避免這種罕見事情,我們才要設計無人車啊。

  再次強調,以上的場景並不是為了模擬現實環境,而是思想實驗,把複雜的問題簡單化,獨立出幾個變數分別研究。無人車困境中的變數,就是倫理領域——特別是歧視和公平問題——在無人車撞擊優化演演算法中扮演的角色。

  不過,解決道德困境並非無人車面臨的最大挑戰。無人車使用者和一般民眾可能已經對無人車產生了錯誤的期望,如果他們發現情況「不對頭」,一定會大為驚懼。糾正民眾的錯誤期望,才是無人車設計者面臨的更大難題。因為不管無人車在道德困境中做何選擇,都不可能讓所有人滿意。

  道德和期望的衝突,並不是少數幾家公司需要面對的問題,而是所有想在這個新興領域分一杯羹的汽車製造商和一線供貨都必須直面的挑戰。解決問題的第一步,也許是發起一場對無人車道德問題的公開討論,或許能讓公眾和無人車設計者認清問題所在,在噩運或命運來襲之時,有能力勸服他人(同時擺脫法律訴訟)。(編輯:Ent)編譯自 Slate, The Robot Car of Tomorrow May Just Be Programmed to Hit You
知之為知之,不知為不知,是知也

海納百川,  有容乃大
回復 支持 反對

使用道具 舉報

您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-8-27 05:20

快速回復 返回頂部 返回列表