倍可親

回復: 0
列印 上一主題 下一主題

人類要為機器人立法嗎?

[複製鏈接]

4607

主題

1萬

帖子

4萬

積分

貝殼至尊領袖

Rank: 6Rank: 6

積分
40058
跳轉到指定樓層
樓主
kylelong 發表於 2014-6-3 06:46 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
我們對機器有著強烈的感情,即使人們知道它們不是活的,但是還是不能殘忍的對待他們。那麼,機器人應該有權利嗎?

隨著世界老年人口的快速增長,一些科學家提出機器人應該承擔一些責任,比如提供關心、幫助以及——最讓人驚奇的——夥伴關係。

凱特·達寧(Kate Darling)想讓你對可愛的機器人做一些壞事。達寧在2014年建立了一個工作室內,讓人們與機器人普利奧(Pleo)一起玩耍。這個機器人是一個兒童寵物恐龍玩具。它擁有一雙讓人感到信任的眼晴,能做出深情的動作。當你把它從盒子里拿出來時,它就像一個無助的剛出生的小狗——它不能走路,你不得不教他認識這個世界。

在人們呵護和擁抱這些可愛的恐龍一個小時后,達寧變成了行刑者。她給參加活動的人一些小刀、短柄小斧以及其他武器,命令他們去虐待並隔斷玩具的手足。她稱隨後發生的事"比我們之前預想的更具戲劇性"。

達寧是麻省理工大學(Massachusetts Institute of Technology)的一名研究人員。人們對虐待機器人的反應很重要,這是因為有關機器的新潮流讓我們重新考慮與機器的關係。當達寧在波士頓描述她的實驗時,她讓起這虐待機器人的事件很快后在公眾中變得無法接受。她甚至認為,人們應該建立一套「機器人權利」法律。假如這樣的話,在什麼情況下,可以虐待或是殺害機器人?在虐待機器人之前,這會讓人考量再三嗎?

達寧說:「直到最近,機器人權利仍然存在於科幻小說的領域。或許是因為真正我們身邊的都是相對簡單的機器。當我們扔掉一個烤麵包機或是遙控玩具汽車時,沒人會感到不舒服。然而,新出現的機器人改變了這種狀況。達寧表示,這些機器人表現出自發性行為,展示出目的性,有著類似寵物或是人的相似外形。換句話說,他們的行為像是它是活的,經常能讓我們情不自禁地讓引發我們的情感。

比如,2011年,在廣播秀節目Radiolab中做的一個小實驗中,麻省理工大學的弗里頓·貝爾德(Freedom Baird)要求孩子用頭朝下地拿著芭比娃娃、倉鼠傅比(Fuiby)機器人,一直保持著姿勢,直到感覺到不舒服。在孩子們倒著拿著芭比娃娃,直到手臂變酸痛時,他們很快就停下這種讓倉鼠痛苦的行為,過了一小會兒,也停止對待傅比。他們都知道這個傅比是個玩具,受不了這種設定的方式,哭喊著「我害怕」。

不僅僅是孩子們對由電線和電路表現組成的東西形成的令人驚訝的聯繫。達寧表示,一些人還給他們的Roomba牌吸塵器起名字。士兵給他們的機器人頒發「獎章」,或是給它們舉行葬禮。她引用《華盛頓郵報》報道的一個特別令人震撼的例子:一個軍事機器人設計用於踏雷爆破。在實驗中,地雷炸掉了機器人兩條腿的大半部分,而這個瘸腿的機器人仍然一瘸一拐的向前走。看到機器人的艱難,負責這個實驗的上校取消了這個實驗,因為這是「不人道的」。

殺人本性

一些研究人員中有這麼一個觀念:如果一個機器人看起來有生命力,有自己的想法,這個微小的相似性讓我們與機器產生共鳴,即使我們知道他們是人造的。

2014年初,德國杜伊斯堡--艾森大學(University of Duisburg-Essen)的研究人員用核磁共振成像掃描儀以及測量皮膚電傳導的設備跟蹤人們對一些人虐待傅比恐龍的視頻的反應——讓恐龍憋氣,將它裝到塑料袋裡或是擊打它。儘管他們知道他們看的是一個機器人,測量出的這些人的生理和心理反應比預期的都強烈。

2月在日內瓦召開的LIFT會議上,達寧要求人們也去虐到傅比恐龍同,發現結果是一樣的。這個工作室作得到了比預期更為不安的結果。

一個小時之後,人們拒絕用給他們的武器傷害傅比恐龍。之後,達寧開始做一個腦力遊戲,告訴他們可能通過殺掉別人的恐龍來挽救自己的。即便如此,這些人也不願意做。

最終,她他告訴這組參加實驗的人,除非有人站出來殺掉一隻傅比恐龍,否則其他機器人都將遭到屠殺。在深深的絕望之後,一個不情願的男人拿著一短柄小斧走了出來,將一個玩偶幹掉。

達寧回憶道,在這個殘忍的行為之後,這個房間之後陷入片刻的寂靜。人們感情反應程度好像讓他們感到吃驚。

假設這種強烈的感情反應存在的話,歐洲的機器人學者曾在幾年前就提出,要為了生產機器人制訂一套道德規範。這個想法來源於伊薩克·阿西莫夫(Isaac Asimov)著名的現代「機器人原則」。這五個原則中的一條是機器人「不能用欺騙人的方式設計……他們的機器本質是透明的」。換句話說,這就需要去打破情感和意識錯覺,將機器人看作是機器人:由金屬絲、螺旋線和軟體構成。

不過,達寧認為,我們能夠比道德規範更進一步。她表示,也許在我們的法律系統中保護「機器人權利"。

如果這個觀點聽起來荒謬,達寧指出有虐待動物的先例。為什麼我們要單獨為動物立法呢?簡單的原因他們遭受了苦難?如果真是如此,達寧問道為什麼我們有強大的法律來保護動物,卻不保護其他的呢?一些人開心的食用一些工業化農場惡劣條件里飼養的動物,或是用腳踩爛一隻昆蟲,卻不會對虐待鄰居的貓,或是看為了吃肉而去捕鯨魚的行為為了肉而感到震驚。

達寧稱,原因可能是我們認識到了他們承受著類似我們的痛苦時,我們才會立法。或許,我們創建這些法律顧問的主要原因是我們不想去看到虐待行為。這與其說是動物的經歷,還不如說是我們自己的情感苦痛。因此,達寧認為,即使機器人是機器,這不僅僅的殘忍的表演,結果更是太讓人不舒服而不能忍受。

痛苦感覺

事實上,對一個受害者的傷害不是我們規範技術的唯一原因。考慮是一種全然不同的小裝置,英國醫療協會(the British Medical Association,BMA)指出,應禁止在英國公共場合室內吸電子煙。英國醫療協會的觀點是,這不是說煙民或是附近的人就沒有健康風險。這會讓再一次讓公眾場合吸煙變得正常化。

舉另一個例子:如果一位父親在4歲兒子前虐待機器人,這是讓人接受的事嗎?不能假設這個孩子能有成年人複雜的理解力。虐待一個機器人教會他們知道造成痛苦的行為——不管是真實與否——在一些情況下是可以的。

或者在極端情況下:如果一個人將在實驗室做好的孩子模樣的機器人賣給有見不得人的想法的戀童癖的人,社會准許這種事情發生嗎?

這種表面上沒有受害人的惡行已出現在虛擬世界中。2014年初,《紐約客》雜誌(the New Yorker)講述了一個道德困境:在一家《俠盜飛車》(Grand Theft Auto)論壇里,有人問玩家能否接受遊戲中出現強姦行為。有人回答道:"我想有機會綁架一個女人,把她作為人質放在地下室里,每天強姦她,聽她叫喊、看她哭泣。」如果這種不健康的慾望實實在在地出現在一個機器人身上的話,這就讓人更難去容忍了。

在線下也有可能出現這種下流想法:機器人會真正經歷受苦——只是不像我們自己受的苦而已。一些研究人員已經開始讓機器人「感受」這個世界的痛苦。一些研究人員擔憂,當機器最終接受他們存的基礎感覺時,結果可能並不讓人高興。出於這個原因,哲學家托馬斯·梅斯(Thomas Metzinger)認為,我們應該徹底停止開發智能機器人。梅斯表示,首先有意識的機器會像一個充滿疑惑,無行事能力的嬰兒——當然不會是科幻小說里的複雜和邪惡的人工智慧——像普通機器一樣對待他們是很殘忍的。他認為,如果機器人有基本的意識的話,是不是模擬的都無所謂了。機器會認為它是活著的,能都夠體驗苦楚。梅斯認為應該這樣理解:「我們應該克制,不要給宇宙增加痛苦的數量。"

很明確的是,關於機器人"活著的"標準是存在的,從可愛的動物的行為的模擬到未來機器人感受到痛楚。但是,像可愛的達寧的普利奧恐龍實驗所表明的,這還沒有的很大程度地激發我們的情緒反應。問題是,不管我們能不能——或是應不應該——規定虐待待機器我們是不能接受的。這個界限是什麼?如果是一個機器人痛得哭了出來,或是乞哀告憐?如果它相信他正受傷呢? 如果他流血呢?

生活是我們自己創造的,幸福是我們對生活的感受。今天我們的生活如何,感受如何,取決於我們自己用什麼樣的眼光和態度來看待這個世界。

Thumbnail view only, Click to view original image. Images may be subject to copyright. Learn More
周末魚塊。

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-8-5 00:42

快速回復 返回頂部 返回列表