倍可親

回復: 0
列印 上一主題 下一主題

關於人工智慧的「電車難題」的嶄新思考

[複製鏈接]
匿名
跳轉到指定樓層
樓主
匿名  發表於 2022-5-26 17:14 回帖獎勵 |倒序瀏覽 |閱讀模式
對於機器人的大規模應用,大部分人仍然表現出極大的擔憂,包括對機器錯誤導致人類喪命的道德爭議。古典的「電車難題」是指一種道德困境,經典假設是旁觀者可以通過切換失控電車的軌道,雖然會因此撞死一個人,卻能拯救另外五個人。這一難題說明了攸關「誰生誰死「的選擇,本質上是一種道德判斷,這樣的決策不應該交給無情的機器。<br />
然而,機器人和人類的感知方式不同,出現的錯誤類型自然也就不同,這使得「道德困境」進一步加劇。舉例來說,機器人反應迅捷,注意力始終集中,但可能會誤判障礙物,例如優步的無人駕駛汽車就曾把推著自行車過馬路的行人誤判為汽車,並因此預判它比自身行進的速度更快。<br />
人類失誤和機器失誤之間的差異,使得公眾更加難以接受由機器人導致的死亡,如果他們曾經聽聞了類似 2018 年美國鳳凰城車禍事件后的媒體渲染報道,一定更難釋懷。一旦各種媒體持續以譴責性的大標題,有失偏頗地放大抨擊每樁自動駕駛致死的案例,那麼人們很可能會對自動駕駛系統徹底失去信心,即便這項技術最終有可能拯救數百萬人的生命。<br />
若是人類司機造成他人死亡,他們將面臨法律的判決並承擔相應後果。但「人工智慧的黑匣子」無法以人類可理解的詞句,或者在法律和道德上正
您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-7-19 04:02

快速回復 返回頂部 返回列表