倍可親

回復: 0
列印 上一主題 下一主題

霍金:人工智慧風險巨大

[複製鏈接]

4607

主題

1萬

帖子

4萬

積分

貝殼至尊領袖

Rank: 6Rank: 6

積分
40058
跳轉到指定樓層
樓主
kylelong 發表於 2014-5-24 00:37 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式

核心提示: 成功創造人工智慧將是人類史上最重大的事件。


英國《獨立報》網站5月1日刊登題為《霍金說:「<超驗駭客>探討了人工智慧的影響,但我們對人工智慧足夠重視嗎?」》一文。作者為劍橋大學教授斯蒂芬·霍金、加利福尼亞大學伯克利分校教授斯圖爾特·拉塞爾、麻省理工學院教授馬克斯·特格馬克、2004年諾貝爾物理學獎獲得者、麻省理工學院教授弗蘭克·維爾切克。

好萊塢大片《超驗駭客》正在上映,約翰尼·德普和摩根·弗里曼在片中展示了對人類未來相互衝突的看法。人們大多會把高度智能機器概念當成純粹的科幻,但這是錯誤的,有可能是歷史上最嚴重的錯誤。

人工智慧(AI)研究現正迅速發展。近來的里程碑(如無人駕駛汽車、計算機在《危險邊緣》智力競賽節目中獲勝、數字私人助手Siri、Google Now和語音助手Cortana等)不過是史無前例的投資激發信息技術軍備競賽的徵兆。與今後幾十年會出現的事物相比,這些成就大概微不足道。
潛在的好處很多。文明所能提供的一切都是人類智慧的產物,人類無法預言當這種智慧被AI能提供的工具放大時人類能實現什麼,但消除戰爭、疾病和貧困將是所有人都最盼望的。成功創造AI將是人類歷史上最重大的事件。

遺憾的是,如果人類不學會避開風險,那它也可能是最後的事件。在近期,世界各國軍隊都在考慮能選擇和消滅目標的自主武器系統;在中期,正如埃里克·布林約爾松和安德魯·麥卡菲在《第二次機器時代》一書中所強調的,AI也許會改變人類的經濟,既帶來巨大財富,也帶來巨大混亂。

再往前看,能實現的東西沒有根本性極限:沒有物理定律阻止粒子以某種方式組織起來,從而能比人腦中的粒子組合完成更高級的計算。爆炸性轉變是可能發生的,但其過程也許會不同於電影情節:正如歐文·古德在1965年認識到的,具有超越人類智能的機器會不斷進一步改善自身設計,引發韋爾諾·溫格所稱的「奇點」和約翰尼·德普在影片中扮演的人物所稱的「超驗」。

人們可以想像這種技術智勝金融市場,發明能力超過人類研究者,操控能力超過人類領袖,開發出我們根本弄不懂的武器。雖然AI在短期內的影響取決於誰來控制,但長期影響取決於它還能否受到控制。

因此,面對收益和風險都不可估量的未來,專家們肯定在想盡一切辦法確保最佳結局,對嗎?錯了。就AI而言,雖然人類將遭遇歷史上有可能最好也可能最壞的事情,但除了劍橋大學生存風險研究中心、人類未來研究所、機器智能研究所和未來生活研究所等非營利性研究機構以外,沒什麼人對這些問題進行認真研究。所有人都應當問問自己現在能做些什麼來提高獲得收益而避開風險的可能性。

生活是我們自己創造的,幸福是我們對生活的感受。今天我們的生活如何,感受如何,取決於我們自己用什麼樣的眼光和態度來看待這個世界。

Thumbnail view only, Click to view original image. Images may be subject to copyright. Learn More
周末魚塊。

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-10-6 02:43

快速回復 返回頂部 返回列表