倍可親

回復: 0
列印 上一主題 下一主題

令人恐懼的AI」吸血鬼「時代 人類需要一位刀鋒戰士

[複製鏈接]

7492

主題

1萬

帖子

2萬

積分

貝殼光明大使

Rank: 6Rank: 6

積分
23113
跳轉到指定樓層
樓主
大千世界 發表於 2018-1-29 10:29 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  2018-01-28 10:33:25 來源: 網易智能

  

  本文系網易智能工作室(公眾號smartman 163)出品。聚焦AI,讀懂下一個大時代!

  【網易智能訊 1月28日消息】最近世界上有這樣一個熱門話題:人工智慧是否能夠擁有做出符合倫理的決策能力。在討論自動駕駛汽車的未來時,這個問題便自然而然地浮出水面,但是它同時也包含了類似於「刀鋒戰士」這樣的科幻電影所描繪的道德難題。

  這些高層次的問題辯論圍繞著關於一個未來幾年的世界,在那時,人工智慧已經成為我們生活中不可或缺的一部分。想想Siri,亞馬遜的Alexa,以及許多智能手機上的照片分類功能,像這些技術的普及已經影響了人們對機器人工智能的看法。在最近的一項調查中,61%的受訪者表示社會將會因自動化和人工智慧技術的提高而變得更優秀或者說將得到極大的進步。

  但真正人性化的人工智慧需要時間去開發,而且科學必須同時考慮創造智能機器的意義。這個問題可能涉及到對於如何看待給予機器人權利和意識的考慮。隨著人工智慧創新的不斷推進,圍繞技術發展的有關倫理方面的討論也非常需要緊跟其發展的步伐。

  複雜的人工智慧問題很難去得到準確的答案,但有關對它的思考和辯論不會停止。目前人類正在開發許多類似刀鋒戰士中所描述的複製品所需的技術。機器學習是人工智慧其中的一個部分,並且該技術已經讓早期的機器人能夠通過觸摸和語言識別與人類進行交互活動,這些能力對仿生技術至關重要。自然語言處理技術也得到了改善,這使得一些機器人能夠通過響應複雜的語音命令來識別揚聲器中發出的聲音,即使在嘈雜的房間中,它們也能做到準確識別。

  然而,為了達到更高的水平,由於設備的相關智能系統還相對不成熟,當今的人工智慧技術仍需進步來提供更先進的處理方式。這種處理將需要對有關工程進行升級改造,特別是關於高效的計算能力,數據存儲和雲端獨立技術(複製品不能依賴互聯網連接進行思考)等,而我們面臨的主要挑戰是使機器能夠「緊密學習」,這也與人類從經驗中學習的方式類似。

  這個概念可以從分散式計算的思想開始說明。事實上,人工智慧演算法主要依靠龐大的數據運行。例如,一個智能音箱可能會通過識別關鍵字來進行相對的反應,但是真正的腦力勞動發生在距離數千英里的數據中心。將來,隨著研究人員加強人工智慧演算法在設備上本地運行的能力,這種情況將會發生改變。離散式學習加速器可以在必要時支持這些演算法,使機器達到具有獨立思考和學習能力的水平,並使其能在遇到互聯網上的任何中斷問題時處理起來更有彈性。這也意味著一台機器可能不需要通過與雲數據來共享敏感信息來做出行為。

  許多科技公司都相信這一願景,並正在推動設備的自主機器學習能力,以便有一天能夠在所有設備上實現高級智能,實現從微型感測器到超級計算機的轉變。這是一種分散式人工智慧計算,這個過程與人腦中發現的過程類似,擁有該技術的設備能夠基於超高效計算,形成了獨立的認知能力。雖然人類大腦的效率仍然比現在我們擁有的任何晶元都高出數萬倍,但是我們可以看到人工智慧是如何跟隨進化路徑進入緊密學習狀態來縮小與我們大腦的差距。

  在最近的進展中,研究人員已經應用分散式計算概念來創建雙向腦計算介面(BBCI),它是一種計算機晶元網路,其目標是將內部網路植入人腦。這個過程的目的是幫助改善患有神經系統疾病或腦損傷的人的大腦功能,但是這項技術也對先進的人工智慧有著更多含義。

  和人腦一樣,分散式網路中的每個節點都可以存儲和消耗自己的能量。這些迷你電腦可以通過從環境中提取電磁輻射來運行,就像手機和Wi-Fi信號的原理一樣。由於計算能力強大,採用小型自充電封裝,理論上講,分散式計算網路可以執行高級人工智慧處理,而不依賴龐大的電池組或遠程伺服器連接。

  分散式計算的出現有一天會導致人工智慧與人類智能的競爭。但是,我們如何確保有生命的複製體擁有與我們類似的複雜決策和道德推理能力呢?他們需要在具有挑戰性的現實環境中如何安全地與人類進行交互?

  來自利物浦大學的博士后研究員路易斯·丹尼斯(Louise Dennis)看到了一種解決方案。在她看來,所有這些都是關於對人工智慧進行編程的問題,對其存在價值的定位要足夠嚴格,以確保人身安全,但它們也應該足夠靈活以適應周圍複雜的情況,有時也會出現相互矛盾的道德原則問題等等。

  雖然我們遠沒有遇到像如何對待複製品,如刀鋒戰士電影里描述的2049年的情況那樣複雜,但人工智慧倫理學家們已經在努力開始考慮和嘗試解決一些棘手的問題。

  舉個例子,英國已經在圍繞無人駕駛飛機的規定問題上進行辯論。丹尼斯小組建議,公司需要讓無人駕駛智能飛機遵循民航局的空中管制。但民航局擔憂的是,雖然民航局訓練飛行員嚴格遵守條例,但在有必要保全人類性命時,他們往往會選擇打破這些規則。所以,如何編程一個機器人讓它知道什麼時候需要遵守規則,什麼時候需要打破這些規則,並不是一件容易的事情。

  如果我們想讓事情變得更加複雜,我們可以考慮到,價值觀並不只有一種。我們的許多道德優先事項取決於我們周圍的社區環境。人工智慧的倫理必須具有在一些情況下保持穩定的價值觀,並且與不能被其他人所干擾,從而能使它們像人一樣運作。

  人工智慧發生決策錯誤是不可避免的,其中一些會有需要承擔的後果。丹尼斯說,儘管如此,A人工智慧承諾會提高安全性,所以我們最終必須決定什麼是可接受的風險水平。

  「這永遠不會是完美的結局,」丹尼斯說。 「我認為這只是人們如何看待盡職調查或者去接受將來可能會發生的事故的問題。」

  大眾文化充斥著對人類的技術創新的警示,總會有反對者想把靈感精靈永遠裝在瓶子里,但在人工智慧這項問題上為時已晚。我們中的很多人已經在我們的日常生活中與人工智慧進行互動,而將人工智慧打造成與人類行為進行融合的方式無疑將使互相之間的關係變得更加穩固,像丹尼斯這樣的專家在仿生技術革命中也並沒有表現出太大的擔憂。事實上,她認為這樣的擔憂往往會讓人們對正確的人工智慧的發展方向分散注意力。

  丹尼斯說:「我們不應該擔心機器人是一種潛在的威脅,而是應該開始擔心社會將如何適應信息革命,如果不能與它同舟共濟,後果很可能是相當難以接受的。」

  開發能夠做出道德決策的機器人將是這一適應過程的關鍵部分。雖然分散式計算可能使現實生活中的複製品K擁有與人類類似的能力,但未來的複製者不會去傷害人類。而且,如果人工智慧的倫理學領域的進步速度與人工智慧發展速度本身一樣快,那麼未來的機器人可能會被設計成為嚴格遵守我們人類制定的嚴格的道德準則的模範好公民。(選自:venturebeat編譯:網易見外 參與:付曾)

一直被朋友稱為小博士。其實就是書讀得多一些而已。

您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-8-10 18:56

快速回復 返回頂部 返回列表