倍可親

人工智慧競賽管控

作者:國華B  於 2023-10-27 06:09 發表於 最熱鬧的華人社交網路--貝殼村

通用分類:政經軍事|已有28評論

10月20日一期的《外交事務》(Foreign Affairs)雜誌刊登了一篇由兩位名人撰寫的文章 -- 亨利·A·基辛格(Henry A Kissinger 下圖1 BIOGRAPHY)和愛利森·格拉漢姆(Graham Allison 下圖2 TED Talks)。被中國大陸領導和學術界稱作「中國人民的老朋友」其中基辛格為基辛格協會(Kissinger Associates)主席,曾任美國國家安全顧問(1969年至1975年),和美國國務卿(1973年至1977年)。愛利森·格拉漢姆(Graham Allison)為哈佛大學Douglas Dillon政府學教授。他是《戰爭的命運:美國和中國能逃脫修昔底德的陷阱嗎?》(Destined for War: Can America and China Escape Thucydides』s Trap?)一書的作者。格拉漢姆關於美中間的「修昔底德的陷阱」之說,在國際研究美中關係的圈子裡頗有市場。 該篇刊登在《外交事務》上文章的題目為「管控人工智慧競賽之路」,主要討論方興未艾的美中人工智慧競賽及管控的意義。以下介紹他們的主要觀點。



二戰後迄今,地球見證長達78周年的和平(大國間無戰爭)。迫使日本立即無條件投降的廣島和長崎原子彈爆炸后,世界上再沒有任何國家使用核武器了。基辛格和格拉漢姆將歷史上最長的世界和平及避免核戰爭、減緩核擴散的成就歸功於美國領導下的國際秩序,認為它們將作為美國最重要的成就之一載入史冊。今天,世界出現了另一種全新的技術 -- 人工智慧。人工智慧技術給人類帶來了獨特挑戰,因為它未知、甚至可怕 (下圖 YouTube/crystalloids)-- 人工智慧技術的機器會取代人類主宰宇宙嗎;人工智慧會打破國家機器對大規模暴力手段的壟斷嗎;人工智慧會讓個人或小團體製造傳播能夠大面積殺死生命的病毒嗎?人工智慧是否會危及維護著當今國際秩序的核威懾?



站在人工智慧革命前沿的技術領袖們相信,人工智慧最終將具有超越人類的能力,人工智慧的無限制發展極有可能給包括美國在內的世界帶來災難性後果。因此,各國政府必須立即採取行動對人工智慧技術進行立法管控。雖然人類對人工智慧的未來發展尚不完全理解,但政府領導人決策時可借鑒核武時代的經驗教訓。當兩個核武超級大國在相互競爭中達到核威懾平衡時,即在一方先發制人的攻擊后,被攻擊方仍然具有完全摧毀先發制人方的反擊能力,美蘇領導人都意識到必須共同防止這項技術迅速傳播到其他流氓無賴國家,從而威脅美蘇自己。

核時代的教訓 

1945年原子彈摧毀日本城市后(下圖 DAILY BEAST/The Atlantic),科學家們對他們創造的東西所具備的毀滅能力感到后怕。曼哈頓計劃的首席科學家奧本海默(Robert Oppenheimer)回憶起《薄伽梵歌》(Bhagavad Gita)中的一句話:「現在我成了死亡,世界的毀滅者。」1955年,包括愛因斯坦在內的11位頂尖科學家簽署了《羅素-愛因斯坦宣言》(Russell-Einstein Manifesto),警告核武器的可怕威力,並懇請世界領導人永遠不要使用核武器。



當時美國杜魯門政府的戰爭部長亨利·史汀生(剛剛幫助德國和日本取得勝利)提議,美國與蘇聯領導人斯大林和英國首相丘吉爾分享其對原子彈的壟斷權,以建立一個防止核武器擴散的大國「共管公寓」。杜魯門政府於是成立了一個委員會,由美國副國務卿艾奇遜(Dean Acheson)擔任主席,制定一項戰略來推行史汀生的提議。艾奇遜基本上同意史汀生的觀點:防止核軍備競賽以災難性戰爭告終的唯一方法是建立一個唯一擁有原子武器的國際權威機構。這要求美國與蘇聯和聯合國安理會其他成員國分享其核秘密,將其核武器移交給新的聯合國「原子能開發機構」,並禁止所有國家發展武器或建設自己生產武器級核材料的能力。但蘇聯沒有接受美國的建議,而是繼續研發自己的核武器。幾年後蘇聯成功地製造了自己的原子彈,美國和蘇聯從此進入了「冷戰」時期:一場除了炸彈和子彈之外的競爭。這場競爭的一個核心特徵是對核優勢的追求。在鼎盛時期,這兩個超級大國的核武庫包括6萬多件武器,其中一些彈頭的爆炸力超過了有記錄以來所有戰爭中使用的所有武器之和。

幾十年來,華盛頓和莫斯科在核武庫上花費了數萬億美元。在這場競賽的最初幾十年裡,美國和蘇聯都在技術上取得了飛躍。武器爆炸當量從最初的裂變武器的千噸(相當於1000噸TNT釋放的能量)到氫聚變彈的兆噸(相當於100萬噸釋放的能量。)雙方都發明了能夠在30分鐘內將彈頭髮射到地球另一端目標的洲際導彈,建立起在數百英里高空繞地衛星識別幾英寸內大小的目標偵查系統,和導引己方子彈擊中敵方子彈的導航系統。

核威懾概念 

由於美蘇雙方均擁有可在對方首先發動攻擊後向攻擊方進行可靠報復的第二次打擊能力,肯尼迪總統就蘇聯在古巴部署的核彈頭導彈與蘇聯領導人赫魯曉夫對峙時,最終選擇了妥協(下圖 The Moscow Times)。因為美國情報界估計,即使肯尼迪成功發動了第一次打擊,蘇聯以其當時的核能力進行的報復性反應可能導致6200萬美國人死亡。1969年,尼克松總統的安全顧問基辛格(本文作者之一),指出了這一挑戰:「任何好戰的言論都不能掩蓋現有核儲備足以摧毀人類的事實……沒有比防止核戰爭災難更高的責任了。」 


核威懾的概念:向對手展示,任何先發制人的攻擊所獲得的收益,都將大大低於發動攻擊所需成本,從而阻遏對手的攻擊。人們逐漸認識到,成功的威懾不僅需要能力,還需要信譽 -- 潛在的被攻擊方擁有果斷回應的手段和堅定反擊的意願。為此戰略家們創造了MAD(mutual assured vulnerability)一詞,意為「確保相互摧毀」。里根經常重複的一句話概括了其本質:「核戰爭不可能獲勝,因此永遠不能打。」

雖然美蘇都試圖擺脫這種MAD狀況,但他們最終認識到自己無法做到這一點,因而必須從根本上重新定義兩國關係。由此,美蘇達成了軍備控制的協議,包括一系列隱性和顯性約束,如不干涉對方對其領土的監視,禁止大氣層核試念,限制反彈道導彈防禦,消除中程核彈道導彈部隊,限制導彈發射器增加,以及減少導彈發射器數量(START,New START)等。也許最重要的是,美國和蘇聯簽署了《核不擴散條約》。因為兩國均認識到,向其他國家擴散核武器對兩國都構成了威脅,並最終面臨核無政府狀態的風險。今天,世界上有186個國家承諾不發展自己的核武庫。

人工智慧的管控 

由於人工智慧的未知風險,包括億萬富翁埃隆·馬斯克在內的許多人或要求暫停人工智慧開發,或提議廢除人工智慧,或建議由全球政府機構控制人工智慧。但這基本上不會發生 -- 從未有一個大國因競爭對手可能會應用一項新技術來威脅其生存和安全,就放棄為自己開發該技術。即使是美國的親密盟友,如英國和法國,在依賴美國核保護傘的同時,也選擇發展自己的國家核能力。

追溯過往經驗,「確保相互摧毀」的MAD,曾使人類免於核毀滅。但人工智慧與核武器之間存在顯著差異,因而不能生搬硬套。首先,不同於政府主導的核技術發展(可不計成本,無視收益),推動人工智慧發展的是私營企業家、技術專家和公司,如微軟、谷歌、亞馬遜、Meta、OpenAI和少數小型初創公司及他們的科學家(下圖 The Science Agriculture)。由於這些私人(企業)行為者要權衡風險和回報,國家利益肯定不會是首要考慮對象。


其次,人工智慧代表著一個與核武器截然不同的挑戰。核武器很難生產,需要複雜的基礎設施才能完成從濃縮鈾到設計核武器的所有任務。核產品是有形的實物,因此是可數的。可以核實對手在做什麼,就會出現制約因素。人工智慧是概念性的,主要進化發生在人類的頭腦中。人工智慧的適用性在實驗室中不斷發展,其部署也很難觀察到,因為它是無形的。

第三,人工智慧的發展和傳播速度與發展了幾十年的軍備控制不具可比性。由於人工智慧的快速發展和傳播速度,政府需要儘快對人工智慧進行限制。一些專家認為,機器在未來五年內將開始自己拿主意自我設目標。這就需要在先國家后國際層面,討論和分析如何將人工智慧納入社會安全結構,以及政府與私營部門之間關係的新動力。

值得慶幸的是,開發出生成型人工智慧並使美國成為領先的人工智慧超級大國的大公司認識到,他們不僅對股東負有責任,而且對國家和整個人類負有責任。許多公司已經制定了自己的指導方針,用於在發布前評估風險,減少訓練數據中的偏見,並限制其模型的危險使用。其他人正在探索如何限制培訓,並對雲計算提供商提出「了解客戶」的要求。朝著正確方向邁出的重要一步是拜登政府7月宣布的一項舉措,該舉措將七家主要人工智慧公司的領導人帶到白宮,共同承諾制定指導方針,以確保「安全、保障和信任」。(下圖 Panhandle Post)


伴隨人工智慧的無限制發展的巨大風險要求政府和企業領導人立即行動。每一家擁有大規模計算能力來訓練新的人工智慧模型的公司,以及每一家開發新模型的公司或研究小組,都應有專人分析其商業人工智慧運營對人類和地緣政治的影響。

美國應該成立一個跨黨派的國家委員會,該國家委員會由私營部門、國會、軍方和情報界的無黨派前領導人組成。國家委員會應提出更具體的強制性保障措施,包括持續評估訓練GPT-4等人工智慧模型所需的大規模計算能力,以及在公司發布任何新模型之前,均需對其進行極端風險壓力測試。這方面,國家人工智慧安全委員會於2021年發布的有關建議,為美國軍方和美國情報機構在與中國大陸的人工智慧競爭中採取的舉措提供了動力和方向。

人工智慧競賽 

在創建自己國內人工智慧治理框架的同時,美國也應該與世界上唯二的另一個人工智慧超級大國(中國大陸 下圖 KNOWLEDGE AT WHARTON/CHINA EXPERIENCE)開始認真對話。中國大陸科技領域的全國冠軍 -- 百度(中國頂級搜索引擎)、位元組跳動(TikTok的母公司)、騰訊(開發出了微信應用)和阿里巴巴(電子商務的領導者)-- 正在構建獨特中文版本的ChatGPT。根據世界知識產權組織向彭博新聞社提供的數據,中國大陸機構2022年申請了29853件人工智慧領域相關專利,比美國同期的申請數量高出近80%。儘管中國在製造先進半導體的技術方面仍然落後,但它擁有在不久的將來迎頭趕上,乃至取得領先的必要條件。



因此,拜登和習近平應該儘快會面,就人工智慧軍備控制進行對話。11月12日至18日在舊金山舉行的亞太經合組織會議(APEC峰會)為美中交流提供了一次絕佳機會。拜登和習近平可彼此討論分享本人對人工智慧風險的評估、各自國家為防範人工智慧災難性風險而採取的措施、以及確保各自國內公司不輸出風險的措施。或許,拜登和習近平應考慮成立一個由美國和中國大陸人工智慧科學家以及其他反思這些發展影響的人組成的諮詢小組。拜習會及成立人工智慧諮詢小組,將促進雙方在人工智慧科領域展開富有成效的討論。除美中接觸和合作外,英國將於11月主辦的人工智慧安全峰會,聯合國正進行人工智慧風險方面的對話。這些,都將成為構建一個全球人工智慧秩序的全球對話的組成分。

由於每個國家都在尋求利用人工智慧來改善公民的生活,同時確保本國社會的安全,因此需要一個全球人工智慧秩序。在全球對話的基礎上,各國政府應努力防止人工智慧最危險和潛在的災難性後果,並輔之以參與開發大型人工智慧模型的各國科學家與國家委員會成員之間的對話。在擁有先進人工智慧項目的國家之間進行正式的全球人工智慧秩序政府談判,以建立一個與國際原子能機構相當的國際(人工智慧)機構。由於人工智慧的發展及伴隨的風險,關係到整個人類的安全問題,而非僅僅美中雙邊問題。美中應該協商合作並在採納其他國家意見的基礎上,制定人工智慧管控規格,使之成為一個國際秩序的指導原則。

雖然人工智慧今天帶來的挑戰與核時代的挑戰不可同日而語,但核軍備控制給世界帶來近80年沒有大國戰爭的和平秩序經驗依然值得借鑒。目前,只有兩個人工智慧超級大國:美國和中國是唯一擁有培養最複雜人工智慧模型所需的人才、研究機構和大規模計算能力的國家。這就為世界提供了一個機會 – 像美蘇當年防止核擴散、核毀滅那樣,美中可以制定指導方針,防止人工智慧最危險的進步和應用。美國總統喬·拜登和中國國家主席習近平應該抓住這個機會,在11月舊金山亞洲-太平洋經濟合作組織會議后立即舉行首腦會議,面對面討論他們應該認為是他們今天面臨的最重要的問題之一。似乎美中也明白茲事體大,故已就兩國領袖可能的11月面談進行準備。以史為鑒,美蘇能夠成功地共同應對核威脅,美中也應該共同應對人工智慧帶來的挑戰,並努力獲得成功,即便兩極分化日愈加劇。因為一遭不慎,人類可能墜入萬丈深淵。

參考資料

Kissinger, H. A. & Allison, G. (2023). The Path to AI Arms Control. FOREIGN AFFAIRS. 鏈接 https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control


高興

感動

同情

搞笑

難過

拍磚

支持

鮮花

發表評論 評論 (28 個評論)

當前只顯示與您操作相關的單個評論,點擊此處查看全部評論
回復 屠龍刀之原界 2023-10-30 23:40
jchip: Ai的應用場景是無限的,元宇宙不是。
其實AI也不是新東西,當年的專家系統其實已近開始。現在的ChatGPT只是在普通人們眼裡看到了」神奇「!其實說穿了也就是加入了」神經網路「,「弄出了花」。AI其實也不過是先有知識的堆疊,離自我創造還很遠。

快速運算的晶元也不過是加速」神經網路「的training,工程界有個說法,「垃圾進,垃圾除」,也就是訓練智能網路的材料選擇其實更關鍵,砸錢不一定能變現!現在一哄而上,過幾年也是一哄而下!
12下一頁

facelist doodle 塗鴉板

您需要登錄后才可以評論 登錄 | 註冊

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-4-26 15:44

返回頂部