倍可親

人工智慧競賽管控

作者:國華B  於 2023-10-27 06:09 發表於 最熱鬧的華人社交網路--貝殼村

通用分類:政經軍事|已有28評論

10月20日一期的《外交事務》(Foreign Affairs)雜誌刊登了一篇由兩位名人撰寫的文章 -- 亨利·A·基辛格(Henry A Kissinger 下圖1 BIOGRAPHY)和愛利森·格拉漢姆(Graham Allison 下圖2 TED Talks)。被中國大陸領導和學術界稱作「中國人民的老朋友」其中基辛格為基辛格協會(Kissinger Associates)主席,曾任美國國家安全顧問(1969年至1975年),和美國國務卿(1973年至1977年)。愛利森·格拉漢姆(Graham Allison)為哈佛大學Douglas Dillon政府學教授。他是《戰爭的命運:美國和中國能逃脫修昔底德的陷阱嗎?》(Destined for War: Can America and China Escape Thucydides』s Trap?)一書的作者。格拉漢姆關於美中間的「修昔底德的陷阱」之說,在國際研究美中關係的圈子裡頗有市場。 該篇刊登在《外交事務》上文章的題目為「管控人工智慧競賽之路」,主要討論方興未艾的美中人工智慧競賽及管控的意義。以下介紹他們的主要觀點。



二戰後迄今,地球見證長達78周年的和平(大國間無戰爭)。迫使日本立即無條件投降的廣島和長崎原子彈爆炸后,世界上再沒有任何國家使用核武器了。基辛格和格拉漢姆將歷史上最長的世界和平及避免核戰爭、減緩核擴散的成就歸功於美國領導下的國際秩序,認為它們將作為美國最重要的成就之一載入史冊。今天,世界出現了另一種全新的技術 -- 人工智慧。人工智慧技術給人類帶來了獨特挑戰,因為它未知、甚至可怕 (下圖 YouTube/crystalloids)-- 人工智慧技術的機器會取代人類主宰宇宙嗎;人工智慧會打破國家機器對大規模暴力手段的壟斷嗎;人工智慧會讓個人或小團體製造傳播能夠大面積殺死生命的病毒嗎?人工智慧是否會危及維護著當今國際秩序的核威懾?



站在人工智慧革命前沿的技術領袖們相信,人工智慧最終將具有超越人類的能力,人工智慧的無限制發展極有可能給包括美國在內的世界帶來災難性後果。因此,各國政府必須立即採取行動對人工智慧技術進行立法管控。雖然人類對人工智慧的未來發展尚不完全理解,但政府領導人決策時可借鑒核武時代的經驗教訓。當兩個核武超級大國在相互競爭中達到核威懾平衡時,即在一方先發制人的攻擊后,被攻擊方仍然具有完全摧毀先發制人方的反擊能力,美蘇領導人都意識到必須共同防止這項技術迅速傳播到其他流氓無賴國家,從而威脅美蘇自己。

核時代的教訓 

1945年原子彈摧毀日本城市后(下圖 DAILY BEAST/The Atlantic),科學家們對他們創造的東西所具備的毀滅能力感到后怕。曼哈頓計劃的首席科學家奧本海默(Robert Oppenheimer)回憶起《薄伽梵歌》(Bhagavad Gita)中的一句話:「現在我成了死亡,世界的毀滅者。」1955年,包括愛因斯坦在內的11位頂尖科學家簽署了《羅素-愛因斯坦宣言》(Russell-Einstein Manifesto),警告核武器的可怕威力,並懇請世界領導人永遠不要使用核武器。



當時美國杜魯門政府的戰爭部長亨利·史汀生(剛剛幫助德國和日本取得勝利)提議,美國與蘇聯領導人斯大林和英國首相丘吉爾分享其對原子彈的壟斷權,以建立一個防止核武器擴散的大國「共管公寓」。杜魯門政府於是成立了一個委員會,由美國副國務卿艾奇遜(Dean Acheson)擔任主席,制定一項戰略來推行史汀生的提議。艾奇遜基本上同意史汀生的觀點:防止核軍備競賽以災難性戰爭告終的唯一方法是建立一個唯一擁有原子武器的國際權威機構。這要求美國與蘇聯和聯合國安理會其他成員國分享其核秘密,將其核武器移交給新的聯合國「原子能開發機構」,並禁止所有國家發展武器或建設自己生產武器級核材料的能力。但蘇聯沒有接受美國的建議,而是繼續研發自己的核武器。幾年後蘇聯成功地製造了自己的原子彈,美國和蘇聯從此進入了「冷戰」時期:一場除了炸彈和子彈之外的競爭。這場競爭的一個核心特徵是對核優勢的追求。在鼎盛時期,這兩個超級大國的核武庫包括6萬多件武器,其中一些彈頭的爆炸力超過了有記錄以來所有戰爭中使用的所有武器之和。

幾十年來,華盛頓和莫斯科在核武庫上花費了數萬億美元。在這場競賽的最初幾十年裡,美國和蘇聯都在技術上取得了飛躍。武器爆炸當量從最初的裂變武器的千噸(相當於1000噸TNT釋放的能量)到氫聚變彈的兆噸(相當於100萬噸釋放的能量。)雙方都發明了能夠在30分鐘內將彈頭髮射到地球另一端目標的洲際導彈,建立起在數百英里高空繞地衛星識別幾英寸內大小的目標偵查系統,和導引己方子彈擊中敵方子彈的導航系統。

核威懾概念 

由於美蘇雙方均擁有可在對方首先發動攻擊後向攻擊方進行可靠報復的第二次打擊能力,肯尼迪總統就蘇聯在古巴部署的核彈頭導彈與蘇聯領導人赫魯曉夫對峙時,最終選擇了妥協(下圖 The Moscow Times)。因為美國情報界估計,即使肯尼迪成功發動了第一次打擊,蘇聯以其當時的核能力進行的報復性反應可能導致6200萬美國人死亡。1969年,尼克松總統的安全顧問基辛格(本文作者之一),指出了這一挑戰:「任何好戰的言論都不能掩蓋現有核儲備足以摧毀人類的事實……沒有比防止核戰爭災難更高的責任了。」 


核威懾的概念:向對手展示,任何先發制人的攻擊所獲得的收益,都將大大低於發動攻擊所需成本,從而阻遏對手的攻擊。人們逐漸認識到,成功的威懾不僅需要能力,還需要信譽 -- 潛在的被攻擊方擁有果斷回應的手段和堅定反擊的意願。為此戰略家們創造了MAD(mutual assured vulnerability)一詞,意為「確保相互摧毀」。里根經常重複的一句話概括了其本質:「核戰爭不可能獲勝,因此永遠不能打。」

雖然美蘇都試圖擺脫這種MAD狀況,但他們最終認識到自己無法做到這一點,因而必須從根本上重新定義兩國關係。由此,美蘇達成了軍備控制的協議,包括一系列隱性和顯性約束,如不干涉對方對其領土的監視,禁止大氣層核試念,限制反彈道導彈防禦,消除中程核彈道導彈部隊,限制導彈發射器增加,以及減少導彈發射器數量(START,New START)等。也許最重要的是,美國和蘇聯簽署了《核不擴散條約》。因為兩國均認識到,向其他國家擴散核武器對兩國都構成了威脅,並最終面臨核無政府狀態的風險。今天,世界上有186個國家承諾不發展自己的核武庫。

人工智慧的管控 

由於人工智慧的未知風險,包括億萬富翁埃隆·馬斯克在內的許多人或要求暫停人工智慧開發,或提議廢除人工智慧,或建議由全球政府機構控制人工智慧。但這基本上不會發生 -- 從未有一個大國因競爭對手可能會應用一項新技術來威脅其生存和安全,就放棄為自己開發該技術。即使是美國的親密盟友,如英國和法國,在依賴美國核保護傘的同時,也選擇發展自己的國家核能力。

追溯過往經驗,「確保相互摧毀」的MAD,曾使人類免於核毀滅。但人工智慧與核武器之間存在顯著差異,因而不能生搬硬套。首先,不同於政府主導的核技術發展(可不計成本,無視收益),推動人工智慧發展的是私營企業家、技術專家和公司,如微軟、谷歌、亞馬遜、Meta、OpenAI和少數小型初創公司及他們的科學家(下圖 The Science Agriculture)。由於這些私人(企業)行為者要權衡風險和回報,國家利益肯定不會是首要考慮對象。


其次,人工智慧代表著一個與核武器截然不同的挑戰。核武器很難生產,需要複雜的基礎設施才能完成從濃縮鈾到設計核武器的所有任務。核產品是有形的實物,因此是可數的。可以核實對手在做什麼,就會出現制約因素。人工智慧是概念性的,主要進化發生在人類的頭腦中。人工智慧的適用性在實驗室中不斷發展,其部署也很難觀察到,因為它是無形的。

第三,人工智慧的發展和傳播速度與發展了幾十年的軍備控制不具可比性。由於人工智慧的快速發展和傳播速度,政府需要儘快對人工智慧進行限制。一些專家認為,機器在未來五年內將開始自己拿主意自我設目標。這就需要在先國家后國際層面,討論和分析如何將人工智慧納入社會安全結構,以及政府與私營部門之間關係的新動力。

值得慶幸的是,開發出生成型人工智慧並使美國成為領先的人工智慧超級大國的大公司認識到,他們不僅對股東負有責任,而且對國家和整個人類負有責任。許多公司已經制定了自己的指導方針,用於在發布前評估風險,減少訓練數據中的偏見,並限制其模型的危險使用。其他人正在探索如何限制培訓,並對雲計算提供商提出「了解客戶」的要求。朝著正確方向邁出的重要一步是拜登政府7月宣布的一項舉措,該舉措將七家主要人工智慧公司的領導人帶到白宮,共同承諾制定指導方針,以確保「安全、保障和信任」。(下圖 Panhandle Post)


伴隨人工智慧的無限制發展的巨大風險要求政府和企業領導人立即行動。每一家擁有大規模計算能力來訓練新的人工智慧模型的公司,以及每一家開發新模型的公司或研究小組,都應有專人分析其商業人工智慧運營對人類和地緣政治的影響。

美國應該成立一個跨黨派的國家委員會,該國家委員會由私營部門、國會、軍方和情報界的無黨派前領導人組成。國家委員會應提出更具體的強制性保障措施,包括持續評估訓練GPT-4等人工智慧模型所需的大規模計算能力,以及在公司發布任何新模型之前,均需對其進行極端風險壓力測試。這方面,國家人工智慧安全委員會於2021年發布的有關建議,為美國軍方和美國情報機構在與中國大陸的人工智慧競爭中採取的舉措提供了動力和方向。

人工智慧競賽 

在創建自己國內人工智慧治理框架的同時,美國也應該與世界上唯二的另一個人工智慧超級大國(中國大陸 下圖 KNOWLEDGE AT WHARTON/CHINA EXPERIENCE)開始認真對話。中國大陸科技領域的全國冠軍 -- 百度(中國頂級搜索引擎)、位元組跳動(TikTok的母公司)、騰訊(開發出了微信應用)和阿里巴巴(電子商務的領導者)-- 正在構建獨特中文版本的ChatGPT。根據世界知識產權組織向彭博新聞社提供的數據,中國大陸機構2022年申請了29853件人工智慧領域相關專利,比美國同期的申請數量高出近80%。儘管中國在製造先進半導體的技術方面仍然落後,但它擁有在不久的將來迎頭趕上,乃至取得領先的必要條件。



因此,拜登和習近平應該儘快會面,就人工智慧軍備控制進行對話。11月12日至18日在舊金山舉行的亞太經合組織會議(APEC峰會)為美中交流提供了一次絕佳機會。拜登和習近平可彼此討論分享本人對人工智慧風險的評估、各自國家為防範人工智慧災難性風險而採取的措施、以及確保各自國內公司不輸出風險的措施。或許,拜登和習近平應考慮成立一個由美國和中國大陸人工智慧科學家以及其他反思這些發展影響的人組成的諮詢小組。拜習會及成立人工智慧諮詢小組,將促進雙方在人工智慧科領域展開富有成效的討論。除美中接觸和合作外,英國將於11月主辦的人工智慧安全峰會,聯合國正進行人工智慧風險方面的對話。這些,都將成為構建一個全球人工智慧秩序的全球對話的組成分。

由於每個國家都在尋求利用人工智慧來改善公民的生活,同時確保本國社會的安全,因此需要一個全球人工智慧秩序。在全球對話的基礎上,各國政府應努力防止人工智慧最危險和潛在的災難性後果,並輔之以參與開發大型人工智慧模型的各國科學家與國家委員會成員之間的對話。在擁有先進人工智慧項目的國家之間進行正式的全球人工智慧秩序政府談判,以建立一個與國際原子能機構相當的國際(人工智慧)機構。由於人工智慧的發展及伴隨的風險,關係到整個人類的安全問題,而非僅僅美中雙邊問題。美中應該協商合作並在採納其他國家意見的基礎上,制定人工智慧管控規格,使之成為一個國際秩序的指導原則。

雖然人工智慧今天帶來的挑戰與核時代的挑戰不可同日而語,但核軍備控制給世界帶來近80年沒有大國戰爭的和平秩序經驗依然值得借鑒。目前,只有兩個人工智慧超級大國:美國和中國是唯一擁有培養最複雜人工智慧模型所需的人才、研究機構和大規模計算能力的國家。這就為世界提供了一個機會 – 像美蘇當年防止核擴散、核毀滅那樣,美中可以制定指導方針,防止人工智慧最危險的進步和應用。美國總統喬·拜登和中國國家主席習近平應該抓住這個機會,在11月舊金山亞洲-太平洋經濟合作組織會議后立即舉行首腦會議,面對面討論他們應該認為是他們今天面臨的最重要的問題之一。似乎美中也明白茲事體大,故已就兩國領袖可能的11月面談進行準備。以史為鑒,美蘇能夠成功地共同應對核威脅,美中也應該共同應對人工智慧帶來的挑戰,並努力獲得成功,即便兩極分化日愈加劇。因為一遭不慎,人類可能墜入萬丈深淵。

參考資料

Kissinger, H. A. & Allison, G. (2023). The Path to AI Arms Control. FOREIGN AFFAIRS. 鏈接 https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control


高興

感動

同情

搞笑

難過

拍磚

支持

鮮花

發表評論 評論 (28 個評論)

回復 浮平 2023-10-27 06:41
【美國應該成立一個跨黨派的國家委員會,該國家委員會由私營部門、國會、軍方和情報界的無黨派前領導人組成。】

由基辛格領導?

基本的倫理道德言行規範價值依據都沒扯明白,沒共識,扯那多宏大敘事幹嘛?知識產權啊,兒童色情啊,公民隱私權啊,網路水軍啊,電信詐騙啊,黑客行為,數據管理監督的透明度。。。。對內集權制度,政府可以把老百姓的個人信息,言論行動都控制了,當然可松可緊的立法執法,不過也夠麻煩的了,一年到頭的案件扯不清。對外呢?難道言行道德底線,是非判斷依據又是一套,而且可以隨意變化?

總想先用宏大敘事的宣傳來加入領導班子,奪取(或者說爭取好一些)立法立規的話語權,也不是不可以,但是非對錯的靈活操作方法最終都造成了由多個小事,基本的行為道德低下惹的禍。估計西方的現狀,擔憂,對外的態度是一條條的小事規則共識,具體措施落實再說其它。慢一點,先自保要緊,把自己對 AI 管理的漏洞先堵上,否則,道德底線不確定,是非善惡底線判斷不共識就是最大的風險。

這,剛看到的中國籍華人因 transport 兒童色情圖片一項罪名正在美國被起訴,發現手機里有這類視頻,最高面臨20年牢獄。 中國這方面的法律如何?道德教育如何?這位人士知道為什麼這是犯法嗎,知道錯在哪裡嗎,是否會有這種想法:別人都看色情(包括兒童的)視頻都沒事,包括領導?美國不是很自由嗎,為什麼又這麼嚴格嚴重,是否總的是非觀是依人,依權,依情,依關係,依利益,依實力,依面子,依是否會被發現為標準來靈機應變的?這些都是政治家和教育家需要思考的重點。

這些事政府不趕緊教育和立法難道不是害別人個人,是非對錯啥都搞不明白,跑美國來還得面臨坐牢?

https://www.justice.gov/usao-sdtx/pr/chinese-national-charged-attempting-bring-child-pornography-united-states

看看您博文下面每次的言論文明程度(不是觀點不同)就可以看到大陸的行為道德教育(非政治化的)遠遠不夠,政治高於一切+民族至上觀的「道德」教育對外就更是亂象,由一批「五毛」亂搞。技術再高,這方面脫了軌就可能越走越遠。可能你認為這重要,別人認為那重要,那麼在權重和順序上就錯位了,各說自話,各干自事了。

無論是什麼政治制度結構,都可以先獨立思考言行的是非善惡道德底線標準和規範,哪些是基本的,對人對己,對內對外一致性的東西,建立起不受權力,政治思想,目的目標和經濟模式影響的言行底線判斷依據參照系和標尺。

從來沒看到重視道德的宣傳,除了煽情和煽誅心論陰謀論就是宣政治目的和利益最大化的內容,那最多只有點內卷的意義,說不定是互害。別人提到的道德問題,違法事件那麼多,視而不見,要不一口否認,這是個啥意思嘛?能幫助經濟?幫助民族復興?
回復 七把叉Archie 2023-10-27 10:13
不知道基博士目的何在?中共國哪有威脅美AI的能力,如今美國防火防盜防中共,他們什麼也偷不到,威脅個毛啊?基博士究竟是為誰鼓噪?
回復 浮平 2023-10-27 10:25
七把叉Archie: 不知道基博士目的何在?中共國哪有威脅美AI的能力,如今美國防火防盜防中共,他們什麼也偷不到,威脅個毛啊?基博士究竟是為誰鼓噪?
【儘管中國在製造先進半導體的技術方面仍然落後,但它擁有在不久的將來迎頭趕上,乃至取得領先的必要條件。】

您也太潑冷水了 可別低估了集中力量辦大事的能力呀。
回復 七把叉Archie 2023-10-27 10:43
浮平: 【儘管中國在製造先進半導體的技術方面仍然落後,但它擁有在不久的將來迎頭趕上,乃至取得領先的必要條件。】

您也太潑冷水了 可別低估了集中力量辦大事
見過一次人多力量辦大事,全民鍊鋼,最後除了神州到處是生鏽的鐵渣和土塊壘起的高爐,什麼也沒有。如今又來人多好辦事,這個民族都是屬魚的,只有三秒記憶
回復 七把叉Archie 2023-10-27 11:26
當然,這次不同的是,不光人多,錢也多,用不完的錢,因為有挖不完的人礦,他們是力量的源泉。錢多,可以買技術,買人才,買相關企業。結果有些榆木腦袋,居然相信是集中力量辦大事的證明。看不見,有些關鍵的東西,花錢也買不來,豈不是有勁使不上?從今往後,沒有一件事是集中力量可以辦到的。
回復 浮平 2023-10-27 12:41
七把叉Archie: 當然,這次不同的是,不光人多,錢也多,用不完的錢,因為有挖不完的人礦,他們是力量的源泉。錢多,可以買技術,買人才,買相關企業。結果有些榆木腦袋,居然相
可能您想到的 AI 和高科技主要指的是晶元,硬體方面,但實際上是個綜合的內容,包括硬體軟體在方方面面的應用。從這個角度來進行邏輯推理 ---

第一,先從事實反推。根據美國目前的一系列限制措施的快速推進,正說明了以中國的高科技技術和應用會很快與美國相當為假設前提,並通過大量的事實看到了這類技術有可能用於破壞美國安全和損害利益的危險才會作出這樣的決定。那麼首先是保護自己,減少風險,但同時也想督促中方儘快通過交流將是非對錯的底線判斷到達共識,能夠立法和遵守規則,但不是急於改變對方的制度結構,也不是不來往的目的。成熟的政治家也應該是好的教育家,會保護自身安全,同時也希望用合適的方法去改變對方,這樣對中國人民和政府都有好處,而不是採取極端手段推向敵對關係,那樣對自己對世界都沒有好處。

第二,用上述同樣的邏輯往今後推測。 那麼每一步的新政策都會根據現有狀況的改變事實去決定。能夠看到一些底線共識的措施,合作的可能性就多一點。 如果這一切都被中方視為敵意就比較麻煩了,相互關係取決於誰會因為具體事件和分歧而先採取強硬手段。只要手段不升級,又有不斷溝通的渠道,通過談判就總可能慢慢共識,也可以了解暫時有些方面不可行的具體困難。
回復 七把叉Archie 2023-10-27 14:32
浮平: 可能您想到的 AI 和高科技主要指的是晶元,硬體方面,但實際上是個綜合的內容,包括硬體軟體在方方面面的應用。從這個角度來進行邏輯推理 ---

第一,先從事實反
浮平博見笑。我對ai完全是門外漢,不過基本的認識還有一點。三十年前,深藍戰勝俄國象棋大師,坊間有說法,國際象棋太簡單。如果是19x19條線的圍棋,每一步都是幾何數變化,碰到馬曉春九段,ai邊都摸不到,當時一位清華計算機博士頻頻點頭。如今ai的圍棋棋力,十個馬曉春也不好使。我感覺最可怕的部分,應該是馬斯克的ai機器人,未來如果應用到軍事領域,衝鋒陷陣的都是ai機器人,非常可怕。其實並不遙遠。微軟的Bing,現在也是ai應用。what』s the AI model that you use 我問他用什麼ai模版,下面是她的回答:I use a variety of advanced technologies from Microsoft and OpenAI, including a large language model and a deep learning model for image generation. These models help me understand your input, search the web, and create responses that suit your needs. I cannot share more details about the models, as they are part of my internal functionality. I hope you understand.
波士頓動態的機器人已經非常驚人,如果和a i結合,結果會震驚世界 【波士頓動力這些年都幹了些什麼Boston Dynamic [1992-2022]-嗶哩嗶哩】 https://b23.tv/HQeaV41
回復 浮平 2023-10-27 15:46
七把叉Archie: 浮平博見笑。我對ai完全是門外漢,不過基本的認識還有一點。三十年前,深藍戰勝俄國象棋大師,坊間有說法,國際象棋太簡單。如果是19x19條線的圍棋,每一步都是
是的。我也和它聊了一些。現在估計誰都不知道誰在幹嘛,這點很可怕,很多 surprise。
回復 vector 2023-10-27 20:42
美國能制衡中國的,現在看來,唯有半導體製造。但是,它能制衡多久?
我預計5-10年,中國的半導體製造工業就會有突破進展。
雖然中共的決策僵化,落後,沒有在川普政府執政前,大規模購買西方的半導體製造設備,導致今天很是被動。但是,中共畢竟在2018后,迅速採取了行動,尤其是查處了集成電路大基金的貪腐,
預計今後的5-10年,中國的半導體製造相關的技術會有突破,很大程度上打破美國的技術封鎖。

而且,中國可以利用28,14NM的製造,爭取佔據成熟半導體製造的全世界的大部分產能,成熟工藝製造的相對壟斷,不但能減少美國半導體公司的利潤,讓它們減少投入研發的支出,更能藉此培養更多的中國的半導體從業人員,和半導體製造的先進工藝研發產業形成互動,正循環迭代。
回復 屠龍刀之原界 2023-10-27 23:13
AI其實就是有一個泡沫!現在科學技術發展到了瓶頸,為了操高股市,為了圈錢,AI不過是和元宇宙一樣的一個噱頭。過上幾年就破了,中國也沒必要湊熱鬧。
回復 七把叉Archie 2023-10-28 05:49
浮平: 是的。我也和它聊了一些。現在估計誰都不知道誰在幹嘛,這點很可怕,很多 surprise。
浮平博注意到最近tesla機器人的進展嗎?他們的ai機器人與傳統的程序機器人最大區別,在於以前的機器人所有的活動都是事先通過程序員千萬句語句來完成的。而特斯拉的人工智慧機器人,具有人類才有的學習能力,而且是視覺觀察模仿能力。而且特斯拉聲稱可以年產量達到2000萬,價格也便宜。不遠未來,人類無數的工作崗位都可以用人工智慧機器人取代,包括軍事領域。https://youtu.be/wPwItPaPDE8?si=lgEIR1OIzVRX5KOg 未來特斯拉出產的機器人賣給不同行業,人類只需教導一個或幾個機器人,由機器人自己去教其他機器人學習,而且學習效率呈幾何級增長,因為機器人無需休息睡覺,無需休假病假。未來生產的勞動成本會大幅度降低,真的是另一場革命。
回復 浮平 2023-10-28 06:42
七把叉Archie: 浮平博注意到最近tesla機器人的進展嗎?他們的ai機器人與傳統的程序機器人最大區別,在於以前的機器人所有的活動都是事先通過程序員千萬句語句來完成的。而特斯
震撼。這是第一次看到實物 demo。謝謝信息。

幾年前只是聽說 swarm effect 的研究,沒想到這麼快就成功和 machine learning 結合在一起,用於了 robotics。只是這樣想的,但還沒查看是不是這回事。
回復 jchip 2023-10-28 19:27
屠龍刀之原界: AI其實就是有一個泡沫!現在科學技術發展到了瓶頸,為了操高股市,為了圈錢,AI不過是和元宇宙一樣的一個噱頭。過上幾年就破了,中國也沒必要湊熱鬧。
Ai的應用場景是無限的,元宇宙不是。
回復 jchip 2023-10-28 19:30
中國在ai應用和實踐方面領先,美國在算力方面領先,中美演算法各有所長。對不對?
回復 jchip 2023-10-28 19:33
vector: 美國能制衡中國的,現在看來,唯有半導體製造。但是,它能制衡多久?
我預計5-10年,中國的半導體製造工業就會有突破進展。
雖然中共的決策僵化,落後,沒有在川
28納米是關鍵,中國正在產能和技術上艱難爬坡。
回復 vector 2023-10-29 01:01
jchip: 28納米是關鍵,中國正在產能和技術上艱難爬坡。
以今天的高度發達的通信科技,模式,中國是很大概率會很快突破28NM, 14NM的製造工藝的。
中國的問題不是在於跟隨西方的科技,而在於是否能夠原創新科技。
這點,以中共的專制,集權制度,非常困難。這樣,中國就會基本上只能是個跟隨者,被限制在無限接近,但是永遠達不到西方的科技水平。
而今後,西方對中國的科技交流的障礙,或者說脫鉤,一定會加速進行。
回復 七把叉Archie 2023-10-29 09:29
浮平: 震撼。這是第一次看到實物 demo。謝謝信息。

幾年前只是聽說 swarm effect 的研究,沒想到這麼快就成功和 machine learning 結合在一起,用於了 robotics。只
浮平博明鑒。中國人至少南北朝以前就發明了圍棋這個智力遊戲,千百年來,中日韓三國的文人雅士聰明人,付出一代代的腦力,到近代產生職業棋手,全日制研究棋力。英國人ai深度思維應用於圍棋軟體阿法狗,2015年擊敗歐洲職業二段,到2017年擊敗世界第一柯潔九段,還有人類聯隊。之後阿法狗零級戰勝擊敗柯潔的版本,再之後最新阿法狗零級又戰勝老阿法狗零。中國棋院給戰勝柯潔的阿法狗職業九段,老聶聶衛平評價說,至少二十段。而現在最新版阿法狗零應該有一百段不止。ai至少在歸納總結領域的學習能力,已經遠超人類。而ai與機器人的結合,科幻電影裡面一跺腳飛出二十米高,五十米遠的機器人,已經明顯不再是幻想。接下來,ai的學習創新能力,對於自己程序變更提高能力,直至擺脫人類控制,反而控制人類,也絕不再是天方夜譚。人類似乎在二次打開潘多拉的盒子,這一次可能是自我毀滅。
回復 浮平 2023-10-29 10:08
七把叉Archie: 浮平博明鑒。中國人至少南北朝以前就發明了圍棋這個智力遊戲,千百年來,中日韓三國的文人雅士聰明人,付出一代代的腦力,到近代產生職業棋手,全日制研究棋力。
您認為 AI 會朝理性的方向規範」控制「人類的非理性方面的感性行為,還是朝相反的方向來控制?

換句話說,AI 會識別預防人類撒謊欺騙,不顧事實,捏造事實和邪惡動機?然後通過告知後果而教育人類?如果效果不佳,AI 又會找到新的方法對待新的問題?
回復 七把叉Archie 2023-10-29 10:17
浮平: 您認為 AI 會朝理性的方向規範」控制「人類的非理性方面的感性行為,還是朝相反的方向來控制?

換句話說,AI 會識別預防人類撒謊欺騙,不顧事實,捏造事實和邪
浮平博所言極是。人類社會的邪惡,源自人類的私慾,自我意識,利己的原動力。這裡純粹是事實陳述,沒有價值判斷。機器可以有自我意識,但有沒有絕對的利己私慾,這是個問題。的確,我說的只是一種可能。
回復 jchip 2023-10-29 11:09
vector: 以今天的高度發達的通信科技,模式,中國是很大概率會很快突破28NM, 14NM的製造工藝的。
中國的問題不是在於跟隨西方的科技,而在於是否能夠原創新科技。
這點,
美國在近百年裡是技術的領跑者,但在工程技術的應用領域,中國的領先已經是遍地開花。比如千噸級的架橋機,只有中國拿得出來,這些技術的領先就不是單單一個無限接近那麼簡單。

在三十年前,我們看了多少相關工程技術的報導,哪樣技術我們不眼熱?

在機械技術的國家排行榜里,中國第一,美國僅僅是第三,但要是西方全算上,中國卻又沒法比。

西方真的是鐵板一塊嗎? 西方的產品只有西方的技術嗎? 據報道,西方在使用華為的技術專利,安卓也有華為的貢獻,西方多年佔有的是始發優勢,中國今天具有的卻是后發優勢。

不過,說中國比不過西方,這也是正常現象,但也不是樣樣落後。
12下一頁

facelist doodle 塗鴉板

您需要登錄后才可以評論 登錄 | 註冊

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-6-11 12:27

返回頂部