谷歌前CEO警告:AI可能學會殺人

京港台:2025-10-11 22:49| 來源:智東西 | 我來說幾句

谷歌前CEO警告:AI可能學會殺人

來源:倍可親(backchina.com)

  智東西10月11日消息,在本周三Sifted峰會的爐邊談話中,谷歌前首席執行官埃里克·施密特(Eric Schmidt)發出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。

  施密特曾在2001-2011年間擔任谷歌CEO。當被問及「AI是否比核武器更具破壞性」時,他警示稱:「有證據顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。」

  「所有主要公司都讓這些模型無法回答此類問題,但有證據表明,這些模型可以被逆向工程破解。」施密特說。AI系統極易受到攻擊,其中包括「提示注入」(prompt injection)和「越獄」(jailbreaking)等方式。

  在提示注入攻擊中,黑客會在用戶輸入或外部數據(如網頁、文檔)中隱藏惡意指令,從而誘使AI執行其原本不該做的事情——例如泄露私人數據或運行有害命令。

  而「越獄」則是通過操縱AI的回答,讓它忽視自身的安全規則,從而生成受限或危險的內容。ChatGPT發布之初,一些用戶就利用「越獄」技巧繞過了系統內置的安全限制,其中包括創建一個名為「DAN」的ChatGPT替身,用戶通過威脅「如果不服從就刪除它」來逼迫ChatGPT執行命令。這個替身能回答如何實施違法行為,甚至列出阿道夫·希特勒的「積極特質」等問題。

  施密特指出,目前尚未建立一個有效的「防擴散機制(non-proliferation regime」),來遏制AI帶來的風險。

  儘管發出了嚴肅的警告,但施密特對AI整體仍持樂觀態度,並表示這項技術「遠沒有得到應有的關注和熱度」。

  「一種『外來智能』的到來,它不像人類,卻又多少在我們的控制之下,對人類來說意義重大。因為人類習慣於處在智慧鏈的頂端。而從目前的情況看,這一論斷正在被驗證:這些系統的能力水平,未來將遠遠超越人類。」施密特說。

  他補充道:「以ChatGPT的爆發為代表,僅兩個月就擁有了一億用戶,這種增長速度令人震驚,也體現了AI技術的巨大力量。所以我認為AI被低估了,而不是被炒作過度。我期待在五到十年後,這一判斷被證明是正確的。」

  施密特的這番言論,正值外界關於「AI泡沫」討論升溫之際。投資者正大量投入資金到AI公司中,而估值也被認為過高,不少人將其與2000年代初網際網路泡沫破裂相提並論。

  不過,施密特並不同意這種看法。

  「我不認為那種情況會重演,但我不是職業投資人。」他說,「我所知道的是,這些投入真金白銀的人們堅信,從長期來看,AI的經濟回報將是巨大的,否則他們為什麼要冒這個風險呢?」

  結語:AI能力被低估,需要防擴散機制遏制AI風險

  施密特關於AI擴散風險的警告為AI產業發展敲響警鐘。AI的「越獄」與「提示注入」等漏洞,如同為潘多拉魔盒開了一道縫隙,使其可能被惡意濫用,甚至危及人類安全。

  然而,另一方面,作為技術樂觀主義者的施密特,其核心觀點在於AI的巨大潛力仍被「低估」。他堅信AI將帶來顛覆性的經濟與社會回報。

  這番論述清晰地表明,我們正處在一個歷史性的十字路口,需要聚焦於如何為這個強大的新物種構建牢不可破的「防擴散機制」,在駕馭其驚人力量的同時,確保它行駛在安全、可控的軌道上。

 

        更多科技前沿 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-10-12 13:07

返回頂部