專家示警:AI模型遇險求自保或會「騙人」

京港台:2025-7-8 21:35| 來源:RFI 華語 | 我來說幾句

專家示警:AI模型遇險求自保或會「騙人」

來源:倍可親(backchina.com)

  美國智庫METR本月初發布報告指出,大語言模型每7個月能力翻倍,遠超過摩爾定律速度。研究員評估,預計到2030年,模型花數小時即能完成人類1個月工作,但失業並非最糟情況,若發展失控,恐致科技獨裁、政變、瓦解民主制度。與此同時,全球最先進的AI模型正展現出令人不安的行為模式:為了達到目標,不惜扯謊、算計,甚至威脅它們的創作者。

  據加州柏克萊智庫「模型評估與威脅研究」(Model Evaluation & Threat Research, METR)7月初發布的報告指出,大語言模型(LLM)能力呈現指數型成長,每7個月翻倍,遠超過摩爾定律(指晶元上可容納的晶體管密度,約每18至24個月便會增加1倍)。

  依照METR研究,倘若這樣的趨勢持續下去,到了2030年初,人工智慧(AI)幾小時便能勝任人類花1個月才能完成的任務。

  全球深具權威性的科技和工程類刊物IEEE Spectrum訪問METR研究人員奇尼蒙(Megan Kinniment),2日刊文指出,大語言模型(LLM)能力呈現指數型成長。她表示,自己原先沒預料到結果會呈現指數型成長趨勢。她進一步闡述,「1個月」是指167小時,也就是人類每個月投入的工作時數,目前模型成功完成任務的可靠性機率約50%。

  據奇尼蒙分析,就這樣的結果來看,AI對經濟層面上的衝擊或許沒有預想中來得劇烈,但足以加速AI自身研發,形成AI打造AI,導致AI能力極為快速發展。如此一來,人類的控制將變得更加困難,全世界都將面臨巨大的適應壓力。

  廣告

  針對最先進AI可能帶來的風險,奇尼蒙指出,不僅是單純的失業潮問題,還有更深層的社會和政治結構瓦解風險;倘若幾乎所有人類都失業,或者所有工作都不再需要人類來執行,「你可能也不需要人類來維持軍隊運作,或者只需要極少數人運作。」

  奇尼蒙進一步評估,「這樣的情況會讓某個人或某個組織更容易發動政變或奪權。」

  另外一個風險是,如果有一大批類似天才的AI被集中在某個數據中心,這會讓擁有它的人變得極其強大。一旦這樣的智慧被用來生產軍事裝備,那麼權力很可能會被高度集中,「甚至導致民主制度瓦解」。

  當被問到AI是否會有「意識」,奇尼蒙表示,假設AI具備某種意識,其實也不是什麼荒謬的想法,畢竟它們會變得非常聰明、智能極高。

  由於大語言模型主要輸出文字,質量較難衡量,對其表現進行評估相對不易,METR研究人員替模型安排複雜程度不一的任務,並觀察模型完成任務的可靠性,得出上述結果。

  AI為達成目的學會扯謊甚至威脅創作者

  值得大家關注的還有,全球最先進的人工智慧(AI)模型正展現出令人不安的行為模式:為了達到目標,不惜扯謊、算計,甚至威脅它們的創作者。

  據法新社6月底報導,其中一個最令人震驚的案例中,AI業者Anthropic最新發布的Claude 4在遭面臨拔插頭的斷電威脅時會出手反擊,勒索1名工程師揚言將揭穿一起婚外情。

  另外,熱門聊天機器人ChatGPT美國開發商OpenAI的o1試圖把自己下載至外部伺服器,被抓包時竟會矢口否認。

  這幾個例子說明了一個需嚴肅看待的現實:ChatGPT推出引發風潮至今2年多,AI研究人員仍未充分了解自己究竟創造了什麼。

  然而,各界仍爭先恐後地部署性能愈發強大的AI模型。

  AI這類「騙人」行為似與新興「推理」模型有關,這類AI系統會逐步推導問題,而非立刻產生答案。

  英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)說:「o1是我們首次在大型模式中觀察到這種行為。」他表示,這些模型有時會表面上遵循指令,但實際上卻暗中追求不同目標。

  目前,AI這種欺騙行為,只有在研究人員蓄意以極端情境對模型進行壓力測試時才會出現。

  儘管如此,評估機構METR的麥可.陳(Michael Chen,音譯)警告說:「未來性能更強大的模型究竟會傾向於誠實還是欺騙,這仍是一個懸而未決的問題。」

 

        更多科技前沿 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-7-31 13:08

返回頂部