哥大教授:ChatGPT的能力在於放大人類的自戀

京港台:2025-9-9 00:41| 來源:澎湃新聞 | 我來說幾句

哥大教授:ChatGPT的能力在於放大人類的自戀

來源:倍可親(backchina.com)

  劉禾,哈佛大學比較文學博士,先後執教於伯克利加州大學、密西根大學,現為哥倫比亞大學東亞系暨比較文學與社會研究所終身人文講席教授,曾任該研究所所長,古根漢獎得主。著有《跨語際實踐:文學、民族文化與被譯介的現代性(中國,1900-1937)》《帝國的話語政治:從近代中西衝突看現代世界秩序的形成》《弗洛伊德機器人:數字時代的哲學批判》《劍橋的陌生人》,編有《交換的符碼:全球流通中的翻譯問題》《持燈的使者》《書寫與物質性在中國:韓南紀念文集》《中國女性主義的誕生:跨國女性主義核心文本》《世界秩序與文明等級:全球史研究的新路徑》《全球語言正義》,注有《天義·衡報》校注本。

  如果依循您的界定,「弗洛伊德機器人」指的是一切無法脫離人機之間互為摹擬的無限循環關係,因而亦難以擺脫控制論無意識的存在,那當下的對話生成式預訓練模型(如ChatGPT)便可視為其最新的支配性形態。有一種批評聲音認為,此類對話機器人擅長無原則的諂媚,極易將常人的意見建制化,從而加劇社會意識形態的板結,您怎麼看?

  劉禾:儘管ChatGPT的正式發布是在2022年底,但當前圍繞它的許多討論,早在半個多世紀前就已初見端倪。1966年,麻省理工學院科學家約瑟夫·維森鮑姆(Joseph Weizenbaum)開發了第一款具有廣泛影響力的聊天機器人ELIZA。維森鮑姆本人,作為模仿心理治療師的「DOCTOR」腳本的設計者(ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine),對人們將ELIZA擬人化的狂熱提出了尖銳的哲學批評。他指出,人類用戶之所以感覺能與機器對話,並非因為機器具備智能,而是源於一種自我投射的心理機制。為了系統批判同事們在這種技術樂觀主義下的盲目,他寫了《計算機能力與人類理性》(Computer Power and Human Reason: From Judgment to Calculation)一書,並最終選擇疏遠自己開創的這一領域。

  維森鮑姆的洞察與拉康的理論不謀而合。拉康曾表示,當你在電話中與人交談時,聽見的首先是自己已經知道的東西。同理,用戶與ChatGPT的互動,正如與ELIZA的互動一樣,是一個將自身願望、幻想與期待投射到機器上的過程。機器生成的文本因語言固有的模糊性,為用戶提供了廣闊的詮釋空間,如同人們解讀算命先生的讖語,最終看到的只是自己內心早已存在的答案。從這個角度看,ChatGPT的強大能力或許在於更高效、更全面地映照和放大了人類的自戀。即便演演算法本身並未植入刻意討好之意,用戶也總能從模型的回答中,找到迎合自己期待的證據。當我們撥開當前對聊天機器人的過度炒作,重審1966年的ELIZA,便會明白:構成這場人機互動幻覺的所有基本元素,其實半個多世紀以來,未曾改變。

 

        更多科技前沿 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-9-11 12:04

返回頂部