哥大教授:ChatGPT的能力在於放大人類的自戀

劉禾,哈佛大學比較文學博士,先後執教於伯克利加州(专题)大學、密西根大學,現為哥倫比亞大學東亞系暨比較文學與社會研究所終身人文講席教授,曾任該研究所所長,古根漢獎得主。著有《跨語際實踐:文學、民族文化與被譯介的現代性(中國,1900-1937)》《帝國的話語政治:從近代中西沖突看現代世界秩序的形成》《弗洛伊德機器人:數字時代的哲學批判》《劍橋的陌生人》,編有《交換的符碼:全球流通中的翻譯問題》《持燈的使者》《書寫與物質性在中國:韓南紀念文集》《中國女性主義的誕生:跨國女性主義核心文本》《世界秩序與文明等級:全球史研究的新路徑》《全球語言正義》,注有《天義·衡報》校注本。


如果依循您的界定,“弗洛伊德機器人”指的是壹切無法脫離人機之間互為摹擬的無限循環關系,因而亦難以擺脫控制論無意識的存在,那當下的對話生成式預訓練模型(如ChatGPT)便可視為其最新的支配性形態。有壹種批評聲音認為,此類對話機器人擅長無原則的諂媚,極易將常人的意見建制化,從而加劇社會意識形態的板結,您怎麼看?

劉禾:盡管ChatGPT的正式發布是在2022年底,但當前圍繞它的許多討論,早在半個多世紀前就已初見端倪。1966年,麻省理工學院科學家約瑟夫·維森鮑姆(Joseph Weizenbaum)開發了第壹款具有廣泛影響力的聊天機器人ELIZA。維森鮑姆本人,作為模仿心理治療師的“DOCTOR”腳本的設計者(ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine),對人們將ELIZA擬人化的狂熱提出了尖銳的哲學批評。他指出,人類用戶之所以感覺能與機器對話,並非因為機器具備智能,而是源於壹種自我投射的心理機制。為了系統批判同事們在這種技術樂觀主義下的盲目,他寫了《計算機能力與人類理性》(Computer Power and Human Reason: From Judgment to Calculation)壹書,並最終選擇疏遠自己開創的這壹領域。

維森鮑姆的洞察與拉康的理論不謀而合。拉康曾表示,當你在電話中與人交談時,聽見的首先是自己已經知道的東西。同理,用戶與ChatGPT的互動,正如與ELIZA的互動壹樣,是壹個將自身願望、幻想與期待投射到機器上的過程。機器生成的文本因語言固有的模糊性,為用戶提供了廣闊的詮釋空間,如同人們解讀算命先生的讖語,最終看到的只是自己內心早已存在的答案。從這個角度看,ChatGPT的強大能力或許在於更高效、更全面地映照和放大了人類的自戀。即便算法本身並未植入刻意討好之意,用戶也總能從模型的回答中,找到迎合自己期待的證據。當我們撥開當前對聊天機器人的過度炒作,重審1966年的ELIZA,便會明白:構成這場人機互動幻覺的所有基本元素,其實半個多世紀以來,未曾改變。

[加西網正招聘多名全職sales 待遇優]
好新聞沒人評論怎麼行,我來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  •  延伸閱讀
    震撼爆料,習大劑量吸毒?chatGPT爆炸性結果 AI先驅萬萬沒想到 前女友用ChatGPT跟他鬧分手
    OpenAI預計今年ChatGPT收入近100億美元! AI安全亮紅燈!ChatGPT回答或致命
    疑和ChatGPT聊天後妄想加劇,美國男子弑母後自盡 加國16歲少年自殺 父母訴ChatGPT
    我女兒自殺前和ChatGPT說了什麼 ChatGPT竟他"別找媽媽訴苦" 美16歲少年輕生
    ChatGPT"認同"還助16歲少年輕生!父母控告OpenAI 最新ChatGPT隱藏指令曝光 壹句話變神器
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站