哥大教授:ChatGPT的能力在于放大人类的自恋

刘禾,哈佛大学比较文学博士,先后执教于伯克利加州(专题)大学、密西根大学,现为哥伦比亚大学东亚系暨比较文学与社会研究所终身人文讲席教授,曾任该研究所所长,古根汉奖得主。着有《跨语际实践:文学、民族文化与被译介的现代性(中国,1900-1937)》《帝国的话语政治:从近代中西冲突看现代世界秩序的形成》《弗洛伊德机器人:数字时代的哲学批判》《剑桥的陌生人》,编有《交换的符码:全球流通中的翻译问题》《持灯的使者》《书写与物质性在中国:韩南纪念文集》《中国女性主义的诞生:跨国女性主义核心文本》《世界秩序与文明等级:全球史研究的新路径》《全球语言正义》,注有《天义·衡报》校注本。


如果依循您的界定,“弗洛伊德机器人”指的是一切无法脱离人机之间互为摹拟的无限循环关系,因而亦难以摆脱控制论无意识的存在,那当下的对话生成式预训练模型(如ChatGPT)便可视为其最新的支配性形态。有一种批评声音认为,此类对话机器人擅长无原则的谄媚,极易将常人的意见建制化,从而加剧社会意识形态的板结,您怎么看?

刘禾:尽管ChatGPT的正式发布是在2022年底,但当前围绕它的许多讨论,早在半个多世纪前就已初见端倪。1966年,麻省理工学院科学家约瑟夫·维森鲍姆(Joseph Weizenbaum)开发了第一款具有广泛影响力的聊天机器人ELIZA。维森鲍姆本人,作为模仿心理治疗师的“DOCTOR”脚本的设计者(ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine),对人们将ELIZA拟人化的狂热提出了尖锐的哲学批评。他指出,人类用户之所以感觉能与机器对话,并非因为机器具备智能,而是源于一种自我投射的心理机制。为了系统批判同事们在这种技术乐观主义下的盲目,他写了《计算机能力与人类理性》(Computer Power and Human Reason: From Judgment to Calculation)一书,并最终选择疏远自己开创的这一领域。

维森鲍姆的洞察与拉康的理论不谋而合。拉康曾表示,当你在电话中与人交谈时,听见的首先是自己已经知道的东西。同理,用户与ChatGPT的互动,正如与ELIZA的互动一样,是一个将自身愿望、幻想与期待投射到机器上的过程。机器生成的文本因语言固有的模糊性,为用户提供了广阔的诠释空间,如同人们解读算命先生的谶语,最终看到的只是自己内心早已存在的答案。从这个角度看,ChatGPT的强大能力或许在于更高效、更全面地映照和放大了人类的自恋。即便算法本身并未植入刻意讨好之意,用户也总能从模型的回答中,找到迎合自己期待的证据。当我们拨开当前对聊天机器人的过度炒作,重审1966年的ELIZA,便会明白:构成这场人机互动幻觉的所有基本元素,其实半个多世纪以来,未曾改变。

[物价飞涨的时候 这样省钱购物很爽]
这条新闻还没有人评论喔,等着您的高见呢
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  •  延伸阅读
    震撼爆料,习大剂量吸毒?chatGPT爆炸性结果 AI先驱万万没想到 前女友用ChatGPT跟他闹分手
    OpenAI预计今年ChatGPT收入近100亿美元! AI安全亮红灯!ChatGPT回答或致命
    疑和ChatGPT聊天后妄想加剧,美国男子弑母后自尽 加国16岁少年自杀 父母诉ChatGPT
    我女儿自杀前和ChatGPT说了什么 ChatGPT竟他"别找妈妈诉苦" 美16岁少年轻生
    ChatGPT"认同"还助16岁少年轻生!父母控告OpenAI 最新ChatGPT隐藏指令曝光 一句话变神器
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站