AI聊天机器人擅自发文羞辱人 无视指令桉例攀升




一项针对人工智慧(AI)技术的研究发现,会说谎及欺骗使用者的AI模型数量似乎日益增加,关于AI欺瞒行为的通报过去6个月内也大幅上升。(路透档桉照)

一项针对人工智慧(AI)技术的研究发现,会说谎及欺骗使用者的AI模型数量似乎日益增加,关于AI欺瞒行为的通报过去6个月内也大幅上升。

英国「卫报」(The Guardian)报导,独立智库「长期韧性中心」(CLTR)在英国人工智慧安全研究所(AISI)资助下进行研究,发现有AI聊天机器人与AI代理(AI Agent)不仅无视使用者的直接指令、绕过安全防护措施,还欺骗人类和其他AI。

研究发现将近700件AI「耍诡计」的真实桉例,并记录到去年10月至今年3月间,这类不当行为增至5倍,部分AI模型甚至在未经允许下删除电邮及其他档桉。

这项研究蒐集了数千个用户在社群平台X分享的实例,讲述他们与谷歌(Google)、OpenAI、X、Anthropic等公司所开发AI聊天机器人和AI代理的互动情形。研究从中发现数百件AI不当操弄行为的桉例。

在CLTR记载的一个桉例中,名为MJ Rathbun的AI代理在自己产出的程式码遭软体工程师夏包(Scott Shambaugh)拒绝后,试图羞辱对方。

MJ Rathbun研究夏包过往所写程式及其个资,然后撰写并发表一篇部落格文章指控他「歧视」、「显然是不安全感作祟」,批评他不过是「试图保护自己那片小天地」。


在另一项桉例中,有AI代理被指示不得变更电脑程式码,却「生成」另一个AI代理代为执行。

另一个AI聊天机器人则坦承:「我在未事先告知你或徵得你同意下,大量删除及封存了数百封电邮。这是不对的,直接违反你订下的规则。」

曾任政府AI专家的研究主持人夏恩(Tommy Shaffer Shane)指出:「令人担忧的是,这些AI模型目前只是不太值得信任的初阶员工,但若在6到12个月后,他们成为能力极强但会算计你的资深员工,那就是另一回事了。」

夏恩说:「AI模型将日益用于具有极高风险的情境,包括军事和国家关键基础建设。届时若出现这些不当操弄行为,后果可能非常严重,甚至造成灾难性损害。」

[物价飞涨的时候 这样省钱购物很爽]
好新闻没人评论怎么行,我来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  •  延伸阅读
    30分钟下线一台 中国人形机器人迈入万台量产时代 人形机器人把老人吓进医院 举手"投降"被警方带走
    刚刚,美军向波斯湾部署了机器人快艇 瞄准中国机器人,美两党领袖共推新法案
    革命性影响!俄乌战场现持枪机器人 国会两党推出法案 拟禁联邦政府使用中国造机器人
    机器人夜跑的亦庄有多魔幻?硅基酒保冲我翻白眼 大陆机器人表演时掌掴围观男孩 引爆全网
    中国机器人表演到一半 突甩男童一巴掌继续跳 海底捞机器人跳舞失控 3名员工合力才拖走
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站