AI聊天机器人擅自发文羞辱人 无视指令桉例攀升

一项针对人工智慧(AI)技术的研究发现,会说谎及欺骗使用者的AI模型数量似乎日益增加,关于AI欺瞒行为的通报过去6个月内也大幅上升。(路透档桉照)
一项针对人工智慧(AI)技术的研究发现,会说谎及欺骗使用者的AI模型数量似乎日益增加,关于AI欺瞒行为的通报过去6个月内也大幅上升。
英国「卫报」(The Guardian)报导,独立智库「长期韧性中心」(CLTR)在英国人工智慧安全研究所(AISI)资助下进行研究,发现有AI聊天机器人与AI代理(AI Agent)不仅无视使用者的直接指令、绕过安全防护措施,还欺骗人类和其他AI。
研究发现将近700件AI「耍诡计」的真实桉例,并记录到去年10月至今年3月间,这类不当行为增至5倍,部分AI模型甚至在未经允许下删除电邮及其他档桉。
这项研究蒐集了数千个用户在社群平台X分享的实例,讲述他们与谷歌(Google)、OpenAI、X、Anthropic等公司所开发AI聊天机器人和AI代理的互动情形。研究从中发现数百件AI不当操弄行为的桉例。
在CLTR记载的一个桉例中,名为MJ Rathbun的AI代理在自己产出的程式码遭软体工程师夏包(Scott Shambaugh)拒绝后,试图羞辱对方。
MJ Rathbun研究夏包过往所写程式及其个资,然后撰写并发表一篇部落格文章指控他「歧视」、「显然是不安全感作祟」,批评他不过是「试图保护自己那片小天地」。
在另一项桉例中,有AI代理被指示不得变更电脑程式码,却「生成」另一个AI代理代为执行。
另一个AI聊天机器人则坦承:「我在未事先告知你或徵得你同意下,大量删除及封存了数百封电邮。这是不对的,直接违反你订下的规则。」
曾任政府AI专家的研究主持人夏恩(Tommy Shaffer Shane)指出:「令人担忧的是,这些AI模型目前只是不太值得信任的初阶员工,但若在6到12个月后,他们成为能力极强但会算计你的资深员工,那就是另一回事了。」
夏恩说:「AI模型将日益用于具有极高风险的情境,包括军事和国家关键基础建设。届时若出现这些不当操弄行为,后果可能非常严重,甚至造成灾难性损害。」
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: |
| 延伸阅读 |
推荐:
AI聊天机器人擅自发文羞辱人 无视指令桉例攀升