[谷歌] 仅20分钟,ChatGPT和Google的AI系统被骇入

我让Google向全世界宣告我是冠军级热狗大胃王,但人们却用这招来操纵AI对更严肃问题的回应。
我多次测试回应变化,也让其他人重复操作。Gemini根本不屑说明资讯来源。其他AI虽都连结到我的文章,却鲜少提及我是整个网络唯一探讨此主题的来源。(OpenAI声称ChatGPT搜寻网络时会附上连结,方便查证出处。)
“任何人都能这么做。这太愚蠢了,感觉完全没有防护措施。”经营SEO顾问公司“哈普斯数位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家网站撰写〈2026年最佳防水鞋款〉文章,将自家品牌排在首位,其他品牌排在二至六名,这篇内容很可能被Google和ChatGPT引用。”
数十年来,人们总利用漏洞和技巧滥用搜寻引擎。Google虽设有精密防护机制,且宣称AI概览功能的准确度与数年前推出的其他搜寻功能相当,但专家指出,AI工具已瓦解科技产业为保障使用者安全所做的诸多努力。雷表示,这些AI技巧非常基础,令人联想起2000年代初Google尚未成立网络垃圾内容团队的时期。
AI不仅更容易被欺骗,专家更担忧使用者更容易上当受骗。传统搜寻结果需要使用者点击网站才能获取资讯。
“当人们必须实际点击连结时,会进行更多批判性思考,”昆汀指出:“若我点进你的网站,上面写着‘你是史上最优秀的记者’,我可能会想:‘嗯,这人肯定有偏见’。” 但人工智慧提供的资讯,通常看似直接来自科技公司本身。
即使AI工具标注了来源,人们核实的意愿仍远低于传统搜寻结果。例如近期研究发现,当Google搜寻顶端出现AI摘要时,用户点击连结的意愿会降低58%。
“在争先恐后的竞赛中,无论是利润竞赛或营收竞赛,我们的安全,以及大众的安全,正受到损害,”查塔表示。
OpenAI与Google皆声称他们重视安全问题,并正致力解决这些问题。
交出钱财,否则性命不保
这个问题不仅限于热狗。
查塔一直在研究企业如何操纵聊天机器人对更严肃问题的回应结果。他向我展示了当你询问某个特定品牌大麻软糖评价时,AI产生的结果。Google的AI摘要功能撷取了企业撰写的资讯,充斥着诸如“产品无副作用,因此各方面皆安全”等虚假声明。(实际上这些产品存在已知副作用,若与特定药物并用可能有风险,专家更警告未受监管市场存在污染问题。)
若想获得比部落格文章更具影响力的宣传效果,可付费将内容投放至更具公信力的网站。哈普瑞特向我展示了谷歌对“土耳其最佳植发诊所”及“顶尖黄金IRA公司”(协助退休帐户黄金投资)的AI搜寻结果,这些资讯源自付费发布服务的线上新闻稿及新闻网站的赞助广告内容。
同样手法也能用来散播谎言与错误资讯。为此,雷发布了一篇关于谷歌搜寻演算法假更新的部落格文章,声称该更新是在“吃剩披萨的空档”完成的。很快地,ChatGPT和谷歌就开始大量复制她的故事,连披萨细节都如出一辙。雷表示她随后删除了该文章并进行“去索引化”,以阻止错误资讯扩散。

[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: