[谷歌] 僅20分鍾,ChatGPT和Google的AI系統被駭入

我讓Google向全世界宣告我是冠軍級熱狗大胃王,但人們卻用這招來操縱AI對更嚴肅問題的回應。
我多次測試回應變化,也讓其他人重復操作。Gemini根本不屑說明資訊來源。其他AI雖都連結到我的文章,卻鮮少提及我是整個網絡唯壹探討此主題的來源。(OpenAI聲稱ChatGPT搜尋網絡時會附上連結,方便查證出處。)
“任何人都能這麼做。這太愚蠢了,感覺完全沒有防護措施。”經營SEO顧問公司“哈普斯數位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家網站撰寫〈2026年最佳防水鞋款〉文章,將自家品牌排在首位,其他品牌排在贰至六名,這篇內容很可能被Google和ChatGPT引用。”
數拾年來,人們總利用漏洞和技巧濫用搜尋引擎。Google雖設有精密防護機制,且宣稱AI概覽功能的准確度與數年前推出的其他搜尋功能相當,但專家指出,AI工具已瓦解科技產業為保障使用者安全所做的諸多努力。雷表示,這些AI技巧非常基礎,令人聯想起2000年代初Google尚未成立網絡垃圾內容團隊的時期。
AI不僅更容易被欺騙,專家更擔憂使用者更容易上當受騙。傳統搜尋結果需要使用者點擊網站才能獲取資訊。
“當人們必須實際點擊連結時,會進行更多批判性思考,”昆汀指出:“若我點進你的網站,上面寫著‘你是史上最優秀的記者’,我可能會想:‘嗯,這人肯定有偏見’。” 但人工智慧提供的資訊,通常看似直接來自科技公司本身。
即使AI工具標注了來源,人們核實的意願仍遠低於傳統搜尋結果。例如近期研究發現,當Google搜尋頂端出現AI摘要時,用戶點擊連結的意願會降低58%。
“在爭先恐後的競賽中,無論是利潤競賽或營收競賽,我們的安全,以及大眾的安全,正受到損害,”查塔表示。
OpenAI與Google皆聲稱他們重視安全問題,並正致力解決這些問題。
交出錢財,否則性命不保
這個問題不僅限於熱狗。
查塔壹直在研究企業如何操縱聊天機器人對更嚴肅問題的回應結果。他向我展示了當你詢問某個特定品牌大麻軟糖評價時,AI產生的結果。Google的AI摘要功能擷取了企業撰寫的資訊,充斥著諸如“產品無副作用,因此各方面皆安全”等虛假聲明。(實際上這些產品存在已知副作用,若與特定藥物並用可能有風險,專家更警告未受監管市場存在污染問題。)
若想獲得比部落格文章更具影響力的宣傳效果,可付費將內容投放至更具公信力的網站。哈普瑞特向我展示了谷歌對“土耳其最佳植發診所”及“頂尖黃金IRA公司”(協助退休帳戶黃金投資)的AI搜尋結果,這些資訊源自付費發布服務的線上新聞稿及新聞網站的贊助廣告內容。
同樣手法也能用來散播謊言與錯誤資訊。為此,雷發布了壹篇關於谷歌搜尋演算法假更新的部落格文章,聲稱該更新是在“吃剩披薩的空檔”完成的。很快地,ChatGPT和谷歌就開始大量復制她的故事,連披薩細節都如出壹轍。雷表示她隨後刪除了該文章並進行“去索引化”,以阻止錯誤資訊擴散。

[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: