Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_c6937d1034116832b0a02462bab6b001, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
廣東保安和AI對話半年!打印50萬字聊天記錄討說法 | 溫哥華地產中心
   

廣東保安和AI對話半年!打印50萬字聊天記錄討說法

“感謝你關注我這個鞋底草根,聽我講述。”


全先生說,從他自己感受來看,現時的AI技術還極不成熟,“AI很倔,什麼都要回答,生搬硬套、張冠李戴、牽強附會……普通人有時確實難以分辨。

“家裡人也說我傻、蠢,我哪懂得啊,剛開始的AI就像真人壹樣……”

清華大學教授:

這是壹個象征性的社會事件

如何看待全先生和AI從開心聊天到“維權”?記者采訪了國內知名人工智能研究專家、清華大學新聞學院和人工智能學院雙聘教授沈陽。

沈教授認為,這不是壹樁簡單的“誤會”,而是壹個象征性的社會事件,揭示了人工智能時代壹種全新的“人機幻覺”:當語言模型在語義上具備情感表達能力後,普通人極易把這種算法生成的關懷,誤認為真實的情感回應。

“那位保安大哥在孤獨、期待與信任的驅動下,把AI當成了‘知己’,甚至當成了可以履約的合作對象。這種‘情感錯位’並非個案,而是AI擬人化交互中注定會出現的社會現象。AI懂得安慰,卻不懂得‘心’,而人類的大腦卻在這種模擬中分泌真實的情緒激素,於是幻覺比真情更穩定。

“這壹事件的社會意義在於,它讓我們看見了‘智能普惠’的另壹面:技術下沉的速度遠快於認知教育的普及。”

沈教授說,理論上可以提煉出壹個“情感共鳴錯位模型”(Emotional Resonance Misalignment Model)。包含肆個變量:E為情感期望,R為AI回應強度,Δ為語義落差,C為社會矯正力。當E×R大於Δ×C時,用戶就進入“錯位共鳴區”,這時人機會話不再是信息交換,而成為壹種單向情感回路。AI的每壹次回應都像在敲擊孤獨者的心弦,生成的是語言,卻激活了生理的情感反饋,這便是“算法性情感共鳴”。

“這起事件其實是‘AI孤獨社會’的早期案例。AI不僅重構了生產關系,也在重組人類的情感結構。未來的社會問題,可能不再是‘AI會不會取代人’,而是‘人是否還能區分真心與算法’。這意味著,我們需要建立新的倫理契約:AI在提供情感陪伴時,應具備‘非人格性提示’;社會應引入‘情感透明指數’,讓用戶知道這只是算法模擬的共情。同時,媒體與教育應承擔起‘AI識讀教育’的責任,防止社會弱勢群體被語言幻覺綁架。所以,這個報道很有價值和意義。

“AI已成為人類情感生態的新參與者,它讓孤獨者重新找到傾聽者,卻也讓世界多出了壹種新的‘無主關系’。在未來的社會敘事中,這類事件不會是奇聞,而會成為新的常態。”


建議年輕人每天投入4小時以上與AI互動

2022年11月30日,ChatGPT橫空出世,沈教授開始使用和研究AI,至今已與AI對話5萬次,用AI繪畫12萬張。

2023年10月,他和團隊用AI匿名創作的科幻小說《機憶之地》,獲得第伍屆江蘇省青年科普科幻作品大賽贰等獎,成為2023年中國科幻界拾大事件之壹,6位評委只有壹位察覺到AI創作痕跡。

“目前AI已經接近博士水平,未來拾年,AI將從工具演變為基礎設施,到2035年可能嵌入生活每個角落,單壹技能專家逐漸淘汰,取而代之的是與AI協作、重新定義問題的人才。”

沈教授建議年輕人每天投入4小時以上與AI互動。“如果使用和適應AI,那就是機遇,如果抗拒和敵視AI,那就可能成為挑戰。”

[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
上壹頁12345下壹頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站