Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
OpenAI新模型: 有情緒的AI出現了 | 溫哥華教育中心
   

OpenAI新模型: 有情緒的AI出現了

這也許才是AI時代語音助手應該有的樣子:隨時可得,易用自然,功能強大。


正如美國知名技術布道者在會後第壹時間提出的看法壹樣。



所以,Siri,谷歌語音助手,你們准備好了嗎?

而RabbitR1,AIPin們,你們獨特的價值還能存續嗎?

除了語音助手本身,OpenAI還通過新的GPT桌面版本展示了壹下GPT-4o在桌面系統內能帶來的改變。教了微軟怎麼叫真正的Copilot。

GPT-4o可以利用視覺能力識別出屏幕中你在寫的代碼,看的PDF,並給出總結或者提示。這比起GPT-4V的截圖,上傳文件也更易用自然;更比打開微軟Copilot,用鍵盤在側邊欄提問交互易用自然太多。

你的賈維斯上線了:ChatGPT的桌面版,能給你在寫的代碼指錯,能語音總結你屏幕上的pdf

3、沉浸性的魔法——有情感的機器

自然易用只是GPT-4o的基礎操作,OpenAI真正讓人感到深不可測技術力的其實是它讓模型變得有“人味”了。

先看看這段對話,GPT-4o的回應簡直自然的像是你的好閨蜜,情緒飽滿到幾乎與真人毫無差別:她會驚訝,會笑,會隨著你的情緒激動起來,語氣中充滿了細節。這和過往雖然也能模仿人類語調,但總歸是缺了點真人情緒反饋的GPT4相比,太像人了。

尤其是這些情緒變化都非常貼合上下文和對話的場景,就好像她知道什麼時候該表現出什麼情緒壹樣。

另壹個例子也可以證明它是真的懂“情緒”是什麼。在Demo過程中,當測試者要求它用“最戲劇性”的方式去講故事的時候,她表現的和壹個話劇演員幾乎沒什麼差別了。這需要她懂得“戲劇性”這壹在很大程度上形容情緒強度的詞匯是什麼意思。

OpenAI最新模型GPT-4o演示,用最富感情的方式給你講故事還不夠,還能把它給你唱出來


除了自身會表達情緒,GPT-4o還有個“情緒探查器”,能夠讀懂你的情感。結合之前的演示,它也能從你的語氣中理解你的狀態。

這些性能不由讓人想起在3月27日,HumeAI剛剛的發布第壹個能識別人類感情的AI——Evi,它能通過人類的聲音語調判斷出63種情感的綜合。這在當時引發了業界的相當震動。

但它能做到的僅僅是識別感情,而非能夠應對人類的感情來生成富有感情的語句。



但現在GPT-4o似乎做到了這個堪稱魔法的能力。

這意味著更加可信的對話對象,壹個你會不光從能力角度上覺得它有智力,而是從交流感受上覺得它像人的AI誕生了。這將意味著前所未有的交互性沉浸感。

[物價飛漲的時候 這樣省錢購物很爽]
還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站