Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
OpenAI新模型: 有情緒的AI出現了 | 溫哥華教育中心
   

OpenAI新模型: 有情緒的AI出現了

這就是OpenAI想做到的全知:壹個陌生人看到你時所能感受到的幾乎壹切,它全部能接收到。因此它也有了真正能和你做與你私人相關的,符合場景的操作。


很多人會覺得這都是舊有的功能,因為不論是Gemini還是過去的GPT-4V,我們都可以截圖給他們看當下的環境,他們也能識別照片中的信息並給你回應。語音,過去也有基於Whisper的識別系統,足以讓上個版本的GPT4能回應你。

但這次GPT-4o帶來的是對易用性體驗的顛覆。

它能對實時環境產生理解,隨時對已經變化的環境做反應,甚至還能借助記憶能力聯系起這些變化。這比起過去不停截圖給壹個軟件才能順利對話的交互模式易用太多了。

除此之外,在演示中讓人印象最深刻的是GPT-4o的快如閃電。與前代動輒2.6秒的反應速度相比,GPT-4o能毫無延遲的反饋對話。反應速度對用戶體驗的影響之大,想必產品經理們都熟記在心。

這就是得益於GPT-4o為多模態統壹編碼,並且是目前最真·多模態。因此我們不再需要語音轉文本-問答-文本轉語音(語音~文本-問答-文本~語音)這個傳統的流程管線了。在GPT-4o中,可以直接做到語音-問答-語音,壹步到位,大大縮短了反應時間。



圖注:JimFan演示的過去的叁步走模式

同時,易用性還意味著更符合人類交互的習慣:GPT-4o在對話時可以隨時被打斷,且能接續的語音對話模式。






圖注:Jim Fan的賽前預測,滿分

以上這叁種能力的組合,讓這個產品真正達到了用戶用起來不覺得麻煩的水平。從今天起,AI終於成為了壹個真正的常用陪伴型助手,而非只是我們需要求助時不情不願調用的效率工具了。

[物價飛漲的時候 這樣省錢購物很爽]
還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站