[谷歌] Google大會壹文讀懂:用AI革自己的命

但這次基礎模型也帶來了壹些小更新。比如,Gemini 2.5 Flash的升級版,按DeepMind 負責人 Demis Hassabis 所說,“在幾乎所有維度上都更出色”,而效率還提升了 22%。它還提供了壹個原聲功能,能捕捉用戶說話時的微妙差別,以更具表現力的方式模擬話語。
另壹個更有意思的模型是Gemini Diffusion,它用Diffision架構做出了壹個語言模型,與標准的Transformer模型不同,它不直接預測文本,而是通過學習逐步細化噪聲來生成輸出。其能力與Gemini 2.5 Flash相近,但速度極快。
根據谷歌的現場演示,你幾乎看不清它的處理過程。這可以說是壹個范式級的嘗試,但發布頁提供的信息非常稀少,頗有神秘感。

還有壹個是Gemini 2.5 Pro的 Deep Think 模式,會悄悄生成多條推理鏈,讓它們互相交叉審稿,再把投票最高的壹條遞給你。這能幫助Gemini 在學術與推理基准上平均再抬 3-6 分。

如果說語言模型的升級仍只是“後台換引擎”,那這次Gemini更新的升級版 Canvas 聯合畫布則讓其前台呈現能力也大幅加強。它能直接產出漂亮的 Markdown、CSV、PSD,甚至純手繪草圖。看演示比Claude 的Artifact還好,更強於在這方面壹直比較蹩腳的GPT。
谷歌還在其上更進壹步推出了自己開發的前端模型產品Stitch——輸入壹句「做壹張暗色系新聞卡片,能自適應移動」,Stitch 就能給你叁張預覽,還奉上完整 React+Tailwind 代碼,並自帶 ESLint、Playwright 測試,保證點開即跑。

[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦:



