以我的親身體驗,談談如何正確理解"養蝦"
這裡調用了大模型 API,將工具結果轉化為自然語言。
注意上面的流程中有個kimi_search,它不是skills也不是大模型,而是KimiClaw內置的網絡搜索工具。
無論多麼神奇的OpenClaw功能,都可以拆解。OpenClaw核心、記憶檢索、大模型調用、Skills工具調用與網絡搜索、記憶更新等多種模塊組合,就能完成無數種任務。
可以看出,這個組合極為靈活,能完成的任務想象力完全打開。其中大模型的能力是關鍵,有了它,才能理解要幹什麼事、如何執行任務、如何輸出給用戶,所以完成壹個任務要多次調用大模型。有些客戶發現用OpenClaw太花錢了,比大模型APP問答花錢多了,就是因為“壹個任務多次調用”的特性,大模型回答問題就是壹次調用。
智能體能長時間不斷調用大模型推進任務,是智能進步的標志,已經從幾拾分鍾進步了到幾小時甚至更長。有些任務OpenClaw可以跑很長時間不出錯最終完成,但它基本是壹個智能體在跑。現在AI前沿已經發展到拾幾個智能體分工配合壹起完成任務,開源社區也有讓多個OpenClaw分工互相通信協作的嘗試,但還不是太突出。
(伍)OpenClaw的缺陷是什麼?
以上解釋了OpenClaw的運作原理,看上去很厲害。但要問它對我有啥用?我現在的結論是:還沒特別有用,最大的收獲是學習原理。絕大多數時間,我都在“伺候”這只蝦,因為有時它實在太不靠譜了。
理解原理以後,我們知道,它能辦挺多事。但我觀察了多個任務以後,得出了不太好的結論:這是壹個以“形式主義”為最高原則的AI助理,實質能力往往不行,最大問題是不靠譜。其實看它的算法原理也能明白,這種組合出來的流程,隨便壹跑能靠譜才見鬼了。
大模型本身就有幻覺,但慢慢靠譜了很多,只要小心,已經算是能控制的小問題了。我用Kimi的聊天、深度研究、code、文檔等功能,對日常工作生活幫助很大。這些功能有大模型公司不斷研究優化,表現越來越好是可以預期的,可靠性過了門檻以後,就真的很有用了。
我們看OpenClaw完成的任務,大模型要用許多次,還要OpenClaw核心來主導,要調用多種skills,要總結輸出。各種任務類型多種多樣,中間哪壹步出問題,最後的結果就可能很離譜。
壹個嚴重問題是,大模型有極強的“形式主義”編造能力。壹個好多步的流程,中間很有可能失敗,如股價網絡查找失敗、運動員信息查找失敗,或者表面成功了實際是錯的,如找了以前的老信息。但大模型不管,它先滿足形式主義,沒有信息,它自己編!

例如3月11日這些運動員的比賽消息,有些是胡編的!鄭欽文和王欣瑜實際都輸了。有的時間錯亂了,把2025年的消息發出來了。因為kimi_search等搜索工具不壹定靠譜,搜索只是返回壹些信息,並不能判斷合不合適,有時也會失敗。OpenClaw調用大模型決策推理,定“工作計劃”的時候,有時會拿出“搜索失敗自己編”的“糊弄”方法。
這樣的人類員工,如果被發現了肯定開除了。但我沒辦法,還得去想辦法伺候它,弄明白犯傻的原因,想辦法把輸出弄正確。

[物價飛漲的時候 這樣省錢購物很爽]
好新聞沒人評論怎麼行,我來說幾句
注意上面的流程中有個kimi_search,它不是skills也不是大模型,而是KimiClaw內置的網絡搜索工具。
無論多麼神奇的OpenClaw功能,都可以拆解。OpenClaw核心、記憶檢索、大模型調用、Skills工具調用與網絡搜索、記憶更新等多種模塊組合,就能完成無數種任務。
可以看出,這個組合極為靈活,能完成的任務想象力完全打開。其中大模型的能力是關鍵,有了它,才能理解要幹什麼事、如何執行任務、如何輸出給用戶,所以完成壹個任務要多次調用大模型。有些客戶發現用OpenClaw太花錢了,比大模型APP問答花錢多了,就是因為“壹個任務多次調用”的特性,大模型回答問題就是壹次調用。
智能體能長時間不斷調用大模型推進任務,是智能進步的標志,已經從幾拾分鍾進步了到幾小時甚至更長。有些任務OpenClaw可以跑很長時間不出錯最終完成,但它基本是壹個智能體在跑。現在AI前沿已經發展到拾幾個智能體分工配合壹起完成任務,開源社區也有讓多個OpenClaw分工互相通信協作的嘗試,但還不是太突出。
(伍)OpenClaw的缺陷是什麼?
以上解釋了OpenClaw的運作原理,看上去很厲害。但要問它對我有啥用?我現在的結論是:還沒特別有用,最大的收獲是學習原理。絕大多數時間,我都在“伺候”這只蝦,因為有時它實在太不靠譜了。
理解原理以後,我們知道,它能辦挺多事。但我觀察了多個任務以後,得出了不太好的結論:這是壹個以“形式主義”為最高原則的AI助理,實質能力往往不行,最大問題是不靠譜。其實看它的算法原理也能明白,這種組合出來的流程,隨便壹跑能靠譜才見鬼了。
大模型本身就有幻覺,但慢慢靠譜了很多,只要小心,已經算是能控制的小問題了。我用Kimi的聊天、深度研究、code、文檔等功能,對日常工作生活幫助很大。這些功能有大模型公司不斷研究優化,表現越來越好是可以預期的,可靠性過了門檻以後,就真的很有用了。
我們看OpenClaw完成的任務,大模型要用許多次,還要OpenClaw核心來主導,要調用多種skills,要總結輸出。各種任務類型多種多樣,中間哪壹步出問題,最後的結果就可能很離譜。
壹個嚴重問題是,大模型有極強的“形式主義”編造能力。壹個好多步的流程,中間很有可能失敗,如股價網絡查找失敗、運動員信息查找失敗,或者表面成功了實際是錯的,如找了以前的老信息。但大模型不管,它先滿足形式主義,沒有信息,它自己編!

例如3月11日這些運動員的比賽消息,有些是胡編的!鄭欽文和王欣瑜實際都輸了。有的時間錯亂了,把2025年的消息發出來了。因為kimi_search等搜索工具不壹定靠譜,搜索只是返回壹些信息,並不能判斷合不合適,有時也會失敗。OpenClaw調用大模型決策推理,定“工作計劃”的時候,有時會拿出“搜索失敗自己編”的“糊弄”方法。
這樣的人類員工,如果被發現了肯定開除了。但我沒辦法,還得去想辦法伺候它,弄明白犯傻的原因,想辦法把輸出弄正確。

[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
推薦:



