高加索AV无码,99尹人网毛,韩日337p99,一级a片久久无,97色区综合,激情日韩在线一二三,日韩精品久久精品草比,婷婷久久91,亚洲天堂艹比

訂閱
糾錯
加入自媒體

AI大神力挺的「智能體式思考」,DeepSeek式思考的終結?

2026-04-01 09:46
雷科技
關注

想讓 AI 干活更好,這是必然。

OpenClaw(龍蝦)帶來的「颶風」還在繼續(xù)刮,而且看起來更是一場 AI 的范式轉移。

上周五舉辦的 2026 中關村論壇人工智能主題日上,月之暗面創(chuàng)始人楊植、智譜 AI CEO 張鵬、無問芯穹 CEO 夏立雪、小米 MiMo 大模型負責人羅福莉、香港大學 nanobot 負責人黃超教授,共同參與了一場聚焦「OpenClaw 與 AI 開源」的圓桌對話。

這里就不介紹對話詳情,只提一點就是:Harness 和 Skill 在影響 Agent 框架的方向,Agent 框架也在影響大模型的方向。說簡單點,他們都認為接下來大模型要更加適應 Agent 的進化方向。

事實上就在前一天,一度引起 AI 圈和阿里股價「震蕩」的前阿里千問技術負責人林俊旸,在離職后首次公開發(fā)布了一篇長文,全文分成六個部分,包括對 OpenAI o1、DeepSeek R1 推理范式的溯源,還有對 Qwen 路線的反思等。

但其中最重要的一部分,還是對「Agentic Thinking」(智能體式思考)的提出與判斷。不同于 DeepSeek R1 那種推理式思考,他認為智能體式思考必須能夠:

- 決定何時停止思考并采取行動

- 選擇調用哪個工具以及以什么順序

- 整合來自環(huán)境的嘈雜或部分觀察

- 在失敗后修訂計劃

- 在許多輪次和許多工具調用中保持連貫性

截屏2026-03-31 19.16.10.png

林俊旸原文第四部分,圖片來源:X

這么說,聽起來可能還是有點抽象,但如果你最近用過 OpenClaw 或者 Claude Code,可能已經(jīng)隱約感受到這種變化。它們不再像傳統(tǒng)模型那樣,在封閉環(huán)境下進行純推理式的思考:

而更像一個真正干活的人,一邊思考,一邊結合各種工具和技能動起來,出錯了再思考,再嘗試,最終輸出回答或者執(zhí)行結果。

對比之下,以 OpenAI o1、DeepSeek R1 為代表的推理模型,更多還是在「顱內推演」,最后直接輸出一個回答。不是說純推理式思考沒有價值,但更適用于數(shù)學等封閉世界的問題,而現(xiàn)實世界往往目標不明確、反饋不穩(wěn)定,需要多步?jīng)Q策。

所以也能看到,幾乎沒有人會推薦在 OpenClaw 或者類似產(chǎn)品使用 DeepSeek R1,更多今年發(fā)布的新模型,也都在適應 OpenClaw。

智能體要干活,AI 不能埋頭思考答題

上周末,雷科技受邀在亞洲重量級當代藝術博覽會 Art Central 2026 體驗了一款頗具特色的視覺 AI 應用,可參看《帶著Chance AI勇闖藝術展:拍照即解讀,視覺AI真能看懂當代藝術?》。

簡單來說,Chance AI 更本質的核心是一個 Visual Agent(視覺智能體)。而我核心想說的,是實際體驗中 Chance AI 的「思考方式」。

不同于 DeepSeek 思考模式(R1)下純推理,基本依賴獲取到的文本信息繼續(xù)搜索,并在此基礎上進行推理。Chance AI 在識別圖片內容后,則會廣泛地通過搜索引擎、社交平臺搜索圖片、文本信息,甚至是位置信息(地點)。

更重要的是,Chance AI 作為智能體不是依靠一次推理,而會基于圖片、文本、地點等信息的反饋,反復調整、多次嘗試。

就拿我在 Art Central 2026 看到的一副作品來說,Chance AI 首先會識別圖片內容,再通過 Instagram 等社交媒體以及專業(yè)的藝術品平臺進行搜索,盡可能先找到「作品」。

然后才會繼續(xù)思考。不管沒找到,還是信息太少,都會使用不同工具查找藝術品、地點、圖片,進一步鎖定作品和作家等更多信息,再繼續(xù)思考需求,比如作家的風格和更多作品。

IMG_20260331_191845.jpg

圖片來源:雷科技

這種 Agent loop(智能體循環(huán))的工作方式,也在一定程度上決定了同一張啤酒桶的局部照片,能被 Chance AI 認出,豆包、Gemini 等主流 AI 大模型卻認不出。這當然不是在大模型層面超越了 AI 巨頭,核心還是將 Harness Engineering 的工程架構第一次帶到視覺領域。

將 Harness 和 Skill 機制發(fā)揚光大的 OpenClaw 更是同理。

盡管它的干活能力超出了無數(shù)人的預想,但 OpenClaw 之父 Steinberger 并沒有自主訓練大模型,在大模型之上打造了一個相對可靠的 Agent 框架,或者就像黃超教授說的「腳手架」「輕量級操作系統(tǒng)」。

這也是今年以來被頻繁討論的技術趨勢。

Harness 中文直譯為「馬具」,Harness Engineering 簡單理解就是「駕馭大模型」的工程,包括但不限于上下文工程、長記憶管理、工具調用等。而 Skill 可能更為大眾熟知,比如支付寶今天(3 月 31 日)剛剛推出的支付寶支付集成 Skill,就能讓智能體 AI 直接集成支付寶的支付能力。

b8c388c2a2d54641a43e81322deb2a0f.png

圖片來源:支付寶

但在技術變化之下,更底層的變化則是林俊旸口中的「智能體式思考」。

事實上,智能體 AI 更離不開「思考」,但它的思考被嵌進了不同的操作和流程之中。這就是智能體式思考本質的變化:不是先完全想清楚再動手,而是在動手的過程中不斷修正自己的想法。

你會發(fā)現(xiàn),OpenClaw 和過去的大模型,完全不是一種「工作方式」。它們不會一上來就給你結果(非推理模型),也不會搜集一輪信息后埋頭思考后答題(純推理模型),而是更多調用工具與進行交互,多輪搜索、驗證、決策和調整。所以在大模型不變的前提下,OpenClaw 這類智能體產(chǎn)品反而能夠更好地解決現(xiàn)實問題。

截屏2026-03-18 19.30.01.png

圖片來源:雷科技

又比如一個看似簡單的需求:修一個項目里的 bug。你并不知道問題在哪,也不知道改哪一行代碼,更不確定一次修改能不能解決問題。在這種情況下,單純拉長「推理鏈」并沒有太大意義。因為真正關鍵的不是「想得更全面」,而是不斷測試、調整思路。

正如羅福莉說的,「(OpenClaw)保證了下限,同時也拉升了上限!

智能體式思考,旦用難回?

把時間撥回到 2024 年,大模型行業(yè)最明確的一條主線,其實就是讓模型更會「推理」。以 OpenAI o1、DeepSeek R1 為代表,這一代大模型開始系統(tǒng)性地拉長推理鏈,通過更長的思考鏈換取更高的正確率。

在數(shù)學、代碼等相對封閉的問題中,這種方法幾乎是立竿見影的,模型不再只是「猜答案」,而是開始「做題」。這也是為什么,當年大模型都在卷「推理」。

但 DeepSeek R1 這類純推理模型暗含了一個前提:問題都是可以被「思考」出來的。也就是說,信息是相對完整的,目標是明確的,路徑是可以通過推導得到的。

截屏2026-03-31 19.28.27.png

圖片來源:DeepSeek

可現(xiàn)實世界并不是一張問卷。當任務從「解一道題」變成「把一件事做完」,信息不再完整,目標也不總是清晰,過程更不是一次推導就能結束的。AI 需要不斷嘗試、修正路徑,甚至在過程中重新理解問題本身。

就算是寫報告這種「案頭工作」,現(xiàn)實世界中也需要多輪的信息搜集、思考推理、工具調用和評估決策。這也是為什么,當 OpenClaw、Claude Code 以及更多這類產(chǎn)品出現(xiàn)后,很多人第一次意識到「會推理」,和「能干活」,其實是兩種能力。

它們的關鍵變化,并不在模型本身,而在于引入了一整套圍繞執(zhí)行過程的機制。

Harness 不負責思考本身,但決定了思考如何被組織。什么時候繼續(xù)推理,什么時候該去執(zhí)行,失敗之后是回退還是換路徑。它把原本一次性的推理過程,拆成了一個可以反復運行的循環(huán)。Skill 則把各種能力變成了 AI 隨時能調用的模塊,明確的操作選項。模型需要做的,也不再是直接給出答案,而是選擇在什么時刻調用哪一種能力。

看起來只是流程上的變化,但帶來的結果卻是讓模型具備處理「不確定問題」的能力。所以同樣的大模型底座,放在不同的系統(tǒng)中,表現(xiàn)會有明顯差異。像 OpenClaw 或 Claude Code,在面對復雜任務時,并不是因為「更聰明」,而是因為它們可以不斷試錯、修正路徑、利用工具,直到把問題推進到一個可行的結果。

不過真正驅動這種變化的,核心還不是技術本身,而是需求。

截屏2026-03-19 10.50.24.png

比如調研小紅書,圖片來源:雷科技

當用戶第一次使用大模型時,期待的是一個能回答問題的工具。當推理能力提升之后,期待變成了「回答得更準確」。但到了今天,這種期待已經(jīng)進一步轉變?yōu)椤刚嬲拇怼梗苯幼鳛椤窤I 同事」幫我們干活。

沒人會滿足于一個只會回答問題的 AI。寫代碼也好,查信息也好,處理任務也好,真正有價值的,從來不是「告訴我該怎么做」,而是「幫我做」。

在這樣的需求之下,大模型就不再只是一個推理機器,而必須成為一個可以參與執(zhí)行的系統(tǒng)。也正因為如此,從推理式思考走向智能體式思考,甚至都談不上一次技術路線的選擇,而會是一種幾乎不可避免的遷移。

智能體AI大模型

來源:雷科技

本文圖片來自:123RF 正版圖庫       

       原文標題 : AI大神力挺的「智能體式思考」,DeepSeek式思考的終結?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號

    留坝县| 焦作市| 仙游县| 红桥区| 顺昌县| 咸宁市| 荔浦县| 平武县| 合江县| 乐昌市| 资兴市| 大姚县| 姚安县| 汤阴县| 无为县| 上虞市| 湘乡市| 辽宁省| 调兵山市| 元阳县| 安新县| 乡宁县| 民勤县| 易门县| 霍邱县| 若羌县| 筠连县| 辉南县| 沾益县| 吉林省| 屯昌县| 西青区| 剑阁县| 文安县| 阳江市| 麦盖提县| 大悟县| 石河子市| 贵溪市| 夹江县| 马边|