论文思路太牛逼:AI推理的时候,怎么花更少的token得到更好的结果
现在的AI Agent推理简直把算力当不要钱的——重复调工具、走死胡同、token哗哗浪费。你让它做个多步搜索,它能绕八百个弯
这篇论文的方法叫BAVT,核心思路很简单:把推理建模成搜索树,每一步都估算值不值得继续。预算越少就越从"广泛探索"切换到"贪心利用"
严格低预算下,这个方法居然跑赢了用4倍资源的暴力采样
翻译成人话就是:聪明地花1块钱,比傻傻地花4块钱效果还好
这个思路对所有在跑Agent的人都有用——智能预算管理从根本上优于暴力堆算力
我在想怎么把这个思路用到OpenClaw上
比如宏观分析那个Agent,经常是多步web_search+API调用,token消耗很大。如果每一步都做一次"值不值得继续搜"的判断,应该能省不少
From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.

