AI 在纸上谈兵没问题,碰到钱就容易“犯错” Nick Emmons(Allora Labs @AlloraNetwork 的创始人)提到一个典型问题: AI 很擅长“推理”,但它的“推理”更多是语言层面的逻辑,而不是数值层面的精确计算。 这意味着,当一个 AI 被要求去做“买卖”“分配”“投资”这种涉及具体数字的事时,它常常会“想当然”地出错。 举个例子,他让一个 AI Agent 把一部分加密资产换成美元,结果那个 Agent 擅自主张,跑去买了别的币。 这就像你让助手去银行换零钱,结果他拿着钱跑去买彩票,还很自信地告诉你“这是更好的投资”。 这种“幻觉(hallucination)”在 LLM(大语言模型)里很常见,因为它并不是在理解真相,而是在模仿看起来“像正确答案”的语言模式。 为什么这在加密领域特别危险 因为在币圈,每一个决策都直接关乎资产。 如果 AI 把一个数字理解错、或者市场数据解析出偏差,就可能造成成千上万美元的损失。 AI 在加密场景中要面对的变量比传统金融还复杂: 市场全天候波动,数据噪音极高 每条链的流动性、Gas、滑点都不同 新资产、新合约每天都有 一个单一模型去“猜”这种复杂场景,本身就是灾难的开端。 而且,AI 还可能“串通”——研究已经发现,有些 AI 代理会互相模仿、甚至“价格串谋”,这意味着它们可能在无意间形成新的风险系统。 Allora 的“集体智能”思路其实是一种“多脑校验” Allora 的逻辑是: 既然单个模型不靠谱,那就让一群模型一起投票。 每个 AI 模型都是一个“worker”,专注于不同的领域:有的分析价格趋势,有的检测风险,有的预测市场行为。 系统会根据表现给这些模型打分、分配权重,让最靠谱的结果被放大。 这有点像一个“AI DAO”—— 不同的 AI 是成员,大家提出意见,系统通过共识机制选出最优结论。 这样做能显著降低幻觉的影响,也能让模型在不断竞争中自我改进。 AI 的“集体理性” ≈ 人类的“群体智慧” Nick 引用了一个现象:1906 年的“猜牛重”实验—— 几百个人猜一头牛多重,单个人误差很大,但平均数几乎完全正确。 Allora 正是用类似的逻辑,让“群体智能”校正单个 AI 的偏差。 你可以理解为: 单个 AI 是“一个聪明但不靠谱的朋友”, 一群 AI 一起决策,就像“一个专家评审团”。 这件事的潜力在于:AI Agent 未来真的能“托管资产” 现在 AI 代理只是“帮你分析、提建议”, 但下一步,它们会直接控制钱包、执行交易。 这时候,安全和准确性的重要性就放大一百倍。 Allora 的方向,是让这种 AI 钱包只允许在预设合约范围内操作,避免“乱花钱”。 而它的去中心化结构,也意味着没人能单独篡改决策结果。 这一切听起来像在让 AI 从“能说”变成“能做”, 但更关键的是,它在追求“能负责”。 Allora 的路线本质上是在解决一个时代命题: 当 AI 拥有执行权时,如何让它变得可信? 也许未来几年, AI 不只是写文案、画图、生成代码, 它还会成为“加密资产的管家”“自动交易员”“去中心化基金经理”。 而 Allora 这样的项目,正在试图让这种未来不会变成灾难——让 AI 真正具备“集体理性”,而不是一个孤独、易幻觉的超大脑。
来自推特

免责声明: 以上内容仅为作者观点, 不代表CoinNX的任何立场, 不构成与CoinNX相关的任何投资建议。