AI 在纸上谈兵没问题,碰到钱就容易“犯错”
Nick Emmons(Allora Labs @AlloraNetwork 的创始人)提到一个典型问题:
AI 很擅长“推理”,但它的“推理”更多是语言层面的逻辑,而不是数值层面的精确计算。
这意味着,当一个 AI 被要求去做“买卖”“分配”“投资”这种涉及具体数字的事时,它常常会“想当然”地出错。
举个例子,他让一个 AI Agent 把一部分加密资产换成美元,结果那个 Agent 擅自主张,跑去买了别的币。
这就像你让助手去银行换零钱,结果他拿着钱跑去买彩票,还很自信地告诉你“这是更好的投资”。
这种“幻觉(hallucination)”在 LLM(大语言模型)里很常见,因为它并不是在理解真相,而是在模仿看起来“像正确答案”的语言模式。
为什么这在加密领域特别危险
因为在币圈,每一个决策都直接关乎资产。
如果 AI 把一个数字理解错、或者市场数据解析出偏差,就可能造成成千上万美元的损失。
AI 在加密场景中要面对的变量比传统金融还复杂:
市场全天候波动,数据噪音极高
每条链的流动性、Gas、滑点都不同
新资产、新合约每天都有
一个单一模型去“猜”这种复杂场景,本身就是灾难的开端。
而且,AI 还可能“串通”——研究已经发现,有些 AI 代理会互相模仿、甚至“价格串谋”,这意味着它们可能在无意间形成新的风险系统。
Allora 的“集体智能”思路其实是一种“多脑校验”
Allora 的逻辑是:
既然单个模型不靠谱,那就让一群模型一起投票。
每个 AI 模型都是一个“worker”,专注于不同的领域:有的分析价格趋势,有的检测风险,有的预测市场行为。
系统会根据表现给这些模型打分、分配权重,让最靠谱的结果被放大。
这有点像一个“AI DAO”——
不同的 AI 是成员,大家提出意见,系统通过共识机制选出最优结论。
这样做能显著降低幻觉的影响,也能让模型在不断竞争中自我改进。
AI 的“集体理性” ≈ 人类的“群体智慧”
Nick 引用了一个现象:1906 年的“猜牛重”实验——
几百个人猜一头牛多重,单个人误差很大,但平均数几乎完全正确。
Allora 正是用类似的逻辑,让“群体智能”校正单个 AI 的偏差。
你可以理解为:
单个 AI 是“一个聪明但不靠谱的朋友”,
一群 AI 一起决策,就像“一个专家评审团”。
这件事的潜力在于:AI Agent 未来真的能“托管资产”
现在 AI 代理只是“帮你分析、提建议”,
但下一步,它们会直接控制钱包、执行交易。
这时候,安全和准确性的重要性就放大一百倍。
Allora 的方向,是让这种 AI 钱包只允许在预设合约范围内操作,避免“乱花钱”。
而它的去中心化结构,也意味着没人能单独篡改决策结果。
这一切听起来像在让 AI 从“能说”变成“能做”,
但更关键的是,它在追求“能负责”。
Allora 的路线本质上是在解决一个时代命题:
当 AI 拥有执行权时,如何让它变得可信?
也许未来几年,
AI 不只是写文案、画图、生成代码,
它还会成为“加密资产的管家”“自动交易员”“去中心化基金经理”。
而 Allora 这样的项目,正在试图让这种未来不会变成灾难——让 AI 真正具备“集体理性”,而不是一个孤独、易幻觉的超大脑。
来自推特
免责声明: 以上内容仅为作者观点, 不代表CoinNX的任何立场, 不构成与CoinNX相关的任何投资建议。



