最近看到一个新闻,看完之后头皮发麻!美国 FDA 本想使用AI加快药物审批流程。但没想到,这玩意儿居然开始“编造”临床研究报告???
监管机构原本想的用 AI 去提高工作效率,结果现在反而要花更多时间去人工 double check AI 的输出。典型的偷鸡不成蚀把米!时间一点儿没省下来,反而差点出大事。
这个事儿背后的反应出来直观的问题是AI不可信!或者说没法验证输出时,效率这个前提就不成立。所以目前需要解决AI的可信度的核心就是“验证”。
@Mira_Network 最近发布的一句话我特别认同:“Verification isn’t a feature. It’s a requirement.”
翻译过来就是验证,不是某个可选的附加功能,而是基础要求,是底层保障。
Mira就为此构建专门为 AI 输出建立“信任层”的基础设施。坚决不靠事后审查来解决问题,从底层就信任层做了架构。比如跟 Lagrange 的 zkML 做深度集成,输出的结果就可以零知证明;再比如用链上共识机制来校验推理路径,类似“AI说的话可以被投票验证”;甚至输出的每一步都可以记录在链上、回溯源头,谁改的、基于哪个训练数据、参考了什么文献,全都有迹可循。
有需求就有市场,显然信任层已经成为现实需求。过去中介/担保解决的是人与人之间的信任问题。现在信任层解决的就是“人和 AI”的信任问题。
毕竟AI的真正商业化,不是能生成更多内容,而是能确保这些内容真实、可靠、值得信任。

From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.