今天试了一下~
这张图展示的是 Mira 的 Verify 系统对一段AI生产内容的验证结果。
每一条小句,都被多个验证器独立判断,结果一致时,标记为绿色或 红色,若分歧,则标记无共识的灰色
可以从图中看出来图上标了真、假,还有一类灰色的句子,是模型彼此判断不一致的。
这一类其实最常见,但最少被提出来讲。
Mira 的 Verify 系统,是一个更底层的解决方案,我觉得这个设计有两个意义:
1. 更符合现实世界:大部分争议信息,不是绝对对错,而是缺乏共识。Verify不逃避不确定性,会直接标注显示无共识。
2. 技术上可调用:Verify 提供 API,能直接接入 AI 审核、自动重生成、内容标记等场景。
在这个内容由AI模型生成泛滥的时代。我觉得我们可能需要的,不仅仅只是更多的回答,而是更明确的“不确定”。
@MiraNetworkCN
@Mira_Network

From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.