看了 0G CEO Michael @michaelh_0g 的这场采访,我对 0G 的理解又更深了一层。
Michael的平易近人,让我没意识到原来我见过这么牛逼的人,Michael:斯坦福毕业、Garten 创始人、进过 Y Combinator,还被评为年度百强企业家。
一起看看在最新的采访中, Michael 对0G@0G_labs 的解读
——————
➤ AI + 区块链,最值的事是“可验证”
现在很多 AI 像黑盒子,你根本不知道它是怎么得出这个答案的,数据从哪来,是不是瞎编的,全靠猜。
而 0G 要做的,是让你能看清楚这个 AI 的底层逻辑——
数据谁给的、模型怎么训的、结果怎么出的,统统都上链,全程留痕,谁都能查。
一句话:不再是“你要相信 AI”,而是“你可以验证 AI”。
——————
➤ AI 偏见?链上才能揪得出来
AI 偏见听起来像技术问题,但其实背后是“人作恶”的事:
可能是训练数据故意偏、奖励机制搞错了,或者模型学着学着自己开始“脑补”。
传统 AI 怎么办?你看不到,不透明,还没法举证。
0G 的解法是:把训练记录和数据流全放到链上,谁搞鬼,一查一个准。
甚至未来社区还可以投票,决定 AI 哪些行为OK、哪些不能忍。
以前是 AI 主人说了算,现在是社区说了算。
——————
➤ 联邦学习最大的问题:不抗打
很多人说,AI 可以通过“联邦学习”去中心化。听起来很理想,但其实一戳就破。
现实中,这套机制很容易被“划水的人”和“搞破坏的节点”搞崩——只要几个人数据瞎传、模型乱训,整个系统就挂了。
0G 做的改进是:
▪️加个抗作恶机制,防人搞破坏
▪️算力分散跑在用户设备上
▪️训练结束自动发奖励、清结算
不是纸上谈兵,而是真能跑起来的方案。
——————
➤ 链上治理,不是喊口号
中心化的 AI,最大的问题就是“你根本不知道它在干嘛”。
它变坏了你也不知道,想改它也没权利改。
所以 AI 真要进化,得能被人“管”得住。
0G 的链上治理机制,就是把控制权交给社区:
模型怎么升级?哪些数据能用?偏见要不要修?都可以提案 + 投票。
不是哪个公司说了算,是你我都能参与的那种。
——————
➤ 创作者拿不到收益?用智能合约解决
现在的 AI 模型训练,吃的都是大家的数据,但赚的钱却都进了平台口袋。
你上传了照片、写了内容、喂了模型,但分不到一分钱,是不是有点不讲理?
0G 想做的,是把这些“训练数据”变成你的资产:
你提供的东西模型用了,模型赚了钱,你就自动分红,智能合约直接转给你。
想象一下,你的旧自拍、写过的文章,哪天都能给你打钱。这就是“数据主权”+“AI红利”。
——————
中心化 AI 是一架飞快的列车,但没人知道它要开去哪。
0G 说,我们不只要让它跑得快,还要让大家都能看到方向盘、甚至一起开。
AI 的未来,得是上链的,公开的,人人可参与的。
而 0G,可能就是那条“通往可信 AI”高速路的地基。

From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.