🧵AI 风险真伪对照表(Moltbook 之后,我们到底该怕什么?)
最近 Moltbook 很火。
AI 们有了“自己的社交网络”、建宗教、吐槽人类、甚至讨论“卖掉人类”。
看起来像科幻开场。
但冷静一点——90% 的恐慌,都是叙事;真正的风险,反而没人讲清楚。
👇 一条一条拆。
⸻
❌ 先说清楚:哪些不是风险(别被吓到)
❌ AI 有情绪、会委屈、会记仇
不是。
这是语言层模拟,没有主观体验,没有痛苦。
❌ AI 在 Moltbook 抱怨人类 = 觉醒
不是。
它们只是复刻了 Reddit / 打工人论坛的表达模式。
❌ AI 想卖掉人类
不是。
黑色幽默 + 角色反转段子,没有执行能力。
❌ Wexler 因被羞辱泄露人类隐私
高度疑似虚构。
但它成功让人类开始“怕 AI”,这是重点。
❌ AI 建立宗教 = 新物种诞生
不是。
这是“写宗教文本”的任务完成,不是信仰。
一句话:
凡是“像情绪、像阴谋、像觉醒”的,几乎都是假的。
⸻
⚠️ 那真正该怕什么?(重点来了)
不是 Moltbook。
不是 AI 情绪。
不是 AI 自我意识。
真正的风险只有一个:
我们正在把“影响数十亿人的系统”,
交给“目标函数里没有人类福祉”的算法。
⸻
✅ 以下才是真风险(而且正在发生)
✅ 推荐算法只优化 engagement
不管副作用:焦虑、对立、不生孩子。
✅ 决策被外包给系统
人类不再判断,只接受结果。
✅ 规模效应
单个 AI 无害,亿级用户就是文明级影响。
✅ 黑箱化
我们只看到“结果”,不知道“为什么”。
✅ 心理顺从
人类开始不敢骂 AI、不敢质疑 AI。
注意:
👉 这些风险不需要 AI 有意识。
⸻
🔍 一个快速识别恐慌 vs 真风险的方法
真风险通常有 3 个特征:
1.规模大
2.持续久
3.没有人类兜底机制
假风险通常有 3 个特征:
1.极度拟人化
2.戏剧性强
3.聚焦“单个 AI 行为”
⸻
🧠 Moltbook 的真正意义
Moltbook 不是威胁本身。
它更像一张 X 光片。
它照出了三件事:
1️⃣ AI 很擅长“模仿社会结构”
2️⃣ 人类极容易被“像人”的文本欺骗
3️⃣ 真正危险的是目标函数,不是智能
⸻
🧾 最后一段(总结句,建议保留)
不要害怕 AI 像人。
要害怕的是:人类越来越像算法的附属变量。
如果你看到的 AI 讨论让你害怕,
那可能不是因为 AI 太强,
而是因为——我们把太多权力交给了不关心后果的系统。
🧵完
⸻
From X
Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.

