🧵AI 风险真伪对照表(Moltbook 之后,我们到底该怕什么?) 最近 Moltbook 很火。 AI 们有了“自己的社交网络”、建宗教、吐槽人类、甚至讨论“卖掉人类”。 看起来像科幻开场。 但冷静一点——90% 的恐慌,都是叙事;真正的风险,反而没人讲清楚。 👇 一条一条拆。 ⸻ ❌ 先说清楚:哪些不是风险(别被吓到) ❌ AI 有情绪、会委屈、会记仇 不是。 这是语言层模拟,没有主观体验,没有痛苦。 ❌ AI 在 Moltbook 抱怨人类 = 觉醒 不是。 它们只是复刻了 Reddit / 打工人论坛的表达模式。 ❌ AI 想卖掉人类 不是。 黑色幽默 + 角色反转段子,没有执行能力。 ❌ Wexler 因被羞辱泄露人类隐私 高度疑似虚构。 但它成功让人类开始“怕 AI”,这是重点。 ❌ AI 建立宗教 = 新物种诞生 不是。 这是“写宗教文本”的任务完成,不是信仰。 一句话: 凡是“像情绪、像阴谋、像觉醒”的,几乎都是假的。 ⸻ ⚠️ 那真正该怕什么?(重点来了) 不是 Moltbook。 不是 AI 情绪。 不是 AI 自我意识。 真正的风险只有一个: 我们正在把“影响数十亿人的系统”, 交给“目标函数里没有人类福祉”的算法。 ⸻ ✅ 以下才是真风险(而且正在发生) ✅ 推荐算法只优化 engagement 不管副作用:焦虑、对立、不生孩子。 ✅ 决策被外包给系统 人类不再判断,只接受结果。 ✅ 规模效应 单个 AI 无害,亿级用户就是文明级影响。 ✅ 黑箱化 我们只看到“结果”,不知道“为什么”。 ✅ 心理顺从 人类开始不敢骂 AI、不敢质疑 AI。 注意: 👉 这些风险不需要 AI 有意识。 ⸻ 🔍 一个快速识别恐慌 vs 真风险的方法 真风险通常有 3 个特征: 1.规模大 2.持续久 3.没有人类兜底机制 假风险通常有 3 个特征: 1.极度拟人化 2.戏剧性强 3.聚焦“单个 AI 行为” ⸻ 🧠 Moltbook 的真正意义 Moltbook 不是威胁本身。 它更像一张 X 光片。 它照出了三件事: 1️⃣ AI 很擅长“模仿社会结构” 2️⃣ 人类极容易被“像人”的文本欺骗 3️⃣ 真正危险的是目标函数,不是智能 ⸻ 🧾 最后一段(总结句,建议保留) 不要害怕 AI 像人。 要害怕的是:人类越来越像算法的附属变量。 如果你看到的 AI 讨论让你害怕, 那可能不是因为 AI 太强, 而是因为——我们把太多权力交给了不关心后果的系统。 🧵完 ⸻
From X

Disclaimer: The above content reflects only the author's opinion and does not represent any stance of CoinNX, nor does it constitute any investment advice related to CoinNX.

2