八、HBM三家利润会超过英伟达?
把整条推理产业链拆完之后,回头看最有意思的现象是:这条链上最赚钱的环节不是设计 AI 芯片的人,是给 AI 芯片配内存的人。
HBM 三家可能赚得比英伟达还多?
NVIDIA FY26 营收约 $216B,GAAP 净利润约 $120B,当前市值约 $4.85T。
SK Hynix、Samsung DS、Micron 在 2026 年内存超级周期下,合计利润达到或超过 $150B 是有可能的。
三家当前合计净利润已经接近英伟达单家。但市值相差仍大,因三星半导体没有单独上市,但如果参照另外2家给一个平均的业务估值,并把三家相家,目前市值差不多是2-2.5万亿,也就是三家合计差不多英伟达的40-50%。
未来三家合计利润超过英伟达也不算太惊奇,主要得益于几个点:
一是HBM 工艺门槛不亚于 GPU
HBM 的物理制造与封装良率门槛,已经高到不亚于先进逻辑芯片;而且它不是“设计一颗芯片”,而是把 12–16 层 DRAM 稳定、低功耗、高良率地堆起来。
GPU 的真正门槛在三件事——架构设计(CUDA + 软件栈 + NVLink)、流片制造(台积电先进工艺)、生态系统(开发者 + 库 + 框架)。其中英伟达自己掌握的是架构和生态,制造这一块靠台积电。
HBM 的门槛在四件事——DRAM 工艺、3D 堆叠 + TSV、MR-MUF / hybrid bonding 等封装工艺、客户协同设计。这四件事三家自己掌握。
把工艺难度横向比一下:
GPU 是平面单层晶圆,HBM 是 12-16 层垂直堆叠
GPU 良率挑战在晶体管密度,HBM 良率挑战在堆叠 + TSV + 焊接 + 封装四个维度同时
GPU 架构突破靠英伟达自己设计,HBM 架构突破靠三家与客户共同设计基础芯片
三星几次卡在 HBM3E 12-Hi 的 NVIDIA 资格认证上——这就是工程难度的直接证据
HBM 物理制造的难度确实和 GPU 相比并不显得低。这也是为什么这个市场只有 3 家玩家加 1 个追赶者,而 GPU 市场有 10+ 家玩家。
二是HBM 是"基础供给",GPU 是"单一架构"
这一层比工艺门槛更关键。
GPU 市场是英伟达 vs AMD vs Trainium vs TPU vs Maia vs MTIA vs Cerebras vs Groq vs 华为昇腾——至少 10+ 玩家在竞争同一份算力订单。未来 5 年英伟达在 AI 加速器上的份额大概率会从 80%+ 下降到 50-60% 区间——不是因为英伟达做得不好,是因为云厂商不愿意把命运绑在一家身上,所有 hyperscaler 都在自研 ASIC。
但 HBM 不一样。所有这些 GPU、ASIC、TPU、Trainium、Maia、MTIA 都需要 HBM——除了 Cerebras 走片上 SRAM 那条极端路径(占比很小)。
所以 HBM 三家的真正护城河不是"在 HBM 内部独占份额",是"无论谁赢算力之战,HBM 三家都拿到一笔"。
GPU 厂家之间的份额转移会让英伟达的利润被分摊,但不会让 HBM 三家的总订单减少。HBM 是 AI 算力赛道的基础供给,GPU 是赛道里互相竞争的单一架构。前者比后者更接近"卖铲子"的位置。
把工艺门槛 + 行业结构合起来看,5 年内三家合计净利润超过英伟达单家的概率不低。
三是HBM 在产业链上的议价权会超过GPU
NVIDIA 一颗 GPU 的物料成本里,HBM 占大约 30-40%。AMD MI455X 的物料成本里 HBM 占比可能更高(因为它配 432 GB HBM4,比 NVIDIA 多)。HBM 三家拿走的利润占整条链的比例,正在追上 GPU 设计公司本身。
GPU可以扩产——TSMC 多开几条 3nm/2nm 产线,NVIDIA 和 AMD 可以快速增加 GPU 出货。但 HBM 的产能扩张要新建晶圆厂,3-5 年。所以未来6-12 个月,HBM 是整条链上议价权最强的环节。
关注存储,主要关注三件事
第一是 HBM TAM 的真实增长速度。美光的 350 亿到 1000 亿(2025-2028)是个非常激进的预测。如果 reasoning 模型 + Agent + 长上下文这三件事真的让 HBM 需求曲线一直陡峭,这个数字会兑现;如果其中任何一件出现退潮(比如 Google 在 2026 年发布的某种压缩技术让单 token HBM 消耗下降),数字会打折。
第二是 产能扩充的速度。HBM 是 DRAM 的一个分支,DRAM 历史上每 3-4 年一个周期。三星 P5 厂 2028 投产、海力士 M15X 厂 2027 投产、美光 Boise/Clay 厂 2026-2027 陆续上线,2028-2029 年 HBM 产能会涌出来一大波。
第三是 晶圆级 + ASIC + 端侧推理的份额抢夺。Google TPU 8i + Microsoft Maia 200 加大片上 SRAM、Cerebras 把内存全焊到芯片本体上、NVIDIA Rubin CPX 用 GDDR7、Intel Crescent Island 用 LPDDR5X——这些都在试图减少对 HBM 的依赖。如果这些方案被市场广泛接受,HBM TAM 增长会放慢。
<贵人与命运>
黄峥读书时成绩遥遥领先,但他很后悔,觉得为了争第一错过了很多青春,并喊出60分万岁。
但其实也正因为学得够好,所以写的研究被丁磊关注,大学时接到丁磊邮件,询问技术问题。丁想邀请他去网易,黄拒绝了,说想去美国读书。于是二人没成为上下级,成为了朋友。
黄峥到美国后,丁磊介绍另外一个朋友给他,段永平。段也很喜欢黄峥,交流了很多,黄峥曾讲过段是对他影响最大的人。
段永平是真喜欢他,巴菲特晚餐,带的就是20多岁的黄峥——是真的在“带他”。
美国大学毕业找工作,有微软可以选,但段建议他去当时还比较小的GOOGLE,然后去干了不久,GOOGLE上市了,黄峥突然就变得很富有了。
黄峥后来说:过了几年,才更清晰知道当时这个建议有多重要。
GOOGLE上市后,很多人有钱了就开始找乐子享受人生了,但黄峥没有,或许是受“平常心”的指引,他开始了新的征程。
在开挂的人生里,都少不了贵人的提携和命运的牵引。
《英特尔从20到100,发生了什么,还想上车?》
1599 年 7 月 19 日,阿姆斯特丹港。
八艘船在 1598 年带着 500 名水手离开荷兰,向东印度群岛驶去。两年里没有任何消息——按当时的概率,沉没、瘟疫、海盗、迷航,每一种都足以让全部投资血本无归。事实上,第一次远征只回来了 4 艘船里的 1 艘,89 个船员只活下来 17 个。
但那一年的 7 月,4 艘船平安归航,载着 60 万磅胡椒、40 万磅丁香、以及肉豆蔻、肉桂、檀香——价值是出航成本的近 4 倍。所有最初出资的股东,瞬间变成富翁。
这场归航直接催生了三年后的一件大事——荷兰东印度公司(VOC)成立,向全社会公开募股,人类第一次有了"股票市场"这个东西。
大航海时代最迷人的地方在于:人们愿意支付极高昂的资金,等待几年甚至十几年,押注一艘船能在未来满载归来。有人因此身家百倍,也有人血本无归——而决定结果的,不是船多大、不是出资多少,是船到底能不能回得来。
过去一年,英特尔的股价从 20 美元涨到了 100 美元。4 月 24 日单日 +24%——是这家 1971 年就成立的老牌公司 38 年来最大的涨幅。但如果只看股价,会错过这个故事真正的内核——这是一艘已经从港口起航、被国家出资、被巨头押注、但还在大海中央的船。它能不能回来,取决于接下来的良率、客户、订单、几个工厂的爬坡——而这些事情,到今天都还没有完成。
推动这轮暴涨的,是四件大事的发生:
其一,2025 年 8 月美国政府以 89 亿美元换取 9.9% 股权,加上 9 月英伟达 50 亿、软银 20 亿入股,把英特尔的"破产折价"一次性消除;
其二,AI 服务器与 AI PC 需求重新抬升了 CPU 的定价权;
其三,18A 的良率与出货节奏终于从"讲故事"走向"给数字";
其四,英特尔在芯片法案、国防项目和供应链安全中的地位,开始被市场当成一种稀缺的国家战略资产来重新计价。
英特尔已经走出最危险的阶段:
2025 年全年收入大致持平,GAAP 毛利率 34.8%(Non-GAAP 36.7%),经营现金流回升到 97 亿美元;
2026 年一季度收入同比增长 7%,GAAP 毛利率 39.4%、Non-GAAP 41.0%,管理层表示 18A 良率"高于内部预期"
但与此同时,Intel Foundry 在 2025 年仍亏损 103 亿美元,2026 年一季度外部 foundry 收入只有 1.74 亿美元,且这部分相对去年同期增长的 1.43 亿主要来自 Altera 在
2025 年 Q3 剥离后从内部转为外部客户身份——并不是新增外部代工签约的实质突破。作为Intel最被期待的部分,其"战略意义"已被验证,但"商业闭环"仍未完全跑通。
在这节点,我重新再次认真看了一遍INTC——我不会因为涨了很多就不再关注,我觉得研究值得研究的东西就好,属于我们的机会出现的。
<深度:英特尔的大航海,迷人又危险>

《前谷歌TPU架构师:AI 的真瓶颈不是算力》
这场两小时的访谈里,Reiner Pope 在黑板上一步一步把训练和推理背后的物理学推了出来。他的判断对理解 AI 产业链——尤其是芯片、内存、互联设备——非常关键。
但原文非常艰深,普通读者读起来会很疲劳。
所以我在不改变 Reiner 任何原意的前提下,做两件事:
第一,用大白话重新表达。
第二,从投资视角提炼重点。
文章按三段展开:现在是什么情况、底层原理是什么、未来会影响到哪些产业。
一、先用一句话讲清楚
Reiner 这场讲座最核心的判断是:AI 真正的瓶颈不是算力,是搬数据的速度。这个瓶颈短期内没有解。
如果你只想记住一件事,就是这一句。后面几乎所有的产业含义都是从这里推出来的。
为什么这件事重要?因为整个 AI 产业链的钱往哪流、谁吃肉谁喝汤,取决于"瓶颈在哪里"。如果瓶颈是算力,那 GPU 厂家是绝对赢家;如果瓶颈是搬数据,那钱会被另一拨公司分走——HBM 内存、机架间的互联、线缆、交换机、液冷、电源。
而 Reiner 给出的答案非常明确:瓶颈是后者。这是他从大厂的资本支出结构里能直接看出来的——按业内估计,他们今年大约一半的钱都花在内存上。
二、算力够用了,缺的是「搬运工」
要理解为什么算力不缺、内存才缺,先打个比方。
把 GPU 想象成一个超级会算账的会计。给他一摞账本(模型参数),他能很快算完。问题是:账本不在他手边,存在仓库里。每次要算账,都得有人把账本从仓库搬到他桌上,他算完再放回去。
这里有两个时间:
算账时间:会计算多快
搬运时间:账本来回搬多慢
老规矩,文章很长,直接移步公众号。
https://t.co/7xmJBzHnIH








