AMD、美光奔向万亿美元,CPU与HBM被重新定价还没结束
最近美股半导体出现了一个过去很难想象的讨论:AMD和美光,是否都有机会冲击万亿美元市值。
这个问题放在三年前,会被当成情绪泡沫。AMD虽然完成了对英特尔的逆袭,但市场仍把它看成“服务器CPU挑战者”;美光更典型,长期被归类为存储周期股,景气好时估值修复,价格下行时利润塌陷。可到了2026年,这两家公司已经不再站在旧估值表里。5月8日,AMD市值约7422亿美元,美光市值约8422亿美元,离万亿美元都不再遥远
这轮变化的背景,不是AI概念继续发酵,而是AI资本开支把半导体产业的权力结构推倒重排。GPU仍然是核心,但大规模AI集群已经暴露出更复杂的瓶颈:CPU调度、HBM带宽、企业级SSD、网络互联、电力、散热、封装,每一个环节都在影响算力利用率。2026年,大型科技公司AI支出预期已经上修至超过7000亿美元,这不再是单家公司押注,而是全球科技巨头同步扩建算力底座。
所以,市场对AMD和美光的重新定价,核心不是“谁能复制英伟达”,而是谁能卡住AI硬件栈里新的稀缺环节。AMD吃的是CPU与AI GPU双线扩张,美光吃的是HBM和数据中心存储重估。旧硬件突然变贵,背后是AI工业化正在进入更深的成本层。
之外的稀缺资产开始抬头
过去两年,AI牛市几乎可以简化成英伟达牛市。
逻辑很直接:大模型训练需要GPU,GPU供给最稀缺,英伟达掌握了最高价值的计算入口。资金沿着这条线交易,英伟达自然吃掉了AI产业链中最大的一块估值溢价。
但2026年的AI基础设施,已经不是“买更多GPU”这么简单。
一个大型AI集群的效率,取决于整套系统能不能协同运行。GPU负责计算,CPU负责调度和控制,HBM负责高速数据供给,SSD负责训练数据与推理数据的读写,网络互联负责节点之间的数据流动,电力和散热决定数据中心能否稳定运行。任何一个环节拖后腿,都会让昂贵GPU处于低利用率状态。
这就是AMD和美光突然被重估的产业背景。
AMD一季度给出的数据很有指向性。2026年Q1,公司收入102.53亿美元,同比增长38%;数据中心业务收入58亿美元,同比增长57%,增长来自EPYC处理器需求和Instinct GPU出货爬坡。更重要的是,AMD同时提到Meta计划部署最高6GW的AMD Instinct GPU,并且会成为下一代EPYC CPU的重要客户。
这说明AMD已经不只是“英特尔的服务器CPU对手”。它开始被放进AI数据中心的完整计算栈里:一边卖EPYC CPU,一边推Instinct GPU,再向机架级AI基础设施延伸。
AI时代并没有削弱CPU的价值。相反,GPU集群规模越大,对CPU的协同调度、数据预处理、系统管理、虚拟化和推理服务调度要求越高。AI服务器不是几颗GPU孤立工作,而是一整套异构计算系统。AMD过去靠EPYC持续蚕食英特尔份额,现在又赶上AI服务器总量扩张,估值自然不再只按传统CPU周期去算。
美光的变化更典型。
过去市场给存储公司的估值很低,因为行业太周期。涨价带来利润,扩产带来过剩,价格下跌又把利润吞掉。美光长期被困在这个叙事里。
HBM把这张旧表撕开了。
Micron 2026财年二季度收入238.6亿美元,GAAP毛利率74.4%,净利润137.85亿美元;公司还给出三季度收入335亿美元上下7.5亿美元的指引。这种利润率和收入弹性,已经不是传统存储下行周期里的财务状态。
原因很清楚:AI训练和推理需要更高带宽、更低功耗、更高容量的存储体系。HBM不是普通DRAM,它涉及堆叠、先进封装、良率控制和客户验证,供给扩张速度远慢于AI数据中心需求扩张速度。GPU越强,对HBM越依赖;模型越大,对数据吞吐越敏感。
市场过去买GPU,买的是算力入口。现在买HBM,买的是算力不被“饿死”的能力。
美光的万亿叙事看HBM定价权
AMD和美光都被放进“万亿美元讨论”,但两家公司不是同一种故事。
AMD的关键,在于能不能从单线CPU公司,变成AI计算平台公司。
过去十年,AMD最成功的资本故事是逆袭英特尔。EPYC进入数据中心,让AMD在服务器CPU市场拿到过去不可想象的份额。可这条线再好,本质上仍然是服务器CPU竞争。
AI把AMD推到第二条曲线上。
Instinct系列GPU虽然距离英伟达生态还有差距,但云厂商并不希望AI加速器市场只剩一家供应商。价格、供应安全、议价能力、软件栈可控性,都会推动它们引入第二供应源。AMD能否吃下这部分需求,决定它的估值锚能否继续上移。
更关键的是,AMD不是单独卖GPU,而是能把CPU、GPU、网络协同和机架级方案放在一起讲。Meta、AWS、Google Cloud、Microsoft Azure、腾讯云等客户扩展EPYC实例,说明它已经进入全球云厂商基础设施体系。
这对AMD非常重要。AI硬件越来越像系统生意,单颗芯片参数只是入场券,客户更看重整机交付、能效、软件适配和总体拥有成本。AMD如果能在AI GPU上持续放量,再用EPYC维持数据中心CPU份额,它的估值逻辑就会从“芯片挑战者”进一步切到“AI计算底座二号位”。
美光的万亿叙事,则集中在HBM与数据中心存储的定价权。
Micron去年底宣布退出Crucial消费内存业务,把资源转向AI数据中心使用的先进内存。路透社报道提到,美光这一决定发生在全球存储供应紧张背景下,公司管理层称AI驱动的数据中心增长带来了内存和存储需求激增;HBM由于低功耗和高数据处理能力,在AI开发中变得非常关键。
这件事很有象征意义。
美光不是在小修小补,而是在做业务优先级切换:少做低利润、波动大的消费内存,多服务数据中心大客户。过去存储厂商被动接受周期,现在头部客户为了AI项目稳定推进,需要提前锁定供应,甚至接受更长期协议和更高价格。
HBM的供给约束也不是短期库存错配。路透社今年1月提到,SK海力士2026年产能已售罄,三星也称客户已经排队锁定下一年HBM,新建常规内存工厂到2027或2028年才会形成实质供给。
这给美光带来了过去少见的定价环境。
传统DRAM卖的是周期弹性,HBM卖的是稀缺性。传统NAND受消费电子和PC周期影响较大,AI数据中心存储则绑定云厂商资本开支。只要AI集群继续扩张,美光就不再只是“存储价格上涨受益者”,而是AI数据底座的核心供应商。
这也是市场愿意重新给它估值的原因。
Capex见顶和自由现金流之后
AMD和美光的行情,看起来像AI牛市扩散,本质上是全球算力工业体系的一次重建。
过去的数据中心升级,更多是云计算时代的温和扩容。现在的AI数据中心,资本开支强度完全不同。微软、谷歌、Meta、亚马逊、OpenAI、xAI、中东主权基金、中国互联网大厂,都在抢算力、抢电力、抢存储、抢先进封装。大型科技公司今年AI支出预期超过7000亿美元,比此前约6000亿美元的预期继续上修。
这个环境下,半导体资产会被重新分层。
第一层是不可替代的算力入口,英伟达仍然最强。
第二层是算力扩张的关键约束,AMD、美光、博通、台积电、SK海力士、光模块公司、先进封装公司都在这里。
第三层是受益但议价权较弱的硬件配套,订单会增长,但利润率未必同步扩张。
AMD和美光目前的吸引力,在于它们都处在第二层:AMD卡CPU+AI GPU,美光卡HBM+数据中心存储。二者都不是单纯跟随英伟达上涨,而是在AI硬件栈中拥有独立的稀缺逻辑。
但万亿美元叙事也有明显风险。
第一,市场已经在提前交易多年确定性。AMD市值已经超过7400亿美元,美光市值超过8400亿美元,很多乐观预期已经写进股价。
第二,AI资本开支不可能永远线性上修。云厂商目前愿意花钱,是因为模型竞争、企业AI需求和算力短缺同时存在。后面一旦训练效率提升、推理成本下降,或者客户回报率不及预期,资本开支边际放缓会直接压制硬件链估值。
第三,供给最终会追上来。HBM短缺很真实,但存储行业的历史经验也很清楚:高利润会刺激资本开支,资本开支会形成新产能,新产能会改变价格预期。美光能否脱离传统周期,还要看它能否把AI订单转化为更长期、更稳定的自由现金流。
第四,AMD必须证明自己不只是“第二供应商”。英伟达的护城河不只在芯片,还在CUDA、网络、整机系统、开发者生态和客户习惯。AMD要拿更高估值,需要持续证明Instinct不只是价格替代,而是能在特定训练、推理和云场景中形成稳定份额。
所以,AMD和美光能不能走向万亿美元,最终不取决于市场愿不愿意讲故事,而取决于两个现实问题:AI需求能不能从训练扩展到推理、企业应用和长期部署;公司能不能把景气变成现金流、毛利率和客户锁定。
万亿美元市值不是奖杯,是资本市场对长期定价权的提前投票。
买的是“算力背后的工业瓶颈”
AMD和美光被放进万亿美元讨论,并不荒唐,但也不能简单理解为“下一个英伟达”。
它们代表的是AI硬件牛市进入第二阶段后的两条分支:一条是计算栈扩张,CPU和AI GPU重新获得战略价值;另一条是数据栈扩张,HBM和企业级存储从周期品变成AI基础设施里的稀缺资源。
英伟达定义了AI牛市的第一层逻辑:谁拥有最强算力,谁就拥有最大定价权。
AMD和美光代表第二层逻辑:谁能解决算力扩张中的系统瓶颈,谁就有机会被重新估值。
这轮半导体行情最容易被误读的地方,是把所有上涨都归为泡沫。泡沫当然会有,杀估值也迟早会有。但AI资本开支正在改变半导体行业的利润分布,这一点不应被忽略。过去被低估的CPU、存储、网络、封装和电源管理,正在重新进入主资产名单。
下一阶段的胜负,不会只看谁的股价涨得更快,而要看谁能把客户锁定得更久,把毛利率守得更稳,把自由现金流做得更厚。
AI工业化越深入,市场越会奖励那些位置不显眼、但无法绕开的公司。AMD和美光的万亿想象,正是这轮硬件重估最直接的样本
