代币需求正呈爆炸式增长,对人工智能计算的需求也在持续加速。模型能力的提升以及智能体工作流程的快速发展,推动了用户采用率和代币总需求的激增。仅在二月份,Anthropic 就新增了高达 60 亿美元的年度经常性收入 (ARR),这主要得益于智能体编码平台 Claude Code 的广泛应用。如果 Anthropic 拥有更多计算资源,其新增收入还会更高。尽管过去几年人工智能基础设施建设规模庞大,但可用的计算资源仍然稀缺。即使是已经推出近两代的 Hopper 处理器,其按需 GPU 的价格也在持续上涨。
根据我们自身的经验,我们联系了所有我们了解的超大规模云服务提供商,询问他们是否有可用的小型集群,但所有资源都已被牢牢锁定。这种供应紧张的局面解释了超大规模云服务提供商资本支出计划的大幅调整。普遍预期已大幅上调,其中谷歌的情况最为突出,其2026年的资本支出预期几乎是此前预期的两倍,这主要是由于数据中心和服务器支出增加所致。
这是一笔巨额支出,如果条件允许,超大规模数据中心运营商会投入更多资金,但他们受到一个关键因素的制约:硅芯片供应。目前先进的逻辑和存储器制造能力不足以支撑计算部署的步伐。尽管在ChatGPT发布之后(AD),数据中心的发展就受到了各种限制,例如CoWoS封装和数据中心电力等,但我们现在已彻底进入了硅芯片短缺阶段。
台积电N3逻辑晶圆产能是制约N3技术发展的最大因素之一,甚至可以说是最大的制约因素。台积电的N3系列芯片于2023年开始出货并投入市场销售,初期需求主要来自智能手机和PC领域。N3的起步并不顺利,首款衍生产品“N3B”良率不佳,且相对于密度提升而言成本过高。随着工艺的改进,N3E工艺得以广泛应用。N3E工艺是一种简化的衍生产品,EUV层数更少,因此成本更低。N3技术的主要智能手机和PC客户包括:苹果公司,其M3至M5 Mac芯片和A17至A19 iPhone处理器均采用N3衍生产品;高通公司,其骁龙8 Elite系列处理器;联发科公司,其天玑系列智能手机SoC以及部分汽车和PC芯片;以及英特尔公司,其Lunar Lake和Arrow Lake客户端处理器。
迄今为止,N3 的需求主要由消费电子产品驱动。到 2026 年,所有主流 AI 加速器系列都将过渡到 N3,届时 AI 将成为 N3 需求的主要来源,之后才会过渡到 N2 及更高版本。
从下表可以看出,到 2026 年,整个行业都在向台积电的 N3 系列工艺节点靠拢,将其打造为 AI 加速器的主流工艺节点。NVIDIA 将从 Blackwell 的 4NP 工艺节点过渡到 Rubin 的 3NP 工艺节点。AMD 通常是新工艺节点的先行者,目前已在 MI350X 中采用 N3 工艺,并且 MI400 的 AID 和 MID 芯片也将继续使用 N3 工艺(XCD 采用 N2 工艺节点)。谷歌的 TPU 路线E 工艺,TPU 今年的程序量将大幅增长。AWS 也将在 Trainium3 中过渡到 N3P 工艺节点。Meta 的 MTIA 也遵循类似的路径,但其程序量要低得多。
这种转变不仅限于XPU芯片。VR机架中使用的Vera CPU的所有芯片都采用了N3P技术。此外,还有NVLink 6交换机等网络芯片,以及Tomahawk 6和Spectrum 6等横向扩展交换机。Rubin每GPU提供1.6T的横向扩展网络,开启了3nm 200G光DSP的普及应用。
N3晶圆的突然普及,加上人工智能计算需求的持续增长,导致N3晶圆产能面临巨大冲击。台积电措手不及,晶圆产能扩张未能跟上人工智能需求的激增。这是怎么回事?尽管史上规模最大的计算产能建设始于2022年底,但台积电的资本支出直到2025年才超过之前的峰值。而今年,台积电的资本支出将打破去年的纪录,因为他们已经意识到客户需求远远超过了自身的产能。
尽管台积电在技术上明显领先于其仅有的竞争对手英特尔和三星,但如果客户无法获得足够的晶圆供应来支持其业务,这种优势就显得无关紧要了。因此,产能限制可能会促使客户寻求更广泛的晶圆代工模式。例如,英特尔得到了美国政府的支持,任何外包给英特尔晶圆代工的业务都会获得美国政府的青睐。与此同时,三星晶圆代工也开始发展壮大,近期赢得了一些设计订单。首先,三星获得了特斯拉的一些芯片项目,例如AI5和AI6,尽管这些项目是与台积电共同推进的。三星晶圆代工也已进入英伟达的数据中心供应链,我们在之前的晶圆代工模式报告中对此进行了讨论。
现在,让我们来看看市场竞争究竟有多激烈。N3加速器晶圆的需求将在今年大幅增长。主要驱动因素是英伟达Rubin的量产计划,因为该公司正从基于4NP的Blackwell过渡到基于N3P的Rubin一代。然而,考虑到Blackwell平台和供应链的成熟度更高,其今年的出货量仍将高于Rubin。谷歌和博通的TPU抢在英伟达和亚马逊之前进入N3时代,TPUv7芯片已于2025年开始量产。这一势头将在今年延续,由于谷歌内部需求以及来自Anthropic等公司的外部需求,TPU的出货量将大幅增长。与此同时,向下一代TPUv8的过渡也将开始,这些芯片也将继续采用N3工艺。另一个重要的影响因素是基于N3P的Trainium3将于2026年初开始晶圆交付,预计下半年产量将大幅提升。
因此,人工智能相关应用(加速器、主机CPU和网络N3芯片的需求)今年将占N3芯片总产量的近60%。剩余的40%主要用于智能手机和CPU。这些领域的需求已完全占用N3芯片的全部产能,台积电几乎没有机会增加产能。即使台积电增加N3芯片产能,到2027年,这种产能紧张的局面将更加严峻。我们预测,到2027年,人工智能需求将占N3芯片总产量的86%,几乎完全挤占智能手机和CPU芯片的产能。这种转变的部分原因是智能手机产品路线芯片产能紧张无疑也加速了这一转变。对于仍采用N3芯片的产品线,其需求不太可能得到完全满足。
在争夺有限的N3芯片配额的客户中,台积电最终扮演着“造王者”的角色。到2026年,人工智能基础设施客户的优先级明显高于消费电子产品客户。人工智能加速器的设计通常需要更大的芯片尺寸和更复杂的封装,这意味着更高的平均售价。更重要的是,人工智能驱动的需求一直是台积电增长的主要动力。终端客户愿意不惜一切代价部署更多计算资源。各大人工智能实验室的计算资源承诺也印证了这一点,并提供了未来多年的发展前景。
这与目前已高度饱和的移动和客户端市场形成鲜明对比,后者在用户数量和内容增长方面都面临挑战。这使得人工智能加速器客户在获取高级节点容量方面具有相对优势。其他领域的客户如果无法获得足够的N3容量,可能被迫延长现有产品周期或直接迁移到N2平台。
由于需求远超供应,台积电正在扩大产能,并使其现有生产线达到极限,尽可能地利用其额定产能生产每一片晶圆。因此,预计到2026年下半年,N3工艺的有效利用率将超过100%。该公司还在尽可能地将部分工艺层转移到其他晶圆厂,以释放额外的N3产能。
为什么台积电不能直接增加N3晶圆的开工量?和存储器供应商一样,台积电也受到洁净室空间的限制。必须先建造额外的可用晶圆厂面积,才能安装设备并投产新产能。未来两年内,台积电无法新增足够的产能来完全满足市场需求。因此,企业要想在此期间获得更多晶圆配额,就必须放弃现有宝贵的配额,而这种情况很可能会发生。
今年智能手机将成为N3晶圆需求的第二大驱动力。如果说有什么因素会造成需求疲软,那么智能手机领域反而可能是需求疲软的领域,从而释放出XPU晶圆的产能。目前,苹果和其他智能手机客户,例如联发科和高通,都已集体下达供应链订单,他们预计今年智能手机的出货量将保持个位数低增长。
然而,不断上涨的内存价格正逐渐转嫁到手机物料清单成本上,并最终影响到消费者的平均售价。这可能会抑制消费者需求。我们已经看到一些迹象表明,智能手机需求预期将被下调至同比两位数的低位下滑。随着智能手机需求的减弱,相关的晶圆需求也将减少,从而释放出更多产能用于XPU逻辑芯片。
就出货量而言,如果将2026年智能手机N3晶圆总开工量的5%(43.7万片晶圆的5%)重新分配给AI加速器,则可额外生产约10万颗Rubin GPU或约30万颗TPU v7。在更极端的情况下,如果将2026年智能手机N3晶圆总开工量的25%重新分配给AI加速器,台积电则可额外生产约70万颗Rubin GPU或约150万颗TPU v7。然而,逻辑电路只是AI加速器芯片的一部分,还需要内存供应和先进的封装技术。
全球内存短缺问题短期内不太可能缓解。随着芯片供应商和超大规模数据中心竞相确保加速器生产所需的DRAM供应,内存已成为下一个主要竞争领域。虽然DRAM晶圆总产能持续增长,但新增产能大部分被HBM吸收,有效地挤占了普通DRAM的市场份额。
按每比特晶圆消耗量计算,HBM 的晶圆产能约为普通 DRAM 的三倍,随着行业今年向 HBM4 过渡,这一差距可能会扩大到近四倍,明年 HBM4E 的出现甚至会更大。因此,HBM 的增量增长会从普通 DRAM 晶圆产能中分流出不成比例的份额,从而加剧存储器产能的紧张局面。
加速器中HBM容量的快速增长加剧了这种压力。HBM位出货量正经历急剧变化,这主要是由单个设备的内存容量提升所驱动,而不仅仅是芯片数量的增长。对于NVIDIA而言,从Blackwell到Blackwell Ultra和Rubin的升级使HBM容量提升了50%,而Rubin Ultra又进一步提升了约4倍。类似的升级也发生在超大规模ASIC芯片上,TPU v8AX和Trainium3也从上一代的8-Hi堆栈升级到了12-Hi堆栈,而AMD的内存容量也从MI350到MI400提升了50%。
另一个日益紧张的趋势是客户对更高HBM引脚速度的需求。像NVIDIA这样的客户正致力于将HBM4的引脚速度提升至约11 Gb/s,而内存厂商要以可接受的良率实现这一目标仍然十分困难。尽管SK海力士和三星在满足这些规格方面取得了更大的进展,但美光在HBM4方面却落后了。我们在Rubin的文章以及早在今年1月发布的《加速器与HBM模型》中都讨论过这一趋势。随着客户对更高引脚速度的需求不断增长,而厂商却难以大规模交付,这种性能要求的不断攀升进一步限制了HBM的有效供应。
除了HBM之外,服务器DRAM的需求也在增强。NVIDIA下一代平台的AI服务器系统内存将大幅增长,VR NVL72机架的DDR内存容量将是Grace的三倍,Vera CPU的DDR内存容量为1536GB,而Grace CPU的DDR内存容量为512GB。我们预计,随着老旧的云服务器和企业服务器进入多年更新换代周期,2026年DRAM的整体位需求也将出现增长。与此同时,AI工作负载,特别是数据暂存、编排和强化学习,正在推动CPU需求,并随着时间的推移逐步提高CPU与GPU的比例。
在整个DRAM市场,人工智能和通用服务器的加速部署以及每个系统DRAM容量的不断增长,预计将推动服务器DRAM需求随时间推移而增长。未来两年,随着内存价格上涨,这种需求应该足以抵消智能手机、个人电脑和消费电子产品市场疲软的影响。
如果逻辑芯片产能腾出来用于加速器,客户将很快需要将注意力转向从内存供应商那里获得更多的HBM芯片。随着传统DDR DRAM价格飙升,DDR的利润率已经接近甚至超过了HBM供应收缩时的水平。过去,HBM优异的利润率曾是内存供应商扩大HBM晶圆产能的明确理由。然而,这种情况已经改变,至少在2026年之前,利润率的走势已经逆转。
为了激励更多HBM晶圆而非普通晶圆投入生产,客户可能需要支付高于当前合同价格的额外费用才能确保HBM的供应。这种趋势在2027年下一轮HBM定价谈判结束后可能会更加明显。如果内存供应商让步并将产能转向HBM,传统DDR DRAM的可用位供应量将进一步收紧。
另一个关键影响是将部分内存从消费级应用重新分配到服务器和HBM,我们自2025年下半年以来一直在强调这一动态。在我们最新的《内存模型》分析中,我们重点阐述了消费冲击对潜在内存重新分配的影响。在消费级设备出货量下降50%的极端情况下,将释放约553.9亿Gb的内存,相当于2026年DRAM总需求的约14%。在出货量下降25%的情况下,将释放约276.9亿Gb的内存,约占DRAM总需求的7%,以及今年HBM需求的近80%。
我们的基本预测仍然是消费级内存出货量将出现较为温和的10-15%的下滑。如果出货量减少10%,则大约会释放110.76亿Gb的容量,仅占DRAM总需求的约3%。我们认为,这种增量供应量不足以实质性地改变我们预期今年将出现的整体供需格局。
关键问题在于存储器供应商对消费疲软的准备程度,以及他们已做出多大程度的调整。我们认为存储器制造商对消费终端市场的疲软状况有着深刻的理解。例如,三星管理层曾多次强调消费疲软,我们相信其产能分配计划已经考虑到了出货量下降10-15%的情况。我们预计其他主要存储器供应商也会采取类似的策略。
下一篇:如何打造智能经济新形态





