算力芯片产业链
算力产业包括上游的芯片及元器件,中游的服务器与网络设备,下游的数据中心及云服务三部分构成,在其中的各个板块,均已有国产厂商深度布局。上游涵盖 GPU/NPU/ASIC/CPU、存储与高速互联器件及 EDA/IP,其关键作用是决定单卡算力、能效与指令集兼容性,构成技术壁垒与长期价值锚;中游由 AI 服务器整机、互联交换、光模块与冷却 / 电源等网络设备构成,负责将芯片能力工程化为可部署的算力单元,决定集群效率、部署密度与单位算力 TCO;下游则为 IDC 与超大云厂商,承担算力的规模化承载、运维与商业变现,直接把需求侧的模型训练与海量在线推理转化为对上游与中游的资本支出与采购订单。
1. 上游:AI 芯片技术实现跨越式跃迁,引领国产算力堆栈升级
国产算力堆栈的核心支柱为 AI 加速芯片,其作为算力供给的底层核心硬件,直接决定算力输出效率、成本控制与自主可控水平,是支撑国产算力体系自主化的 “压舱石”。国产算力芯片在性能指标上正实现历史性突破,与国际先进产品的技术差距显著缩小。在 AI 芯片自主化攻坚进程中,华为、海光信息、寒武纪、昆仑芯、摩尔线程等本土高性能 AI 芯片龙头企业,成为突破核心技术、构建自主可控算力体系的关键载体。
其中,华为昇腾 2025Q1 推出的 910C 作为国产高端训练芯片的代表产品,采用中芯国际 7nm(N+2)工艺,并基于 chiplet 架构实现约数百亿量级晶体管集成。在 FP16 精度下,该芯片的单卡理论峰值算力可达 800TFLOPS,性能已接近英伟达于 2022 年推出的 H100 芯片的 80%。昇腾 910C 配置 64GB HBM2e 大容量高带宽内存,带宽可达数 TB/s 量级,并通过通富微电提供的 2.5D 封装技术提升 HBM 堆叠良率至高位区间,有助于增强系统供应稳定性。整体上,昇腾 910 系列已形成国产高端训练芯片的 “标杆级” 性能水平。
除华为之外,其他国产厂商亦在高端芯片领域加速突破。寒武纪思元 590 芯片采用 7nm 工艺,在百度 “文心一言” 项目中获得应用,FP32 单精度算力达到 80TFLOPS,峰值性能远超英伟达 2020 年推出的 A100 芯片(19.5TFLOPS)。海光信息的 CPU 产品凭借其独有的 x86 成熟生态的兼容,在以自主可控为目标的国产算力市场中已占据重要地位,同时 DCU 系列基于通用 GPGPU 架构,在政府、金融、电信等行业实现规模化部署。得益于其 CPU+DCU 双产品线和成熟的生态兼容性,海光信息已成为国产算力在政企市场的核心供给。摩尔线程则聚焦通用 GPU 赛道,其基于第四代平湖 GPU 架构的 MTTS5000 芯片,FP32 算力达 32TFLOPS,超越英伟达 A100 芯片,展现出国产 GPU 在通用渲染与并行计算领域的跨代提升。截至 2025 年底,摩尔线程已形成覆盖 AI 智算、数字孪生、科学计算等领域的多元产品矩阵,新一代架构产品进入研发阶段,同步推进高性能 GPU 与智算集群前沿技术预研。
值得重视的是国产化供应链架构的变化。江原科技在 2025 年宣布量产基于国产 12nm 工艺的全流程自主 AI 芯片,其设计、代工、封测均基于国内供应链体系完成。尽管 12nm 与国际先进制程存在代差,该事件依然具有标志性意义:首次验证了 AI 大算力芯片全国产业链在工程与量产层面的可行性,为未来建立更高国产化率的供应体系提供了路径探索。整体来看,过去一年国产算力芯片的演进已从 “单点突破” 进入 “体系能力增强” 阶段。
2. 中游:服务器超节点技术突破,国产替代加速推进
服务器作为 AI 加速芯片的 “算力载体与系统协同中枢”,是承接芯片性能、实现算力规模化输出的关键支柱。国产服务器在超节点技术方面实现了从 “技术可行” 到 “商业可用” 的关键跨越,国产厂商与国际巨头的技术差距正在快速缩小。中科曙光在 2025 年 11 月发布的全球首个单机柜级 640 卡超节点 scaleX640,通过系统级重构实现了革命性突破。该产品采用 “一拖二” 高密架构设计,单机柜算力密度提升 20 倍,HBM 总容量达 81.9TB,较华为昇腾 384 提升 1.7 倍。更重要的是,scaleX640 基于 AI 计算开放架构设计,硬件层面适配多品牌加速卡,软件层面兼容主流计算生态,构建了 “软硬协同、生态兼容” 的国产智算新范式。
华为在超节点技术方面同样取得重要进展。华为推出的 CloudMatrix384 超节点集群,通过高效的自研互联架构将数百颗国产芯片的能力整合,不仅成功训练出准万亿参数大模型,更在 DeepSeek 等模型的实际推理测试中,展现出媲美甚至部分超越英伟达 H100 集群的系统吞吐量与性能。
CloudMatrix384 超节点采用全对等互联架构,集成384颗昇腾910C和 192颗鲲鹏CPU,通过统一总线实现资源池化。系统级算力为英伟达 GB200 NVL72 的 1.7 倍,内存容量达 3.6 倍,内存带宽 2.1 倍。美国在 2025 年 5 月祭出更严厉的出口管制,新规首次将全球任何地方使用华为昇腾 910c 芯片的行为直接认定为违反其出口管制,旨在全球范围内孤立昇腾硬件、遏制其 CANN 生态发展。尽管面临全球封锁的风险,昇腾超节点已在中国电信等数据中心实现商用落地,并开始带动国内供应链发展。这标志着全球 AI 算力竞争已从单点芯片性能转向大规模系统效能、生态构建与产业链能力的全面对抗,华为的发展路径正重塑中美对立下的新算力格局。
阿里云在 2025 云栖大会上发布的磐久 AI Infra2.0 AL128 超节点服务器,采用面向下一代超大集群的服务架构,重构 GPU 间互连方式。该产品采用灵活的模块化、多维解耦系统架构,实现 CPU 节点与 GPU 节点解耦、GPU 节点与 Alink SW 节点解耦、算力节点与供电节点解耦,不仅兼容行业主流 CPU、GPU、Alink SW 芯片,还支持主力芯片独立演进、CPU 与 GPU 数量的灵活配比。总体来看,超节点技术已经成为弥补国产芯片单点性能差距、支撑算力规模化部署的核心系统级创新载体。
3. 下游:数据中心与云服务迎来发展机遇
国内数据中心市场呈现 “运营商主导、第三方崛起” 的分层扩张态势。三大运营商凭借基础设施优势占据近六成市场份额,第三方运营商份额从 2021 年的 39.3% 提升至 2023 年的 43.1%,头部企业规模优势持续凸显。“东数西算” 工程的推进加速了算力规模化布局,八大枢纽节点总算力突破 215EFLOPS,智能算力占比超 80%,甘肃庆阳、贵州等核心集群已形成万架机架级部署能力,带动社会投资超万亿元。同时 AI 算力需求的爆发推动智算中心的建设,据中商产业研究院预测,2025 年中国智算中心市场规模将达到 1356 亿元。国产替代政策下,数据中心硬件自主化率持续提升,为服务器等国产产业链提供广阔落地场景,同时余热回收、可再生能源利用等绿色技术成为新的增长引擎。
国内云服务市场形成阿里云、华为云、腾讯云 “三分天下” 的稳定格局,合计占据61%以上市场份额,阿里云以33%-34%的占比领跑。云服务市场 2025 年保持超 20% 的增速,AI 相关收入连续多季度实现三位数增长,运营商云快速崛起,天翼云、移动云跻身 IaaS 市场前五,其中天翼云政务云市占率达 28%,成为政企市场重要力量。从技术能力看,中国云服务商在某些领域已经达到国际先进水平,特别是在 AI 和大数据处理方面,阿里云的 Qwen3-Max 模型拥有逾一万亿参数,腾讯云的混元模型系列在多个 benchmark 测试中取得优异成绩,华为云在全栈 AI 能力上的长期投入开始显现成效,助推国产算力能力跻身全球前列。
2026年被视为中国国产算力产业链实现闭环发展的关键转折之年,产业将从早期的 “单点技术突破” 迈向 “体系化能力增强” 的规模化阶段。在外部技术限制和内部 AI 需求井喷的 “双引擎” 驱动下,产业链上游(芯片设计与制造)、中游(服务器与网络)和下游(软件生态与应用)的国产化进程将全面加速,形成相互支持、自我强化的内循环体系。
算芯片制造及市场分图片
1. 国产算力芯片产能大幅提升
尽管国产芯片设计在性能上实现跨越式跃迁,但目前限制本地 AI 芯片产量的最大瓶颈在于受限的本地先进逻辑产能。据 Berstein Research 预测,中国先进逻辑制造能力将在 2025-2028 年快速扩容,2026 年制造端的核心价值正是通过产能提升逐步缓解这一瓶颈,为 AI 芯片供应构建闭环的物质基础。这一产能增长也将直接作用于 AI 芯片市场:一方面推动本地 AI 芯片产量持续攀升,另一方面带动芯片平均销售价格逐步下行,有效改善 AI 芯片的供应与成本问题。
从中国AI芯片的本地供需与市场格局来看,需求与供应的双向扩容中,本土产能的崛起尤为突出。2023-2028年,AI芯片总需求从11亿美元增长至88 亿美元,但本地供应的增幅更显著,供应对需求的覆盖比例也从 20% 逐步提升。尽管2026-2027年仍处于供应瓶颈阶段,但2028年覆盖比例将达到 104%,实现供需平衡甚至小幅过剩。这一变化背后是本土供应商的快速替代:2023年本土供应商在国内AI芯片市场的销售额占比仅19%,而到2028年国产占比将升至93%,2025-2028年本土AI芯片销售额的复合年增长率高达74%;反观全球供应商,其在华销售额的复合增长率则为-17%,本土供应链已逐步完成对海外供应商的市场替代,构建起自主可控的供应体系。
2. 国产算力优势将持续释放
2026年,国产算力的市场份额将实现历史性突破,华为与英伟达在中国 AI 芯片市场形成的双雄对峙格局将被彻底改写。根据Bernstein预测,英伟达在中国AI芯片市场的份额将从当前的40%暴跌至8%,而华为将占据50%的市场份额,AMD以12%位列第二,寒武纪以9%位列第三。这一剧烈的市场格局变化,直观反映出国产算力在技术、生态等维度优势的持续释放。
图片
算力芯片竞争格局及国产替代
图片
1. 竞争格局
英伟达处于全球GPU市场领先地位。英伟达(NVIDIA)总部位于美国加利福尼亚州,自1993年成立起就专注于GPU的设计开发,形成了强大的实力和竞争壁垒。根据泡泡网转载的 Jon Peddie Research 的报道,在PC(个人电脑)领域,2025年二季度英伟达独立显卡的市场份额达到94%,断崖式领先于AMD及其他厂商。随着大模型训练推理需求的兴起,英伟达凭借领先的GPU产品和生态在AI领域进一步称霸市场。
在数据中心GPU市场,英伟达一家独大且保持高速增长。据蓝鲸科技报导,在以 GPU 芯片为主导的 AI 数据中心市场,英伟达占据了 90% 以上的市场份额。在过去四个财季中,英伟达的总收入从 Q4FY25 的 393.3 亿美元上涨到 Q3FY26(截至 2025 年 10 月 26 日)的 570.1 亿美元,Q3 同比提升 62.5%。其中,数据中心业务收入从 355.8 亿美元提升至 512.2 亿美元,Q3 同比增长约 66.4%,是整体业务增长的核心驱动力。按季度划分,数据中心业务在总收入中的占比分别约为 90.5%、88.8%、87.9%、89.8%,显现了市场对于数据中心 GPU 产品有着强盛需求。此外,英伟达在数据中心方面仍有充足订单。公司首席财务官(CFO)科莱特・克雷斯(Colette Kress)披露了一组令人瞩目的数据:目前可见至 2026 年底,仅 Blackwell 和 Rubin 两大 AI 加速平台就将为公司带来约 5000 亿美元的可见收入。
图片
英伟达 GPU 产品 AI 智算性能不断革新,GB300 专为推理任务打造。A100 兼具大模型推理和训练性能,在此基础上,H 系列训练和推理计算性能均大幅提升,GB 系列进一步提升。据英伟达官网,GB200 的 LLM 推理性能是 H100 的 30 倍,训练性能是 H100 的 4 倍,此外还通过液冷式机柜设计使得节能效果是 H100 的 25 倍。英伟达 GB300 采用 NVIDIA Blackwell Ultra GPU,相较于 NVIDIA Blackwell GPU,其密集 FP4 Tensor 核心 FLOPS 高出 1.5 倍,注意力效能高出 2 倍,专为测试阶段扩展推理与 AI 推理任务而打造。
2. 国产替代
(1)美国多次修订出口规则管制范围,国产算力自主可控迫在眉睫
近年来,美国多次修订出口管制规则,旨在限制中国从美国进口先进的 AI 处理器用于人工智能的训练。虽然近日特朗普允许英伟达向中国出售 H200,但一方面更高阶 GB200、GB300 仍存限制,另一方面多次修订的出口管制范围也加强了国产 GPU 实现自主可控的紧迫程度。
(2)国家政府立足发展需求,高度支持国产算力产业发展
2025年8月,国务院出台《关于深入实施 “人工智能 +” 行动的意见》,其中提出 “应强化智能算力统筹,支持人工智能芯片攻坚创新与使能软件生态培育,加快超大规模智算集群技术突破和工程落地”。同月,在《电子信息制造业 2025-2026 年稳增长行动方案》中,两部门提出 “加强 CPU、高性能人工智能服务器、软硬件协同等攻关力度,开展人工智能芯片与大模型适应性测试。适度超前部署新型基础设施建设,提升各地已建基础设施运营管理水平,强化服务器、芯片和关键模块的兼容适配”,并从供应链政策支持、加强基础技术研究、促进国际合作、构筑人才队伍等角度为先进算力产业助力,继承发展了既往算力领域的积极政策。持续利好的政策为国产算力实现自主可控创造良好条件。






