智算中心AIDC产业链概况:AI新基建遍地开花,国产算力生态加速发展
发布时间:2025-06-13
来源:深企投研究
已被浏览:14 次

以大模型为代表的通用人工智能持续演进,机器学习、大数据分析等技术在金融、制造、汽车、医疗、交通运输等领域不断渗透,正加速推动算力产业结构变革。智算中心作为AI新基建呈现遍地开花势头,我国智能算力在总算力中所占的比重,预计将从2016年的3%提升至2025年的35%。产业链细分领域中,光模块领域国产企业已在全球占据主导地位,AI服务器整机、交换机、液冷系统国内市场以国产品牌为主。在卡脖子的 AI芯片方面,华为、寒武纪助力国产GPU突围。


智算中心概述

智算中心即智能计算中心(Artificial Intelligence Data Center, 简称AIDC),一般认为是在传统数据中心的基础上,基于GPU、TPU、FPGA等人工智能芯片及计算框架构建的人工智能基础设施,可以支撑大量数据处理和复杂模型训练。智算中心狭义上是智能算力的物理载体,是“机房+网络+GPU服务器+算力调度平台”的融合基础设施,是传统数据中心的增值性延伸。广义的智算中心是融合算力、数据、算法的新型基础设施,通过数据服务、算法模型服务加速大模型的商业化应用,推动AI产业化和产业AI化,是传统云的智能化升级。

智算中心的主要功能包括四个方面:1)数据存储与分析。智算中心具备大规模的数据存储能力,能够安全、可靠地存储海量的数据,包括结构化数据和非结构化数据,并利用强大的计算力,对数据进行快速处理和分析,提取有价值的信息。2)AI模型训练与优化。为人工智能模型的训练提供强大的计算支持,加速模型的收敛速度,提高训练效率。此外,通过对训练好的模型进行优化,能够提高模型的准确性和泛化能力。3)应用开发与创新支持。智算中心可提供丰富的开发平台和工具,支持开发者进行各种应用的开发,包括人工智能应用、大数据应用等,科研机构、企业等可在智算中心的基础上进行创新应用的探索和孵化。4)算力服务与共享。智算中心将算力资源以服务的形式提供给外部用户,包括科研机构、企业、高校等,满足他们对算力的临时或长期需求,进而实现算力资源在不同用户和应用之间的共享,提高算力资源的利用率。

智算中心产业链

智算中心产业链关键环节分为上游设施层、中游运营层和下游应用层。上游设施层包括基建施工、制冷系统、供配电系统、基础网络设施等基建环节,以及AI芯片、AI服务器、网络设备(光模块、交换机等)、存储设备、数据中心管理系统等IT基础架构环节。产业链中游参与者主要是云厂商、IDC(数据中心)服务商和专业智算服务供应商,凭借资源优势和技术优势搭建智算中心,为下游企业提供大模型训练及平台服务。产业链下游为各行业的人工智能应用需求,促进AI与各行各业深度融合,赋能产业数字化、智能化转型。

图片


图1  智算中心及算力产业链

资料来源:科智咨询等,深企投产业研究院整理。


智算中心基础设施一般包含供配电系统、不间断电源系统、终端配电系统、电源辅助系统、空调系统等五大系统,如下表所示。


表1  智算中心内部系统


图片


资料来源:深企投产业研究院整理。


智算中心内部设备主要包括IT设备和配套设备,IT设备涵盖连接器(光纤、光模块)、网络设备(交换机、路由器)、算力设备(服务器)、存储设备(存储器)等,配套设备包括供配电设备(UPS不间断电源、蓄电池、发电机、配电单元)、温控设备(冷源设备、机房空调、新风系统)等,如下表所示。


表2  数据中心内部设备


图片


资料来源:Jowan,中信证券,深企投产业研究院整理。


相较传统的数据中心产业链,智算中心产业链的参与方类型更广、环节更多、更加聚焦AI领域。基础设施层面,数据中心主要是土建、机电与网络配套,智算中心除此之外还涵盖IT硬件及软件平台;投建主体上,数据中心以电信运营商等为主,智算中心则增加了政府、AI企业等。运营服务层面,智算中心参与者除传统IDC服务商外,还包括专业智算服务提供商、AI框架和平台开发商等,为AI相关的算法研究、数据处理和分析、模型开发等技术环节提供AI服务器托管、算力租赁、云计算、数据集、算法等服务。应用赋能层面,智算中心更加聚焦模型训练、模型调优、智能制造、智慧交通、智慧医疗等与人工智能高度相关的场景及行业。


表3  数据中心产业链与智算中心产业链对比表


图片


资料来源:深企投产业研究院整理。


重点领域市场格局

(一)AI服务器

人工智能服务器市场保持快速增长。大模型兴起和生成式人工智能应用显著提升了对高性能计算资源的需求,人工智能服务器作为支撑这些复杂人工智能应用的核心基础设施,市场规模也持续扩大。根据IDC数据,2024年全球人工智能服务器市场规模预计为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元,其中生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。2024年中国人工智能服务器市场规模达到190亿美元、同比增长86.9%,2025年将达到259亿美元、同比增长36.2%,2028年将达到552亿美元。

图片


图2  2024-2028年中国AI服务器市场规模


资料来源:IDC《2025年中国人工智能计算力发展评估报告》,深企投产业研究院整理。。

整机市场以国产品牌为主导,头部企业优势明显。AI服务器是智算中心的核心组成部分,为人工智能的模型训练、推理、数据处理和分析等任务提供了强大的计算支持。我国AI服务器行业起步阶段主要依赖国外品牌的引入,随着国内厂商技术实力的增强与创新能力的提升,国产品牌逐渐崛起,对外资品牌实现了有效替代。

根据IDC数据,2024年中国加速服务器(以AI服务器为主体)市场规模达到221亿美元,同比增长134%,其中GPU服务器依然是主导地位,占比达到69%;同时ASIC 和 FPGA等非GPU加速服务器高速增长,占比超过30%。浪潮信息以绝对优势保持市场第一,凭借全栈AI服务器产品和成熟的生态合作(如与英伟达、AMD的适配),在互联网、金融等行业占据主导地位,在2024年中国加速服务器市场份额达到36.1%;宁畅信息通过定制化液冷服务器和边缘计算解决方案实现高速增长,尤其在生成式AI推理场景中表现突出,其市场份额较2023年提升约3个百分点,达到8.5%:新华三依托运营商和政企客户资源,在非GPU架构(如FPGA)加速服务器领域扩大布局,但受超云等新兴厂商冲击,增速略低于前两名,市场份额为8.0%;超聚变2024年AI服务器市场份额增长149%,加速服务器市场份额达到7.0%;华为昇腾系列加速服务器在非GPU市场占据主导地位,市场份额为6.4%;其他服务器厂商包括坤前、安擎、超云、联想、戴尔、HPE慧与科技等。

图片


图3  2024年中国加速服务器市场份额


资料来源:IDC,深企投产业研究院整理。

“液冷”有望成为服务器未来发展的主旋律。随着AI算力需求的持续高涨,基于AI发展的智算中心的电力功耗将不断高增,使得行业节能减排的需求强烈,同时随着服务器单机柜功率密度上升,数据中心作为新兴技术“大脑”,因数据与运算量剧增面临严峻散热挑战。由于液冷服务器具备散热快、能耗低等诸多显著优点,服务器市场规模有望迎来高增长。根据IDC数据,2024年中国液冷服务器市场表现亮眼,规模达到23.7亿美元,同比增长67.0%。市场占比前三的厂商分别是传统服务器厂商浪潮信息、超聚变和宁畅,占据了七成左右的市场份额。IDC预计,2023-2028年,中国液冷服务器市场年复合增长率将达到47.6%,2028年市场规模将达到102亿美元。

图片


图4  2024年中国液冷服务器市场份额

资料来源:IDC,深企投产业研究院整理。


(二)AI芯片

国际巨头占据主导地位,AI芯片进口占比约为70%。在智算中心中,AI芯片是AI服务器的核心计算部件,是算力的硬件基石。AI芯片按架构可分为GPU、FPGA、NPU和ASIC等,其中GPU占据AI芯片主导地位,根据《中国AI算力行业发展报告》,2024年上半年,GPU卡占据国内AI芯片出货量80%市场份额。英伟达、英特尔、AMD、高通等传统芯片厂商凭借在芯片领域的多年积累,在GPU和FPGA高端芯片领域基本处于垄断地位。英伟达2024全年对华AI芯片出口约171亿美金,仍占据中国AI芯片市场主要份额。从进出口市场份额看,根据IDC披露数据,2024年中国AI芯片出货量约270万颗,其中中国本土AI芯片品牌出货量超过82万颗,占比约为30%,进口AI芯片占比约70%。

华为寒武纪助力国产GPU突围,国内大厂加速自研ASIC进程。寒武纪及华为作为我国GPU主要供应商,近年持续迭代新品。华为推出昇腾910,可对标英伟达A100,并对比A800部分精度的算力有优势,同时推出AI开源计算框架MindSpore,支持用户进行AI开发,自英伟达A800禁售中国后,包括中国移动、百度、美团、科大讯飞等在内的中国企业正在转向以华为昇腾为代表的国产GPU方案,华为甚至一度成为英伟达公开点名的中国市场头号竞争对手。目前市面上主流的昇腾方案均采用了910B,而下一代910C也已量产,根据2025年4月10日华为云生态大会披露的信息,昇腾AI芯片性能已经超过了英伟达H100芯片。寒武纪提供云边端一体、训练推理融合等系列AI芯片产品及平台化基础系统软件,重点对推荐系统和大语言模型的训练推理等场景进行优化。此外,国内景嘉微在图形渲染GPU领域持续深耕;天数智芯、壁仞科技、登临科技等一批主打AI及高性能计算的GPGPU初创企业正加速涌入,但目前与英伟达在GPGPU上仍存在较大差距。除了通用服务器芯片外,国内大厂亦加速ASIC自研进程,已从2018年起陆续推出自研ASIC芯片。腾讯陆续推出沧海、紫霄、玄灵等自研高性能芯片,阿里巴巴也推出自研的服务器芯片含光800和倚天710,百度已推出昆仑芯1代和昆仑芯2代。


表4  国产AI芯片竞争格局


图片


资料来源:公开资料,浦银国际,深企投产业研究院整理。


DeepSeek有望推动推理需求加速释放,国产AI算力芯片或持续提升市场份额。2025年1月,DeepSeek开源推出大模型DeepSeek-R1,通过算法效率提升与硬件适配优化,降低训练成本与制程依赖,提供了在算力有限的条件下通过算法创新的技术突破路径与解决方案,有望推动推理需求加速释放。根据IDC数据,预计2028年,用于推理的Al芯片比例将提升至73%。在AI算力芯片进口受限的背景下,华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、寒武纪、云天励飞、燧原科技、昆仑芯等国产AI算力芯片厂商已完成适配DeepSeek,用于推理的AI算力芯片国产替代空间更为广阔,国产AI算力芯片有望持续提升市场份额。

图片


图5  2024-2028年中国AI服务器工作负载预测情况

资料来源:IDC,深企投产业研究院整理。


(三)交换机

国内交换机行业市场呈现双龙头格局。交换机是智算中心网络架构中的关键设备,用于连接各个AI服务器、存储设备以及其他网络设备,实现数据的交换和路由。IDC数据显示,2023年思科、华为、Arista、新华三、HPE等头部厂商合计占据全球超过八成的份额。国内市场方面,国产设备占据主导地位,海外交换机厂商在中国的市场份额加速缩小,2023年华为、新华三分别以36.4%和35.2%的份额遥遥领先其他厂商分别位居前两位,排名第三的锐捷占据12.4%的份额。

图片


图6  2023 年中国交换机市场竞争格局

资料来源:IDC,深企投产业研究院整理。


800G及更高速率交换机已逐步推广。据Dell'Oro Group预计,到2027年,近一半的数据中心交换机端口将由400Gbps及更高速度驱动。海外大模型厂商在2024年已开始大规模部署800G交换机用于训练。在国内大模型市场中,800G交换机在组网中已初现端倪。2023年华为面向全球发布首款800GE数据中心核心交换机—CloudEngine 16800-X系列,正式开启数据中心800GE时代,并应用于大模型训练中。星网锐捷旗下的锐捷网络800G交换机已实现小规模供货,逐步进入批量部署阶段;中兴通讯800G数据中心交换机已开始市场推广;新华三集团已于2024年10月宣布推出首款1.6T智算交换机H3C S98258C-G,该产品全面支持单端口1.6T转发速率。


表5  国内主要交换机厂商的代表产品


图片


资料来源:各公司公众号,国金证券,深企投产业研究院整理。


(四)光模块

我国光模块企业全球地位不断凸显。光模块是光电转换的核心组件,是确保AI芯片性能释放最大化的通信器件,近年来由于数据流量的爆发,行业规模快速发展。自2010年以来,全球光模块市场格局持续变动,中国厂商排名持续攀升,而多数日本和美国厂商已经退出市场。根据光通信行业研究机构Light Counting数据,光模块全球前10大企业中,中国企业数量从2010年的1家,增加到2016年2家、2018年3家、2019年4家、2020年6家,2022年以来保持在7家。2024年光模块全球前10的中国企业包括中际旭创(排名第1)、新易盛(排名第3)、华为(排名第4)、光迅科技(排名第6)、海信宽带(排名第7)、华工正源(排名第9)、索尔思光电(排名第10)。


表6  2010-2024年全球光模块市场竞争格局变化


图片

资料来源:Light Counting,深企投产业研究院整理。蓝色为中国企业。武汉电信器件为光迅科技前身。索尔思光电2022年被中资收购。。

传统光模块在带宽密度与能耗上面临瓶颈,CPO技术成为破局关键。CPO技术将光引擎与ASIC芯片封装集成,通过缩短电互连距离、提升光电协同效率,显著降低系统功耗,并支持更高带宽密度。CPO(光电共封装)技术的快速迭代正推动800G/1.6T光模块加速商用,为智算中心提供超低功耗、超高带宽的互联底座,为全球算力基建向200T/机架以上密度演进提供底层支撑。CPO技术正推动光模块从“可插拔”走向“芯片级融合”,亦为中国在光电半导体领域实现“换道超车”创造关键机遇。

硅光技术是CPO方案的主流选择,未来在高性能计算领域起到重要作用。硅光技术由于不需要气密封装,CMOS兼容更易与电芯片集成且硅光调制器和探测器均可支持56GBaud以上速率等因素成为CPO光引擎的主要方案。高性能计算方面,硅光技术有助于解决高性能计算平台中的功率问题和IO以及带宽密度的挑战。随着AI工作负载的复杂性和规模不断增长,GPU和其他处理单元之间需要更快、更高效的数据传输。相较于传统的电子互联,硅光技术可以在GPU、CPU和其他处理单元之间实现更高速、更低延迟的互连,从而提高效率和数据传输速度。目前,英特尔、思科、Inphi(被美满电子Marvell收购)为代表的美国企业占据了硅光芯片和模块出货量的大部分,国内中际旭创、熹联光芯、华工科技、新易盛等企业正在快速追赶,技术差距逐步缩小。


表7  硅光芯片/模块主要厂商梳理


图片


资料来源:36kr,集微咨询,华鑫证券,深企投产业研究院整理。


(五)液冷系统

为达国家能效目标要求,液冷技术的应用成为必然。由于AI服务器在运行过程中会产生大量的热量,需要有效的冷却系统来保证设备的稳定运行。风冷和液冷是目前主流冷却技术,分别通过空气和液体的热传递来实现降温效果。由于2020年国家宣布的双碳目标,政府对于数据中心的PUE(Power Usage Effectiveness,电源使用效率)考核趋向严格。2021年起,北、上、广、深PUE标准已降至1.4以下,部分地区已降至1.2以下。目前,国内传统风冷数据中心PUE约为1.5,温控系统能耗占总能耗约40%,在国家严格的PUE考核标准下,风冷系统已无法满足国家政策需求,数据中心急需降低温控系统能耗以满足国家政策。从PUE指标来看,液冷技术可以将PUE指标降至1.2以下,满足当前国家政策对绿色数据中心的要求。ICT research调研结果显示,2023年中国通用数据中心市场上液冷数据中心的渗透率接近10%,算力数据中心液冷技术渗透率接近85%,液冷技术在智算中心的应用远高于通用数据中心。

国内液冷市场集中,多家公司竞争并存。在2023年中国数据中心机房冷却市场(不包括冷板)中,英维克、Vertiv和华为各占据20%的市场份额,依米康和南京佳力图分别占有8%的市场份额,剩余25%的市场由其他公司占据。

图片


图7  2023年中国数据中心液冷竞争格局

资料来源:国家互联网信息办公室等,深企投产业研究院整理。


冷板式液冷在行业中成熟度最高,商用基础稳固。液冷通常分为直接式和间接式液冷,直接式液冷包括浸没式和喷淋式;间接式液冷也就是冷板式液冷,也是目前为止数据中心液冷和电信行业液冷等领域最为常用的液冷方式。冷板式液冷主要分为一次侧和二次侧。一次侧系统:主要由室外散热单元、一次侧水泵、定压补水装置和管路等部件构成。二次侧系统:主要由CDU冷量分配单元、机房分水管路和液冷机柜(含冷板、快接头和Manifold)等部件构成。一次侧主要位于机房外,二次侧位于机房内。冷板液冷设备的国内外主要厂商情况如下表所示。

图片


图8  液冷系统构成

资料来源:北京汉深流体技术,民生证券。

表8  冷板液冷核心产品供应商


图片


资料来源:网络,深企投产业研究院整理。


电话咨询
电话
0755-82790019
商务合作
游女士:
13538198876
单女士:
13430703969
项目选址
姚先生:
18689220514
微信咨询
深企投微信客服