该报告由易观分析发布,聚焦 2025 年中国 AI 算力基础设施的发展现状、核心驱动因素、关键趋势及利益相关方建议,系统梳理了算力基建从 “规模扩张” 向 “质效提升” 的演进路径,核心内容如下:
一、中国 AI 算力基础设施现状总览
1. 国家战略与规模地位
顶层布局:以 “东数西算” 工程为核心,在京津冀、长三角等 8 地建设国家算力枢纽,规划 10 大数据中心集群,配套《数字中国建设规划》《算力基础设施高质量发展行动计划》等政策,构建 “全国一张网” 格局。
规模领先:截至 2024 年,全国在用算力中心机架规模达 830 万标准机架,算力总规模超 280 EFLOPS(全球第二);其中智能算力 90 EFLOPS,占比超 30%,较 2019 年增长近 13 倍(年均增速约 90%)。
区域协同:东部聚焦低时延业务(工业互联、远程医疗),西部依托能源优势承接后台计算(存储备份),形成 “核心枢纽引领 + 区域梯队协同” 的多层算力网络。
2. 发展环境:政策、技术、产业、商业化共振
政策:国家层面夯实顶层设计,地方(北京、上海、广东等)明确智算建设目标(如上海 2027 年智算规模 200 EFLOPS),聚焦自主创新与绿色节能。
技术:AI 芯片(GPU/NPU)性能突破,液冷 / 浸没式冷却技术降低 PUE(先进智算中心 PUE≤1.2),高速互联与软件定义技术实现算力池化调度。
产业:生成式 AI 引爆需求,大模型训练 / 推理带动算力消耗激增;应用从互联网(占比超 50%)向金融、制造、医疗等传统行业渗透,垂直场景多点开花。
商业化:算力供给从 “重资产投入” 转向 “平台化服务 + 生态协同”,按需租赁、算力交易等模式降低中小企业门槛,头部服务商筑壁垒,中小服务商聚焦特色领域。
二、AI 算力基础设施发展进程与核心驱动
1. 发展阶段(基于易观 AMC 模型)
探索期(~2019):聚焦数据中心与云计算,AI 算力服务于基础机器学习。
市场启动期(2020-2022):GPT3 发布(千亿级参数),Scaling law 受关注,疫情加速线上化催生算力需求。
高速发展期(2023-2028):2023 年为 “AI 算力增长元年”,生成式 AI 推动算力需求从 “企业级” 向 “超大规模集群” 跃迁,国产化、绿色化成为主流。
应用成熟期(2029~):算力基础设施化,“算力即服务(CaaS)” 普及,市场寻求量子计算等颠覆式创新。
2. 五大核心驱动因素
大模型迭代:参数量从十亿级跃升至万亿级,中国大模型数量占全球 36%,模型规模与能力增长带动算力指数级需求。
政策与资本联动:“东数西算” 撬动超 2000 亿元投资,国资主导的基金聚焦 AI 芯片、算力服务,推动产业链协同。
产业应用规模化:互联网、金融、制造等行业智能化升级,工业、能源等场景化智算需求成为新动能。
长尾算力释放:分布式调度技术整合闲置 GPU/TPU,形成 “云上算力池”,提升设备利用率(如高校、科研院所闲置节点对外服务)。
云化调度技术:容器化、弹性伸缩、标准化计费(如 “1 度算力” 计量)实现 “算力像水电一样即取即用”,扩大用户群体。
三、2025 年 AI 算力基础设施六大关键趋势
1. 趋势一:自主可控算力加速突破
战略定位:算力自主上升至国家战略,先进地区明确国产化指标(如上海 2027 年自主可控算力占比超 70%),摆脱对进口高端芯片依赖。
技术落地:国产 AI 芯片(华为昇腾、寒武纪思元、壁仞 BR100)性能逼近国际水平,适配智算云平台;服务器、操作系统、中间件推进全栈国产化替代。
示范项目:上海临港建设万卡规模国产智算集群,采用国产 GPU 与液冷技术,为全国提供实践标杆。
2. 趋势二:绿色算力成硬性约束
双碳驱动:新建大型数据中心 PUE 需≤1.3,超大型智算中心以 PUE≤1.2 为标准,能效与碳排放纳入项目审批核心指标。
技术路径:
散热:液冷(散热效率提升 40%)、浸没式冷却(节能 30%+)替代风冷;
能源:西部枢纽接入水电 / 风电 / 光伏,东部通过绿电交易购清洁电力,部分智算园区清洁能源占比超 50%;
芯片:新一代国产 AI 芯片单位算力能耗较上代降低 25%。
标准构建:推进 PUE、碳排放因子、可再生能源利用率等指标标准化,指导绿色技术投资。
3. 趋势三:跨区域算力互联深化
“东数西算” 进阶:增加国家级骨干直联点(现有 26 个),扩展骨干网带宽,实现算力跨区域自由流动。
统一调度:推动算力网络标准(算力度量、接口协议)与国家 / 区域调度平台建设,阿里云、华为云、九章云极等平台参与支撑,确保跨域设施兼容。
时空互济:西部富余绿色算力 “外溢” 支援东部,夜间反向利用东部低谷算力,优化全国算力供需(如宁夏算力支援东部 AI 企业)。
4. 趋势四:智算云平台 “双轨并行”
综合型平台:由云服务商 / 科技龙头打造(如腾讯、阿里云、商汤 AIDC),提供 “数据处理 - 模型训练 - 推理部署 - 运维” 全链条服务,集成多模态模型与标准 API,降低 AI 研发门槛。
垂直型平台:行业龙头与算力服务商联合搭建,聚焦特定领域(医疗 MaaS、金融 AI、工业互联网),内置行业知识库与专用算法,适配场景化需求。
生态协同:综合平台输出通用能力,垂直平台反哺行业最佳实践,多层次满足大型企业、中小企业、开发者的多元需求。
5. 趋势五:LLM + 知识库催生新需求
知识增强模型:通过 RAG(检索增强生成)技术,将知识图谱、企业数据库融入大模型,提升回答准确性与可解释性,部署此类模型所需智算能力为基础 LLM 的 2~3 倍。
算力长尾释放:各行业构建专属知识库,非专业工程师对碎片、即买即用的算力需求激增,推动垂直领域智算中心建设(如金融、医疗知识库训练)。
6. 趋势六:算力云化加速普惠
CaaS 模式普及:2024 年智能算力服务市场增速 80%,云厂商推出 GPU 租赁、算力包等产品,企业可 “削峰填谷”(高峰租高端 GPU,低谷释放资源)。
分散资源整合:整合高校、科研院所闲置节点,通过标准化计费(如 “1 度算力”)实现公平交易,提升全社会算力利用率。
门槛降低:Serverless 架构(如九章智算云)支持企业无需自建机房,直接获取高端算力;云边端协同延伸至边缘 / 终端,解决工业、金融场景的安全隔离与带宽瓶颈。
四、利益相关方建议
1. 政府层面
加强区域算力网络规划,推进全国统一调度平台建设,对绿色算力、自主技术研发给予资金 / 税收优惠;
开放政务、医疗等公共数据,释放算力需求。
2. 企业层面(供需双方)
供给方:打造高品质算力云平台,开发行业定制化方案(如医疗、制造专属算力服务);
需求方:将算力纳入战略规划,优先通过云租赁替代自建,降低成本。
3. 园区与枢纽层面
打造智算产业集群,配套绿色能源、高速网络、制冷设施;
创新运营模式(算力先租后买、按效果付费),与技术领先平台合作,避免资源闲置。
4. 生态层面
联合芯片、服务器、云平台企业攻关关键技术,共享成果;
推进高校 - 企业合作,培养 “智算工程师” 等专业人才;
组建产业联盟制定算力标准,避免内卷,构建 “芯 - 云 - 用” 紧密衔接的价值链。