来源:睿见Economy
由深圳市人民政府主办的第二十七届高交会于2025年11月14日-16日在深圳举行。作为高交会的重要论坛“中国高新技术论坛”于11月14日举办,论坛主题为:人工智能赋能未来产业发展”。思科大湾区(香港、澳门及华南区)总经理,大中华出海业务负责人封小韵在演讲中分享了对 AI 数据中心发展的最新洞察。她以一个形象的比喻开场:今天的 AI 数据中心就像非洲草原上的大型动物——体积巨大、消耗惊人,生存离不开“水源”和“食物”。而随着生成式 AI 的爆炸式增长,这一比喻正在成为现实。
以 GPT 大语言模型系列发展为例,2019—2025 年间模型参数增长约 3000 倍,GPU 数量增长 5000 倍,使得 AI 的“智力”不断跃升。 GPT-5 参数数万亿,训练规模需 5–10 万张 GPU,一个典型大型数据中心最多容纳 10 万张卡。这些能力背后依赖巨大的冷却、电力与土地空间,散热、能源与场地正在成为全球 AI 数据中心的三大瓶颈。
封小韵指出,十吉瓦级能耗AI 数据中心的能源需求远超传统认知。以深圳大亚湾核电站及核电基地的当前数吉瓦装机容量测算,连一个这样的 AI 数据中心都难以完全支撑,至少需要5个大亚湾核电站或者1.66个大亚湾核基地等量的供电能力。这意味着未来数据中心的选址,将更像大型动物迁徙——必须寻找水源、食物,即低电价、低密度、能源充裕的区域。
面对巨型 AI 集群的挑战,思科提出了“驯服这头AI DC大动物”的四大技术积木和新的DC拓展架构Scale across,突破传统Scale up, Scale out 结合DCI的瓶颈,实现DC的自由迁徙与优化分布:
第一,超大规模交换与路由平台。
思科多年深耕高性能网络,Nexus 9300 系列通过大规模 Scale-Out 架构,为 AI 集群提供超高带宽与低时延的网络底座,是构建万卡级算力的关键组件。
第二,Cisco Silicon One 统一芯片架构。
该架构覆盖交换机与路由器全场景。G 系列专注大规模横向扩展;P 2系列面向 AI 训练优化与数据中心互联(DCI)。其模块化与高度融合的设计可降低部署难度、缩短创新周期,并已成为业界最具可扩展性的网络芯片平台之一。
第三,光模块与硅光技术。
思科通过 400G 双向Bidi光模块保护客户现有光纤投资,并推出用于 AI 基础设施的 800G 硅光模块,具备高可靠性、低功耗与高密度特性。Acacia用于数据中心长距离互联的 800G ZR/ZR+ 已在国内头部 AI 平台落地,可覆盖 400G/800G/1.6T 全速率,与不同厂商网络设备互操作。在此基础上,思科还将液冷技术 直接集成到交换机内部。包括冷板液冷(将冷板嵌入交换机核心部件进行精准散热)以及沉浸式液冷(整机直接浸没于液体中),有效削减高密度网络设备的散热压力,进一步提升能效。
第四,网络自动化与弹性:Cisco + Splunk 打造“可观测的 AI 网络大脑”。
面对 AI 训练的高并发、低时延、网络的稳定性要求前所未有。思科将网络自动化、状态感知能力与 Splunk结合,为 AI 数据中心提供“实时态势感知 + 自动化处置”的能力:全栈可观测性:Splunk 可持续采集网络、GPU 集群、存储与应用的全域遥测,在单一界面呈现端到端运行状态,提前发现长尾时延、拥塞或异常流量。并且可实现自动化编排与自愈安全与弹性内建等。
封小韵特别强调,思科新发布的业界首款基于P200系列路由器200 路由器:实现跨域 Scale-Across 的关键枢纽。思科最新的 P200 路由器正在改变 AI 数据中心的网络架构范式。传统方式中,要实现 12.8 Pbps 的跨域互联,通常需要大型模块化路由器和成千上万个端口,架构复杂、成本高昂。思科P200 ASIC 则通过 Silicon One + 深度缓冲能力,使网络能够 从 Scale-Out 迈向 Scale-Across:
在训练流量暴增时吸收突发,避免丢包导致的训练重跑
以固定槽位机箱组合方式替代超大路由集群,大幅降低成本与部署难度
实现多个 AI DC园区、多个计算域之间的“跨域算力互联”,让企业构建真正的 跨区域、可调度、可扩展的 AI 基础设施
P200 架构使 AI 数据中心不仅能“做大”,还能“连起来”、能跨域协同,为下一代 AI 超级集群奠定网络底座
封小韵表示,AI 数据中心过去依赖三种扩展方式,而思科通过“四大技术积木”与创新的 Scale-Across 跨域扩展 架构,正在为下一代 AI 基础设施提供更具能源效率、可扩展性和可观测性的全新路径。“希望用非洲草原大型动物的比喻,让大家看到 AI 数据中心未来发展的另一种思考方式。”她总结道。