作為高交會的重要論壇“中國高新技術論壇”于11月14日舉辦,論壇主題為:人工智能賦能未來產業發展”。思科大灣區(香港、澳門及華南區)總經理,大中華出海業務負責人封小韻在演講中分享了對 AI 數據中心發展的最新洞察。她以一個形象的比喻開場:今天的 AI 數據中心就像非洲草原上的大型動物——體積巨大、消耗驚人,生存離不開“水源”和“食物”。而隨著生成式 AI 的爆炸式增長,這一比喻正在成為現實。

以 GPT 大語言模型系列發展為例,2019—2025 年間模型參數增長約 3000 倍,GPU 數量增長 5000 倍,使得 AI 的“智力”不斷躍升。 GPT-5 參數數萬億,訓練規模需 5–10 萬張 GPU,一個典型大型數據中心最多容納 10 萬張卡。這些能力背后依賴巨大的冷卻、電力與土地空間,散熱、能源與場地正在成為全球 AI 數據中心的三大瓶頸。
封小韻指出,十吉瓦級能耗AI 數據中心的能源需求遠超傳統認知。以深圳大亞灣核電站及核電基地的當前數吉瓦裝機容量測算,連一個這樣的 AI 數據中心都難以完全支撐,至少需要5個大亞灣核電站或者1.66個大亞灣核基地等量的供電能力。這意味著未來數據中心的選址,將更像大型動物遷徙——必須尋找水源、食物,即低電價、低密度、能源充裕的區域。
面對巨型 AI 集群的挑戰,思科提出了“馴服這頭AI DC大動物”的四大技術積木和新的DC拓展架構Scale across,突破傳統Scale up, Scale out 結合DCI的瓶頸,實現DC的自由遷徙與優化分布:
第一,超大規模交換與路由平臺。
思科多年深耕高性能網絡,Nexus 9300 系列通過大規模 Scale-Out 架構,為 AI 集群提供超高帶寬與低時延的網絡底座,是構建萬卡級算力的關鍵組件。
第二,Cisco Silicon One 統一芯片架構。
該架構覆蓋交換機與路由器全場景。G 系列專注大規模橫向擴展;P 2系列面向 AI 訓練優化與數據中心互聯(DCI)。其模塊化與高度融合的設計可降低部署難度、縮短創新周期,并已成為業界最具可擴展性的網絡芯片平臺之一。
第三,光模塊與硅光技術。
思科通過 400G 雙向Bidi光模塊保護客戶現有光纖投資,并推出用于 AI 基礎設施的 800G 硅光模塊,具備高可靠性、低功耗與高密度特性。Acacia用于數據中心長距離互聯的 800G ZR/ZR+ 已在國內頭部 AI 平臺落地,可覆蓋 400G/800G/1.6T 全速率,與不同廠商網絡設備互操作。在此基礎上,思科還將液冷技術 直接集成到交換機內部。包括冷板液冷(將冷板嵌入交換機核心部件進行精準散熱)以及沉浸式液冷(整機直接浸沒于液體中),有效削減高密度網絡設備的散熱壓力,進一步提升能效。
第四,網絡自動化與彈性:Cisco + Splunk 打造“可觀測的 AI 網絡大腦”。
面對 AI 訓練的高并發、低時延、網絡的穩定性要求前所未有。思科將網絡自動化、狀態感知能力與 Splunk結合,為 AI 數據中心提供“實時態勢感知 + 自動化處置”的能力:全棧可觀測性:Splunk 可持續采集網絡、GPU 集群、存儲與應用的全域遙測,在單一界面呈現端到端運行狀態,提前發現長尾時延、擁塞或異常流量。并且可實現自動化編排與自愈安全與彈性內建等。