超大规模AI数据中心崛起
2026-01-15 14:27
收藏

超大规模数据中心正以革命性架构为AI模型提供强大动力,成为科技竞赛的新焦点。如今,在农田与工业园区中,专为训练和运行超大规模大语言模型设计的超级计算机建筑群拔地而起。这些数据中心配备专用芯片、冷却系统及独立能源供应,将数十万图形处理单元(GPU)捆绑成集群,如英伟达H100芯片,擅长并行处理海量数据。光纤电缆如神经系统般连接芯片,实现闪电通信,而庞大存储系统则持续为芯片输送数据。OpenAI、谷歌、亚马逊、微软和Meta等科技巨头,以及中国、美国、中东等国家政府,均向此类基础设施投入巨额资金。

然而,惊人算力背后是高昂的能源成本。密集排列的芯片产生极高热量,传统空调无法满足冷却需求,需采用冷水板或冷却液浴技术,未来甚至可能浸入海水冷却。最大型数据中心耗电量或超一吉瓦,相当于整座城市用电量,其中超半数电力来自化石燃料,可再生能源仅占四分之一多一点。面对能源压力,部分AI企业开始探索核能,谷歌更设想在太空建立太阳能数据中心。

数据中心疯狂扩建,源于AI扩展定律及技术应用的爆炸性需求。但这一趋势正给社区带来能源账单飙升、水资源短缺、噪音污染及空气污染等问题,公众或将为此买单。如何在推动AI发展的同时,平衡能源消耗与环境保护,成为亟待解决的课题。

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com