
今天分享的是:2025年整机柜服务器产业研究报告
报告共计:63页
整机柜服务器:AI时代数据中心的“算力新基建”,绿色高效成行业关键词
随着人工智能技术的快速发展,无论是大模型训练、云计算还是大数据处理,全球对算力的需求正呈爆发式增长。根据行业研究数据,全球AI计算市场规模预计从2022年的195亿美元增长到2026年的346.6亿美元,中国市场同样势头迅猛,2025年AI服务器市场规模有望达到103.4亿美元。在算力需求持续攀升的背景下,作为算力核心载体的数据中心正在加速升级,而整机柜服务器凭借高密部署、绿色节能、快速交付等优势,逐渐成为新型数据中心的“主力军”。
从政策导向来看,国内近年来持续推动数据中心向绿色低碳、集约高效方向发展。从“东数西算”工程到“双碳”目标,一系列政策对数据中心的电能利用效率(PUE,即数据中心总能耗与IT设备能耗的比值,越接近1越节能)提出严格要求:国家明确2025年底新建大型数据中心PUE需降至1.25以内,枢纽节点项目更是不得高于1.2;北京、上海、贵州等地也出台地方政策,鼓励采用液冷等先进节能技术。整机柜服务器恰好契合这一趋势,其集中供电、高效散热的设计,能大幅降低数据中心能耗,成为政策落地的重要技术支撑。
展开剩余81%整机柜服务器的核心优势,首先体现在“高密度”上。随着AI大模型参数规模突破万亿,单GPU芯片功耗已超过1000W,单机柜功率密度最高达140kW,传统服务器难以承载如此集中的算力需求。而整机柜服务器通过优化机柜内部空间设计,支持19英寸或21英寸宽的节点部署,单机柜可容纳数十个计算节点,部分AI整机柜甚至能集成72个GPU,有效解决了“算力密度不足”的痛点。例如百度曾在顺义数据中心创造8小时交付1万台整机柜服务器节点的纪录,大幅提升了数据中心的算力部署效率。
绿色节能则是整机柜服务器的另一大亮点。当前主流整机柜普遍采用液冷散热技术,分为冷板式和浸没式两种方案,相比传统风冷,液冷能将服务器核心部件的热量快速带走,使PUE降至1.1以下,部分方案甚至能低至1.05。以工商银行为例,其早在2019年就试点液冷整机柜服务器,通过冷板式方案将单机柜部署密度提升至80个计算节点,同时满足了金融业务对高可靠性和低能耗的双重需求。此外,整机柜的集中供电设计也进一步降低能耗——从早期的12V直流供电升级到48V方案,减少了供电线路损耗,电源转换效率最高可达97%,远超传统分散供电模式。
快速交付与便捷运维,也是整机柜服务器受互联网大厂和云服务商青睐的重要原因。传统服务器需要在数据中心现场完成上架、布线、调试等流程,3000台设备往往需要12人团队连续工作一个月;而整机柜服务器采用“工厂预装+一体化交付”模式,在工厂就完成服务器、交换机、供电模块的集成,运到现场后只需简单对接就能投入使用,交付效率提升8-10倍。国内头部互联网企业每年服务器需求量达20-60万台,这种交付模式有效缓解了“算力扩容赶不上业务增长”的难题。
从应用场景来看,整机柜服务器已从互联网行业向多领域延伸。在互联网领域,百度、阿里、腾讯等头部企业早年间就通过天蝎项目、方升项目推动整机柜标准化,用于搜索、云存储等业务;在金融领域,工商银行、建设银行等机构通过液冷整机柜解决高密度算力下的散热和节能问题;在通信领域,中国移动从2013年就开始研究整机柜技术,如今已实现从风冷到液冷的全形态覆盖,支撑5G基站和移动云业务的发展。而在AI和高性能计算领域,以英伟达GB200 NVL72为代表的AI整机柜,通过柜内GPU全互连设计,满足了万亿参数大模型训练对低时延、高带宽的需求,成为智算中心的核心设备。
国内整机柜服务器产业已形成多元化竞争格局,主流厂商纷纷推出各具特色的产品。浪潮信息2024年推出的ORS6000整机柜,兼容19/21英寸节点和液冷、风冷两种散热方案,液冷散热比例达90%,能降低数据中心能耗25%以上;华为首创“水、电、网三总线盲插”架构,实现全柜无线缆部署,运维效率提升3倍;宁畅B8000整机柜则采用54V集中供电,支持100%全液冷设计,PUE低至1.08。此外,超聚变、中科可控、联想等厂商也在通算、智算细分领域布局,形成了覆盖不同场景的产品矩阵。
不过,行业当前仍面临标准不统一的挑战——不同厂商、不同用户主导的技术规范存在差异,影响了整机柜服务器的规模化推广。为此,行业正推动通用技术标准的制定,覆盖AI、云计算、高性能计算等场景,同时引入第三方认证提升产品质量。未来,随着液冷技术普及、ICT资源池化推进,整机柜服务器将在更多行业落地,为数字经济发展提供更坚实的算力支撑。
以下为报告节选内容
报告共计: 63页
中小未来圈,你需要的资料,我这里都有!
发布于:广东省蚂蚁配资提示:文章来自网络,不代表本站观点。