数学模型分析和预测:液冷服务器何时会成为主流?
发布于 2022-06-01 12:39
使用风冷服务器解决方案,IDC设计需要支持多高的机架功率密度?
服务器性能也在提高,但是一个系列芯片有那么多款,有高性能版,有低功耗节能版,也有主流版本,公司的业务不一样,选择哪款芯片对服务器的功耗差异不同。那什么时候的服务器要用液冷,什么时候的服务器要用风冷呢?
服务器芯片工艺也在提高,算力性能/Watt提高的同时,会不会随着工艺(10nm/7nm/5nm/4nm....)成熟以及新架构(如ARM等),导致单颗芯片功耗不太上涨,反而会下降呢?
除了芯片配置,服务器也有多种类型,例如1U,2U,4U,还有半U模块式,刀片服务器(市场占比低)等,那么如何选取服务器类型,也影响制冷方式?
除了CPU有多种选择,近几年因为计算场景细分,还出现TPU,GPU(例如英伟达的AI芯片)运算,服务器设计变成一个更加复杂的系统架构工程,芯片如何选型,组合和应用,如何影响服务器的散热方式变革?
芯片为什么需要散热?
图1 - 超频大赛选手使用液氮
芯片的散热物理原理
图2 - 芯片结构和内部集成的散热片
被动式散热翅片;
散热翅片 + 一个风扇;
多个散热翅片 + 多个风扇;
图3 - 多种桌面PC的CPU散热器方式

数学模型——预测液冷服务器何时会成为IDC主流

C是电容量;
V是工作电压;
f是工作频率;
图4 - CPU和GPU在不同工艺上集成的晶体管数量趋势
与此同时,从历年CPU和GPU发布的热功耗设计值(简称TDP, Thermal Design Power),是会不断攀升,如图5所示。
图5 - CPU和GPU的TDP趋势 (来源:Alibaba OCP公开演讲)
Up to 350W processor TDP for high performance workloads in a 2U air cooled chassis, up to 400W processor TDP with liquid-cooled versions —— Intel的服务器设计和CPU散热方案选择
https://www.intel.cn/content/www/cn/zh/products/docs/servers/server-boards/server-board-s9200wk-brief.html
图6 - 数学模型架构
图7 - TDP功耗值预测
图8 - 液冷服务器应用年份敏感性分析

回过头来看,这个数学模型预测的结果,对于液冷服务器规模应用的年代,2026年又好,抑或2027年都好,甚至2031年,这些测算年份离2022年初超过3年了,确定性有多高都有很大波动率。
大家需要理解的是,这类模型,有点类似二级市场的证券分析师对股票估值的做法,都是基于过往业绩,假设一定复合增长率下,测算未来12个月每股价值范围区间。数学建模去解释一些现象和预测未来,显著特点是非标准化:问题不标准,答案不唯一。
难道摩尔定律也是公式推导的嘛?所以,这个液冷测算的数学模型,计算超过2~3年以后的事情,对现实未必有多少指导意义,但最起码,模型预测结果给了很好的提示——除非使用高性能计算HPC使用高端CPU,否则大部分用户近2~3年都不会规模使用液冷服务器方案。也就是说,液冷服务器的大时代还需要几年的发育期,我们可以持续观望和。
对于最终用户而言,目前如何选型和使用CPU,TPU或GPU,以及未来应用对硬件资源需求,选择合适的参数,建立属于企业的模型测算,这才是重要思考方向。然后基于预测结果,企业预算是否与此匹配,业务性能需求与此匹配,最后是液冷服务器相应的制冷解决方案,以及IDC是否能够支持等系列问题。
视频号
本文来自网络或网友投稿,如有侵犯您的权益,请发邮件至:aisoutu@outlook.com 我们将第一时间删除。
相关素材