2025年液冷数据中心占比将达24%

电力能耗已成为数据中心未来最大挑战,半导体设计、电信大厂及云端服务业者使用的大型云端机房,预估3年内将有4分之1比例使用液冷,液冷服务器市场规模突破500亿美元,省电跟减碳让整体数据中心营运成本大幅下滑,疯抢高价绿电背后,巨头们正拥抱液冷散热方案。

半导体大厂必用的EDA(Electronic Design Automation)电子设计自动化工作流程,必须使用大量的数据中心储存及运算力跑EDA软件,芯片设计业者为降低EDA费用,偏好超高频但低核心数处理器以降低EDA软件授权成本,而如何针对这些处理器散热,节省电费,更是半导体业者关心焦点。

根据调研机构CCID预测,服务器液冷散热方案在2019年占有率约两成,市场规模超过146亿美元,到2025年液冷普及度将提高至24%,液冷服务器产值超过500亿美元。

气冷为主流但液冷省电势力正抬头

不过,目前云端机房的主流散热技术仍为「气冷」,但气冷越来越难应付英特尔(Intel)、超威(AMD)、辉达(NVIDIA)耗电翻倍的次世代CPU及GPU,高耗电意味高碳排,并带来高电费,若为减碳买绿电则代价更为昂贵,如何兼顾高算力跟低碳,已成数据中心案主最大考验。

Supermicro(美超威)是一线服务器品牌商,正大力拥抱液冷方案。美超威主管透露,次世代数据中心一台(1U)服务器耗能将达1500~2000W,一座机柜机上看80~100KW(42~48U),但一台冷气空调能解40KW热,未来若坚持气冷散热,数据中心内很可能出现「冷气比服务器还多」的局面,由于空调耗电约占数据中心3成电力,电费自然难以下降。

故减碳前,业者往往先朝节电下手。美超威主管分享四大秘诀:一、使用钛金等级效率电源供应器(能源效率96%),而非业界的白金等级。二、利用导风罩及特殊风扇风流设计,降低5~10%耗能。三、开发高密度多节点服务器,比方四台1U服务器耗能1450W,但若把四颗处理器放在一台2U 4 Node的机台中,共享风扇跟电源供应器,总耗能可以降至1300W,节省10~15%能耗。四、则是导入液冷散热方案,由于不用风扇,自然就省电。

业者也补充,若能设计出「耐热」服务器,譬如能承受35度温度的服务器,则只要CPU跟GPU使用冷板,将热带到热交换机由冷却水塔的水带走热,其他服务器元件用气冷,但不用开冷气,更能节电。

“多数数据中心早已是水冷,冷气都是用冰水主机,而不是用冷媒。”Supermicro主管透露数据中心导入液冷很容易,机房采用混和散热或液冷散热,只要连空调主机水管即可。

浸没式液体挑战多,氟化物气体危害大

液冷又分水冷板及浸没式两大类,水冷板现在仍是液冷主力方案,业者粗估,不用气冷(冰水空调主机及风扇)就能省四至六成的电力,至于浸没式液冷方案散热效果更好,未来若GPU越来越热,也将成为不得不选择的方案,但介电液体的选择在3M宣布退出氟化物液体供应后,将出现变数。

「根据经验值,服务器在1KW以下能耗,用单相碳氢化合物(油脂类)液体就可以解热,但若1~2KW则需要用到单相氟化物液体,2KW能耗则需要双相浸没式氟化物液体。」美超威主管分享,单相是全程介电液为液态,双相浸没式液冷则是液体转气体的解热方案,散热效率不易控制,为控制气压所需空间较大,且若氟化气体逸散会影响环境甚剧。

浸没式液冷服务器是将服务器整个泡入液体中,热传到液体上,再用帮浦把热液抽送到热交换机,透过跟冷却水塔的冷水交换带走热。目前单相浸没式方案仍是主流,油脂类液体仍是业者首选,但浸没式技术仍有很多挑战,比方介电液跟各零件的化学反映需要3~5年长期检测,未来每一世代CPU材质也稍有不同,服务器业者必须跟时间赛跑,不断测试新材质。

也因此,根据调研机构预测,液冷服务器到2025年将占整体数据中心散热方案24%,但水冷板(Cold Plate)占59%主导性地位,而被质疑较多的浸没式液冷方案,占比在3年后将因技术逐渐成熟占比提升至41%,减少耗电及提高数据中心运算密度,已是半导体及云端巨头成本决战场。

编辑:芯智讯-林子   来源:technews

0

付费内容

查看我的付费内容