阿里巴巴新招节能 陆若全面采用年省1座三峡大坝发电量
电子商务要靠资料中心大量运算,消耗电量惊人,例如大陆今年推估资料中心用电量将突破2000亿度,超过三峡大坝全年发电量874亿度2倍有余,但陆电商龙头阿里巴巴推出为伺服器「泡澡」新技术,今年可能将是电商兴起至今最环保「双11」购物节,单日预估少用20万度电,专家还指出,若全大陆资料中心都用一样技术,每年可省下1座三峡大坝发电量。
资料中心包括资讯科技设备、冷却系统、配电系统,均须24小时运转,每颗GPU(图形处理器)满载运转时会升温至摄氏85度,每颗CPU(中央处理器)满载运转也可达摄氏60至70度,若伺服器要维持能再摄氏18至27度适宜运转温度,资讯中心都必须配置冷却系统,否则机房可能只需1分钟就可由摄氏20度加热到50度,而改善冷却系统就成为省电最大窍门。
随着AI(人工智慧)、云端、大数据、物联网等需要高性能计算的趋势,未来不论GPU或CPU,平均消耗功率上看400瓦、即相当于现在最先进GPU的峰值瞬间消耗功率,也大有可能,因此触发在这些领域相当积极的阿里巴巴在2015年投入研发更节能的冷却系统,用来取代传统的风扇、空调。
阿里巴巴采用的方法原理非常简单,气体的比热容量较液体相差数千倍,因此为伺服器降温,他们从液体冷却(liquid cooling)着手,开发出浸没式液冷系统。想法虽然简单,技术上要克服困难却很多,冷却液必须绝缘又无腐蚀性,高温下也不会挥发有毒蒸气,
经过3年研发,浸泡式液冷系统伺服器才投入商用,所开发出冷却液是电子零件浸泡其中20年也不会损坏。这套系统将伺服器装入箱中,完全被冷却液浸没,冷却液吸收伺服器热能,经温度、流量控制后循环到自然冷却系统散热再流回,由于这种伺服器外箱长年封闭,冷却液年耗损不到1%。
这套系统PUE(电能使用效率,资料中心总用电除以资讯设备总用电,数字越接近1表示越接近除资讯设备本身以外没有其他用电)表现杰出。以阿里巴巴杭州资讯中心为例,48台伺服器、3台交换器都浸在约800公升、1.5吨冷却液中,整体PUE最低可达1.07,每年平均1.09,比起传统资料中心,省下电力够环西湖所有路灯点亮8年。
浸没式液冷系统伺服器还可以降低资料中心选址的局限,因为在这套系统前有效的降低冷却系统想法之一就是到高纬度或低气温地区设资料中心,例如阿里巴巴本身在张家口市、位于内蒙古高原的张北县启用的资料中心是采取气冷方法,最低PUE是1.25,年均1.13。
陆媒指出,阿里巴巴透过这种科技,已可将每10000笔交易耗电量控制在2度以内。2005年每10笔交易所耗电量就足以煮熟4颗鸡蛋,2015年降到1颗鸡蛋,今年可能连煮熟1颗鹌鹑蛋都有点勉强。
中国承诺在2060年达成碳中和,使阿里巴巴的这项技术更重要。据统计今年上半年网路数位服务用电量较去年同期激增71.6%,随着趋势发展可能只增不减。中国官方所提出2022年达成资料中心PUE标准是1.4以下,浸没式液冷伺服器现有标准远超过该目标,若全面普及节能减碳效果不言而喻。