廠商踴躍、數據中心觀望 液冷距離爆發(fā)還差一場風
發(fā)布日期:2022-11-08 瀏覽次數:773
近年來,液冷技術在數據中心領域的遭遇可以用一個詞形容:又冷又熱。
技術冷:作為冷卻介質,液體的冷卻效能遠遠高于空氣,所以在冷卻效果上比風冷更“冷”一籌。
關注熱:隨著技術發(fā)展與產業(yè)環(huán)境、政策變化,液冷再度受到行業(yè)關注,且熱度持續(xù)增加。
產品熱:數據中心產業(yè)上游的設備廠商對液冷熱情高漲,相關產品與研發(fā)層出不窮,產業(yè)下游的云廠商們也開展了不同程度的技術探索。
應用冷:產業(yè)中游的數據中心對液冷態(tài)度謹慎,尚無數據中心企業(yè)宣布液冷規(guī)模化部署計劃。
液冷為何突然在數據中心領域熱起來?產業(yè)“冷”“熱”差別的原因何在?液冷技術在數據中心的應用離爆發(fā)還有多久?筆者試為你梳理解析這些問題,并給出個人判斷。
液冷非一日之寒 計算愈來愈熱
展開討論前,先明確液冷的定義:液冷是使用液體作為熱量傳輸的媒介,為發(fā)熱部件換熱帶走熱量,傳遞到遠處再進行冷卻,實現散熱的技術。
相較于風冷以空氣為冷卻媒介,通過風扇和壓縮制冷,液體的比熱容遠高于空氣,單位體積熱容量是風冷的1000倍以上,熱量傳導效率更高。
液冷與風冷相關性能對比
這一原理很早就被發(fā)現,并被最早應用于工業(yè)、航天領域的散熱,至今被使用的“冷板”一詞據說就來源于阿波羅登月計劃,將液冷用于宇航員體溫控制。
在數據中心領域,液冷始終與計算產生的熱量緊緊聯系在一起。
萌芽:
上世紀60~90年代,數據中心還被稱為“機房”,采用集成電路的大型主機進行高速數據處理時有過熱宕機的風險,以IBM為首的廠商研發(fā)了液冷系統應用在大型主機,并取得顯著效果,其中就包括著名的IBM360/91型計算機。
遇冷:
計算技術的迭代,使得液冷隨后“遇冷”。
上世紀末,隨著超大規(guī)模集成電路取代晶體管,在計算效率提升的同時,計算機和芯片產生的功耗、熱量斷崖式下跌,風冷的散熱效率足以滿足。在成本、安全顧慮、部署簡易性等因素影響下,風冷超越液冷成為數據中心的主流散熱技術。
興起:
高密度計算興起,液冷再受青睞。
后摩爾定律時代,芯片功耗與服務器功耗逐步上升,數據中心單機柜功率密度也不斷增大, 2020年數據中心平均機柜功率已增長至8.5KW,傳統風冷散熱在換熱性能及能耗上面臨瓶頸。業(yè)內普遍認為,傳統風冷已經無法滿足高密度計算的發(fā)展需求,正如中國信通院云大所所長何寶宏表示“再大的風也吹不冷滾燙的‘芯’了”。
因此,液冷于近年來再度進入數據中心視野,逐漸受到業(yè)界關注。
液冷數據中心:更好散熱 更低能耗
時移世易,面對當前計算技術與散熱需求,在數據中心應用液冷技術的優(yōu)勢正日漸顯現。
首先是散熱效率。據綠色網格研究,每機柜 15-25 kW的功率密度是“未使用背板換熱器等其他制冷設備”的風冷解決方案上限,而液冷系統可以支持的機柜功率是兩倍以上,甚至可以擴展到單機架超100kw。液冷可以支持數據中心高功率的散熱,提高換熱效率,且能減少服務器散熱熱點,有效抑制元件內部溫度的瞬間提升,延長芯片壽命。
傳統高耗能風冷數據中心各部分能耗占比
其次節(jié)能降耗。與傳統風冷技術相比,液冷系統耗電量方面約比風冷系統節(jié)省電量30\%-50\%。要知道,在傳統數據中心,制冷系統占數據中心整體能耗的40\%以上。數據中心使用液冷可有效降低能耗,提高能源利用效率,降低PUE值和電力成本。
第三,提高計算密度,減少風扇震動噪音。相較于傳統風冷,液冷數據中心去掉了空調系統和對應的風冷基礎設施,也不需要設置冷暖通道,節(jié)省了大量空間可以容納更多服務器,提高計算密度和可銷售空間。不同液冷方式可減少或避免風扇的使用,有效降低震動和機房噪音,而震動會直接影響IT系統的穩(wěn)定性和壽命。
綜合來看,數據中心液冷技術,既契合了計算的未來高功率趨勢,滿足服務器芯片散熱需求,又能實現數據中心節(jié)能降耗,正愈發(fā)受到數據中心產業(yè)的廣泛關注。
產品與技術創(chuàng)新不斷 上游設備廠商踴躍
近些年,很多企業(yè)展開液冷在數據中心應用的研發(fā),形成了多種部署方式和產品。
部署最多、服務器不直接接觸液體,不需要對數據中心機房進行重新改造的冷板式液冷。
將發(fā)熱器件完全浸沒在冷卻液中,散熱效率更高,實施難度更大需要對機房其他系統改造的浸沒式液冷。
別具一格,將冷卻液直接噴淋到發(fā)熱器件表面進行熱交換的噴淋式液冷。
不同液冷方式、代表產品及廠商,筆者一年前曾撰文《泡澡、淋浴、冷氣片——數據中心液冷模式與應用一覽》。
阿里云在IDCC大會現場展示的浸沒式液冷模塊
時隔一年,液冷在數據中心的熱度更盛,各大設備廠商紛紛發(fā)力,有的首度推出液冷產品,有的將液冷上升為發(fā)展戰(zhàn)略,上游產品、解決方案頻出,各有側重:
去年12月的“第十六屆中國IDC產業(yè)年度大典”上,專注浸沒式液冷進行多年自主研發(fā)的阿里云正式向業(yè)界發(fā)布行業(yè)首款單相浸沒液冷解決方案——磐久液冷一體機系列Immersion DC 1000。據阿里云數據,該解決方案可在全球任何氣象區(qū)域部署并可輕松實現極致PUE1.09。
2022年初,浪潮信息將“All in液冷”寫入公司戰(zhàn)略,全棧布局液冷,實現了全產品線支持冷板式液冷。浪潮信息表示,可以實現液冷從核心部件到整體解決方案全覆蓋,提供液冷數據中心從規(guī)劃咨詢到設計施工的全生命周期交付。
2022年初,寧暢推出了新系列液冷服務器,該系列包含高密度、通用機架等多品類產品,可適用于眾多IT應用場景。隨后在液冷服務器基礎上,推出全系統定制液冷方案,實現從需求梳理、架構設計、機房部署到運維服務的全系統定制。
2022年4月,新華三發(fā)布新一代冷板式液冷系統解決方案。該液冷系統由H3C UniServer R4900LC G5 液冷服務器、42U通用機柜、分布式CDU等部件組成,通過了中國計量科學研究中心的能源計量認證,夏季模式PUE可達1.047,整機全年平均PUE1.042。
今年下半年,科華數據陸續(xù)發(fā)布多款數據中心液冷產品:科華數能S3液冷儲能系統、針對邊緣計算中心和中小型中心節(jié)能改造的抽屜式水-風液冷CDU、板式液冷微模塊數據中心。該微模塊數據中心冷循環(huán)系統采用機柜式CDU-300KW,散熱量可達300KW。
……
可以看出,過去一年中,數據中心液冷產品更加豐富,技術進一步加強,商業(yè)化進程加速。
顧慮幾重 數據中心觀望
如果只是一篇普通文章,寫到這里,得出“數據中心液冷形勢一片大好”的結論就足夠了。
然而,筆者梳理過近兩年來數據中心液冷領域的動作后發(fā)現,大部分來自產業(yè)上游的設備廠商,服務器、CDU(數據中心液冷分配裝置)、TANK(機柜液冷柜)、CPU/GPU、冷卻液、整體解決方案,尤以服務器廠商為甚。產業(yè)下游,也僅有以阿里云為首的幾家云廠商,基于自身業(yè)務需求和技術先進性等因素,進行液冷研發(fā)與部署。
這其中,少了最不可或缺的產業(yè)中游——數據中心企業(yè)的身影。
據筆者了解,相較于上游廠商的踴躍態(tài)勢,僅個別企業(yè)按客戶需求提供了機房改造部署,大部分數據中心對液冷仍持觀望態(tài)度:認可液冷的散熱與節(jié)能優(yōu)勢,會主動了解液冷產品、技術細節(jié),在內部做學習或小型探索,但無公開的大規(guī)模液冷部署行動和計劃。
筆者收集了數據中心對液冷技術的諸多顧慮:
可靠性。數據中心第一要務是保障業(yè)務連續(xù)性,浸沒和噴淋式會直接接觸電子器件,是否會出現器件腐蝕情況,包括冷板式在內,冷卻液泄露怎么辦,服務器功能和使用壽命是否會受影響,液冷技術的可靠性是數據中心、用戶的最大擔憂。
部署難度。液冷不僅僅改變制冷系統,數據中心的服務器、網絡設備、監(jiān)控系統等都要隨之改變,新建數據中心從設計到建設、調試運維都與此前不同,此前項目經驗等無法復用,周期長難度大。存量數據中心的承重、管路等設計因循傳統機架,如果進行液冷部署改造,同樣會帶來新增成本、部署難度問題。
運維與售后。無論冷板、浸沒還是噴淋,液體進入到IT機柜內部,給建設、測試和運維帶來新的挑戰(zhàn),目前缺乏成熟的運維經驗和標準化要求。此外,有數據中心提出,液冷的服務器等產品售后維修政策也尚不成熟。成本。雖然液冷能耗低所以數據中心OpEx降低,但前期CapEx明顯高于風冷數據中心。哪怕忽視液冷服務器、CDU等設備的價格,單冷卻液價格也并非小數目,阿里云就曾對外表示“使用的冷卻液價格堪比茅臺”。除去上述疑慮,數據中心對液冷“謹慎”的最根本原因,在于液冷的市場接受度——數據中心的互聯網、電商、視頻、金融等用戶大多尚不接受液冷。液冷主流成必然爆發(fā)尚欠一陣風。
提高新技術的接受度是一個漫長的過程,如今政策為液冷按下了快進鍵。由于用電量大,社會普遍將數據中心定義為高耗能產業(yè),隨著“2030年碳達峰、2060年碳中和” 戰(zhàn)略目標提出,數據中心面臨的能耗限制愈來愈嚴。2021年7月,工信部印發(fā)的《新型數據中心發(fā)展三年行動計劃(2021-2023年)》要求:“到2023年底,新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下?!?021年12月,發(fā)改委等四部門發(fā)布的《貫徹落實碳達峰碳中和目標要求推動數據中心和 5G 等新型基礎設施綠色高質量發(fā)展實施方案》表示“新建大型、超大型數據中心電能利用效率不高于 1.3,逐步對電能利用效率超過 1.5 的數據中心進行節(jié)能降碳改造?!?span style="background-image: initial; background-position: initial; background-size: initial; background-repeat: initial; background-attachment: initial; background-origin: initial; background-clip: initial;">中央及各級主管部門政策對數據中心PUE考核提出更嚴要求,各地能評指標持續(xù)收緊,數據中心面臨前所未有的能耗和散熱挑戰(zhàn)。多位數據中心企業(yè)高管向筆者表示,上述政策的出臺,使得“液冷成為必然”,嚴格政策限制下“數據中心要想合規(guī),PUE值再繼續(xù)往下降,只能靠液冷了。”過去一年以來,雙碳政策助推下,液冷技術的研發(fā)投入加大、產品和技術成熟度不斷提高,液冷在數據中心的發(fā)展前景毋庸置疑。但要想實現液冷在數據中心的爆發(fā),不僅僅欠缺全產業(yè)的共同努力,欠缺更多行業(yè)標準的制定與完善,還差一場風,一場擁有最強驅動力的風——市場需求。從萌芽到如今再度興起,液冷的發(fā)展始終源于計算的散熱。如今政策、技術條件都已經具備,當下一波海量數據計算爆發(fā)式增長,帶動市場對數據中心的需求爆發(fā)時,液冷才將真正迎來在數據中心的爆發(fā)。這個時間或許是兩年后、四年后,又或許,很快來臨。
| 文章來源:中國IDC圈
【專欄】IDC市場研究報告
重要通知
原文轉載自廠商踴躍、數據中心觀望 液冷距離爆發(fā)還差一場風 (qq.com)
免責聲明:文章來源網絡;本站致力于好文推送,基于分享目的轉載,尊重原創(chuàng),版權歸原作者所有,如有侵權,請聯系我們予以刪除,資料僅供私下交流學習使用。
- 上一篇:合肥市政協新材料產學研服務委員工作室
- 下一篇:我國新能源汽車具備國際競爭力