關于數(shù)據(jù)中心業(yè)界偏向于優(yōu)選采用流體的方式進行相關設備的散熱的討論的歷史其實并不太長。幾十年來,整個數(shù)據(jù)中心業(yè)界基本上已經(jīng)形成了“數(shù)據(jù)中心沒有水”的這一理念,而隨后幾年的理念則是“液體是唯一的選擇”的理念。而在本文中,我們旨在拋磚引玉的提出關于數(shù)據(jù)中心在權衡液體冷卻與空氣冷卻時各自需要考慮的相關因素,并想要提醒廣大讀者諸君引起注意的是:空氣冷卻和液體冷卻比您所相信的其它競爭性的技術都更有效。
當數(shù)據(jù)中心的管理人員們被訪問到他們最想要數(shù)據(jù)中心進行哪些方面的改進,相信我們絕大多數(shù)人在看到:排名最靠前的前兩大選項分別是更高的能源效率和更好的冷卻/ HVAC系統(tǒng),可能并不會感到驚訝。然而,當要求同樣的受訪者們確定數(shù)據(jù)中心最有前途的新技術時,我們可能會驚訝的看到:液體冷卻與DCIM一起成為了他們的首選。有趣的是,今天只有極少數(shù)的數(shù)據(jù)中心實現(xiàn)了對于其空氣冷卻方式的全部能力的充分利用,由此使得空氣冷卻所帶來的效果可能顯然變得不那么明顯,而液體冷卻的擁護者們則可以宣稱該方法帶來了數(shù)據(jù)中心機架密度十倍的增加,甚至能夠使得冷卻操作的成本的降低了75-90%.
雖然與一般的空氣冷卻方案部署相比,特別是與大多數(shù)傳統(tǒng)的數(shù)據(jù)中心空間空氣冷卻方案相比,液體冷卻方案的這些優(yōu)點確實存在;但是當其與更充分地利用了數(shù)據(jù)中心業(yè)界最佳實踐方案的數(shù)據(jù)中心空氣冷卻方案相比,這些效率和密度方面的差距就顯得很小了。然而,液體冷卻當然也存在其它方面的益處,極其在機架密度和效率方面所帶來的能力,也就使得液體冷卻對于某些應用程序而言特別有吸引力。
液體冷卻的優(yōu)勢
自從大約10-12年前開始,具備支持極高密度的數(shù)據(jù)中心機架能力已然成為液體冷卻方案的一大差異化亮點,而這是在8kW被固定為數(shù)據(jù)中心空氣冷卻方案所普遍接受的最大機架閾值,并作為科學的氣流管理成熟之前。在那時,液體冷卻方案其實甚至不是真正的液體冷卻,其在今天被更精確地定義為緊密耦合的冷卻——基于機架行的冷卻和機架頂部的冷卻解決方案。由于更完整的氣流管理技術為每臺機架提供了20kW的路徑,甚至高達每機架接近30kW,因此液體冷卻的密度優(yōu)勢下降了一點。而最近的消息顯示,英特爾公司已經(jīng)運行一出每平方英尺1100瓦的空氣冷卻高密度數(shù)據(jù)中心幾年了,其機架密度高達43kW.這是否意味著液體冷卻已經(jīng)沒有密度優(yōu)勢了呢?并不盡然。首先,英特爾需要配置特殊的服務器和機架,以允許他們將43kW的計算打包到一款60U高度的機架中,以減少的占地面積,并在一個具有足夠高的天花板的舊芯片制造廠中建立數(shù)據(jù)中心,以適應大規(guī)模的配置供應并排出大量熱空氣。其次,直接接觸的液體冷卻解決方案現(xiàn)在可以有效地冷卻60kW的機架,并且還有80-100kW的解決方案可用,基本上其可以等待實際的芯片設置堆棧到該密度。CoolIT Systems公司的產(chǎn)品營銷副總裁Pat McGinn建議,企業(yè)客戶可以將這些配置都運用到其工作中。
但是,液體冷卻解決方案不應該用于高于30-40kW的高密度的位置,高于該密度直到80-100kW可以采用空氣冷卻的方案,這是可行的配置和部署方案。例如,如果數(shù)據(jù)中心空間對于空白空間和機械設備都是優(yōu)先的,則100kW的IT可以被打包裝入兩臺或三臺機架而不是四臺到十五臺機架,并且供應的水可以通過連接到建筑物內冷凍水環(huán)路返回側的熱交換器冷卻。這種液體冷卻方案可以用企業(yè)數(shù)據(jù)中心現(xiàn)場的路徑替代托管,而事實上,沒有用于數(shù)據(jù)中心的空間或機械設施。在這些情況下,密度成為了解決方案,而不是問題。
同樣,英特爾最新的生產(chǎn)數(shù)據(jù)中心實驗涉及到內置于熱通道遏制屋頂?shù)睦鋮s線圈。這些線圈被耦合到一個非常高效的絕熱冷卻機制,導致每年節(jié)省超過1億加侖的水與塔冷卻,并且使得所有商品化IT設備的密度達到1100瓦/平方英寸。
雖然這種絕熱冷卻系統(tǒng)的占地面積約占塔式和冷卻設備占地面積的3倍,但這一概念確實包括了適用于較小數(shù)據(jù)中心的路徑。由于英特爾在滿足其服務器入口溫度目標的同時,允許線圈的“冷卻”水達到80?F,這個相同的330kW線圈容量可以連接到建筑冷凍水回路的返回側,導致適度大小中等規(guī)模的數(shù)據(jù)中心的空氣冷卻PUE甚至能夠低于英特爾在其3MW機架行上看到的1.06.
其他注意事項
當評估液體冷卻與空氣冷卻的相對優(yōu)點時,可擴展性和靈活性也是考慮因素。Clustered Systems公司的首席執(zhí)行官Phil Hughes表示說,不需要定制建筑,也不需要“在遷移、添加或改變之前重新架構氣流”,因為液體冷卻的一些不太明顯的優(yōu)勢仍然可能影響總體所有權成本。
另一個考慮是部署在數(shù)據(jù)中心操作空間中的IT設備的相對同質性或異質性。作為一般的經(jīng)驗法則,規(guī)?;?jīng)濟將有利于具有更均勻的IT設備的液體冷卻解決方案。特別是如果需要一個相當定制化的項目來配置IT設備時,在每個主要熱源;或每個熱源和單個大型冷板之間的導體上使用單獨的冷板。這種差異的一個極端例子可能是具有機架級客戶的一處托管數(shù)據(jù)中心;與研究實驗室的數(shù)據(jù)中心,使用所有IT來運行某些型號的模擬,無論是新的芯片設計,星際天氣系統(tǒng),還是心血管系統(tǒng)。通過良好的氣流管理,空氣冷卻通常能夠更好地實現(xiàn)托管空間的異質性;而研究型數(shù)據(jù)中心可能是更合理的液體冷卻方案的候選者。
液體、空氣或混合解決方案?
最后,液體冷卻和空氣冷卻的一個子集,應該被認為是冷卻替代品的總體評估的一部分。對于空氣冷卻方案,部署具有非常緊密的氣流管理,結合某種形式的經(jīng)濟補助,并允許在更寬泛的ASHRAE TC9.9規(guī)定條件下,允許在服務器入口包絡范圍內操作,存在糟糕的空氣冷卻。而真正糟糕的空氣冷卻沒有站得住腳的理由。在液體冷卻方面,有通過液體消除所有設備熱量的系統(tǒng),有混合動力系統(tǒng)能夠通過液體冷卻消除大部分的熱量,然后需要一些空氣冷卻的來消除任何剩余熱量。從理論上說,似乎一套完全的液體冷卻解決方案要比一套液體冷卻和空氣冷卻混合解決方案在資本開支方面更有意義,但經(jīng)濟分析需要成為對基本項目盡職調查的一部分。
此外,有些情況下混合解決方案可能更有意義。例如,如果現(xiàn)有的數(shù)據(jù)中心嚴重不足以滿足IT需求的未來規(guī)劃,企業(yè)組織無需構建一處全新的數(shù)據(jù)中心以適應業(yè)務增長,而是可以在相同的占地面積條件下,將其現(xiàn)有的每平方英尺100瓦特的數(shù)據(jù)中心轉換為每平方英尺500瓦特,而無需增加任何機械設施。
另一種可能具有成本效益的混合解決方案可能是完全集成的產(chǎn)品,例如由集成后門熱交換器的返回水提供的冷板。如果該機架后門熱交換器需要其自己的機械設備,則其可能會有資本投資與一套完全的液體冷卻解決方案。然而,如果后門熱交換器本身在建筑物回水循環(huán)中操作,則該混合方法可能更有意義。值得認真考慮的最后一個因素是獲得預先設計的IT設備配置或您企業(yè)自己的工程訂單(engineered-to-order,ETO)IT合作的舒適區(qū)。
對PUE值的影響
對于一款特定應用程序的情況,最后需要注意評估空氣冷卻與液體冷卻的適宜性。如上所述,所有真正的經(jīng)濟效益需要從一個或多個程度進行評估,探索ASHRAE允許的溫度元素或真實的服務器OEM操作溫度規(guī)格的更寬的閾值。在這些條件下,PUE值不會是液體冷卻和空氣冷卻之間的差異的最終確定因素。當服務器入口空氣超過80?F時,在大多數(shù)情況下,服務器風扇將升高并且使得消耗的能量非線性增加。 能量增加進入PUE計算方程的除數(shù),并且將導致更高的能量消耗和更低的PUE值;而液體冷卻方案將消除或大大降低風扇能量元件,從而降低PUE除數(shù),并產(chǎn)生較高的PUE值,而總能量消耗則較低。這個警告并不一定意味著一種技術優(yōu)于另一種技術;其只是需要考慮所有其他變量的另一個因素。
結論
總之,一切方案都要比糟糕的空氣冷卻方案或沒有氣流管理的空氣冷卻方案要好。此時,液體冷卻對于50kW和更高的機架密度是必要的。然而,液體冷卻不應限于高密度應用程序,因為其可以幫助克服對空氣冷卻的各種現(xiàn)場約束。對空氣冷卻即將消亡的著名謠言的斷定還有點為時過早,英特爾公司43kW機架和和空氣側節(jié)能器的成功部署便是一個有力的證明。當空氣冷卻的數(shù)據(jù)中心可以實現(xiàn)PUE值小于1.1時,直接的經(jīng)濟效益不會永遠成為液體冷卻和空氣冷卻之間的顯著差異。不過,對數(shù)據(jù)中心、應用程序和IT設備變化的計劃進行充分評估的任務應包括其他差異化,包括對數(shù)據(jù)中心建筑的限制和數(shù)據(jù)中心使用壽命階段的揭示,以便選擇優(yōu)選路徑。
文章來源:機房專用空調huixinhengtong.cn