世界上最漂亮的機房

  昨天,谷歌的母公司Alphabet正式取代蘋果,成為全球市值最高的公司。

  帶你認識最漂亮的機房

  眼看快過年了,估計大家沒心思看太專業的文章***關於這個文末有投票調查。。***,一起來欣賞下Google的號稱'全世界最漂亮的機房'吧。

  這是谷歌某個資料中心冷站的內部場景。整個房間管道林立,色彩斑斕。

  左側是大型冷水機組,右側是板式熱交換器,以便在室外溫度較低時候採用板換散熱實現水側節能。谷歌也非常重視資料中心的耗水問題,據他們估算,採用高效節能方式的資料中心每年可節約幾億加侖的飲用水。

  空調管道採用了谷歌企業標準色來區分不同管路的功能。例如,

  綠色——冷卻水回水管,

  黃色——冷卻水供水管,

  藍色——冷凍水供水管,

  深紅色和冷機側的粉紅色——冷凍水回水管,

  白色——消防管路,

  從而便於運維人員快速定位並查詢問題。

  從圖中還可以看出,有一些運營層面的小細節也考慮得非常周全。例如,管路屋頂等地方採用了很多的電動吊裝葫蘆鏈條,方便重型裝置的吊裝維護或更換;又例如,管路底部採用了中間凹兩邊凸的滾輪型支撐,這樣會減少管路振動和拉伸形變產生的物理應力;

  還有,樓層間的豎管採用了U型彎曲以便減少水溫變化和建築形變帶來的隱形損傷;冷機周邊地面也配備了應急排水口,等等。此外,在偌大的機房中,運營人員採用同樣運用了谷歌標準色的自行車來進行現場巡視。

  IT裝置同樣也採用五種顏色的網線,加上不同資料中心不同主題的裝修風格,都是資料中心顏色標識管理的典範。

  下圖為谷歌在美國俄克拉荷馬州的資料中心,整個機房在大量伺服器LED指示燈的閃爍下顯得非常整潔和夢幻。

  從這個整機房的俯檢視看,資料中心採用了廠房式大開間框架結構。封閉熱通道的一排排機櫃構成龐大微模組陣列,機房頂部是供電網路橋架和消防管路。冷氣從地板輸送,用塑料簾隔開熱空氣。用布簾密封可以隔絕冷熱氣流的混合,減少冷量的浪費。

  谷歌採用了創新的空調置頂散熱方式。整個機房大環境作為冷通道提供冷量給伺服器吸入,加熱後的熱空氣在封閉通道內上升,然後通過熱通道頂部的空調盤管制冷,並被幾個煙囪狀導風管和大散熱風扇重新迴圈回外部冷環境。

  這種空調置頂佈局雖然存在著盤管漏水、更換維護較難等風險,並對產品質量和施工工藝要求非常高,但其氣流組織較為合理。例如熱氣流自動上升,冷氣流自動下沉,從而減少風扇的功耗,且機房大冷池環境可以作為緩衝池,減少區域性空調故障引發的熱保護。

  谷歌微模組的整個熱通道溫度非常高,像個大烤箱,溫度可以高達49攝氏度,以至於一旦必須進去維護,那麼伺服器必須關掉才行。採用熱通道封閉可以提供一個較為舒適的現場運營環境,熱量被限制在熱通道中,並被冷凍水帶走。

  上圖還顯示了谷歌微模組熱通道內部的一些細節。例如,熱通道寬度大約是兩塊標準地板磚,裡邊安裝的是機櫃頂部空調盤管的安裝支架和加固支撐,地板底下的快接軟管提供冷凍水給熱通道頂部的空調盤管。從冷凍水管的數量和密度上看,頂部空調盤管也做了模組化冗餘設計,是個很不錯的設計。

  谷歌在供電和製冷等方面總能打破常規。例如,他們有些機房沒有采用商用的傳統UPS和精密空調方案。下圖是谷歌創新的“三明治”伺服器,谷歌還為此申請了專利。“三明治”伺服器採用的是液冷散熱片,上下兩個伺服器靠此散熱片內部的冷凍水以及迴圈風扇帶走熱量。

  谷歌“三明治”伺服器示意圖

  當然,也不是谷歌的所有機房都採用這些創新的散熱方案,例如一些POD小機房和網路裝置間就採用傳統的散熱方案。下圖展示的網路裝置間採用了傳統的風管上送風或者地板下送風方式散熱,雙路冗餘高可靠供電。不過,在這些傳統機房模組中谷歌都採用了簡單低成本的塑料簾子隔離冷熱通道方案,避免了冷熱氣流直接混合短路,也大大提高了能源利用效率。

  谷歌資料中心平均PUE為1.13,如果忽略變電站、電源轉換以及發電裝置,PUE將降低到1.06。

  PUE是Power Usage Effectiveness***電源使用效率***的簡寫,是評價資料中心能源效率的指標,是資料中心消耗的所有能源與IT負載使用的能源之比。PUE值已成為國際上比較通行的資料中心電力使用效率的衡量指標。PUE越接近於1,表示資料中心的綠色化程度越高。