Facebook向記者們開放了他們位于俄勒岡州Prineville的數據中心。他們要向記者們展示在這個環保設施中有什么技術創新和更新。Facebook對能源的應用效率異常的重視,并且他們也一直追求者極高的能源應用效率。連樓道里的燈都是在只有人通過的情況下才會亮。
Facebook數據中心的通道是與空氣流動方向垂直的,數據中心經理KenPatchett介紹說在這里最重要的就是空氣,至少是空氣的溫度。Facebook絕不可能把能源單單消耗在冷卻空氣上,在談及Facebook制冷系統時,Ken介紹到,空氣從建筑的一邊進入,被吹進旁邊的過濾網。如果溫度太低,由服務器產生的熱空氣就會被加入進來進行升溫,然后把水被重新噴入到空氣中提升濕度,然后這些被處理過的冷空氣最終通過管道回到服務器房間。
冷空氣通道
過濾網
氣化室
冷空氣傳送管道
在服務器間,記者們見到了Facebook自制的服務器OpenCompute和軟件以及一些傳統的服務器。相較之下,傳統服務器通道的溫度至少比OpenCompute服務器通道的溫度高出5℃。Prineville數據中心經理Ken介紹說:“在封閉的熱通道里,我們的工作人員在進行操作時會很有難度。”
OpenCompute則是Facebook開發的服務器項目,重新進行設計的服務器優勢在哪里,讓我們跟Ken一起去了解。
對傳統服務器來說,如果一個UPS壞了或者電源部件壞了,整個數據中心就癱瘓了,而對OpenCompute來說,只是某個部分不能繼續使用了。另外,Facebook的員工在維修傳統服務器時,必須將服務器拿出來用工具拆開后才可以修理,而OpenCompute則采用了通用電源插座,維修時直接通過滑軌拉出來實現在線維修。
在線維修
目前Facebook已經把他們的服務器連接速度從1G升級為了10G,到目前為止,Facebook的Prineville數據中心的平均能源應用效率值為1.08,然而PUE值定義者美國國家環境保護局認為這一數值能達到1.5就已經很不錯了。Facebook對他們自己所做的一起感到驕傲,目前正打算將舊金山灣區的數據中心全部關閉,而建立這種在世界上都非常受歡迎的新型設施。這個工程的主建筑經理說這是數據中心發展的趨勢,對能源的使用要有謹慎的態度,他希望這種趨勢能夠一直延伸下去。
“在2、3年前,我們注重的是冗余性,而今天我們注重的則是出現問題時的彈性,”Ken說道。同時,Facebook設施運營主任TomFurlong表示“對冗余性的追求使我們又加入了其他設備,比如發電機、UPS、冷卻系統,這些設備都需要維護,不但在出現故障的時候需要花錢維護,同時他們還需要能源來工作,這也是對提高安全性的一個錯誤認識,我們的概念則不同,這樣的設備欲少反而越好。”
在Facebook新建造的數據中心里將使用不同的系統,這個系統將更便宜,且操作相對簡單,例如空氣將通過水冷設施對數據中心進行冷卻。這全都歸功于Facebook對數據中心設計理念的實驗,從而給Facebook更強的信心依靠其OpenCompute架構。