當有人提到“可持續發展”這個詞語的時候,第一個出現在你腦海里的肯定不會是數據中心。而實際上,這些有著龐大的計算機組、網絡架構以及存儲設備的大樓卻是典型的耗電大戶。原因就在于,為了保障這些設備正常運轉,必須要有一個巨型的冷卻系統來保證其一直在低溫狀態下運行。它們的配電系統會在這一制冷過程中損失近千瓦的電力。并且,為了保障設備不受突發狀況導致的停電所影響,這些大廈往往還需要配備有備用電池和柴油發電機。而很明顯,這兩者并不是什么清潔能源,會嚴重影響周圍的環境。
許多互聯網巨頭都在想辦法改善這一狀況——建設自己的數據中心。他們自己搭建自己的硬件系統,努力使得他們的數據中心更加環保。這樣做對他們來說最直觀的益處就是能夠降低運營成本,并且運轉起來相對也更加的便捷。很明顯,有一些公司在環保方面下的力度很大,其中一個典型例子就是Facebook。Facebook大量采用自己自家的技術來搭建綠色環保的數據中心,并且把這種經驗開放出來跟大家共享。Facebook最先進的阿爾圖納數據中心就采用了由廉價交換機組成的網狀連接交換架構來提升性能,Facebook稱之為下一代的數據中心——Data Center Fabric。這對于提升數據中心的網絡性能、降低成本以及提高能效起到了非常關鍵的作用。
所有這一切都開始于8年前,當時Facebook正在著手設計其位于Prineville的第一個數據中心。Facebook自那時開始,就已經聘用了專門負責可持續發展的董事Bill Weihl,他直接對Facebook的環保工作負責。在此期間,Facebook已經做了很長時間的實驗,來研究如何設計建立用可持續能源來供電的綠色數據中心。
冷存儲(cold storage)
如今,Facebook的數據庫中有數十億的圖片,而你肯定無法想像為了存儲這些圖片將會消耗掉多少電力。在2013年,Facebook的圖片存儲系統HayStack一共產生了1EB的數據流量。(1EB=1024PB;1PB=1024TB;1TB=1024GB)這個數字是非常驚人的。雖然這些圖片在大多數情況下在被分享幾周之后就很少再會被查看了,但是Facebook仍然需要保存他們,而且必須要確保即使是在硬盤出現故障的情況下也要保障圖片文件的完整性。
這就意味著Facebook需要在數據中心保存大量的數據,為了保證這一點就需要其提供大量的電力。而Facebook的工程師則巧妙的利用了“負瓦特”,開發了一個名叫"Cold Storage"的系統。Cold Storage能夠允許Facebook數據中心內超過一半的磁盤在任何時候關機,從而實現大幅降低功耗。現在,Facebook的存儲團隊正在考慮進一步節約能源,比如將老舊的圖像拷入藍光磁盤內。
目前Facebook已經在Prineville及 Forest 兩個中心建設了兩套cold storage系統。cold storage系統的每個服務器機柜可容納1.92 PB的數據。因此,在完全架設完畢的情況下,每一個數據中心可以存儲1EB的數據。而且Facebook在設計時還考慮到了未來。很多系統在規模擴大或者利用率上升時往往就會出現性能下降的問題,而Facebook的這套系統則從一開始設計時就考慮到了。Facebook的做法是每次增加容量時,都將軟件對現有數據進行再平衡。也就是說將原有數據分配到新的硬件上,并釋放之前用過的空間。這個過程并非實時進行,十分適合用于系統的逐步移植。這樣既不影響系統的使用,又能逐步將數據遷移到新硬件上。如果把Cold Storage看作一塊大硬盤的話,這種再平衡的做法就可以視為智能硬盤整理程序。
降低耗電是開發Cold Storage系統的主要目的之一。據介紹這套系統的耗電極低,僅需消耗傳統數據中心 1/6的電量。其主要手段就是以空間換功耗——Facebook的數據中心占地面積非常大。但是隨著以后單盤容量的提升,其存儲規模還可以進一步擴大。同時由于cold storage存放的不是活躍數據,而是歷史數據,所以 Facebook可以把冗余電力系統(不間斷電源、柴油發電機、備用電池等)也拋棄了,從而進一步提升了能效。
為了盡可能降低能耗,Cold Storage 允許服務器不帶硬盤一起啟動,之后將由軟件來控制其閑時時段。不過這樣就要求Facebook對Open Vault的存儲規范進行修改。Facebook最大的改動就是——每次只允許為每個托盤上的一塊硬盤供電。為了避免軟件bug錯將所有硬盤都供電,導致數據中心保險燒壞,Facebook甚至還專門修改了每一塊硬盤驅動器的固件。此外,由于不需要每次都給所有硬盤供電了,Facebook還通過一系列的優化成功使得機架的存儲密度大大增加,與傳統存儲服務器相比,其耗電只有后者的 1/4。
提升能源使用效率
在2012年,紐約時報的一篇報道揭露了IT業數據中心效率低下,耗電量驚人的問題。自此之后,降低數據中心能耗效率值(PUE)便成了考核數據中心的熱門指標之一。(PUE指數據中心總耗電量與IT設備耗電量的比值,這個值越接近1,數據中心的能耗效率就越高)。
而Facebook位于北卡萊羅納的數據中心僅通過使用自然風制冷,并提高服務器硬件的耐熱性能,就打造出了PUE能耗效率值僅為1.07的超級綠色數據中心。這個數值也大大超過了Google數據中心PUE能耗效率值——1.12。據介紹,Facebook使用Bin Maker軟件分析天氣數據,預測出北卡萊羅納的溫度和濕度,然后通過美國采暖、制冷和空調工程師協會(ASHRAE)的數據來判斷是否需要使用空調。
此外,Facebook還根據其發布的Open Compute標準開發出了能耐受更高室內溫度和濕度的服務器硬件,并通過改善傳統數據中心電力供應鏈來減少在電力轉換過程中的能源損失。對傳統服務器來說,如果一個UPS壞了或者電源部件壞了,整個數據中心就癱瘓了,而對Open Compute來說,只是某個部分不能繼續使用罷了。另外,在維修傳統服務器時,維修人員必須將整個服務器拿出來,用工具拆開后才可以修理;而Open Compute則采用了通用電源插座,維修時直接通過滑軌拉出來就可以實現在線維修。為了進一步提高能源使用效率,甚至連數據中心樓道里的燈都是只有在人通過的情況下才會亮。Facebook在提高數據中心能源使用效率上下的功夫可見一斑。