編者按:Facebook 的服務即將變得越來越復雜,需要消耗越來越多的電力。社交巨頭必須為這樣的未來做好準備。現在,它的數據中心電源使用效率已經達到了1.06—1.08的水平,甚至比Google的數據中心能效還要高。它是怎么做到的呢?請看《快公司》的介紹。
在瑞典呂勒奧的數據中心園區內,Facebook實現了其Open Compute Project(OCP,開放計算項目)勾勒的服務器和數據中心設計,在這里服務器、供電和UPS都是定制的設計。
你在享受著觀看朋友Instagram照片的愉悅?很喜歡表親Facebook賬號更新的新出生的小孩?你要靠Messenger跟在海外居住的同學朋友聊天?或者喜歡Oculus Rift帶來的那種沉浸式體驗?
如果沒有那幫人開發、建造和維護著Facebook位于全球各地的數據中心基礎設施的話,這一切都不可能實現。
2009年,當Facebook的用戶數只有現在18億的一小部分的時候,而且還沒有收購或者開發Instagram、Messenger、Whatsapp以及Oculus的時候,該公司只有一個數據中心,這個數據中心就在它的硅谷總部內,里面真的就只有一組服務器。
不過正如Facebook負責工程的副總裁最近解釋那樣,該公司很快意識到自己需要擴張到第二個位置,也即是東海岸。并且更多的擴張也在此后迅速進行。
Parikh 說:Facebook所做的一切“都是高度互聯的。”不是說加州這邊有一批用戶,所以就把這批用戶放到加州的服務器,然后針對其他地區的用戶也是類似的處置。所有用戶都跟公司所做的一切事情以及所有其他用戶連接到一起,而這給公司帶來了重大的工程挑戰。
在那段日子里,Facebook仍然還需要完全依靠第三方硬件和主機托管設施來放它的服務器基礎設施。但隨著時間轉移,它已經放棄了對外部技術和設施的依賴,從2009年開始,Facebook就在建設自己的數據中心網絡,它認為自己的這種基礎設施是業界能效最高的數據中心之一,這種設施對于為龐大的用戶群提供日常體驗是必不可少的。
怎么做呢?其想法是讓Facebook的工程師以及開發其app的人能夠開發新服務,然后迅速部署到整個用戶群。
例子?比如說Facebook Live,這個原先只是一個黑客馬拉松項目,但在5個月的時間內就推向了整個Facebook社區。
Parikh說:“我們很珍視這個,這是我們文化的一部分,也就是快速行動,然后把體驗快速交付給一個非常龐大的社區。”
更復雜的應用要求更復雜的基礎設施
隨著Facebook開始開發自己的數據中心,把自己2011年在俄勒岡州Prineville建設的那種基礎設施如法炮制過去往往是很有誘惑的一種做法。實際上Parikh說這已經變成公司內部的一個玩笑,說公司需要做的就只有“定型/漂洗/重復”。
但隨著公司開始通過Facebook服務以及其他app提供更為沉浸式的體驗,它意識到自己既需要提升新的數據中心的電力和能源效能以維持經濟效率,并且做出的不過時技術,從而能滿足日益依賴人工智能和機器學習的系統的未來需求。
Parikh指出,畢竟,為2014年規模平穩運行準備的系統未必就能應付2017年的事情。
他說:“我們不希望謹慎行事太過保守,也不會對我們思考技術的方式感到自滿。”
綠色數據中心
盡管Facebook本身的app就有18億用戶,但它的其他app用戶數加起來甚至更多,至少已經有25億。所有這些計算需求都需要一個全球的數據中心網絡來提供空前的能力和效率。
Parikh說Facebook現在“正在思考如何建設配套,使得它對所有應用和服務都具備可伸縮性和彈性,并且為類似視頻直播以及360°視頻等新的沉浸式(服務)做好準備。”
目前Facebook在全球有著7個數據中心——其中5個在美國,分布在俄勒岡、愛荷華、德克薩斯、新墨西哥以及北卡羅萊納,此外在愛爾蘭和瑞典也各有一個。盡管公司不遠分享未來的數字,但這個數字還在迅速增長。Parikh說Facebook通常會在12到18個月內破土動工一個新的數據中心。
隨著網絡的發展,帶寬需求也在不斷擴大。Facebook正在“非常積極地推進”數據中心之間每秒100GB的互聯速率,而且已經在嘗試如何把這個帶寬提高到400Gbps。
即便帶寬需求提高了能源使用量,Facebook仍然致力于建設依賴綠色電力的數據中心網絡。去年,該公司稱預計回到2018年采用50%的清潔和可再生能源。其計劃是,在愛荷華州、德克薩斯州、愛爾蘭、瑞典以及新墨西哥州的設施將100%利用風能、太陽能或者混合電力能源。
可行方式之一是一開始就限制電力用量。為了做到這一點,Facebook稱自己已經開發出平均浪費電量只有6-8%的系統,相比之下,業界的標準是50-60%。而Google聲稱自己的數字是12%。
該公司對自己的能源使用效率(PUE)數字很有信心,甚至自信到敢實時展示其每一個數據中心的PUE數字。
實現這么高的能效其主要辦法之一,是設施在設計上就考慮了從外面引入空氣來對服務器激進型制冷,而不是靠昂貴并非耗電的空調系統。然后再把服務器產生的熱量排出到建筑物外面。在更冷一點的氣候條件或者季節下,其中的一部分暖氣還可以回送到建筑物內,減少了對加熱器的依賴。
Facebook很清楚自己的用戶群和所提供的應用及服務的復雜性還會繼續發展,如果自己沒有為這一增長做好準備的話,數據中心就跟不上需求變化的步伐。
公司的用戶期望的是高性能,他們不會管你使用的工具是什么,但如果數據中心基礎設施沒有好的適配性和擴展性的話,就無法保證實現Facebook的核心使命:讓全世界的人們與家人朋友分享自己的生活,讓地球成為連接更加緊密的地方。
編者按:Facebook 的服務即將變得越來越復雜,需要消耗越來越多的電力。社交巨頭必須為這樣的未來做好準備。現在,它的數據中心電源使用效率已經達到了1.06—1.08的水平,甚至比Google的數據中心能效還要高。它是怎么做到的呢?請看《快公司》的介紹。
在瑞典呂勒奧的數據中心園區內,Facebook實現了其Open Compute Project(OCP,開放計算項目)勾勒的服務器和數據中心設計,在這里服務器、供電和UPS都是定制的設計。
你在享受著觀看朋友Instagram照片的愉悅?很喜歡表親Facebook賬號更新的新出生的小孩?你要靠Messenger跟在海外居住的同學朋友聊天?或者喜歡Oculus Rift帶來的那種沉浸式體驗?
如果沒有那幫人開發、建造和維護著Facebook位于全球各地的數據中心基礎設施的話,這一切都不可能實現。
2009年,當Facebook的用戶數只有現在18億的一小部分的時候,而且還沒有收購或者開發Instagram、Messenger、Whatsapp以及Oculus的時候,該公司只有一個數據中心,這個數據中心就在它的硅谷總部內,里面真的就只有一組服務器。
不過正如Facebook負責工程的副總裁最近解釋那樣,該公司很快意識到自己需要擴張到第二個位置,也即是東海岸。并且更多的擴張也在此后迅速進行。
Parikh 說:Facebook所做的一切“都是高度互聯的。”不是說加州這邊有一批用戶,所以就把這批用戶放到加州的服務器,然后針對其他地區的用戶也是類似的處置。所有用戶都跟公司所做的一切事情以及所有其他用戶連接到一起,而這給公司帶來了重大的工程挑戰。
在那段日子里,Facebook仍然還需要完全依靠第三方硬件和主機托管設施來放它的服務器基礎設施。但隨著時間轉移,它已經放棄了對外部技術和設施的依賴,從2009年開始,Facebook就在建設自己的數據中心網絡,它認為自己的這種基礎設施是業界能效最高的數據中心之一,這種設施對于為龐大的用戶群提供日常體驗是必不可少的。
怎么做呢?其想法是讓Facebook的工程師以及開發其app的人能夠開發新服務,然后迅速部署到整個用戶群。
例子?比如說Facebook Live,這個原先只是一個黑客馬拉松項目,但在5個月的時間內就推向了整個Facebook社區。
Parikh說:“我們很珍視這個,這是我們文化的一部分,也就是快速行動,然后把體驗快速交付給一個非常龐大的社區。”
更復雜的應用要求更復雜的基礎設施
隨著Facebook開始開發自己的數據中心,把自己2011年在俄勒岡州Prineville建設的那種基礎設施如法炮制過去往往是很有誘惑的一種做法。實際上Parikh說這已經變成公司內部的一個玩笑,說公司需要做的就只有“定型/漂洗/重復”。
但隨著公司開始通過Facebook服務以及其他app提供更為沉浸式的體驗,它意識到自己既需要提升新的數據中心的電力和能源效能以維持經濟效率,并且做出的不過時技術,從而能滿足日益依賴人工智能和機器學習的系統的未來需求。
Parikh指出,畢竟,為2014年規模平穩運行準備的系統未必就能應付2017年的事情。
他說:“我們不希望謹慎行事太過保守,也不會對我們思考技術的方式感到自滿。”
綠色數據中心
盡管Facebook本身的app就有18億用戶,但它的其他app用戶數加起來甚至更多,至少已經有25億。所有這些計算需求都需要一個全球的數據中心網絡來提供空前的能力和效率。
Parikh說Facebook現在“正在思考如何建設配套,使得它對所有應用和服務都具備可伸縮性和彈性,并且為類似視頻直播以及360°視頻等新的沉浸式(服務)做好準備。”
目前Facebook在全球有著7個數據中心——其中5個在美國,分布在俄勒岡、愛荷華、德克薩斯、新墨西哥以及北卡羅萊納,此外在愛爾蘭和瑞典也各有一個。盡管公司不遠分享未來的數字,但這個數字還在迅速增長。Parikh說Facebook通常會在12到18個月內破土動工一個新的數據中心。
隨著網絡的發展,帶寬需求也在不斷擴大。Facebook正在“非常積極地推進”數據中心之間每秒100GB的互聯速率,而且已經在嘗試如何把這個帶寬提高到400Gbps。
即便帶寬需求提高了能源使用量,Facebook仍然致力于建設依賴綠色電力的數據中心網絡。去年,該公司稱預計回到2018年采用50%的清潔和可再生能源。其計劃是,在愛荷華州、德克薩斯州、愛爾蘭、瑞典以及新墨西哥州的設施將100%利用風能、太陽能或者混合電力能源。
可行方式之一是一開始就限制電力用量。為了做到這一點,Facebook稱自己已經開發出平均浪費電量只有6-8%的系統,相比之下,業界的標準是50-60%。而Google聲稱自己的數字是12%。
該公司對自己的能源使用效率(PUE)數字很有信心,甚至自信到敢實時展示其每一個數據中心的PUE數字。
實現這么高的能效其主要辦法之一,是設施在設計上就考慮了從外面引入空氣來對服務器激進型制冷,而不是靠昂貴并非耗電的空調系統。然后再把服務器產生的熱量排出到建筑物外面。在更冷一點的氣候條件或者季節下,其中的一部分暖氣還可以回送到建筑物內,減少了對加熱器的依賴。
Facebook很清楚自己的用戶群和所提供的應用及服務的復雜性還會繼續發展,如果自己沒有為這一增長做好準備的話,數據中心就跟不上需求變化的步伐。
公司的用戶期望的是高性能,他們不會管你使用的工具是什么,但如果數據中心基礎設施沒有好的適配性和擴展性的話,就無法保證實現Facebook的核心使命:讓全世界的人們與家人朋友分享自己的生活,讓地球成為連接更加緊密的地方。