精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:數據中心行業動態 → 正文

為了應對AI熱潮 專家討論了液體冷卻策略

責任編輯:cres 作者:Drew Robb |來源:企業網D1Net  2024-04-28 18:31:51 原創文章 企業網D1Net

科學家預測,在未來幾十年內全球溫度可能會穩步上升,數據中心經理們不需要等那么久,一股熱浪正因最新的GPU、CPU和AI應用而向他們襲來。
 
“AFCOM數據中心報告”的作者Bill Kleyman強調:“隨著AI需求的增長,數據中心運營商必須調整其基礎設施以適應高功率密度的服務器集群。”
 
一些芯片制造和液體冷卻領域最聰明的專家聚到一起進行了討論,可以預期的熱量有多少,下一代芯片和AI如何在數據中心基礎設施中驅動變革,以及如何與正確的電力策略配合部署新的液體冷卻解決方案,以緩解強烈的熱量。
 
Vertiv的全球高科技發展總監Greg Stover說:“變革已經來臨,我們不能僅靠空氣來抵抗熱量。在未來幾年內,大多數數據中心將從100%的空氣冷卻過渡到空氣/液體冷卻的混合模式。”
 
Mohammad Tradat 博士,Nvidia 數據中心機械工程經理,展示了一個圖表,預測了微芯片熱設計功率(TDP)的增長。每個處理器的瓦特數正處于從幾百瓦增長到超過1000瓦的初期階段。他提到了他的公司的一款新芯片,能在一個機架中提供138千瓦的功率。僅用空氣冷卻是無法保持這樣的機架密度冷卻的。
 
“自2020年以來,TDP一直在激增,”Tradat說。“我們需要通過加入液體來重新思考冷卻路線圖。”
 
他認為單相技術是有限的。另一方面,他補充說,兩相制冷劑可以應用于每個機架200千瓦或更多的能力。
 
“從單相到兩相液體冷卻的轉變將比從空氣到單相液體冷卻發生得更快,”Tradat說。
 
為應對熱量改造現有數據中心
 
數據中心的設計能夠計劃新結構并以完整的液體冷卻基礎設施開始運營。大多數現有的數據中心沒有這種奢侈。Tradat建議運營商根據現有設計和空間的限制引入盡可能多的液體。
 
這可能需要引入液體對空氣(L2A)冷卻分配單元(CDU),這些單元帶來了液體冷卻的好處,而無需全面實施設施水系統。CDU在最需要的地方提供局部液體冷卻,并利用現有的空氣冷卻系統來散熱機架或行。
 
“這項技術可以在大多數數據中心迅速部署,干擾最小,”Tradat說。“但一旦機架密度上升,數據中心經理需要開始考慮液體對液體CDU。”
 
他補充說,一個4U CDU可以提供100千瓦的冷卻能力,但液體冷卻行業需要為制冷劑和兩相技術制定標準,以便其順利進入主流市場。
 
你應該投資哪種液體冷卻方法?
 
Intel的高級首席工程師兼熱管理架構師 Dev Kulkarni 博士,介紹了四種主要的液體冷卻方法,并對每種方法進行了簡短的評述:
 
•單相直接芯片冷卻——最成熟的液體技術,擁有眾多供應商選項
•兩相直接芯片冷卻——冷卻潛力更大,但供應商較少,成熟度較低
•單相浸沒冷卻——材料兼容性問題尚未解決,但許多供應商正在研究此技術
•兩相浸沒冷卻——仍存在嚴重的流體、腐蝕和安全問題
 
Kulkarni 說:“你必須根據你的需求來實施這些不同的冷卻解決方案。但重要的是要向前看兩到三代。如果你全力以赴只做單相,你可能會發現在短時間內需要將一些基礎設施轉換為兩相技術。”
 
他的建議是關注硅和AI硬件的發展路線圖,并使你的公司和客戶的需求與之對齊。同時,關注環境、社會和治理(ESG)目標以及你如何能夠迅速擴展你的部署。
 
但他補充說,不要等到部署AI。他建議你找到一種方法立即引入它,同時你可以規劃更大規模的部署。最后,他說要找到可以在AI、冷卻、可擴展性和可持續性方面與你合作的伙伴。
 
災難近在咫尺
 
Vertiv的熱管理和數據中心副總裁Steve Madara向與會者介紹了一些液體冷卻技術的現實情況。
 
他說:“如果直接導向芯片的流體停止流動超過一秒鐘,高功率服務器就會宕機。可靠性需要達到極其關鍵的任務級別。”
 
他建議將導向芯片的冷卻循環置于不間斷電源(UPS)系統上,以確保即使電網斷電也永不失電。Madara舉了一個例子:如果電力丟失,數據中心需要15秒鐘轉換到發電機電力,冷卻器可能需要一分鐘才能再次啟動并提供所需的冷卻水平。在此期間,最新一代服務器的水溫可能會上升高達20℉。
 
他說:“在液體冷卻領域,正在發展一整套可靠性策略。”
 
他推薦L2A CDUs作為部署最簡單的液體冷卻技術。他說,這些可以立即進入現有的數據中心。
 
預測:更多的熱量和更多的液體
 
那么,未來一段時間內數據中心的天氣預報將是更多的熱量和更密集的機架。這也意味著需要更多的液體冷卻。
 
Stover表示:“目前我們的大部分詢問都是關于為傳統場所使用的液體對空氣冷卻,但是從芯片中帶走熱量只是一方面,你還需要將熱量從建筑中帶出去。”
 
這需要一個協調的推動力,以增加新的冷卻技術,提高現有冷卻和電力解決方案的效率,并達到更高水平的可持續性。
 
IDC的分析師Courtney Munroe表示:“數據中心提供商需要支持超出常規10-20千瓦/機架的密度范圍,達到70千瓦/機架甚至200-300千瓦/機架,這將需要創新的冷卻技術、熱量散發以及使用可持續和可再生的能源來源。”
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:數據中心AI

原創文章 企業網D1Net

x 為了應對AI熱潮 專家討論了液體冷卻策略 掃一掃
分享本文到朋友圈
當前位置:數據中心行業動態 → 正文

為了應對AI熱潮 專家討論了液體冷卻策略

責任編輯:cres 作者:Drew Robb |來源:企業網D1Net  2024-04-28 18:31:51 原創文章 企業網D1Net

科學家預測,在未來幾十年內全球溫度可能會穩步上升,數據中心經理們不需要等那么久,一股熱浪正因最新的GPU、CPU和AI應用而向他們襲來。
 
“AFCOM數據中心報告”的作者Bill Kleyman強調:“隨著AI需求的增長,數據中心運營商必須調整其基礎設施以適應高功率密度的服務器集群。”
 
一些芯片制造和液體冷卻領域最聰明的專家聚到一起進行了討論,可以預期的熱量有多少,下一代芯片和AI如何在數據中心基礎設施中驅動變革,以及如何與正確的電力策略配合部署新的液體冷卻解決方案,以緩解強烈的熱量。
 
Vertiv的全球高科技發展總監Greg Stover說:“變革已經來臨,我們不能僅靠空氣來抵抗熱量。在未來幾年內,大多數數據中心將從100%的空氣冷卻過渡到空氣/液體冷卻的混合模式。”
 
Mohammad Tradat 博士,Nvidia 數據中心機械工程經理,展示了一個圖表,預測了微芯片熱設計功率(TDP)的增長。每個處理器的瓦特數正處于從幾百瓦增長到超過1000瓦的初期階段。他提到了他的公司的一款新芯片,能在一個機架中提供138千瓦的功率。僅用空氣冷卻是無法保持這樣的機架密度冷卻的。
 
“自2020年以來,TDP一直在激增,”Tradat說。“我們需要通過加入液體來重新思考冷卻路線圖。”
 
他認為單相技術是有限的。另一方面,他補充說,兩相制冷劑可以應用于每個機架200千瓦或更多的能力。
 
“從單相到兩相液體冷卻的轉變將比從空氣到單相液體冷卻發生得更快,”Tradat說。
 
為應對熱量改造現有數據中心
 
數據中心的設計能夠計劃新結構并以完整的液體冷卻基礎設施開始運營。大多數現有的數據中心沒有這種奢侈。Tradat建議運營商根據現有設計和空間的限制引入盡可能多的液體。
 
這可能需要引入液體對空氣(L2A)冷卻分配單元(CDU),這些單元帶來了液體冷卻的好處,而無需全面實施設施水系統。CDU在最需要的地方提供局部液體冷卻,并利用現有的空氣冷卻系統來散熱機架或行。
 
“這項技術可以在大多數數據中心迅速部署,干擾最小,”Tradat說。“但一旦機架密度上升,數據中心經理需要開始考慮液體對液體CDU。”
 
他補充說,一個4U CDU可以提供100千瓦的冷卻能力,但液體冷卻行業需要為制冷劑和兩相技術制定標準,以便其順利進入主流市場。
 
你應該投資哪種液體冷卻方法?
 
Intel的高級首席工程師兼熱管理架構師 Dev Kulkarni 博士,介紹了四種主要的液體冷卻方法,并對每種方法進行了簡短的評述:
 
•單相直接芯片冷卻——最成熟的液體技術,擁有眾多供應商選項
•兩相直接芯片冷卻——冷卻潛力更大,但供應商較少,成熟度較低
•單相浸沒冷卻——材料兼容性問題尚未解決,但許多供應商正在研究此技術
•兩相浸沒冷卻——仍存在嚴重的流體、腐蝕和安全問題
 
Kulkarni 說:“你必須根據你的需求來實施這些不同的冷卻解決方案。但重要的是要向前看兩到三代。如果你全力以赴只做單相,你可能會發現在短時間內需要將一些基礎設施轉換為兩相技術。”
 
他的建議是關注硅和AI硬件的發展路線圖,并使你的公司和客戶的需求與之對齊。同時,關注環境、社會和治理(ESG)目標以及你如何能夠迅速擴展你的部署。
 
但他補充說,不要等到部署AI。他建議你找到一種方法立即引入它,同時你可以規劃更大規模的部署。最后,他說要找到可以在AI、冷卻、可擴展性和可持續性方面與你合作的伙伴。
 
災難近在咫尺
 
Vertiv的熱管理和數據中心副總裁Steve Madara向與會者介紹了一些液體冷卻技術的現實情況。
 
他說:“如果直接導向芯片的流體停止流動超過一秒鐘,高功率服務器就會宕機。可靠性需要達到極其關鍵的任務級別。”
 
他建議將導向芯片的冷卻循環置于不間斷電源(UPS)系統上,以確保即使電網斷電也永不失電。Madara舉了一個例子:如果電力丟失,數據中心需要15秒鐘轉換到發電機電力,冷卻器可能需要一分鐘才能再次啟動并提供所需的冷卻水平。在此期間,最新一代服務器的水溫可能會上升高達20℉。
 
他說:“在液體冷卻領域,正在發展一整套可靠性策略。”
 
他推薦L2A CDUs作為部署最簡單的液體冷卻技術。他說,這些可以立即進入現有的數據中心。
 
預測:更多的熱量和更多的液體
 
那么,未來一段時間內數據中心的天氣預報將是更多的熱量和更密集的機架。這也意味著需要更多的液體冷卻。
 
Stover表示:“目前我們的大部分詢問都是關于為傳統場所使用的液體對空氣冷卻,但是從芯片中帶走熱量只是一方面,你還需要將熱量從建筑中帶出去。”
 
這需要一個協調的推動力,以增加新的冷卻技術,提高現有冷卻和電力解決方案的效率,并達到更高水平的可持續性。
 
IDC的分析師Courtney Munroe表示:“數據中心提供商需要支持超出常規10-20千瓦/機架的密度范圍,達到70千瓦/機架甚至200-300千瓦/機架,這將需要創新的冷卻技術、熱量散發以及使用可持續和可再生的能源來源。”
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:數據中心AI

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 平舆县| 西贡区| 宁晋县| 吴江市| 隆林| 泸水县| 无锡市| 康马县| 诸暨市| 金乡县| 丽江市| 曲沃县| 基隆市| 太白县| 当雄县| 镇江市| 句容市| 永新县| 政和县| 肇州县| 成安县| 铜鼓县| 安泽县| 诸城市| 开平市| 峨边| 兴和县| 运城市| 沙坪坝区| 潼关县| 凤台县| 丰县| 明溪县| 义乌市| 乌兰浩特市| 阳泉市| 宁明县| 车致| 石台县| 绥阳县| 达拉特旗|