中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

數(shù)據(jù)中心采用液體冷卻的五大障礙

2018-08-10    來源:天下數(shù)據(jù)IDC資訊

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

如今,機器學習的興起導致數(shù)據(jù)中心的功率密度越來越高,在部署了大量服務器的數(shù)據(jù)中心中,每個機架的功率密度達到了30kW到50kW,這促使一些數(shù)據(jù)中心運營商轉(zhuǎn)向液體冷卻而不再采用空氣冷卻技術(shù)。

雖然一些數(shù)據(jù)中心運營商使用液體冷卻來提高其設施的效率,但其主要原因是需要冷卻更高功率密度的機架。

但是從空氣冷卻到液體冷卻的轉(zhuǎn)換并不簡單。以下是在數(shù)據(jù)中心采用液體冷卻技術(shù)所遇到的一些主要障礙:

1.需要采用兩種冷卻系統(tǒng)

歐洲托管數(shù)據(jù)中心巨頭Interxion公司數(shù)據(jù)中心首席技術(shù)程官Lex Coors表示,對于現(xiàn)有的數(shù)據(jù)中心來說,一次性轉(zhuǎn)換為液體冷卻幾乎沒有意義,而很多數(shù)據(jù)中心設施的運維團隊將不得不管理和運營兩種冷卻系統(tǒng),而不是一種。

這使得液體冷卻成為新建數(shù)據(jù)中心或需要進行重大改造的數(shù)據(jù)中心的更好選擇。

但總有例外,對于超大規(guī)模制造商來說尤其如此,其獨特的數(shù)據(jù)中心基礎設施問題往往需要獨特的解決方案

例如,谷歌公司目前正將其許多現(xiàn)有數(shù)據(jù)中心的空氣冷卻系統(tǒng)轉(zhuǎn)換為液體冷卻系統(tǒng),以應對其最新機器學習的TPU 3.0處理器的功率密度。

2. 缺乏行業(yè)標準

缺乏液體冷卻的行業(yè)標準是該技術(shù)很難廣泛采用的主要障礙。

“客戶首先必須配備自己的IT設備,以便進行液體冷卻。”Coors說,“而且液體冷卻技術(shù)的標準化并沒有完善,組織不能簡單地采用并讓它運行。”

Coors表示,Interxion公司的客戶目前都沒有采用液體冷卻技術(shù),但如果有必要,Interxion公司準備為此提供支持。

3. 觸電危險

許多液體冷卻解決方案主要依賴于介電液體,其介質(zhì)應該不導電并且不存在觸電危險。但有些組織可能會使用冷水或溫水進行冷卻。

Coors說:“如果工作人員恰巧在液體泄漏那一刻觸碰的話,那么有可能就會觸電造成傷亡,但是有很多方法可以解決它。”

4.腐蝕

與任何涉及液體管道的系統(tǒng)一樣,腐蝕是液體冷卻技術(shù)面臨的一個主要問題。

“管道的腐蝕是一個大問題,這是人們需要解決的問題之一。”Coors說。液體冷卻制造商正在改進管道以降低泄漏風險,并在發(fā)生泄漏時自動密封管道。

他補充說,“同時,機架本身也需要實現(xiàn)容器化。如果發(fā)生泄漏,只是將液體灑在機架上,這樣沒有太大的危害。”

5.運營的復雜性

Markley Group公司執(zhí)行副總裁Jeff Flanagan表示,采用液體冷卻的最大風險可能是運營復雜性增加,該公司計劃在明年年初在高性能云計算數(shù)據(jù)中心推出液體冷卻服務。

他表示,“作為數(shù)據(jù)中心運營商,我們更喜歡簡單的技術(shù),而擁有的組件越多,就越有可能失敗。當采用液體冷卻技術(shù)為芯片冷卻時,液體流經(jīng)服務器中的每個CPU或GPU,就需要為冷卻過程添加很多組件,這增加了失敗的可能性。”

而在運營數(shù)據(jù)中心時,還存在另外一種復雜因素,那就是將服務器浸沒在介電流體中,這對絕緣技術(shù)要求較高。

標簽: idc idc資訊 服務器 谷歌 云計算

版權(quán)申明:本站文章部分自網(wǎng)絡,如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:數(shù)據(jù)科學中模型可解釋性差?你考慮了各種不確定性了嗎?

下一篇:Uptime Institute調(diào)查表明,數(shù)據(jù)中心為提高效率犧牲