中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

數(shù)據(jù)中心擴容觸碰密度天花板

2018-06-11    來源:

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

  工業(yè)光魔公司(縮寫為ILM,《星球大戰(zhàn)》、《變形金剛2》等大片的三維動畫制作公司)正在用IBM最熱門的新款BladeCenters刀片來更換其就有的服務器刀片。而ILM每替換一個裝滿了新刀片的新機柜,就能將數(shù)據(jù)中心的整體用電量砍去140千瓦時 (kW),全部替換完畢后,可以讓整體用電量下降84%,這一結(jié)果非常令人驚訝。

  然而新機柜的功率密度卻要比先前高出不少:每個機柜耗電28kW,而前一代機柜的功率密度則為24kW。而且每耗一瓦電就會產(chǎn)生相應的熱量,還必須再想辦法將這些熱量從每個機柜——也就是從數(shù)據(jù)中心排走。

  新機柜裝有84塊服務器刀片,每塊刀片有2個雙核處理器和32GB的RAM。新機柜的功能十分強大,足以替換掉7個裝有前一代 BladeCenter刀片服務器的舊機柜,也為ILM節(jié)省下了大量圖像處理數(shù)據(jù)中心內(nèi)的空間。

  為了給每個新的42U機柜提供冷氣,空調(diào)系統(tǒng)就必須能夠排出更多的熱量,每個機柜所產(chǎn)生的熱量比9戶人家冬天將壁爐燒到最暖和時的熱量還要多。

  這段時期以來,不少新設計的數(shù)據(jù)中心都可支持每平方英尺100到200瓦的平均功率密度,而典型機柜的功率密度約為4kW,惠普公司副總裁兼關(guān)鍵設施服務(Critical Facilities Services)部總經(jīng)理Peter Gross說,如果數(shù)據(jù)中心設計成每平方英尺200瓦的功率密度,則每平方英尺可以支持的平均機柜密度約為5kW。如果對空氣流動再進行細致的設計優(yōu)化,那么一套室內(nèi)空調(diào)系統(tǒng)便可支持功率密度最多為25kW的機柜。

  ILM每個機柜28kW的功率密度已經(jīng)到了今天計算機室內(nèi)空調(diào)系統(tǒng)冷卻能力的上限,IBM負責數(shù)據(jù)中心效率的首席工程師Roger Schmidt說。“你們正在接近30kW的極限密度。如果要想再進一步擴容的話,就得另想辦法了。”

  擴容可持續(xù)嗎?

  這個問題實際上是再問,下一步會發(fā)生什么?“未來,當瓦數(shù)增加到如此之高,數(shù)據(jù)中心的機柜里再也容納不下新的服務器時,電力供應和冷卻系統(tǒng)該如何應對呢?我們正在全力解決這一問題,”Schmidt說。超過30kW的高密度計算就只能依靠水冷系統(tǒng)了。但是也有專家認為,對于很多組織來說,數(shù)據(jù)中心經(jīng)濟學指出,將服務器分散出去而不是集中在密度更高的機柜里,或許才是更經(jīng)濟合理的。

  ILM的信息技術(shù)總監(jiān)Kevin Clark很喜歡新的IBM BladeCenter所帶來的處理能力和能源效率,這也符合業(yè)界趨勢——以更低的價位獲得更多的功能。根據(jù)IDC的統(tǒng)計,服務器的平均價格從2004年以來已下降了18%,每核的成本已下降了70%,為715美元。

  不過Clark也不清楚,是否有可能將計算密度再翻一倍。“如果按照我們現(xiàn)在的基礎架構(gòu)再增加一倍的計算密度,那么從冷卻系統(tǒng)的角度看,要管理這樣的密度就會非常困難,”他說。

  而他并非唯一一位對此表示擔憂的人。40多年來,計算機行業(yè)的商業(yè)模式都是建立在摩爾定律之上的,即認為每隔兩年計算密度就會翻番。而如今,已經(jīng)有不少的工程師和數(shù)據(jù)中心設計師們開始對這一定律的可行性提出質(zhì)疑了——他們認為摩爾定律已經(jīng)到了一個極限閥值。

  這個閥值不僅是指芯片廠商能否克服在更小的體積內(nèi)容納更多晶體管所帶來的技術(shù)上的挑戰(zhàn),而且是指在現(xiàn)代的數(shù)據(jù)中心內(nèi)運維大量極限高密度的服務器機柜是否經(jīng)濟的問題。

  最新的一些設備把更多的計算能力和功率塞進了更小的空間內(nèi),但是能夠支持每平方英尺更高密度計算空間的基礎設施架構(gòu)——包括冷卻系統(tǒng)、配電系統(tǒng)、 UPS和發(fā)電機——也會成比例地增加。

  數(shù)據(jù)中心經(jīng)理們對這一問題的關(guān)注度正在增加。IDC在2009年對1000家數(shù)據(jù)中心進行了調(diào)查,有21%的數(shù)據(jù)中心將電力和冷卻列為數(shù)據(jù)中心的頭號挑戰(zhàn)。近一半(43%)的數(shù)據(jù)中心報告說運營成本增加了,有1/3的數(shù)據(jù)中心稱,他們曾經(jīng)有過因電力和冷卻系統(tǒng)出了問題而直接導致服務器宕機的情況。

  Christian Belady是微軟全球基礎服務集團的首席基礎架構(gòu)師,他負責設計和運營微軟最近在華盛頓州昆西市建設的數(shù)據(jù)中心。他指出,每平方英尺的成本太高。在昆西數(shù)據(jù)中心,基礎架構(gòu)的成本占到了項目總成本的82%。

  “我們已經(jīng)越過了密度越高越好這樣一個極限點,”Belady說。“當你將計算密度提高一倍時,你也必須把室內(nèi)的空間擴大一倍。”

  當每平方英尺的計算密度增加時,總體電力成本一般不會出現(xiàn)太大變化,Gross說。但是由于功率密度也在增加,所以支持每平方英尺高密度計算所需的機電設備空間也會出現(xiàn)增長。

  IBM的Schmidt說,每瓦成本,而不是每個平方英尺的成本,才是新的數(shù)據(jù)中心最主要的建設開支。

  “用不了多久,你就會撞上這面功率墻,到時候你根本無法在這面陡峭的斜坡上再向上攀升(擴容)了。這里就是TCO的底線,”他說。正是功率成本首次讓大型數(shù)據(jù)中心的建設項目支出突破了10億美元大關(guān)。“公司的C層領導一聽到這樣的費用數(shù)字肯定會嚇得要死,因為成本太高了,”Schmidt說。

  Gartner分析師Rakesh Kumar認為,無論從能源使用還是成本角度看,不斷上漲的功率密度都是不可持續(xù)的。不過幸運的是,大多數(shù)企業(yè)在看到每機柜的平均功率負載達到ILM這樣的水平之前,還有相當長的一段路可以走。例如在Gartner的企業(yè)客戶中,約有40%的客戶剛剛超出每機柜8到10kW的水平,還有一些客戶已經(jīng)到了每機柜12到15kW的水平。不過這些數(shù)字還在不斷增長中。

  有些企業(yè)的數(shù)據(jù)中心,還有像Terremark公司這樣的管理服務提供商,正在測算電力的使用情況,可以計算出多少電力可以給多大的數(shù)據(jù)中心空間提供能源。“我們正在為大型企業(yè)客戶提供一種電力使用模式,”Terremark的高級工程設計副總裁Ben Stewart說。“你只要告訴我們你有多少電力,我們就會告訴你,能為你擴充多大的空間。”

  購買千瓦時

  然而,指望客戶們不僅知道他們需要托管多少設備,而且知道每個設備機柜需要多少功率,這可行嗎?

  “對于某些客戶來說,這是很可行的,”Stewart說。事實上,Terremark就正在朝著響應客戶需求的這個方向發(fā)展。“有很多客戶到我們這兒來,都是帶著最大千瓦時訂單來的,然后讓我們?yōu)樗麄兲峁┳畲蟮臄U容空間,”他說。假如客戶不知道每個機柜所需的功率是多少,那么Terremark就會按照給每個機柜供電的電力線條數(shù)向其銷售電力。

  IBM的Schmidt認為,功率密度的不斷增長是可能的,不過數(shù)據(jù)中心冷卻這些機柜的方法也需要加以改變。

以ILM在2005年完成的數(shù)據(jù)中心為例,當時的設計可支持每平方英尺200瓦的平均功率負載。這樣的設計從總體來看,無論供電能力和冷卻能力都是很充足的,但它卻并不是冷卻高密度機柜的有效方法。

  ILM采用了一種熱通道/冷通道設計,工程人員成功地調(diào)整了冷通道中帶孔散熱瓦的數(shù)量和擺放位置,優(yōu)化了BladeCenter刀片密封機柜周圍的氣流。但是為了避免出現(xiàn)熱點,室內(nèi)空調(diào)系統(tǒng)就要把13500平方英尺的空間降溫到奇冷的65華氏度(約18攝氏度)。

  Clark知道這樣的做法效率不高,因為今天的IT設備都是設計成可在81華氏度(約27攝氏度)下運轉(zhuǎn)的,所以他得采用一種叫做冷通道控制的技術(shù)。

  其他數(shù)據(jù)中心也在經(jīng)歷著這樣的控制——地板上的高密度機柜的柜門會從前后兩端封堵住冷熱通道。熱通道的圍欄也可以沿著每行機柜的頂部安放,以防止冷熱空氣在天花板附近混合。在其他情形下,冷空氣可以直接從機柜下部導入,向上推送到頂部,然后進入天花板上面的回氣空間,形成一個封閉的環(huán)路系統(tǒng),不與室內(nèi)的空氣相混合。

  “熱/冷通道的方法是傳統(tǒng)方法,但卻并不是最佳方法,”埃森哲數(shù)據(jù)中心技術(shù)與運營經(jīng)理Rocky Bonecutter說。“現(xiàn)在的趨勢就是采用冷通道控制技術(shù)。”

  惠普的Gross估計,采用了此種技術(shù)的數(shù)據(jù)中心便可在裝有空調(diào)系統(tǒng)的房間內(nèi)支持每機柜約25kW的功率密度。“這需要仔細地隔離冷熱空氣,消除兩種空氣的混合現(xiàn)象,優(yōu)化空氣流動。這些技術(shù)正在成為常規(guī)的工程設計實踐,”他說。

  雖說按照現(xiàn)代化的標準重新設計數(shù)據(jù)中心有助于減少供電和冷卻問題,但是最新的刀片服務器已經(jīng)超出了每機柜25kW的上限。IT業(yè)花了5年時間不斷地增加機柜密度、清出地板空間、優(yōu)化空氣流動。如今,這些技術(shù)已經(jīng)成熟,可以獲取能源效率的累累果實了。但是如果密度仍繼續(xù)增加的話,那么冷通道控制就將是氣冷系統(tǒng)的最后一根救命稻草了。
 

標簽: idc 標準 服務器 企業(yè) 問題 信息技術(shù) 行業(yè)

版權(quán)申明:本站文章部分自網(wǎng)絡,如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:AirCheck無線一點通測試儀為Wi-Fi保駕護航

下一篇:思特沃克:SOA花費用戶數(shù)億美金無效