電力效率將是未來數(shù)據(jù)中心的一個必要部分。由于許多公司尋找新穎的方法,希望榨干現(xiàn)有資源的最后一點價值,明智的經(jīng)銷商們就會準(zhǔn)備好解決辦法。
借助一點常識和幾項簡單的技能,經(jīng)銷商們不但可以幫助客戶們減少每個月的電費,還可以在這個過程中為自己帶來額外收入。下面是一項簡單的計劃。
第一步:走查一下。
最好的計劃常常是最簡單的;等到你讀完了這部分內(nèi)容,應(yīng)該掌握了檢查數(shù)據(jù)中心效率(以及輕松賺得一些收入)的原則。
不管某家公司的數(shù)據(jù)中心(或服務(wù)器機(jī)柜)規(guī)模如何,它們都有一個共同點:都含有會散熱的設(shè)備,而散發(fā)的熱量必須排掉。又由于冷的部件壽命更長、更快速地運行、更高效地運轉(zhuǎn),大家不難明白高效數(shù)據(jù)中心的好處了。
除了計算機(jī)房空調(diào)(CRAC)系統(tǒng)外,影響計算機(jī)房冷卻效率的幾個主要因素是計算機(jī)設(shè)備相對進(jìn)氣口和排氣口的方位。
所以,首先要確定服務(wù)器、交換機(jī)及其他散熱設(shè)備是不是沿同一個總方向排放熱空氣。使用冷熱通道的這項技術(shù)有助于隔離溫度相近的空氣,并且確保進(jìn)入到機(jī)器的空氣盡可能冷;確保冷空氣被送入到任何設(shè)備之前沒有被抽吸到機(jī)房外面。
一旦機(jī)房里面的布局排成了冷熱通道,就可以在那些通道之間添加隔板,進(jìn)一步提高效率,就像打開汽車空調(diào)后,最好把窗戶搖起來。另外可以對這種技術(shù)稍加變化,只隔離熱通道,將計算機(jī)的排氣口對著CRAC設(shè)備的進(jìn)氣口,或者對著充氣室天花板的口子。
第二步:摸清PUE。
據(jù)美國勞倫斯•伯克利國家實驗室的調(diào)查發(fā)現(xiàn),如果客戶的數(shù)據(jù)中心已經(jīng)過了充分的隔離,最多可以將空調(diào)成本節(jié)省15%、將風(fēng)扇系統(tǒng)的成本節(jié)省67%。
下一步是計算數(shù)據(jù)中心的電力使用效率(PUE)。要進(jìn)行全面的電力審查,必須先完成這一步,因為這可以提供衡量的基準(zhǔn),以便跟蹤電力效率的改進(jìn)。只要將數(shù)據(jù)中心及其基礎(chǔ)架構(gòu)(包括燈光、冷卻和所有IT設(shè)備)的總耗電量(瓦特)除以IT負(fù)載本身,就能得出PUE。IT負(fù)載僅僅包括與計算機(jī)直接有關(guān)的部件,比如服務(wù)器、存儲系統(tǒng)、交換機(jī)和路由器等,而不包括不間斷電源(UPS)、冷卻系統(tǒng)或沒有接入到計算機(jī)的任何設(shè)備。
將貴企業(yè)的PUE與Uptime Institute的全國平均PUE(http://uptimeinstitute.com/)作一比較。這個數(shù)字應(yīng)該在1.8到3.0之間。
理想的PUE應(yīng)該是1.0,這表明計算機(jī)資源組成了整個基礎(chǔ)架構(gòu)。當(dāng)然,這在大多數(shù)情況下是不可能的;PUE為2.0或2.5被認(rèn)為是中小型數(shù)據(jù)中心的平均值。谷歌的PUE為1.2,谷歌運行著世界上最高效的數(shù)據(jù)中心。這家公司發(fā)布了它的一套節(jié)電方法(http://www.google.com/corporate/datacenter/best-practices.html)。谷歌能夠設(shè)計和度身定制其所有的服務(wù)器,這幫了它大忙。
第三步:全面的電力審查。
對于普通用戶來說,唯一的辦法就是測量數(shù)據(jù)中心機(jī)柜和機(jī)架上硬件部件的耗電量。一個快捷的辦法就是,檢查客戶所用的不間斷電源(UPS)系統(tǒng)的壽命。今天的UPS比僅僅三年前制造的UPS要高效得多。要是使用壽命超過了五年,它們也許可以扔到垃圾堆了。
下一步是測量和記錄其余IT部件的耗電量。為了簡化這項任務(wù),我們從Appropedia.com獲得了這張電力審查(Power Audit)計算表(http://i.crn.com/misc/PowerAudit_sheet.xls),計算表里面包含計算耗電量的公式。一旦計算完畢,就可以確定電力效率最低的部件,然后根據(jù)它們各自的設(shè)置來設(shè)定減少多少耗電量,或者更換成或升級到能效更高的機(jī)型。
英文原文鏈接:http://www.crn.com/news/data-center/232301559/a-simple-three-step-plan-to-cut-power-usage.htm;jsessionid=qXIFklSupc9sSyCSLlwC1g**.ecappj03
原文鏈接:http://server.51cto.com/Datacenter-312569.htm