我們有一個42U的機架,很快就會獲得新的1U和2U服務器。其中一位傢伙認爲,你需要在1U服務器之間留出空隙來幫助冷卻。我需要在標準服務器機架上留出空隙嗎?
問題是,是嗎?環顧數據中心時,似乎沒有其他人能夠做到,而且這也降低了我們可以適應的程度。我們使用戴爾1850和2950硬件。
我們有一個42U的機架,很快就會獲得新的1U和2U服務器。其中一位傢伙認爲,你需要在1U服務器之間留出空隙來幫助冷卻。我需要在標準服務器機架上留出空隙嗎?
問題是,是嗎?環顧數據中心時,似乎沒有其他人能夠做到,而且這也降低了我們可以適應的程度。我們使用戴爾1850和2950硬件。
只需NO時,服務器和交換機,和的KVM和PSU都旨在是對堆疊在海誓山盟頂部機架。我在幾年的建設,COS這個基礎和AT & T.
數據中心一般,沒有。這就是1U服務器的全部重點:如果它需要額外的空間(即使是冷卻),他們會給它一個更大的機箱並稱它爲2U。在一些設計中,氣流被控制並且只有機架應該被冷卻,這個間隙甚至會適得其反,因爲它允許來自背部的熱空氣流動並與前部的冷空氣混合,從而減少冷卻效率。即使您在邏輯分組方面存在差距,您也應該使用空白麪板來控制氣流。
不幸的是,在實踐中一些白牌廠商偶爾會太硬推爲1U指定,你會發現,如果你堆了太多,太多併攏,而不用於氣流偶爾的差距你有問題。這對於高質量的服務器和充足的散熱設計來說並不是問題,但市場的底端可能會讓你感到驚訝。
您不需要離開齒輪設計爲機架安裝的系統之間的差距。如果您自己構建系統,則需要仔細選擇組件:即使某些CPU +主板可以在1U機箱內實際安裝,也會運行得太熱。戴爾設備將會很好。
您做需要保持架之間和後面的空間清除混亂。今天的大多數服務器都是通過前後通風來實現的,如果你沒有在機架後面留下足夠的露天空間,那麼它會變得非常熱,並降低散熱能力。
在一個典型的48端口切換前面板覆蓋有RJ-45連接器和由冗餘電源連接,PoE電源托盤進行連接,堆疊端口和上行鏈路的背面。許多1U網絡交換機將其氣流並排排列,因爲它們無法通過連接器的前後迷宮獲得足夠的空氣。所以您還需要確保機架旁邊的通道相對開放,以使開關獲得足夠的氣流。
在擁擠的服務器機架中,整潔很重要。
最後兩個地方我曾擁有大型數據中心,他們堆放所有的無縫隙服務器和設備。服務器的內部風扇具有充足的散熱能力。還建議在機架前部帶有多孔磚的活動地板上運行機架,並將A/C空氣返回到機架後部的上方用於循環。
我同意Unkwntech是空白,通常不需要,但我認爲有兩件事情需要注意的:
1)設備是不深,如果裝下更深處的休息可能會遇到麻煩通風設備(見下文)。在通風良好的服務器機房中,這當然不是一個問題。
TOP OF RACK
===============
===============
===============
===============
===============
======== (Shallow equipment, trapped hot air)
2)當在機櫃中安裝設備時,通常需要留在頂部清楚了幾英寸,允許適當的通風。