国产精品视频网址|久久机热国产自偷自|欧美一级中文一级|久久久无码日韩视频|欧美午夜激情影院|成人av不卡网站|色吧加勒比一本道东京热成人无码在线|欧美 亚洲 偷情|欧美老妇乱一区二区|亚洲一区二区网站

ODCC 阿里巴巴服務器研發(fā)高級專家鐘楊帆:服務器液冷方案探索

2017/8/23 11:05:32 來源:DTDATA 作者: 分類:會議活動

大家下午好,接下來我分享的主題是液冷構建綠色計算。


有人會問,為什么要用液冷,以及液冷這么多產(chǎn)品該如何選擇。我個人認為,沒有十全十美的產(chǎn)品技術,只有我們選擇最合適的產(chǎn)品技術能夠提供給我們的業(yè)務發(fā)展。接下來的分享是阿里巴巴在這方面的一些考慮和探索實踐。




接下來看幾組相應的數(shù)據(jù),從60年代大型機可能只有100萬的設備接入,80年代小型機1000萬,90年代是PC時代,1000億個石碑,到2000年專網(wǎng)時代,然后是移動互聯(lián)時代,未來到2020年,即將進入IoT物聯(lián)網(wǎng)時代,500億的設備會給我們帶來什么樣的挑戰(zhàn),這么多設備到物聯(lián)網(wǎng),隨時隨地會不斷產(chǎn)生大量的數(shù)據(jù)。2005年,全球的數(shù)據(jù)總量是0.1ZB,2010年是1.2ZB,2012年是2.8ZB,2015年是8.5ZB,這么多的數(shù)據(jù)量需要大量的計算能力和大量的服務器來支撐這么多的數(shù)據(jù)量的計算和處理,同時也對IDC支撐這種服務器和計算帶來相應的挑戰(zhàn)。中國電子節(jié)能技術協(xié)會統(tǒng)計和預測,預計2024年能達到中國社會用總用電量8萬億度,數(shù)據(jù)中心的能耗問題變得無法忽視。這個是數(shù)據(jù)中心能耗的示意圖,可以看到,一個典型的數(shù)據(jù)中心PUE是2.13,另外國際上一個組織對全球1100???????個數(shù)據(jù)中心做了調(diào)查統(tǒng)計,平均的PUE是在1.8到1.89,高能耗不僅給企業(yè)帶來大的負擔,同時對社會造成巨大浪費。


看看業(yè)界其他一些公司在做些什么,微軟把數(shù)據(jù)中心放在海底,F(xiàn)acebook把數(shù)據(jù)中心搬到北極寒冷的地方,因為這個地方全年氣溫超過30度的只有不超過24小時。

這是一個英特爾服務器產(chǎn)品的架構發(fā)展,除了CPU以外,內(nèi)存的功耗和目的也在不斷增加,所以對CPU的挑戰(zhàn)不斷提升。除了英特爾的計算,大家還面臨AI的計算也在浮出水面。AI也是一個極大的耗能大戶,一個3U的GPU服務器可以達到3.2kw。根據(jù)阿里服務器利用率的趨勢,過去可能是3-5kw一個密度,現(xiàn)在是7.2-15kw一個密度,未來可能是25到40kw一個密度。


這是服務器功率與冷卻方式的關系,這種提升的速度和方式是比較緩慢的,IDC更新?lián)Q代是8-10年一個周期,服務器更新?lián)Q掉是3-5年一個周期,為了應對服務器力度快速增長,液冷成為最終的趨勢。


液冷大家也比較清楚,就是通過液體代替空氣,把CPU、內(nèi)存還有一些其他部件的,主要是間接制冷和直接液冷,對機房來說,既需要空氣冷卻的設備,也需要增加液冷的設備,對機房來說復雜度會提高,雖然PUE可以做到1.2以下,浸沒液冷的方式,對IDC是比較簡單的,可以把冷水機組、空調(diào)、風扇都去掉,但是另外它的密度對IDC也有挑戰(zhàn)。


阿里巴巴在選擇冷卻方式的考慮,因為建設低能耗、環(huán)保型的數(shù)據(jù)中心是阿里追求的目標,為什么阿里現(xiàn)在研究浸沒式液冷,因為架構簡單節(jié)約,系統(tǒng)更簡化,建設和維護成本更低,更低的PUE,系統(tǒng)更耐用。在液冷我們肯定是要有收益才去做這件事情,我們分了一下,液冷這里面有三個數(shù)據(jù),首先是降低TCO,其次是性能提升,然后是降低PCIe。如果采用浸沒液冷的方式,整個機房的IDC設計會更加簡單,同時空間也會更少,這樣就可以節(jié)省大量的成本。在成本方面,浸沒液冷方式可以節(jié)省更多的電費成本。


如果采用浸沒液冷的方式,基本上把服務器放在一個不導電液體當中,完全得出了空氣、水、灰塵,在溫度上,浸沒液冷的溫度比空冷的溫度,其中核心部件溫度要低一二十度以上。同比傳統(tǒng)風冷系統(tǒng),采用浸沒液冷方式服務器實效率降低50%以上,它對濕度、灰塵、振動的影響基本上沒有了,同時機房可以部署在任何一個環(huán)境,比如樓道、廠房都可以部署。未來邊緣計算也是可以完全放在一個比較簡單的地方,只要插上電、送上水、通上網(wǎng)絡就可以使用了。


浸沒液冷有很多挑戰(zhàn),第一是服務器本身,第二是IDC基礎,第三是TCO方面。阿里巴巴在這方面做了一些研發(fā),包括新材料技術、新IT設備、新液冷系統(tǒng)和新監(jiān)控管理。


阿里在液冷的研究路線主要分為五個步驟,首先是基礎技術,然后是部件級、系統(tǒng)級、小批量、規(guī)?;;A技術首先是從液體材料選型,與服務器里面的部件各方面都是可兼容的,還有信號是可兼容的,不能影響高速信號。另外是提高密度,選擇散熱強的材料,來提高部署能力。另外是材料連接器。除了竹板上的,還有外置的,比如光器件,另外CPU、存儲、內(nèi)存、網(wǎng)絡這些部件放在液體里是不是性能會受影響,另外穩(wěn)定性、服務器性能、能效測試這些優(yōu)化。系統(tǒng)級,因為是全新的變化,服務器架構、可維護、空間利用率還有整體數(shù)據(jù)中心的設計和架構,還有整個監(jiān)控管理系統(tǒng),都是全新的變化,阿里在這方面都進行了一定的探索和研究。未來的路還是比較長,比如未來的規(guī)?;渴鹋c小批量這些工作都還在做。


以上是阿里巴巴近期的探索和研究,謝謝大家!

相關資訊

    暫無相關的資訊...

共有訪客發(fā)表了評論 網(wǎng)友評論

驗證碼: 看不清楚?