国产精品视频网址|久久机热国产自偷自|欧美一级中文一级|久久久无码日韩视频|欧美午夜激情影院|成人av不卡网站|色吧加勒比一本道东京热成人无码在线|欧美 亚洲 偷情|欧美老妇乱一区二区|亚洲一区二区网站

浪潮信息趙帥:數(shù)據(jù)中心需要開放計算創(chuàng)新 應(yīng)對大模型Scaling Law挑戰(zhàn)

面對大模型Scaling Law帶來的AI基礎(chǔ)設(shè)施Scale up和Scale out的挑戰(zhàn),數(shù)據(jù)中心需要以開放創(chuàng)新加速算力系統(tǒng)、管理和基礎(chǔ)設(shè)施的全向Scale進程,推動AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。

日前,在2024開放計算中國峰會上,浪潮信息服務(wù)器產(chǎn)品線總經(jīng)理趙帥表示,智能時代,開源模型和開放計算激發(fā)了人工智能產(chǎn)業(yè)生態(tài)的創(chuàng)新活力,面對大模型Scaling Law帶來的AI基礎(chǔ)設(shè)施Scale up和Scale out的挑戰(zhàn),數(shù)據(jù)中心需要以開放創(chuàng)新加速算力系統(tǒng)、管理和基礎(chǔ)設(shè)施的全向Scale進程,推動AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。

浪潮信息趙帥

開源開放推動人工智能創(chuàng)新與算力生態(tài)的全面發(fā)展

生成式人工智能的飛躍式進步正在加速智能時代的到來,數(shù)據(jù)中心基礎(chǔ)設(shè)施面臨全方位創(chuàng)新,將越來越依賴更加廣泛的全球化開放協(xié)作,加速 AI 技術(shù)創(chuàng)新與應(yīng)用,共同構(gòu)建一個充滿創(chuàng)新活力的智能世界,而激發(fā)人工智能創(chuàng)新活力,開源開放是核心和源泉。

模型開源激發(fā)人工智能創(chuàng)新活力。隨著開源大模型能力的不斷增強和開源生態(tài)的持續(xù)壯大,帶動模型、應(yīng)用到產(chǎn)業(yè)的全面發(fā)展,三分之二的基礎(chǔ)模型選擇開源,超過 80% 以上的 AI 項目使用開源框架進行開發(fā),開源模型的下載量突破 3 億次,并衍生出超過 3 萬個新模型,Llama 3.1、通義千問、源 2.0 等開源大模型成為人工智能創(chuàng)新的驅(qū)動力。

硬件開放完善人工智能算力生態(tài)。人工智能帶來指數(shù)級增長的算力需求,全球已有上百家公司投入新型 AI 芯片的研發(fā)與設(shè)計,百花齊放的算力芯片需要統(tǒng)一的算力平臺才能快速推向市場,實現(xiàn)落地。開放加速規(guī)范 OAM 的出現(xiàn)大大加速多元算力芯片的適配兼容過程,大幅降低資源投入,使算力部署和迭代提速,支撐上層大模型和 AIGC 應(yīng)用的快速迭代成熟。目前,90% 高端 AI 芯片基于 OAM 規(guī)范設(shè)計,去年浪潮信息剛剛發(fā)布的基于 OAM 規(guī)范的開放加速計算平臺 NF5698G7 與多款主流 AI 加速芯片適配兼容,基于 OAM 的智算產(chǎn)業(yè)生態(tài)圈日趨完善。

我們可以看到,AI 時代,算力正在呈現(xiàn)出多元化的發(fā)展趨勢。為應(yīng)對 AIGC、云計算、大數(shù)據(jù)等應(yīng)用復(fù)雜且不斷變化的計算需求,不僅僅是 GPU,CPU、FPGA、ASIC 等芯片也在朝著更加多樣化和專用化的方向發(fā)展。而且無論是手機、電腦、邊緣設(shè)備、CPU 通用服務(wù)器、加速服務(wù)器都具有了 AI 計算的能力,可以說一切計算皆 AI,AI 算力已經(jīng)深入到千行百業(yè),滲透進每一個計算設(shè)備里。面向人工智能的算力范式不斷革新,基于 CPU 的通用服務(wù)器不僅要承載大數(shù)據(jù)、關(guān)鍵計算、科學(xué)計算外,也要承擔 AI 應(yīng)用的重要任務(wù),這也是 CPU 通用服務(wù)器的重大機遇。

但隨著應(yīng)用范式的多樣化,目前 x86、ARM、RISC-V 等不同架構(gòu)的 CPU 處理器百花齊放,僅中國,就有 10 多種 CPU 處理器,不同 CPU 協(xié)議標準不統(tǒng)一,同時為了更好的適合 AI 推理高并行的計算特點,CPU 總線互聯(lián)帶寬、內(nèi)存帶寬及容量也需要特別優(yōu)化,使得系統(tǒng)功耗、總線速率、電流密度不斷提升…… 多種因素疊加之下,硬件開發(fā)、固件適配、部件測試資源等時間激增,給算力系統(tǒng)設(shè)計帶來巨大挑戰(zhàn)。

為了縮短從芯片到算力系統(tǒng)的轉(zhuǎn)化時間,給用戶提供更快、更好的算力支撐,CPU 端也亟需構(gòu)建智算時代的 CPU 統(tǒng)一底座,能夠兼容不同芯片廠商、多代產(chǎn)品。2024 開放計算中國峰會上,開放算力模組 (OCM) 規(guī)范正式啟動,首批成員包括中國電子標準院、百度、小紅書、浪潮信息、聯(lián)想、超聚變、英特爾、AMD 等機構(gòu)和企業(yè)。

全新的開放算力模組 OCM 規(guī)范,旨在建立基于處理器的標準化算力模組單元,通過統(tǒng)一不同處理器算力單元對外高速互連、管理協(xié)議、供電接口等,實現(xiàn)服務(wù)器主板平臺的深度解耦和模塊化設(shè)計,兼容不同架構(gòu)的多代處理器芯片,方便客戶根據(jù)人工智能、云計算、大數(shù)據(jù)等多樣化應(yīng)用場景,靈活、快速匹配最適合的算力平臺,推動算力產(chǎn)業(yè)高質(zhì)量快速發(fā)展。

OCM 規(guī)范是國內(nèi)首個服務(wù)器計算模組設(shè)計規(guī)范,產(chǎn)業(yè)界上下游伙伴將基于 OCM 規(guī)范,共同建立標準化的算力模組單元,構(gòu)建開放合作、融合創(chuàng)新的產(chǎn)業(yè)生態(tài),為用戶提供更多通用性強、綠色高效、安全可靠的算力選擇。

以開放創(chuàng)新的全向 Scale 應(yīng)對大模型第一性原理

算力、算法和數(shù)據(jù)是推動人工智能發(fā)展的三駕馬車,自 Transformer 架構(gòu)出現(xiàn)以來,大模型性能與其參數(shù)量、計算當量、數(shù)據(jù)量的協(xié)同作用尤為顯著,業(yè)界稱之為大語言模型的第一性原理 ——Scaling Law。

智算時代,需要用開放的理念來加速算力系統(tǒng)全向 Scale, 從而應(yīng)對大模型的 Scaling Law。隨著大模型能力的持續(xù)進化,算法規(guī)模和復(fù)雜性不斷增加、數(shù)據(jù)量越來越大,算力需求也在不斷攀升,需要同時應(yīng)對單系統(tǒng)性能提升 Scale up 與多系統(tǒng)大規(guī)模擴展 Scale out 兩個方向擴展的挑戰(zhàn),對數(shù)據(jù)中心基礎(chǔ)設(shè)施、算力管理、迭代升級等都提出了更高要求。

以開放創(chuàng)新的全向 Scale 應(yīng)對大模型第一性原理

在算力方面,智算中心需要同時應(yīng)對兩個方向的擴展,分別是強算力支持、一機多芯、多元多模的單機系統(tǒng) Scale up 要求和大規(guī)模 AI 組網(wǎng)、高帶寬、資源池化的大規(guī)?;瘮U展 Scale out 要求,以開放加速模組和開放網(wǎng)絡(luò)實現(xiàn)算力的 Scale。UBB2.0 開放標準支持更高算力規(guī)格的加速卡、可以實現(xiàn)更大的 OAM domain 互聯(lián),未來可以支持 8000 + 張加速卡 Scale up, 突破大模型 All to All 通信過程中的互聯(lián)瓶頸。同時,大模型的發(fā)展需要更大規(guī)模的算力系統(tǒng),浪潮信息開放網(wǎng)絡(luò)交換機可實現(xiàn) 16000 + 個計算節(jié)點 10 萬 + 加速卡的 Scale out 組網(wǎng),滿足加速卡之間的互聯(lián)通信需求,帶寬利用率高達 95%+。

在管理方面,需要解決跨平臺適配、模塊化架構(gòu)、快速迭代的 Scale 要求,以開放的固件解決方案實現(xiàn)了管理的 Scale。當前,異構(gòu)算力多元分化,異步迭代,管理接口規(guī)范各不相同,導(dǎo)致固件平臺分支版本龐大,相互割裂,無法歸一,單一企業(yè)資源在維護和適配如此眾多的分支版本方面捉襟見肘。為解決一系列管理挑戰(zhàn),需要依托于開源社區(qū)的開源固件平臺,構(gòu)建原生解耦架構(gòu)提升可擴展性,建立統(tǒng)一標準的接口規(guī)范,支持用戶對于自主模塊進行定制化,實現(xiàn)標準接口規(guī)范下的異步、自主定制迭代,以滿足智算時代的算力迭代需求。

在基礎(chǔ)設(shè)施方面,數(shù)據(jù)中心面臨智能算力擴展的兩大 Scale 挑戰(zhàn): 一是 GPU、CPU 算力提升,單芯片單卡功耗急劇增加,單機柜在供電和制冷上面臨著 Scale up 支撐挑戰(zhàn);同時,Scaling Law 驅(qū)動 GPU 規(guī)模無限膨脹,達到萬卡、十萬卡級別,帶來了數(shù)據(jù)中心層級 Scale out 的支撐挑戰(zhàn),需要開放標準和開放生態(tài)將實現(xiàn)基礎(chǔ)實施的 Scale, 滿足快速建設(shè)、高算力 / 高能耗支撐要求。采用開放標準、開放生態(tài)構(gòu)建的數(shù)據(jù)中心基礎(chǔ)設(shè)施,能更好地匹配智算時代多元、異構(gòu)算力的擴展和迭代速度,進而支撐上層智能應(yīng)用的進一步普及。以浪潮信息為例,基于開放標準推出的液冷冷板組件,支撐單機系統(tǒng)內(nèi) GPU 和 CPU 核心算力原件 Scale up 擴展;推出模塊化、標準接口的 120kw 機柜,兼容液冷、風冷場景,支撐柜內(nèi)更大的部署需求;推出基于開放標準的預(yù)制化集裝箱數(shù)據(jù)中心,大幅壓縮建設(shè)周期,其擴展性很好的滿足了 AI 算力系統(tǒng)的 Scale 需要。

開放計算為數(shù)據(jù)中心的全向 Scale, 提供了一個可以迅速傳遞到整個產(chǎn)業(yè)鏈的“通道”。目前,開放加速模組和開放網(wǎng)絡(luò)實現(xiàn)了算力的 Scale, 開放固件解決方案實現(xiàn)了管理的 Scale, 開放標準和開放生態(tài)實現(xiàn)了基礎(chǔ)設(shè)施的 Scale。開放計算對于智算時代至關(guān)重要,需要用開放應(yīng)對多元算力,用開放促進算力的 Scale, 基于開放創(chuàng)新構(gòu)建的全向 Scale 能力將會成為未來 AI 基礎(chǔ)設(shè)施的核心驅(qū)動力,加速智算時代的創(chuàng)新,加速人工智能的前行。

來源:IT之家

相關(guān)推薦

發(fā)表評論