在training上英特爾上個(gè)月發(fā)布了最新的至強(qiáng)服務(wù)器CPU,可用于training加速的還有至強(qiáng)Phi產(chǎn)品。在gateway端,英特爾也是大力布局,包括movidus產(chǎn)品和FPGA都可以應(yīng)用。在過去幾年,AI得到了極大的發(fā)展,AI在數(shù)據(jù)中心快速的發(fā)展得益于智能端所帶來的數(shù)據(jù)到數(shù)據(jù)中心,讓大家有這樣的能力去挖掘這些數(shù)據(jù)。英特爾認(rèn)為接下來的趨勢就是要把數(shù)據(jù)中心產(chǎn)生的這????智慧用到端上面去,具體的應(yīng)用有可能是自動駕駛,也有可能是機(jī)器人或者是各種各樣的輔助業(yè)務(wù)。因此英特爾在端上也是有極大的投入,包括Movidius VPU,包括FPGA,包括GNA(IP)。在AI上,除了數(shù)據(jù)中心之外,非常重視的就是在端上,我們深信從云端到設(shè)備端是形成一個(gè)有機(jī)的閉環(huán)的相輔相成的增長。

具體來講,在數(shù)據(jù)中心端,其實(shí)英特爾一直在給至強(qiáng)這樣的服務(wù)器上增加它的處理能力。舉個(gè)例子,像至強(qiáng)CPU里面,我們在最新的一代至強(qiáng)加入了AVX512這樣的加速單元,在外面的展臺有一個(gè)展示,如果把AVX512打開做Inference加速,能極大提高當(dāng)前的Inference效果。第二個(gè)是在DeepLearning上,KNM產(chǎn)品把單精度浮點(diǎn)運(yùn)算單元增加了4倍。這上面不得不提一點(diǎn),在training時(shí)用到一些傳統(tǒng)的工具的時(shí)候,比如處理大圖片的時(shí)候,第一件事是把圖片變得小一點(diǎn),當(dāng)你要放到GPU卡上做加速處理的時(shí)候,它的內(nèi)存容量可能不夠,它的帶寬可能會有限制,所以只能處理小的batch size。而英特爾的KNL/KNM處理器,基于大的內(nèi)存容量,帶寬,可以使用大的batch size,這樣有效的加速大矩陣運(yùn)算。另外想提一點(diǎn)FPGA,所帶來的執(zhí)行效率以及能耗降低,英特爾的FPGA的解決方案可以提高training/inference的效率,降低能耗開銷。
我們還有一個(gè)專門針對Training做的ASIC,在2017年晚一點(diǎn)的時(shí)候會推出市場,供大家做Deep Learning的加速。
英特爾從云端到設(shè)備端,我們都在加強(qiáng)在AI上的服務(wù),從已有的至強(qiáng)產(chǎn)品的AVX,或者是KNM加速卡,F(xiàn)PGS或者ASIC,我們擁有一整套的解決方案體系。
謝謝大家。

