2023年通信行業(yè)專題報(bào)告 光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換_第1頁
2023年通信行業(yè)專題報(bào)告 光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換_第2頁
2023年通信行業(yè)專題報(bào)告 光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換_第3頁
2023年通信行業(yè)專題報(bào)告 光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換_第4頁
2023年通信行業(yè)專題報(bào)告 光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2023年通信行業(yè)專題報(bào)告光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換核心觀點(diǎn):光模塊行業(yè)傳統(tǒng)應(yīng)用場景為電信市場和數(shù)通市場,具備一定的周期性。光模塊下游一直應(yīng)用在電信市場和數(shù)通市場,其中電信市場的需求和全球基站建設(shè)節(jié)奏明顯相關(guān),當(dāng)前國內(nèi)5G基站建設(shè)節(jié)奏穩(wěn)中略降,全球光纖接入市場仍保持較高景氣度。數(shù)通市場的需求往往取決于海外大型云廠商的資本開支,整體而言數(shù)通市場需求持續(xù)性較強(qiáng),電信市場的周期性更強(qiáng)。AI等新應(yīng)用場景的出現(xiàn),有望成為未來云基建投資的重要推動(dòng)力,帶來光模塊持續(xù)新增需求。云基建作為算力底座持續(xù)受益于數(shù)據(jù)流量的增長,AI等新應(yīng)用場景的出現(xiàn)有望推動(dòng)行業(yè)新一波的建設(shè)周期,疊加傳統(tǒng)投資動(dòng)能的底部復(fù)蘇,我們預(yù)計(jì)未來云基建行業(yè)將會(huì)呈現(xiàn)總量增長疊加技術(shù)等級持續(xù)升級的趨勢,而光模塊作為算力基礎(chǔ)設(shè)施一環(huán),有望充分受益。AI大模型推動(dòng)高速光模塊需求加快釋放。AI大模型的使用對與網(wǎng)絡(luò)架構(gòu)的提出更高要求,向著低時(shí)延和高速率方向演進(jìn),由于AI計(jì)算需要同時(shí)調(diào)用的模型參數(shù)在千億甚至萬億級別,存儲、計(jì)算、通信網(wǎng)絡(luò)帶寬需要同步提升,其中計(jì)算部分通過利用GPU,性能已實(shí)現(xiàn)快速提升,存儲部分也實(shí)現(xiàn)了演進(jìn),因此通信網(wǎng)絡(luò)帶寬需要明顯提升,對應(yīng)首選網(wǎng)絡(luò)技術(shù)為Infiniband,而網(wǎng)絡(luò)通信速率也由傳統(tǒng)數(shù)據(jù)中心25G/100G需求快速提升至端到端的200G/400G,甚至向著800G速率演進(jìn)。01、傳統(tǒng)光模塊市場概述光模塊主要用于實(shí)現(xiàn)光、電信號的轉(zhuǎn)換光模塊是用于設(shè)備與光纖之間光電轉(zhuǎn)換的接口模塊。光模塊主要用于實(shí)現(xiàn)光電信號的轉(zhuǎn)換。光模塊主要由光學(xué)器件和輔料(外殼、插針、PCB與控制芯片)構(gòu)成。光學(xué)器件(包括光芯片和光學(xué)元件組件)約占光模塊成本70%以上,輔料(外殼、插針、PCB與電路芯片等)占光模塊總成本近30%。光發(fā)射組件TOSA一般包含激光二極管、背光監(jiān)測二極管、耦合部件、TEC以及熱敏電阻等元件。一定速率的電信號經(jīng)驅(qū)動(dòng)芯片處理后驅(qū)動(dòng)激光器(LD)發(fā)射出相應(yīng)速率的調(diào)制光信號通過光功率自動(dòng)控制電路,輸出功率穩(wěn)定的光信號。光接收組件ROSA一般包含光電探測器、跨阻放大器、耦合部件等元件。一定速率的光信號輸入模塊后由光探測器轉(zhuǎn)(PD/APD)換為電信號,經(jīng)前置放大器(TIA)放到后輸出相應(yīng)速率的電信號。光模塊傳統(tǒng)應(yīng)用場景:電信網(wǎng)絡(luò)和數(shù)據(jù)中心電信網(wǎng)絡(luò)的光通信應(yīng)用:1980年代光纖誕生以來,光通信應(yīng)用從骨干網(wǎng)到城域網(wǎng)、接入網(wǎng)、基站。目前國內(nèi)傳輸網(wǎng)絡(luò)基本完成光纖化,但數(shù)據(jù)在進(jìn)出網(wǎng)絡(luò)時(shí)仍需要進(jìn)行光電轉(zhuǎn)換;未來向全光網(wǎng)演進(jìn)。數(shù)據(jù)中心的光通信應(yīng)用:1990年代開始,光通信應(yīng)用從中短距離的園區(qū)、企業(yè)網(wǎng)絡(luò)延伸到大型數(shù)據(jù)中心的系統(tǒng)機(jī)架間、板卡間、模塊間、芯片間應(yīng)用。仍以光模塊為例,據(jù)LightCounting數(shù)據(jù),數(shù)通市場(以太網(wǎng)+光互連+光纖通道)收入占比在55%-60%左右。數(shù)據(jù)中心應(yīng)用占比已經(jīng)超過電信市場。據(jù)FROST&SULLIVAN預(yù)測,2020-2024年全球光模塊市場規(guī)模預(yù)計(jì)從2020年的105.4億美元增長到2024年的138.2億美元,年復(fù)合增長率約為7.0%。應(yīng)用于數(shù)通領(lǐng)域的光模塊市場規(guī)模預(yù)計(jì)則由2020年的54.2億美元快速增長2024年的83.9億美元,年復(fù)合增長率約為11.5%,其占比從51.4%進(jìn)一步提高至60.7%。電信市場:運(yùn)營商5G資本開支平穩(wěn),光纖接入市場景氣度高無線側(cè):用于5G資本開支預(yù)計(jì)2022年達(dá)到高點(diǎn),后期逐步下行,電信運(yùn)營商的Capex具有周期性特點(diǎn),在代際升級的主建設(shè)期,運(yùn)營商Capex會(huì)有明顯的上升。接入側(cè):技術(shù)升級和滲透率提升帶來持續(xù)需求。國內(nèi)在政策驅(qū)動(dòng)千兆光網(wǎng)滲透,海外大部分國家光纖接入率仍較低,具有明顯提升空間;技術(shù)上光纖接入步入10G-PON時(shí)代,帶來持續(xù)新增需求。根據(jù)LightCounting的數(shù)據(jù),2020年FTTx全球光模塊市場出貨量約6289萬只,市場規(guī)模為4.73億美元,隨著新代際PON的應(yīng)用逐漸推廣,預(yù)計(jì)至2025年全球FTTx光模塊市場出貨量將達(dá)到9208萬只,年均復(fù)合增長率為7.92%,市場規(guī)模達(dá)到6.31億美元,年均復(fù)合增長率為5.93%。交換機(jī)系統(tǒng)升級推動(dòng)數(shù)通光模塊迭代數(shù)通市場:交換機(jī)芯片產(chǎn)品升級節(jié)奏影響光模塊升級部署。一般來說,從交換機(jī)芯片推出到光模塊開始放量需要2-3年的時(shí)間。博通首款32X100G交換機(jī)芯片2014年開始送樣,亞馬遜等北美云廠商2016H2起量部署100G光模塊。2017年底博通32X400G交換芯片Tomahawk3開始送樣,亞馬遜、谷歌等北美云廠商從2018年H2開始部署400G產(chǎn)品。2019年底具備25.6Tbps交換能力的交換機(jī)芯片Tomahawk4發(fā)布,2020-2022年是400G光模塊的快速起量期。2022年博通和英偉達(dá)、思科等均有800G交換機(jī)布局。光模塊市場空間:預(yù)計(jì)2026年超過170億美元2020年全球光模塊市場規(guī)模80億美元,未來五年預(yù)計(jì)穩(wěn)步增長。根據(jù)LightCounting預(yù)測,2016-2018年光模塊行業(yè)增長平緩,2019年后光模塊升級加速,尤其2020年受和新基建政策催化,電信和數(shù)通市場需求強(qiáng)勁,全年光模塊市場規(guī)模為80億美元,同比增長23%。預(yù)計(jì)到2026年,全球光模塊市場將超過170億美元,2021-2026年的五年CAGR為14%。分下游客戶來看,數(shù)通客戶市場規(guī)模超過電信客戶市場規(guī)模,是未來光模塊行業(yè)的主要驅(qū)動(dòng)力。根據(jù)Yole數(shù)據(jù),2020年光模塊市場中,數(shù)通市場規(guī)模約為電信市場的1.2倍;2026年預(yù)計(jì)數(shù)通市場將為電信市場2.6倍。以太網(wǎng)光模塊市場空間:高速光模塊放量是核心動(dòng)力以太網(wǎng)光模塊的收入在光模塊市場中占比將近一半,市場空間超過百億美金。根據(jù)LightCounting最新報(bào)告,以太網(wǎng)光模塊的銷售額在2021年達(dá)到46.52億美元,同比增長25%。預(yù)計(jì)2022年用戶側(cè)以太網(wǎng)光模塊的營收增幅為22.3%。未來隨著新技術(shù)的發(fā)展和網(wǎng)絡(luò)流量長期保持持續(xù)增長,以太網(wǎng)光模塊銷售額也將保持較快增長并不斷迭代升級。預(yù)計(jì)到2026年,以太網(wǎng)光模塊市場將達(dá)到88.51億美元,約為全球光模塊市場規(guī)模的52%。22-26年復(fù)合增速11.7%。高速以太網(wǎng)光模塊(200G、400G和800G)是以太網(wǎng)光模塊需求增長的核心驅(qū)動(dòng)。2021年100G及以下的光模塊收入規(guī)模約為30億美元,在以太網(wǎng)光模塊市場中占比64%。當(dāng)前200G及以上光模塊迅速放量,后續(xù)將成為增長主力。市場格局變化:國內(nèi)廠商已占據(jù)領(lǐng)先位置國內(nèi)光模塊企業(yè)全球地位持續(xù)提升。10G時(shí)代以北美光模塊廠商為主,40G時(shí)代,中際旭創(chuàng)和AOI崛起,2021年旭創(chuàng)和II-IV成為出貨量頭部廠商。國產(chǎn)廠商崛起原因分析:(1)歐美日光模塊廠商起步較早,專注于芯片和產(chǎn)品研發(fā),部分廠商剝離低毛利的光模塊業(yè)務(wù),制造生產(chǎn)端產(chǎn)能逐步向以中國為代表的發(fā)展中國家轉(zhuǎn)移;(2)國內(nèi)光模塊廠商依托勞動(dòng)力成本、市場規(guī)模以及電信設(shè)備商扶持等優(yōu)勢,在光模塊封裝、測試等環(huán)節(jié)積累了大量實(shí)踐經(jīng)驗(yàn),以中際旭創(chuàng)和新易盛為代表的國內(nèi)廠商在競爭中取得份額突破,積極擴(kuò)建產(chǎn)能;(3)云廠商采購模式變化和封裝工藝的變化,帶來行業(yè)洗牌機(jī)會(huì)。技術(shù)演進(jìn)趨勢:硅光子集成硅光子技術(shù)意在提升光模塊集成度。基于標(biāo)準(zhǔn)硅制造的硅襯底材料,利用半導(dǎo)體晶圓材料可延展特性,采用CMOS等工藝應(yīng)用于光電一體集成器件制造。其物理架構(gòu)由硅襯底激光器、硅襯底光電集成芯片、光纖等輔助物料封裝構(gòu)成。硅光技術(shù)的難點(diǎn)之一是集成激光器和調(diào)制器,PD各種被動(dòng)器件,目前,相關(guān)技術(shù)主要包括獨(dú)立激光器,混合集成,異質(zhì)集成,單片集成等。硅光模塊市場空間:根據(jù)Yole預(yù)測,硅光模塊市場將從2018年的約4.55億美元增長到2024年的約40億美元,復(fù)合年增長率達(dá)44.5%。硅光行業(yè)市場格局:Infinera是大規(guī)模InPPIC技術(shù)及產(chǎn)業(yè)的領(lǐng)導(dǎo)者;Intel、Luxtera等是硅基光子集成產(chǎn)業(yè)應(yīng)用的引領(lǐng)者,Sicoya、Rockley、Inphi、Acacia在硅基光電集成收發(fā)芯片的設(shè)計(jì)方面也較為領(lǐng)先,硅光模塊封裝環(huán)節(jié)依舊是傳統(tǒng)光模塊的封裝廠商占主導(dǎo)。02、AI驅(qū)動(dòng)高速光模塊迭代加快AIGC等新場景:有望成為新一輪的云基建建設(shè)驅(qū)動(dòng)力AIGC等新應(yīng)用場景的出現(xiàn),成為未來云基建投資的重要推動(dòng)力。數(shù)據(jù)中心作為流量的基石,算力的重要載體,核心受益于算力和流量的擴(kuò)張,近十年行業(yè)經(jīng)歷了幾輪快速的發(fā)展增長,分別受益于移動(dòng)互聯(lián)網(wǎng)、帶來的線上流量增長等;隨著AI等新應(yīng)用場景的出現(xiàn),為行業(yè)賦予了新的增長動(dòng)能,有望帶動(dòng)行業(yè)新一輪建設(shè)升級。AI:無人機(jī)、自言語言處理以及計(jì)算機(jī)視覺為主要應(yīng)用場景人工智能主要利用數(shù)字計(jì)算機(jī)或者由數(shù)字計(jì)算機(jī)控制的機(jī)器,模擬、延伸和擴(kuò)展人類的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)和應(yīng)用系統(tǒng)。AI的核心技術(shù)主要包含:深度學(xué)習(xí)(DL)、計(jì)算機(jī)視覺(CV)、自然語言處理(NLP)和數(shù)據(jù)挖掘(DM)等,AI目前主要的應(yīng)用場景包括:醫(yī)療、無人機(jī)、自然語言處理和計(jì)算機(jī)視覺與圖像處理等。ChatGPT:確立LLM模型的大參數(shù)和深度學(xué)習(xí)兩大屬性ChatGPT的出現(xiàn)確立了大語言模型兩個(gè)必備元素:大參數(shù)+深度學(xué)習(xí)(Large&Deep)ChatGPT是基于自然語言處理(NLP)下的AI大模型,產(chǎn)品能夠通過大算力、大規(guī)模訓(xùn)練數(shù)據(jù)突破AI瓶頸,通過理解和學(xué)習(xí)人類的語言來進(jìn)行對話,并引入新技術(shù)RLHF進(jìn)一步提升了人工智能模型的產(chǎn)出和人類的常識、認(rèn)知、需求、價(jià)值觀保持一致。在在GPT模型出現(xiàn)之前,行業(yè)對于AI大模型的構(gòu)建并沒有取得較高關(guān)注,核心在于沒看到模型展現(xiàn)出靠近人類的特征。GPT模型首次展示出了通過深度學(xué)習(xí)和大模型參數(shù)的輸入,AI模型可以涌現(xiàn)出靠近人類的特征。一般認(rèn)為模型的思維推理能力與模型參數(shù)大小有正相關(guān)趨勢,一般是突破一個(gè)臨界規(guī)模(大概62B,B代表10億),模型才能通過思維鏈提示的訓(xùn)練獲得相應(yīng)的能力。如果在6B以下,那很可能還只是GPT-2級別的初級模型。AI大模型下,網(wǎng)絡(luò)結(jié)構(gòu)向低延時(shí)高速率演進(jìn)AI模型作為高性能計(jì)算業(yè)務(wù),強(qiáng)調(diào)低時(shí)延高速率,通常由IB網(wǎng)絡(luò)承載。數(shù)據(jù)中心內(nèi)部有三類典型的業(yè)務(wù):通用計(jì)算(一般業(yè)務(wù))、高性能計(jì)算(HPC)業(yè)務(wù)和存儲業(yè)務(wù)。每類業(yè)務(wù)對于網(wǎng)絡(luò)有不同的訴求,比如:HPC業(yè)務(wù)的多節(jié)點(diǎn)進(jìn)程間通信,對于時(shí)延要求非常高;而存儲業(yè)務(wù)對可靠性訴求非常高,要求網(wǎng)絡(luò)0丟包;通用計(jì)算業(yè)務(wù)規(guī)模大,擴(kuò)展性強(qiáng),要求網(wǎng)絡(luò)低成本、易擴(kuò)展。由于上述業(yè)務(wù)對網(wǎng)絡(luò)的要求不同,數(shù)據(jù)中心內(nèi)部一般會(huì)部署三張不同的網(wǎng)絡(luò):由IB(InfiniBand)網(wǎng)絡(luò)來承載HPC業(yè)務(wù),由FC(FiberChannel)網(wǎng)絡(luò)來承載存儲網(wǎng)絡(luò),由以太網(wǎng)來承載通用計(jì)算業(yè)務(wù)。數(shù)據(jù)中心從云時(shí)代進(jìn)入AI時(shí)代。在企業(yè)數(shù)字化轉(zhuǎn)型的大背景下,數(shù)據(jù)資產(chǎn)逐步成為企業(yè)的核心資產(chǎn)。和云計(jì)算時(shí)代比,AI時(shí)代企業(yè)數(shù)據(jù)中心的使用正在聚焦業(yè)務(wù)快速發(fā)放向聚焦數(shù)據(jù)高校處理轉(zhuǎn)變。未來滿足在AI時(shí)代下數(shù)據(jù)高效處理訴求,0丟包、低時(shí)延、高吞吐成為AI數(shù)據(jù)中心核心考核指標(biāo)。Infiniband高速網(wǎng)絡(luò),大模型下優(yōu)選網(wǎng)絡(luò)技術(shù)以太網(wǎng)是一種廣泛使用的網(wǎng)絡(luò)協(xié)議,但其傳輸速率和延遲無法滿足大型模型訓(xùn)練的需求。相比之下,端到端IB(InfiniBand)網(wǎng)絡(luò)是一種高性能計(jì)算網(wǎng)絡(luò),能夠提供高達(dá)400Gbps的傳輸速率和微秒級別的延遲,遠(yuǎn)高于以太網(wǎng)的性能。這使得IB網(wǎng)絡(luò)成為大型模型訓(xùn)練的首選網(wǎng)絡(luò)技術(shù)。Infiniband網(wǎng)絡(luò)(IB網(wǎng)絡(luò)):是指通過一套中心Infiniband交換機(jī)在存儲、網(wǎng)絡(luò)以及服務(wù)器等設(shè)備之間建立一個(gè)單一的連接鏈路,通過中心Infiniband交換機(jī)來控制流量,能夠降低硬件設(shè)備間數(shù)據(jù)流量擁塞,有效解決傳統(tǒng)I/O結(jié)構(gòu)的通信傳輸瓶頸,還能與遠(yuǎn)程存儲設(shè)備和網(wǎng)絡(luò)設(shè)備相連接端到端IB網(wǎng)絡(luò)還支持?jǐn)?shù)據(jù)冗余和糾錯(cuò)機(jī)制,能夠保證數(shù)據(jù)傳輸?shù)目煽啃浴T谔幚泶竽P椭休^多的數(shù)據(jù)時(shí),數(shù)據(jù)傳輸錯(cuò)誤或數(shù)據(jù)丟失可能會(huì)導(dǎo)致訓(xùn)練過程中斷甚至失敗,因此保證傳輸?shù)目煽啃杂葹橹匾?,而IB網(wǎng)路有效實(shí)現(xiàn)了保證。03、ChatGPT場景下需求彈性測算A100:網(wǎng)絡(luò)結(jié)構(gòu)解析AI大集群數(shù)據(jù)中心的方案部署通過切分基本單元進(jìn)行部署,每個(gè)基本單元英偉達(dá)定義為SuperPOD。對于一個(gè)網(wǎng)絡(luò)集群的用量測算邏輯需要關(guān)注三個(gè)關(guān)鍵指標(biāo):1)單集群服務(wù)器個(gè)數(shù);2)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)(決定交換機(jī)和光模塊用量);3)交換機(jī)速率(決定光模塊速率上限)每個(gè)DGXA100SuperPOD基本部署結(jié)構(gòu)信息為:140臺服務(wù)器(每臺服務(wù)器8張GPU)+交換機(jī)(每臺交換機(jī)40個(gè)端口,單端口200G)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)為IBfat-tree(胖樹),交換機(jī)速率為200Gb/s。根據(jù)A100的端口來看,一共分為四個(gè)網(wǎng)絡(luò),計(jì)算網(wǎng)絡(luò)(compute)、存儲網(wǎng)絡(luò)(storage)、In-band管理網(wǎng)絡(luò)和out-of-band管理網(wǎng)絡(luò),其中計(jì)算側(cè)的端口數(shù)為8個(gè),存儲兩個(gè),In-band兩個(gè),out-of-band1個(gè),一共13個(gè)端口??紤]到光模塊的用量集中在計(jì)算側(cè),我們僅針對計(jì)算網(wǎng)絡(luò)的需求進(jìn)行光模塊用量測算。關(guān)于網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu):英偉達(dá)在計(jì)算網(wǎng)絡(luò)部分選擇了無收斂胖樹,無收斂胖樹的結(jié)構(gòu)的特點(diǎn)在于上下行的端口數(shù)是完全一致的,所以只要知道其中一層的網(wǎng)絡(luò)的連接線纜數(shù)就可以推算出每一層網(wǎng)絡(luò)的線纜數(shù)。關(guān)于網(wǎng)絡(luò)結(jié)構(gòu)的層數(shù):針對于80臺及以下A100服務(wù)器集群,一般會(huì)進(jìn)行兩層網(wǎng)絡(luò)結(jié)構(gòu)部署(服務(wù)器-leaf層交換機(jī)-Spine層交換機(jī)),針對140臺服務(wù)器,會(huì)進(jìn)行三層網(wǎng)絡(luò)結(jié)構(gòu)部署(服務(wù)器-Leaf層交換機(jī)-Spine層交換機(jī)-Core層交換機(jī))。140臺服務(wù)器三層交換機(jī)的部署數(shù)量分別為56臺-80臺-28臺,一共是164臺交換機(jī)。每層交換機(jī)對應(yīng)的線纜數(shù)分別為1120根-1124根-1120根。假設(shè)服務(wù)器和交換機(jī)之間采用銅纜,其余采用AOC或者光纖,均使用光模塊,所以光模塊的需求為(1124+1120)*2=4488個(gè)。一個(gè)基本單元內(nèi)各網(wǎng)絡(luò)硬件需求比例:交換機(jī):光模塊=140:164:4488=1:1.2=32.1。A100:網(wǎng)絡(luò)結(jié)構(gòu)各環(huán)節(jié)需求彈性測算基于下游應(yīng)用呈現(xiàn)規(guī)模角度,即按照單GPT4.0模型對于服務(wù)器需求用量測算。假設(shè)1:單個(gè)應(yīng)用的需求角度看,服務(wù)器潛在用量為1.5萬臺。假設(shè)2:全球假設(shè)國內(nèi)和海外有潛在20家公司可能形成同樣類型規(guī)模應(yīng)用。假設(shè)3:網(wǎng)絡(luò)結(jié)構(gòu)比例按照單個(gè)SuperPOD方式部署,即服務(wù)器:交換機(jī):光模塊的用量比例=1:1.2:32.1。假設(shè)4:服務(wù)器價(jià)格參考英偉達(dá)價(jià)格,為20萬美元;交換機(jī)結(jié)合Mellanox售價(jià),假設(shè)為2.5-3w美金,光模塊根據(jù)交換機(jī)速率,現(xiàn)在主流為200G,假設(shè)單個(gè)售價(jià)為250美金。從A100到H100,性能全面提升2023年一季度英偉達(dá)發(fā)布A100下一代H100GPU方案,性能全面提升,主要體現(xiàn)在以下幾個(gè)方面:新增FP8數(shù)據(jù)類型和新的Transformer引擎相結(jié),與A100GPU相比,提供6倍的吞吐量。TransformerEngine明顯加速了基于Transformer的模型(例如大型語言模型)的AI計(jì)算。H100擁有18個(gè)第四代NVLink互連,提供900GB/秒的總帶寬,是A100GPU600GB/秒總帶寬的1.5倍,是PCIeGen5帶寬的7倍。NVSwitch:H100采用全新的第三代NVSwitch,提供64個(gè)第四代NVLink互連端口,加速節(jié)點(diǎn)內(nèi)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論