網(wǎng)絡升級可提升算力效率1.6T光模塊有望加速產業(yè)化_第1頁
網(wǎng)絡升級可提升算力效率1.6T光模塊有望加速產業(yè)化_第2頁
網(wǎng)絡升級可提升算力效率1.6T光模塊有望加速產業(yè)化_第3頁
網(wǎng)絡升級可提升算力效率1.6T光模塊有望加速產業(yè)化_第4頁
網(wǎng)絡升級可提升算力效率1.6T光模塊有望加速產業(yè)化_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

目錄TOC\o"1-1"\h\z\u一、網(wǎng)絡在算力系統(tǒng)中的地位有望繼續(xù)提升,1.6T光塊加速推進 1二、北美云廠商資本開支指引樂觀,800G及1.6T光模塊需求或爆發(fā) 8三、投資建議 15四、風險分析 16圖表目錄圖表1:英達DGXA100SuperPOD系統(tǒng)意圖 1圖表2:光信業(yè)和電升迭示圖 2圖表3:英達GH200VSH100IB集在內模下的現(xiàn) 2圖表4:GH200網(wǎng)接示圖 3圖表5:1.6T的OSFP-XD封與OSFD和QSFP-DD封裝對比 3圖表6:OSFPMSA和4x400GMSA的1.6T主方案 4圖表7:OSFP-XD的DR8網(wǎng)絡撲圖 4圖表8:OSFP-XD的4xFR2絡撲圖 4圖表9:OSFPMSA和4x400GMSA的1.6T主方案 5圖表10:三菱200GEML結示圖 5圖表11:博通200GEML及PD決案意圖 5圖表12:Marvell于模塊的DSP產升意圖 6圖表13:OSFP-XD裝式下分接的意圖 6圖表14:NVLink同的級Roadmap 7圖表15:在PCIe和NVLink不情的GPU與模塊例況 7圖表16:北四云資本支況百美) 8圖表17:亞遜收況(萬元) 8圖表18:亞遜本情況百美) 8圖表19:的代EC2UltraClusters的絡構介示圖 9圖表20:的代EC2UltraClusters的絡構介示圖 9圖表21:含的HPC軟棧意圖 10圖表22:SRD協(xié)意圖 10圖表23:2020-2023Q2年Meta收情(萬) 10圖表24:2020-2023Q2年Meta資開情(美元) 10圖表25:Meta的SuperCluster網(wǎng)架介示圖 11圖表26:Meta早發(fā)的數(shù)中網(wǎng)架示圖 12圖表27:Meta新數(shù)中心備布意圖 12圖表28:2020-2023Q2谷歌收情(萬元) 13圖表29:2020-2023Q2谷歌本支況百美元) 13圖表30:谷歌Spine換機步成OCS13圖表31:谷包含OCS網(wǎng)絡構意圖 14圖表32:谷歌PalomarOCS內部構意圖 14圖表33:谷內置Circulator的模結示圖 14圖表34:2020-2023Q2微軟收情(萬元) 15圖表35:2020-2023Q2微軟本支況百美元) 15一、網(wǎng)絡在算力系統(tǒng)中的地位有望繼續(xù)提升,1.6T光模塊加速推進算力基礎設施是影響AI發(fā)展與應用的核心因素,優(yōu)秀的網(wǎng)絡性能可以提升計算效率,顯著提升算力水平。ChatGPTAIGCAI模型和海量數(shù)據(jù),能夠在多個應用場景下產生優(yōu)質的內容,AIGCAI發(fā)展與應用的核心因素。算力基礎設施成了目前行業(yè)亟需布局的資源,目前除了CPU/GPU等算力硬件需求強勁之外,網(wǎng)絡端也催生了更大的帶寬需求,以匹配日益增長的流量,未來隨著AI應用的發(fā)展,對于流量與帶寬的需求有望進一步增長。圖表1:英偉達DGXA100SuperPOD系統(tǒng)示意圖資料來源:英偉達,2022年開始,北美傳統(tǒng)云計算市場的光模塊已經(jīng)開始向800G速率升級,在AI領域,我們認為無論是訓練還是推理,800G在2023年-2024年,都將是AI數(shù)據(jù)中心的首選。速率已經(jīng)升級到800G的速率。從電口來看,單個Serdes的速率達到了100G,而單個光路的速率也達到了50GBaud(EML的速率)PAM4100G速率。800G2022年底開始小批量出貨,2023AIAI的客戶也是采用目前行業(yè)速率最高的800G光模塊。2024年,800G光模塊的出貨量有望大幅增長。目前,英偉達的A100GPU主要對應使用200G光模塊,H100GPU主要對應使用800G光模塊。每個A100GPU配一張MellanoxHDR200Gb/sInfiniband網(wǎng)卡,每個H100GPU配一張MellanoxNDR400Gb/sInfinibandH100SuperPOD800G1800G2400G8SerDes8100G通道一一對應。因此,在這種設計之下,交換機的通道密度提高,物理尺寸顯著降低。行業(yè)動態(tài)報告圖表2:光通信行業(yè)光口和電口升級迭代示意圖資料來源:思科,增加網(wǎng)絡帶寬能夠顯著提升算力,且性價比很高,GH200便是重要的實例。NVLink帶寬遠大于網(wǎng)卡側的PCIeNVLinkGPUGPU互連,將顯著提升系統(tǒng)的帶寬。20236月,英偉達創(chuàng)始人兼CEO黃仁勛在NVIDIAComputex2023演講中宣布,生成式AI引擎NVIDIADGXGH200現(xiàn)已投入量產。GH200NVLink4900GB/s超大網(wǎng)絡帶寬能力來提升算力,服務器256GH2001GH2009800G256GH2001GH20012800G光模塊。相較傳統(tǒng)的IB/Ethernet的網(wǎng)絡,GH200采用的NVLink網(wǎng)絡部分的成本占比雖然大幅增長,但是因為網(wǎng)絡在數(shù)據(jù)中心中的成本占比較低,因此通過提升網(wǎng)絡性能來提升算力效率,性價比實際很高。圖表3:英偉達GH200VSH100IB集群在大內存模型下的表現(xiàn)資料來源:英偉達,網(wǎng)絡對AI的作用愈發(fā)重要,包括帶寬,架構和協(xié)議層。更高的網(wǎng)絡帶寬能夠在單位時間傳輸更多的數(shù)據(jù)量,在內存增加的同時帶寬也相應提升,從而變相提升系統(tǒng)的算力水平;無阻塞的網(wǎng)絡架構能夠保證在數(shù)據(jù)量Infiniband、NVLink系統(tǒng)中的協(xié)議、基于RDMA的以太網(wǎng)協(xié)議、云廠商定制化的網(wǎng)絡協(xié)議,都能保證數(shù)據(jù)傳輸時的高穩(wěn)定性、高可靠性及低時延等。圖表4:GH200的網(wǎng)絡連接示意圖資料來源:英偉達,1.6T光模塊有望在2024年下半年小批量出貨,比預期提早一年左右。在AI數(shù)據(jù)中心中,越來越多的客戶傾向于選擇更大帶寬的網(wǎng)絡硬件。帶寬越大,單位bit傳輸?shù)某杀靖汀⒐母图俺叽绺 ?00G光模塊的高增速已經(jīng)能夠反映出AI對于帶寬迫切的需求,其在2022年底開始小批量,2023年和2024年的出貨量都有望大幅增長。而AI對于帶寬的需求是沒有極限的,得益于網(wǎng)絡較高的性價比,1.6T光模塊有望加速應用。圖表5:1.6T的OSFP-XD封裝與OSFD和QSFP-DD封裝的對比資料來源:OSFPMSA,目前1.6T光模塊的MSA標準包括4x400G和OSFP。4x400GMSA202112月,主要成員包括AristaMolex等廠商。4x400GMSA100G200G單通道的硬件逐步成熟,4x400G的方案將會受到比較大的挑戰(zhàn)。而行業(yè)動態(tài)報告OSFPMSA201611400G100多家,包括谷歌、、Coherent、中際旭創(chuàng)、思科和安費諾等廠商。OSFPMSA1.6TOSFP1600OSFPXD等兩種封裝方式。圖表6:OSFPMSA和4x400GMSA的1.6T主要方案資料來源:OSFPMSA,4x400GMSA官網(wǎng),目前OSFP-XD封裝方案為1.6T光模塊主流的選擇。OSFP-XDOctalSmallFormFactoreXtraDensePluggableModule2023OFC1.6TOSFP-XD1.6TOSFP-XDDR8+200G,溫度范圍0-7023W2kmOSFP-XD1.6T4xFR2光模塊,采用4xSN16100G4x400GFR21291nm1311nm兩個波長,同時公司的官網(wǎng)上DR82xFR4兩款產品;Coherent200G800GGen2和1.6T1.6T1.6T的研發(fā)。圖表7:OSFP-XD的DR8網(wǎng)絡拓撲圖 圖表8:OSFP-XD的4xFR2網(wǎng)絡拓撲圖資料來源:OSFPMSA, 資料來源:OSFPMSA,1.6T光模塊按照傳輸距離、通道數(shù)和波長可以分為多種產品,下游客戶可以根據(jù)實際需求定制化相關產品。100Gbps100G200GIM-DD的調制方式,若光口單通道100G16DR16(采用一個波長),4FR4(采用四個波長),2FR8(采用八個波長)200G8DR8(采用一個波長),4FR2(采用兩個波長),2FR4(采用4個波長),F(xiàn)R8(采用八個波長)。以相干的調制方式,若單通道速率為800G,包括ZR2(采用兩個波長)。我們認為,光口單通道200G預計是1.6T光模塊未來的主流選擇。圖表9:OSFPMSA和4x400GMSA的1.6T主要方案資料來源:OSFPMSA,從上游的光芯片來看,200GPAM4EML進展加速。1.6T光模塊的發(fā)展,核心元件是芯片,包括光芯片和100GBaudEML200GPAM4EML20233月200GPAM4EMLCWDM的光模塊中,800G采用四個,1.6T采用八個;Lumentum的200GPAM4EMLLightwave2023創(chuàng)新獎,該產品最大限度地降低了輸入電壓的波動,從而降低驅動芯片PAM4PAM6PAM8200GEML也在加速研發(fā)中,2022年公司已經(jīng)可以提供相關的解決方案,同時公司可以提供創(chuàng)新的無制冷的200GEML激光器方案。圖表10:三菱200GEML結構示意圖 圖表11:博通200GEML及PD解決方案示意圖資料來源:三菱, 資料來源:博通,從上游的電芯片來看,1.6TDSP有望迅速取得突破。2023年3月,Marvell發(fā)布了新一代Nova系列PAM4DSP5nm先進制程。NovaDSPGearbox16100G8200G1.6TDR8/DR4.2/2xFR4/LR8DSPSNR的性能監(jiān)控、FFE-taps、PRBS發(fā)生器等功能。2023OFCSemtech200G單通道電光112GBdPAM4DSP1.6T網(wǎng)絡奠定了基礎。圖表12:Marvell用于光模塊中的DSP產品升級示意圖資料來源:Marvell,從上游的光連接器來看,多款不同產品將采用不同的連接器。根據(jù)光路的數(shù)量和波長的分類,有不同的連LC連接器、MPO連接器、MXC連接器、CSSN連接器等產品。比如,MPO-12TxRx發(fā)射端;四個SN連接器可以用于1.6T4xFR2光模塊中。圖表13:OSFP-XD封裝形式下部分連接器的示意圖資料來源:OSFPMSA,從下游客戶來看,英偉達、谷歌和亞馬遜可能會是1.6T光模塊的主要需求方。英偉達網(wǎng)絡帶寬的需求非GH200中,NVLinkGPUGPU的互連。NVLink4.0的PCIe5.091.6T光模塊,則單位bit1.6TNVLink5.0,帶寬將進一步提升,那么對于光模塊的需求將持續(xù)增長。我們認為,谷歌作為在數(shù)通光模塊市場需求的主力,對光模塊更1.6T1.6T也將成為谷歌的主要需求產品。而400G1.6T1.6T產品成熟,亞馬遜可能會大量采購。圖表14:NVLink不同代際的升級Roadmap資料來源:英偉達,以英偉達的GH200架構為例,假設PCIe和NVLink的下一代帶寬增加一倍,那么在訓練場景下,非常樂觀的情況下,H100與1.6T光模塊對應比例有望達到1:12。假設PCIe6.0的帶寬增加一倍,那么從GPU到網(wǎng)卡適配器的帶寬增加一倍,光模塊的總帶寬也增加一倍。在胖樹三層架構的基礎上,H100和800G的比例由1:3上升到1:6,與1.6T的比例則可能達到1:3。假設NVLink下一代5.0的帶寬增加一倍,在GH200的產品中,H100800G1:91:181.6T1:9256GH200假設樂觀情況下PCIe和NVLink同時升級到下一代產品,且?guī)捲黾右槐?,那么H100與800光模塊比例有望達到1:24,與1.6T光模塊比例有望達到1:12。圖表15:在PCIe和NVLink不同情況下的GPU與光模塊比例情況資料來源:英偉達,(假設PCIe6.0的帶寬相比5.0增加一倍,NVLink5.0的帶寬相比4.0提升一倍)二、北美云廠商資本開支指引樂觀,800G及1.6T光模塊需求或爆發(fā)北美云廠商收入增速有所回暖,短期資本開支同比下降,但各家云廠商對未來AI的投資指引樂觀。2023Q2,北美三家云廠商亞馬遜、谷歌和微軟的云業(yè)務收入總計541.64億美元(Meta露),15.43%6.41%,增速有所提升。2023Q2334.29.56%89.4330.16%,Meta18.52%,谷0.88%27.15%2023Q2Capex降幅有所擴大,但是各家云廠商對未來(今年下半年及明年)AI業(yè)務發(fā)展均給予較高期待。圖表16:北美四大云廠商資本開支情況(百萬美元)亞馬遜 微軟 谷歌 Meta 亞馬遜YoY 微軟YoY 谷歌YoY MetaYoY45000 2540000 35000 2030000 1525000 102000015000 50100005000 0%0 -5資料來源:,2023Q2221.412.16%3.68%。雖然在過去的幾個季AWS客戶在云計算業(yè)務的開支不斷減少,但是目前公司已經(jīng)看到客戶開始將注意力更多放在創(chuàng)新上,同時考慮將新的工作負載放在云上。2023Q2114.5527.15%,環(huán)比下降19.37%2023500億美元,同比有一定的下降,其中用于配送和運輸?shù)闹С鲇蠥I的技術基礎設施投資有所增加。圖表17:亞馬遜云收入情況(百萬美元) 圖表18:亞馬遜資本開支情況(百萬美元)AWS收入(百美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比25000

20000

200%0

40%30%20%10%0%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2

0

150%100%50%0%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:, 資料來源:,AWS用于AI的超算集群,采用無阻塞網(wǎng)絡,AI芯片包括英偉達GPU和自研的芯片。第一代EC2UltraClusters4000A100GPU400GEFA8A100GPU,4100GEC2UltraClusters,該集群包含20000H100GPUEFA800G3.2T,大幅提升,且同樣采用無阻塞網(wǎng)絡架構,因此光模塊用量及速率將大幅提升。UltraClusterTrainiumInferentialAI3Trainium6EFlops。圖表19:AWS的第一代EC2UltraClusters的網(wǎng)絡架構介紹示意圖資料來源:AWS,圖表20:AWS的第二代EC2UltraClusters的網(wǎng)絡架構介紹示意圖資料來源:AWS,行業(yè)動態(tài)報告AWS的網(wǎng)絡采用EFA配合SRD協(xié)議,因此光模塊及交換機預計也采用定制化方案。EFA是定制化的低HPCRDMATCP通信,網(wǎng)絡延遲更低,數(shù)據(jù)吞吐量更高。EFA允許應用程序直接訪問網(wǎng)絡接口,而無需讓操作系統(tǒng)參與,從而減少開銷且使得應用程序更有效地運行。SRDScalableReliableDatagramAWS網(wǎng)絡構建和優(yōu)化的協(xié)議。在HPC中,數(shù)據(jù)包延遲和丟包會增加時延,降低擴展效率。SRD可以提供可靠的亂序交付,增加盡量多的網(wǎng)絡路徑發(fā)送數(shù)據(jù)包,在接收處快速排序,既可以降低傳輸延遲,也可以提升數(shù)據(jù)吞吐量。同時SRD有專門的擁塞控制,保證在各種負載下較高的傳輸帶寬和穩(wěn)定的時延。AWS原來的光模塊升級計劃是從400G到1.6T,但我們認為網(wǎng)絡帶寬需求不斷提升,2024800G1.6T需求也有望加速。圖表21:包含的HPC軟件棧示意圖 圖表22:SRD協(xié)議示意圖資料來源:AWS, 資料來源:AWS,2023Q2,Meta77.8816.46%36.42%,業(yè)績表現(xiàn)出色。2023Q2公61.3418.52%2023270億美元-300億美元,本年度第二次下調全年預期,主要原因是在非AI的服務器上節(jié)省了成本,同時由于項目延遲和設備交付推遲,這20242024年資本開支將保持增長,驅動力來自數(shù)據(jù)中心和服務器,尤其用于支撐AI方面的發(fā)展。公司過去在人工智能基礎設施上投入了數(shù)十億美元,目前這些投入已經(jīng)對公司的相關業(yè)務產生了明顯的推動作用,包括排序和推薦系統(tǒng)的優(yōu)化。圖表23:2020-2023Q2年Meta收入情況(百萬美元) 圖表24:2020-2023Q2年Meta資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比40000 60%35000 50%

10000 9000

140%120%0

40%30%20%10%0%-10%-20%-30%

0

100%80%60%40%20%0%-20%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:Meta, 資料來源:Meta,行業(yè)動態(tài)報告20221月,Meta發(fā)布了“ResearchSuperCluster”項目,旨在部署超大規(guī)模的服務器集群。第一階段公760DGXA1006080GPU200GInfiniband3Clos網(wǎng)絡架20235Meta’sAIInfra@Scale活動上表示第二階段的部署之前也已經(jīng)完成。目前,Meta2000DGXA10016000A100GPU。而網(wǎng)絡部分,Meta采取了當Infiniband480002000臺交換機。4800096000個連接點,每DACMeta的服務器集群中,A100與光模塊的比例為1:6,與英偉達胖樹三層架構計算側的比例基本一致。我們認為,Meta的用于訓練的超級集群的網(wǎng)絡與英偉達的DGXA100SuperPOD胖樹三層網(wǎng)絡架構非常相似,GPU與光模塊的比例也基本一致。圖表25:Meta的SuperCluster的網(wǎng)絡架構介紹示意圖資料來源:Meta,追溯Meta老數(shù)據(jù)中心的網(wǎng)絡架構,可類比胖樹三層Clos架構。2014年,Meta基于簡單模塊化的設計思維,為了能夠擴展更大的服務器規(guī)模,對現(xiàn)有的網(wǎng)絡架構做了一定的更新。該網(wǎng)絡架構的最小單元為1個PODPOD48TORTOR440G1610GPOD48TOR4FabricPODSpine行業(yè)動態(tài)報告圖表26:Meta早期發(fā)布的數(shù)據(jù)中心網(wǎng)絡架構示意圖資料來源:Meta,2023Q1,Meta2023340億美元-370300億美元-330億美元,主要原因是數(shù)據(jù)中心建設的成本降低,因為新的數(shù)據(jù)中心架構性價比高,可以同時支持AI和非AI的工作載荷。從MetaAISuperClusterCLOS架構。可以看出,Meta1.6T雖然Meta沒有提供新網(wǎng)絡架構的細節(jié)內容,但是我們認為可能是非AI和AI服務器共用存儲、網(wǎng)絡和液冷等設備,其中網(wǎng)絡采用三層CLOS的網(wǎng)絡基礎架構,再根據(jù)實際的工作載荷進行切換。圖表27:Meta新的數(shù)據(jù)中心設備分布示意圖資料來源:Meta,行業(yè)動態(tài)報告2023Q280.3127.96%7.74%Q1基本持平,沒有再出現(xiàn)前兩個季度同比增速持續(xù)放緩的情況。2023Q268.880.88%,環(huán)比增長9.52%。公司二季度資本開支略低,主要是由于辦公設施的優(yōu)化和部分數(shù)據(jù)中心建設延誤。但是公司20232022年,下半年將會對技術基礎設施的投資有所增加。因此可以推測,下半年18323.11%800G光模塊市場的主要需求廠商,明年需求有望持續(xù)快速增長。圖表28:2020-2023Q2年谷歌云收入情況(百萬美元) 圖表29:2020-2023Q2年谷歌資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比9000 60%

12000

80%0

50%40%30%20%10%0%

10000 80006000400020000

60%40%20%0%-20%-40%-60% 資料來源:, 資料來源:,谷歌數(shù)據(jù)中心探索OCS(opticalcircuitswitch)光交換機新方向,可取代Spine層交換機。谷歌以前的數(shù)CLOSOCSOCS的網(wǎng)絡。傳統(tǒng)的CLOS網(wǎng)絡中,Spine層交換機一直存在需提前部署靈活性差、性能容易成為瓶頸、成本高和功耗高等SpineOCSSpine側去掉了光電轉換過程,同時在帶寬不斷升級的背景下,OCS無需做更新,能夠有效降低成本和功耗等問題。圖表30:谷歌Spine層交換機逐步替換成OCS交換機資料來源:谷歌,行業(yè)動態(tài)報告基于OCS的網(wǎng)絡架構,對光模塊用量影響實際較小。目前谷歌采用MEMS方案來實現(xiàn)OCS。通過對MEMS中不同鏡面施加一定的電壓,調節(jié)鏡面的反射角度,以實現(xiàn)光路方向的轉換,完成光信號在不同交換機之間的傳輸。MEMS具備一定的商用成熟度,擁有波長和數(shù)據(jù)速率普適性、低功耗和低時延的優(yōu)點,但同時也有量產成熟度低、轉換時間長、成本高和可靠性不高等缺點,仍需時間去解決。在Spine層采用OCS交換機,那么在Spine側OCS交換機無需光模塊,而在匯聚層的一側仍需光模塊。假設整個網(wǎng)絡采用胖樹架構,若匯聚層采用一層交換機,那么GPU和光模塊的比例略有降低,會有一定影響;若匯聚層采用兩層交換機,那么GPU和光模塊的比例會有相應的提升。因此綜上分析,雖然Spine層采用OCS交換機,對光模塊的影響較小。圖表31:谷歌包含OCS的網(wǎng)絡架構示意圖資料來源:谷歌,基于OCS的網(wǎng)絡架構,光模塊的ASP將有明顯提升。OCS交換機不再使用光模塊,取而代之的是光纖直PalomarOCS136個端口,光纖數(shù)量較多,因此降低光纖數(shù)量成為剛需。若匯聚層交換機上的光模塊還是按照收發(fā)各一根光纖,那么OCS的端口數(shù)及光纖的數(shù)量翻倍。而如果兩根光纖變成一根,那么將大大提升端口利用的效率。因此OCS的網(wǎng)絡中使用的光模塊,首先必須是波分復用的方案,其次需要加上一個環(huán)形器(circulator)800GMux/DeMux組件進行波分復用/解復用,然后通過環(huán)形器耦合到一根收發(fā)共用的光纖中。定制化增加研發(fā)溢價,加之環(huán)形器增加BOM成本,因此單個光模塊的價值量將有明顯提升。谷歌在光連接需求一直保持領先,也有望成為1.6T的主要需求客戶。圖表32:谷歌PalomarOCS內部結構示意圖 圖表33:谷歌內置Circulator的光模塊結構示意圖資料來源:谷歌, 資料來源:谷歌,行業(yè)動態(tài)報告2023Q2239.9314.75%8.66%,增速有所放緩,AI相關的收入增量還不是很明顯。2023Q2,微軟的資本開支為89.43億美元(不包含融資租賃),同比增長30.16%,環(huán)比增長35.36%。公司預計2024財年的資本開支將逐季度環(huán)比提升,主要用于數(shù)據(jù)中心、CPU和GPU以及網(wǎng)絡設備方面。20236Microsoft365Copilot30/月,超市場預期。AI收入capex的持續(xù)性,若Copilot用戶數(shù)不斷提升,則微軟有望投入更多去強化算力基礎設施。公司專注于打造強大的人工智能平臺,幫助客戶在數(shù)字化支出中充分受益。圖表34:2020-2023Q2年微軟云收入情況(百萬美元) 圖表35:2020-2023Q2年微軟資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比30000 35%25000 30%20000 20%

10000 9000 800070006000

50%40%30%20%10%0

15%10%5%0%-5%

0

0%-10%-20%-30%-40%-50%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:, 資料來源:,三、投資建議雖然近期包括光模塊等在內的AI算力板塊有一些調整,但是中長期維度下我們仍然堅定看好AI發(fā)展給算力板塊帶來的需求拉動,行業(yè)景氣度仍在提升,業(yè)績兌現(xiàn)的概率較高。若不考慮AI的拉動,傳統(tǒng)數(shù)通光模塊市場需求相對保持

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論