AI系列專題研究報告:AI算力研究框架 20230613 -國海證券_第1頁
AI系列專題研究報告:AI算力研究框架 20230613 -國海證券_第2頁
AI系列專題研究報告:AI算力研究框架 20230613 -國海證券_第3頁
AI系列專題研究報告:AI算力研究框架 20230613 -國海證券_第4頁
AI系列專題研究報告:AI算力研究框架 20230613 -國海證券_第5頁
已閱讀5頁,還剩155頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

2023年06月13日AIAI算力研究框架——AI系列專題研究報告劉熹(證券分析師)S0350523040001liux10@◆GPT4:AI技術(shù)和工程的偉大創(chuàng)新,開啟科技“十年新周期”GPT-4是世界首個最接近AGI的先進AI系統(tǒng),展現(xiàn)出強大的“涌現(xiàn)能力”。GPT的成功,得益于其參數(shù)規(guī)模擴大,RLHF、Transformer、Prompt、插件、系統(tǒng)工程等方面的偉大創(chuàng)新。我們預計,ChatGPT將對科技產(chǎn)業(yè)產(chǎn)生深遠的影響,類似于操作系統(tǒng),ChatGPT將接入現(xiàn)有的全部軟硬件系統(tǒng)。GPT-4的誕生將加速AGI時代的到來,開啟科技“十年新周期”?!鬉I算力:科技企業(yè)大模型競賽的核心“裝備”,AIGC應用的關鍵基建Transfomer架構(gòu)大模型訓練對算力的消耗呈指數(shù)級增長。2023年1月,ChatGPT計劃再向微軟融資100億美金,該融資將是新一代大模型算力基建的主要資金來源。ChatGPT激發(fā)“鯰魚效應”,全球科技巨頭將AI戰(zhàn)略提升到空前高度,算力作為新一輪科技競賽的核心“裝備”,迎來需求的脈沖式增長。未來,ChatGPT應用的全面落地還將釋放更為廣闊的算力需求?!粲嬎闶茿I算力的核心引擎,存儲、網(wǎng)絡、軟件是AI算力的主要發(fā)展方向1)計算:GPU是ChatGPT訓練和推理的核心支柱,其更新速度遠超過“摩爾定律”,受益于AI和高性能市場需求增長,GPU行業(yè)景氣度顯著提升。AI服務器作為GPU的重要載體,預計其市場規(guī)模、滲透率將隨著GPU放量迎來同步高增。2)網(wǎng)絡:已成為限制AI算力提升的主要瓶頸,英偉達推出InfiniBand架構(gòu)下的NVLink、NVSwtich等方案,將GPU之間的通信能力上升到新高度。而800G、1.6T高端光模塊作為AI訓練的上游核心器件,將受益于大模型訓練需求的增長。3)存儲:“內(nèi)存墻”是制約算力提升的重要因素。NAND、DRAM等核心存儲器在制程方面臨近極限,不斷探索“3D”等多維解決方案。HBM基于其高寬帶特性,成為了高性能GPU的核心組件,市場前景廣闊。請務必閱讀報告附注中的風險提示和免責聲明2核心提要◆投資建議ChatGPT對算力的影響遠不止當前可見的基建投入,未來Transformer大模型的迭代推動模型訓練相關需求的算力增長,以及AIGC大模型應用的算力需求,將是算力市場不斷超預期的源泉。相關公司:、計算1)服務器:浪潮信息、中科曙光、紫光股份、工業(yè)富聯(lián)、緯創(chuàng)、廣達、英業(yè)達、戴爾、聯(lián)想集團、超威電腦、中國長城、神州數(shù)碼、拓維信息、四川長虹;2)GPU:英偉達、AMD、Intel、海光信息、寒武紀、龍芯中科、景嘉微;2、網(wǎng)絡1)網(wǎng)絡設備:紫光股份、中興通訊、星網(wǎng)銳捷、深信服、迪普科技、普天科技、映翰通;2)光模塊:中際旭創(chuàng)、新易盛、光迅科技、華工科技、聯(lián)特科技、劍橋科技、天孚通信;3、存儲1)存儲器:紫光國微、江波龍、北京君正、兆易創(chuàng)新、瀾起科技、東芯股份、聚辰股份、普冉股份、朗科科技。◆風險提示:宏觀經(jīng)濟影響下游需求,大模型迭代不及預期,大模型應用不及預期,市場競爭加劇,中美博弈加劇,相關公司業(yè)績不及預期等。請務必閱讀報告附注中的風險提示和免責聲明32.AI算力:GPT基座,率先受益于AI“十年新周期”3.算力—計算:GPU為算力核心,服務器為重要載體4.算力—網(wǎng)絡:數(shù)據(jù)中心算力瓶頸,光模塊需求放量5.算力—存儲:AI訓練“內(nèi)存墻”,3D工藝持續(xù)突破6.投資建議和風險提示請務必閱讀報告附注中的風險提示和免責聲明4請務必閱讀報告附注中的風險提示和免責聲明51.1GPT4:全球領先的“智能涌現(xiàn)”AI大模型?GPT-4是世界第一個最接近AGI的先進AI系統(tǒng)。GenerativePre-trainedTransformer4(GPT-4)是OpenAI創(chuàng)建的多模態(tài)大型語言模型,于2023年3月14日發(fā)布,并已通過ChatGPTPlus和商業(yè)API形式對外提供服務。?ChatGPT是OpenAI在2022年11月推出的基于GPT-3.5的新型AI聊天機器人,只需向ChatGPT提出需求,即可實現(xiàn)文章創(chuàng)作、代碼創(chuàng)作、回答問題等功能。ChatGPT從推出到月用戶過億僅用了2個月時間,是世界上增速最快消費級應用。GPTGPT4:全球最為領先的AI應用之一資料來源:OpenAI官網(wǎng),businessday,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明61.1GPT4:全球領先的“智能涌現(xiàn)”AI大模型?2018年以來,GPT系列模型的參數(shù)規(guī)模、訓練數(shù)量規(guī)模曾指數(shù)級增長,算法和框架持續(xù)升級。?預計GPT4的參數(shù)規(guī)模接近1萬億,數(shù)據(jù)量20萬億Tokens。GPT-1間014日技術(shù)結(jié)與安措施former和督微調(diào)former文度為8或1024使用掩(MLM)訓練調(diào)層,使用1600維行詞嵌入殘差層縮放為原來的N(N為殘差層的數(shù)量部帶狀注意模式參數(shù)數(shù)量增加175B)度增加2048個tokens大和局部意模式針對性的優(yōu)化整數(shù)和體參數(shù)可能有所同遠大750億組件紅隊試勵模M參數(shù)概175B-6B-1.3Bokenoken法練和有監(jiān)調(diào)模型預訓練督預訓練督預訓練RLHIF模型PORLHF模型獎RBRM))PPO強化學習集CommonCrawl,新和多樣化量規(guī)模0GB45TB45T+X資料來源:OpenAI官網(wǎng),《GPT-4核心技術(shù)分析報告》陳巍,人工智能大模型技術(shù)高峰論壇,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明71.1GPT4:全球領先的“智能涌現(xiàn)”AI大模型?GPT4的顯著特征“涌現(xiàn)能力”,LLM的涌現(xiàn)能力被正式定義為“在小型模型中不存在,但在大型模型中出現(xiàn)的能力”。?涌現(xiàn)能力出現(xiàn)時的一個顯著特點:當模型規(guī)模達到一定程度時,性能顯著提升。這種涌現(xiàn)模式與物理學中的相變現(xiàn)象有著密切的聯(lián)系。原則上,涌現(xiàn)能力也可以根據(jù)一些復雜任務來定義。?涌現(xiàn)是非線性深度網(wǎng)絡的基本特征,也是群體智能行為與復雜思維,感知與認知的基本特質(zhì)。GPTGPT4:“智能涌現(xiàn)”特征描述現(xiàn)特征 (情景學習)GPT設語言模型已經(jīng)提供了一個自然語言指令和/或幾個任務演示,它可以通過完成輸入文本的單詞序列為測試實例生成預期的輸出,而不需要額外的訓練或梯度更新 (指令跟隨)度上提高泛化能力 (邏輯推理)ao請務必閱讀報告附注中的風險提示和免責聲明81.1GPT4:全球領先的“智能涌現(xiàn)”AI大模型GPT-4在以下六個方面實現(xiàn)飛躍式提升。?創(chuàng)造能力更強:GPT-4比以往任何時候都更具創(chuàng)造性和協(xié)作性。它可以生成、編輯并與用戶一起迭代創(chuàng)意和技術(shù)寫作任務,例如創(chuàng)作歌曲、編寫劇本或?qū)W習用戶的寫作風格。?推理能力更強:GPT-4在高級推理能力方面超過ChatGPT。?更長的上下文:GPT-4能夠處理超過25,000個單詞的文本,允許使用諸如長表單內(nèi)容創(chuàng)建、擴展對話、文檔搜索和分析用例。GPT并生成標題、分類和分析。?專業(yè)知識更強:大多數(shù)專業(yè)和學術(shù)考試中,GPT-4表現(xiàn)出了人類水平的表現(xiàn)。?更安全、更一致:與GPT-3.5相比,GPT-4對禁用內(nèi)容的請求做出響應的可能性要低82%,產(chǎn)生事實性響應的可能性要高40%。 GPT4:專業(yè)考試、邏輯推理、多模態(tài)能力突出資料來源:OpenAI官網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明9月5日erse月9日9年3月創(chuàng)建OpenAILP公司4月27日OpenAIGym月5日erse月9日9年3月創(chuàng)建OpenAILP公司4月27日OpenAIGym月20日ProximalPolicyation月22日enAI月30日經(jīng)網(wǎng)絡ebox能應用程年1月5日連接文本和圖像CLIP月25日度神經(jīng)網(wǎng)絡年3月4日人工神經(jīng)網(wǎng)絡中話的語言模型年1月5日研究從文本創(chuàng)建圖像神經(jīng)網(wǎng)絡DALL·E年4月6日的人工智能系統(tǒng)DALL·E2OpenAI,在美國成立的人工智能研究公司,核心宗旨在于“實現(xiàn)安全的通用人工智能(AGI)”,使其有益于人類。OOpenAI歷史沿革月14日言模型0年9月B本23年3月高管簽署公開信,呼吁類似3年3月資料來源:維基百科,百度百科,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明10StripeCTO(Stripe4號員工)。年成立軟件公司Palantir。StripeCTO(Stripe4號員工)。年成立軟件公司Palantir。manWojciechZarembaopenAI創(chuàng)始人曾擔任OpenAI首席科學家?,F(xiàn)任OpenAI研究員。YCombinator總裁、人工智能實合創(chuàng)始人,被媒體稱為“ChatGPT之父”nPayPal裁。是硅谷最有名的天使投資者之一,曾經(jīng)投資過60多家創(chuàng)業(yè)公司,包括Facebook和Digg。JohnSchulman獲利00萬美元y2年成立太空探索技術(shù)公司Space兼首席技術(shù)官4年向特斯拉投630萬美元,任公、擁有所終決定權(quán)8年創(chuàng)立了ity太陽能的技術(shù)新堵通6年創(chuàng)立Neuralink公司,目人腦與電腦起來請務必閱讀報告附注中的風險提示和免責聲明1)首席科學家伊爾亞·蘇茨克維(IlyaSutskever)2)總裁兼董事長格雷格·布羅克曼(Greg1)首席科學家伊爾亞·蘇茨克維(IlyaSutskever)2)總裁兼董事長格雷格·布羅克曼(GregBrockman)3)CEO薩姆·奧特曼(SamAltman)三人皆是2015年OpenAI成立時?GPT-4幕后的研發(fā)團隊大致可分為七個部分:預訓練(Pretraining)、長上下文(Longcontext)、視覺(Vision)、強化學習&對齊(RL&alignment)、評估&分析(Evaluation&analysis)、部署(Deployment),以及其他。OOpenAI團隊主要分工隊要團隊任務訓練g長上下文內(nèi)核●計算機集群擴展●分布式訓練基礎設施●對齊數(shù)據(jù)ainingrunsPT資料來源:GPT-4TechnicalReport,多搜百科,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明121大參數(shù)+大數(shù)據(jù)+算法創(chuàng)新情境學習、思維鏈Prompt、6工程創(chuàng)新1大參數(shù)+大數(shù)據(jù)+算法創(chuàng)新情境學習、思維鏈Prompt、6工程創(chuàng)新、Transformer2自注意力機制Transformer2、、44、資料來源:國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明13參數(shù)對大模型性能起到明顯作用1.3GPT4六大顛覆式技術(shù)創(chuàng)新(1):大參數(shù)+大數(shù)據(jù)+算法創(chuàng)新參數(shù)對大模型性能起到明顯作用?參數(shù)擴大是提高LLM模型能力的關鍵因素。GPT-3首先將模型大小增加到175B參數(shù)的極大規(guī)模。語言模型前期的性能和模型規(guī)模大致呈線性關系,當模型規(guī)模大到一定程度時,任務性能有了明顯的突變。?大規(guī)模語言模型基座的可擴展性很強,實現(xiàn)反復自我迭代。因此,LLM也被看作是實現(xiàn)通用人工智能AGI的希望。 參數(shù)對大模型性能起到明顯作用請務必閱讀報告附注中的風險提示和免責聲明模型能力不僅與模型大小有關,還與數(shù)據(jù)的質(zhì)量對取得良好的性能起著關鍵作用,因此在擴展預訓練語料庫時,數(shù)據(jù)收集和清洗策略是非常重要的考慮。預訓練語料庫的來源大致可以分為兩類:?通用數(shù)據(jù):如網(wǎng)頁、書籍和對話文本,由于其龐大、多樣化和可訪問性,被模型能力不僅與模型大小有關,還與數(shù)據(jù)的質(zhì)量對取得良好的性能起著關鍵作用,因此在擴展預訓練語料庫時,數(shù)據(jù)收集和清洗策略是非常重要的考慮。預訓練語料庫的來源大致可以分為兩類:?通用數(shù)據(jù):如網(wǎng)頁、書籍和對話文本,由于其龐大、多樣化和可訪問性,被大多數(shù)LLM使用,可以增強LLM的語言建模和泛化能力。和代碼,使LLM具有特定的任務解決大大模型主要利用各種公共文本數(shù)據(jù)集做預訓練預預訓練大語言模型典型的數(shù)據(jù)處理過程請務必閱讀報告附注中的風險提示和免責聲明1.3GPT4六大顛覆式技術(shù)創(chuàng)新(1):大參數(shù)+大數(shù)據(jù)+算法創(chuàng)新PyTorchTensorFlowMXNetPaddlePaddleMindSporeOneFlow目目前開發(fā)大模型主要使用的算法庫rsOOMonLMPyTorchNVIDIA為分布式訓練提供了豐富的優(yōu)化技術(shù),包括模型和數(shù)據(jù)并行、混gpu的高效分布式訓練。rainPythonGPUTPU。EleutherAI它建立在JAX之上,并支持訓練的優(yōu)化策略,如混合精度訓練和并行。最近,一hatgptBBLLaMAcolossalai請務必閱讀報告附注中的風險提示和免責聲明omptlnstrustGPT系列(預測未來)自回歸預訓練語言模型XLMALBERTtoken1token2token3token41.3GPT4六大顛覆式技術(shù)創(chuàng)新(2):TromptlnstrustGPT系列(預測未來)自回歸預訓練語言模型XLMALBERTtoken1token2token3token4?Transformer由Google在2017年的論文AttentionisAllyouneed中提出,GPT與BERT均采用了Transformer模型。?Transformer基于顯著性的注意力機制為輸入序列中的任何位置提供上下文信息,使得Transformer具有全局表征能力強,高度并行性,位置關聯(lián)操作不受限,通用性強,可擴展性強等優(yōu)勢,從而使得GPT模型具有優(yōu)異的表現(xiàn)。言模型c言模型經(jīng)語言模型稀疏距離依賴?更長依賴難以建模,單向依賴高BERTBERT系列(完形填空)雙向預訓練語言模型P(wi/wi?n?1,...,wi?1)=自然語言理解:應用Fine-tuning C(wi?n?1,...,wi)C(wi?n?1,...,wi?1)Featurebased取器,單獨訓練下游任務資料來源:中國人工智能學會,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明171.3GPT4六大顛覆式技術(shù)創(chuàng)新(2):Transformer?Self-Attention自注意力機制:當模型處理每個詞(輸入序列中的每個位置)時,Self-Attention機制使得模型不僅能夠關注當前位置的詞,而且能夠關注句子中其他位置的詞,從而可以更好地編碼這個詞。即單詞自己記住我和哪些單詞在同一句話里面。?Transformer基于自注意力機制,學會單詞和單詞之間共同出現(xiàn)的概率,在語料輸入后,可以輸出單詞和單詞共同出現(xiàn)的概率,同時,Transformer能夠挖掘長距離上下文的詞之間的雙向關系。資料來源:paperswithcode,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明181.3GPT4六大顛覆式技術(shù)創(chuàng)新(3):RLHF?RLHF是ChatGPT所采用的關鍵技術(shù)之一。ReinforcementLearningwithHumanFeedback(RLHF)是強化學習 (RL)的一個擴展分支,RLHF將人類的反饋信息納入到訓練過程,通過使用這些反饋信息構(gòu)建一個獎勵模型神經(jīng)網(wǎng)絡,以此提供獎勵信號來幫助RL智能體學習,從而更加自然地將人類的需求,偏好,觀念等信息以一種交互式的學習方式傳達給智能體,對齊(align)人類和人工智能之間的優(yōu)化目標,產(chǎn)生行為方式和人類價值觀一致的系統(tǒng)。RRLHF訓練步驟Step1.預訓練語言模型(LM)Step2.訓練獎勵模型(RM)Step3.用強化學習(RL)微調(diào)資料來源:HuggingFace,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明19Prompt的案例演示1.3GPT4六大顛覆式技術(shù)創(chuàng)新(4):PPrompt的案例演示?“提示”是一種提供給預訓練語言模型的線索,讓預訓練語言模型能更好的理解人類的問題。通過在輸入中增加額外的?提示學習的優(yōu)勢:))對預訓練?!竁的利用率高;:)小樣本場景訓練效果提升;3)L!ue-在nue成本大幅度下降等。ngpretrainandfinetune資料來源:網(wǎng)易新聞,百度智能云,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明201.3GPT4六大顛覆式技術(shù)創(chuàng)新(4):Prompt?語境學習(in-contextlearning,ICL)作為一種特殊的提示形式與GPT-3一起被首次提出,并已成為一種典型的利用LL的方法。首先,從任務描述開始,從任務數(shù)據(jù)集中選擇一些示例作為演示。然后,將它們按照特定的順序組合起來,形成具有特殊設計模板的自然語言提示。最后,測試實例被附加到演示中,作為LLM生成輸出的輸入?;谌蝿昭菔?,LLM可以在不顯式梯度更新的情況下識別并執(zhí)行新任務。情境學習情境學習(ICL)與思維鏈(CoT)提示的比較研究ICL個演示和一個測試查詢提示LLM,而CoT提示則涉及提示中的一系列中間推理步驟。請務必閱讀報告附注中的風險提示和免責聲明211.3GPT4六大顛覆式技術(shù)創(chuàng)新(5):插件M?為解決這些問題,ChatGPT啟用了外部插件的機制,幫助ChatGPT訪問最新信息,運行計算或使用第三方服務,類似于LLM的“眼睛和耳朵”,可以廣泛擴展LLM的能力范圍。GPT版插件。此更新有望徹底改變ChatGPT的使用方式,從娛樂和購物到求職和天氣預報。?ChatGPT建立一個社區(qū),插件開發(fā)者來構(gòu)建ChatGPT插件,在語言模型顯示的提示符中列出啟用的插件,以及指導模文檔。 請務必閱讀報告附注中的風險提示和免責聲明22設難練難備難落地難訓練換/優(yōu)化放備設和上線平臺調(diào)度系統(tǒng)設計與優(yōu)化能耗系統(tǒng)設計及優(yōu)化算系統(tǒng)設計優(yōu)化與優(yōu)化存儲設計與優(yōu)化轉(zhuǎn)換部署量化蒸餾源數(shù)據(jù)有數(shù)據(jù)型構(gòu)計在線推理推理代碼調(diào)試模型微訓練代碼調(diào)試模型訓練API開發(fā)?如何實現(xiàn)參數(shù)面無損網(wǎng)絡?如何超大集群穩(wěn)定性設?如何搭建大規(guī)模推理集?如何有效的進行故障恢離?如何構(gòu)建高質(zhì)量的大規(guī)?設難練難備難落地難訓練換/優(yōu)化放備設和上線平臺調(diào)度系統(tǒng)設計與優(yōu)化能耗系統(tǒng)設計及優(yōu)化算系統(tǒng)設計優(yōu)化與優(yōu)化存儲設計與優(yōu)化轉(zhuǎn)換部署量化蒸餾源數(shù)據(jù)有數(shù)據(jù)型構(gòu)計在線推理推理代碼調(diào)試模型微訓練代碼調(diào)試模型訓練API開發(fā)?如何實現(xiàn)參數(shù)面無損網(wǎng)絡?如何超大集群穩(wěn)定性設?如何搭建大規(guī)模推理集?如何有效的進行故障恢離?如何構(gòu)建高質(zhì)量的大規(guī)?如何進行數(shù)據(jù)集質(zhì)量評?如何選擇模型稠密稀疏?如何選擇最高效的并行?如何實現(xiàn)多任務可視化?如何實現(xiàn)斷點續(xù)訓??OpenAI聯(lián)合創(chuàng)始人&CEOSamAltman表示:GPT-4是人類迄今為止最復雜的軟件系統(tǒng)。?LLM的發(fā)展使得研發(fā)和工程的界限不再清晰。LLM的訓練需要在大規(guī)模數(shù)據(jù)處理和分布式并行訓練方面的廣泛實踐經(jīng)驗。開發(fā)LLM,研究人員必須解決復雜的工程問題,與工程師一起工作或成為工程師。系統(tǒng)工程師大模型專業(yè)開發(fā)者系統(tǒng)工程師大模型專業(yè)開發(fā)者剪枝?如何進行大模型的分布?如何逬行大模型的推理?如何進行大模型的無損量化...2.AI算力:GPT的基座,顯著受益于新一輪科技革命請務必閱讀報告附注中的風險提示和免責聲明24各種服務器器放器學翻譯碼各種服務器器放器學翻譯碼ChatGPT的發(fā)布類似于Windows的誕生。?ChatGTP作為大語言模型,將會起到信息系統(tǒng)入口的作用,同時,ChatGPT或?qū)⒅厮苣壳暗能浖鷳B(tài)。?2022年,Windows在全球PC操作系統(tǒng)市占率約75%,應用數(shù)量3000萬以上,是世界上生態(tài)規(guī)模最龐大的商業(yè)操作系統(tǒng)。?圍繞Windows所創(chuàng)造的桌面軟件生態(tài),誕生了現(xiàn)有的全球互聯(lián)網(wǎng)巨頭,亞馬遜、谷歌、META、阿里巴巴、騰訊、百度等。應用輯文件系統(tǒng)內(nèi)存管理進程管理人機交互網(wǎng)絡安全管控曲別感分析示成生成資料來源:人工智能大模型技術(shù)高峰論壇,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明2502.1GPT開啟AI新紀元:對標Iphone的“十年周期”0?英偉達CEO黃仁勛:ChatGPT是AI的“Iphone時刻”?iPhone是蘋果公司(AppleInc.)于2007年1月9日開始發(fā)售的搭載iOS操作系統(tǒng)的系列手機產(chǎn)品。?同時,圍繞蘋果創(chuàng)造的智能手機生態(tài),誕生了抖音、微信等應用公司,以及蘋果供應鏈環(huán)節(jié)的廣闊市場機遇。 2002007-2021年蘋果iPhone出貨量(百萬臺)2231.52215.2215.8206.3.5120072008200920102011201220132014201520162017201820192020202120072007-2021年蘋果iPhone市占率18%18%18%18%15%15%15%15%14%14%14%14%%200720082009201020112012201320142015201620172018201920202021請務必閱讀報告附注中的風險提示和免責聲明262.1GPT開啟AI新紀元:科技產(chǎn)業(yè)的“十年新周期”機機人電腦面互聯(lián)網(wǎng)動互聯(lián)網(wǎng)表公司tApple訊跳動t科技革命誕生新的巨頭!資料來源:清華博學堂,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明272.2算力是大模型的根基,GP大大語言模型(LLM)產(chǎn)業(yè)鏈工型型件用…資料來源:國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明28先進計算技術(shù)產(chǎn)業(yè)體系框架?互聯(lián)網(wǎng)?通信?金融?政府?科學實驗先進計算技術(shù)產(chǎn)業(yè)體系框架?互聯(lián)網(wǎng)?通信?金融?政府?科學實驗?氣象研究?航空航天?石油勘探◆算力是對信息數(shù)據(jù)進行處理輸出目標結(jié)果的計算能力。隨著社會數(shù)字化轉(zhuǎn)型的持續(xù)深入,算力已成為支撐和推動數(shù)字經(jīng)濟發(fā)展的核心力量,并對推動科技進步、社會治理等發(fā)揮著重要的作用。根據(jù)中國算力發(fā)展指數(shù)白皮書測算,算力沒投入1元,將帶動3-4元的經(jīng)濟產(chǎn)出?!?021年全球計算設備算力總規(guī)模達到615EFlops,同比增長44%,其中智能算力規(guī)模為232EFlops,超級算力規(guī)模為14EFlops。智算中心、邊緣數(shù)據(jù)中心將保持高速增長。計計算力指數(shù)與GDP走勢顯著正相關算算力需求場景邊緣算力邊緣算力?智能汽車?視頻監(jiān)控?移動設備?傳感設備22016-2021年全球算力規(guī)模及增速00201620172018201920202021全球算力規(guī)模(Eflops)同比增速(%)50%45%40%35%30%25%20%%%請務必閱讀報告附注中的風險提示和免責聲明29ChatGPT訓練需要消耗巨大算力2.2算力是大模型的根基,GPT的率先受益賽ChatGPT訓練需要消耗巨大算力?微軟投資10億美金打造OpenAI超算平臺。2020年5月,微軟投資10億美金與OpenAI獨家合作打造了AzureAI超算平臺亮相,性能位居全球前五,擁有超過28.5萬個CPU核心、1萬個GPU、每GPU擁有400Gbps網(wǎng)絡帶寬的超級計算機,主要用于大規(guī)模分布式AI模型訓練。?據(jù)OpenAI報告,訓練一次1746億參數(shù)的GPT-3模型需要的算力約為3640PFlop/s-day。即假如每秒計算一千萬億次,也需要計算3640天。OpenAI融資歷程11A輪元1enHorowitznernt74/3輪露8YCombinator資料來源:清華博學堂,人工智能大模型技術(shù)高峰論壇,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明30“大模型+大數(shù)據(jù)”成為AI預訓練模型的“新范式”2.2算力是大模型的根基,GPT“大模型+大數(shù)據(jù)”成為AI預訓練模型的“新范式”?Transformer相關模型對算力的需求提升數(shù)倍,遠超過算力產(chǎn)業(yè)的摩爾定律增速?;赥ransformer體系結(jié)構(gòu)的大型語言模型(LargeLanguageModels)涉及高達數(shù)萬億從文本中學習的參數(shù)。開發(fā)它們是一個昂貴、耗時的過程,需要深入研究技術(shù)專長、分布式數(shù)據(jù)中心規(guī)模的基礎設施和完整的堆棧加速計算方法。?“大模型+大數(shù)據(jù)”成為預訓練模型的“新范式”。近年新推出的大語言模型所使用的數(shù)據(jù)量和參數(shù)規(guī)模呈現(xiàn)“指數(shù)級”增長,參數(shù)和數(shù)據(jù)規(guī)模的增長帶來的是算力消耗增加。我們預計未來的大模型所消耗的算力將遠超過目前已有的大模型。Transformer模型消耗的算力遠超過摩爾定律資料來源:ASurveyofLargeLanguageModels,新智元,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明31GPT的應用場景2.2算力是大模型的根基,GPT的率先受益賽道GPT的應用場景?ChatGPT產(chǎn)品運營需要更大的算力:據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次。據(jù)Fortune雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務成本約0.01美元。?根據(jù)科技云報道如果使用總投資30.2億元、算力500P的數(shù)據(jù)中心來支撐ChatGPT的運行,至少需要7-8GPT-4的API價格ttokensokensxttokensokens請務必閱讀報告附注中的風險提示和免責聲明英偉達發(fā)布2024年第和Q2指引均超預期計算公司搶購A100/H100,產(chǎn)品漲價,供貨周期拉長仁勛等大咖為tGPT億月活,頻發(fā)生宕機2022年10月-至今英偉達和全球部分證券市場走勢圖00002023-03-012023-04-192023-06-07成交金額(百萬元英偉達發(fā)布2024年第和Q2指引均超預期計算公司搶購A100/H100,產(chǎn)品漲價,供貨周期拉長仁勛等大咖為tGPT億月活,頻發(fā)生宕機2022年10月-至今英偉達和全球部分證券市場走勢圖00002023-03-012023-04-192023-06-07成交金額(百萬元)(右)英偉達(NVIDIA)納斯達克指數(shù)2022年10月-至今全球算力相關公司市值漲幅行業(yè)證券代碼證券簡稱漲幅排名光模塊603083.SH劍橋科技681.24%光模塊301205.SZ聯(lián)特科技496.05%服務器SMCI.O超微電腦375.14%光模塊300308.SZ中際旭創(chuàng)366.71%光模塊300502.SZ新易盛303.38%存儲300042.SZ朗科科技270.54%GPU688256.SH寒武紀251.32%光模塊300394.SZ天孚通信226.95%GPUNVDA.O英偉達219.55%服務器3231.TW緯創(chuàng)166.29%服務器601138.SH工業(yè)富聯(lián)150.59%服務器000977.SZ浪潮信息129.01%服務器603019.SH中科曙光116.81%服務器000938.SZ紫光股份106.24%GPU688047.SH龍芯中科97.65%GPUAMD.OAMD97.16%光模塊000988.SZ華工科技95.48%GPU300474.SZ景嘉微93.95%光模塊002281.SZ光迅科技89.64%服務器2382.TW廣達67.53%服務器000066.SZ中國長城63.11%服務器2356.TW英業(yè)達61.35%服務器DELL.N戴爾43.05%服務器0992.HK聯(lián)想集團42.22%存儲000660.KS海力士38.15%存儲005930.KS三星33.71%GPU688041.SH海光信息33.27%存儲MU.O美光科技31.44%GPUINTC.OINTEL25.27%存儲300223.SZ北京君正19.43%存儲688008.SH瀾起科技11.22%存儲603986.SH兆易創(chuàng)新9.76%請務必閱讀報告附注中的風險提示和免責聲明2.32023年,全球算力上市公司市值漲幅可觀22022.10-至今GPU公司股價走勢%%2022-10-032022-11-182023-01-102023-03-012023-04-192023-06-07NVIDIAAMD特爾(INTEL)寒武紀-U2022.10-至今存儲公司股價走勢是核心錨63%53%43%33%23%%3%-7%2022-10-102022-11-242023-01-112023-03-062023-04-212023-06-12SAMSUNGELECSKHYNIX美光科技(MICRONTECHNOLOGY)兆易創(chuàng)新 東芯股份2022.10-至今服務器公司股價走勢93%%-7%11-242023-01-112023-03-062023-04-212023-06-12浪潮信息中科曙光工業(yè)富聯(lián)緯創(chuàng)超微電腦2022.10-2023.6光模塊公司股價走勢5%%2022-11-242023-01-112023-03-062023-04-212023-06-12中際旭創(chuàng)劍橋科技聯(lián)特科技新易盛天孚通信請務必閱讀報告附注中的風險提示和免責聲明3.計算:GPU為算力核心,服務器為重要載體請務必閱讀報告附注中的風險提示和免責聲明35服務器的主要分類3.1服務器:AI算力的重要載體服務器的主要分類?服務器通常是指那些具有較高計算能力,能夠提供給多個用戶使用的計算機。服務器與PC機的不同點很多,例如PC機在一個時刻通常只為一個用戶服務。服務器與主機不同,主機是通過終端給用戶使用的,服務器是通過網(wǎng)絡給客戶端用戶使用的,所以除了要擁有終端設備,還要利用網(wǎng)絡才能使用服務器電腦,但用戶連上線后就能使用服務器上的特定服務了。?AI服務器是一種能夠提供人工智能(AI)計算的服務器。它既可以用來支持本地應用程序和網(wǎng)頁,也可以為云和本地服務器提供復雜的AI模型和服務。AI服務器有助于為各種實時AI應用提供實時計算服務。AI服務器按應用場景可分為訓練和推理兩種,其中訓練對芯片算力要求更高,推理對算力的要求偏低。NVIDIAA100服務器請務必閱讀報告附注中的風險提示和免責聲明2021年全球各服務器公司收入(單位:百萬美元)3.1服務器:AI2021年全球各服務器公司收入(單位:百萬美元)1)全球服務器市場:Counterpoint2022年,全球服務器市場的收入將同比增長17%,達到1117億美元。器公司,以及富士康、廣達、緯創(chuàng)、英業(yè)達等ODM廠商。ODMDirect的增長速度比整體市場高3個百分點,ODMDirect將成為大規(guī)模數(shù)據(jù)中心部署的硬件選擇。AI務器市場份額AIAI務器市場份額AI務器主要客戶?根據(jù)IDC數(shù)據(jù),預計2022年市場規(guī)模約為183億美023年市場規(guī)模211億美元。戴爾、HPE、聯(lián)想、華為占比分別為13.8%、9.8%、6.1%、4.8%。軟,軟,1.50%0%阿里巴巴,谷歌17.00%騰訊,2.30%字節(jié)跳動,14.00%請務必閱讀報告附注中的風險提示和免責聲明3.1服務器:AI算力的重要載體服務器市場規(guī)模0449.49.4920192020202120222023E市場規(guī)模(億美元)同比增長(%)%服務器市場份額1)中國服務器市場:?2022年,中國服務器市場規(guī)模為273.4億美元。?2022年,浪潮以28.1%的市場份額位列第一,收入達530.63億。2)中國加速服務器市場:?根據(jù)IDC數(shù)據(jù),2022年,中國加速服務E務器市場規(guī)模AI務器市場份額其他,7%思騰合力,其他,7%寶德,5%浪潮,47%華為浪潮,47%坤前,6%安擎,7%寧暢,9%新華三,器市場規(guī)模達到67億美元,同比增長24%。?2022年,浪潮、新華三、寧暢位居前三,占據(jù)了60%以上的市場份額?互聯(lián)網(wǎng)依然是最大的采購行業(yè),占整體加速服務器市場接近一半的份額。請務必閱讀報告附注中的風險提示和免責聲明AIAI?AI芯片是算力的核心。AI芯片也被稱為AI加速器或計算卡,即專門用于處理人工智能應用中的大量計算任務的模塊(其他非計算任務仍由CPU負責)。伴隨數(shù)據(jù)海量增長,算法模型趨向復雜,處理對象異構(gòu),計算性能要求高,AI芯片在人工智能的算法和應用上做針對性設計,可高效處理人工智能應用中日漸多樣繁雜的計算任務。?GPU是目前最廣泛應用的AI芯片。AI芯片主要包括圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)、專用集成電路(ASIC)、神經(jīng)擬態(tài)芯片(NPU)等。GPU屬于通用型芯片,ASIC屬于專用型芯片,而FPGA則是介于兩者之間的半定制化芯片。2022年,我國GPU服務器占AI服務器的89%。同AI芯片之間對比GPUFPGAASIC型疊加大量計算單元和高速內(nèi)存,邏輯控制單元具備可重構(gòu)數(shù)字門電路和存儲器,根據(jù)應用定制域應用和特定算法定制域3D圖像處理,密集型并算法更新頻繁或者市場規(guī)模較小的專用領域需求量大的專用領域功耗遠低于GPU,一次低性強、性能高于FPGA、功耗低、量產(chǎn)成格貴、功耗高編程門檻高、量產(chǎn)成本高風險高、一次性成本高資料來源:前瞻產(chǎn)業(yè)研究院,華經(jīng)情報網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明39?GPU是NVIDIA公司在1999年8月發(fā)表NVIDIAGeForce256繪圖處理芯片時首先提出的概念。在此之前,電腦中處理影像輸出的顯示芯片,通常很少被視為是一個獨立的運算單元。年份主要進展代表產(chǎn)品晶體管數(shù)量總線API渲染模型1980-1990圖形工作站系統(tǒng)SGIIrisGeometry<1MIrisGL1995-1998GPU,硬件光柵化MPCIAGPXOpenGL1.12,DirectX61999-2000硬件幾何處理25MAGP4XOpenGL1.12,DirectX72001可編程頂點程序Geforce?OpenGL1.13,DirectX81.02003可編程程序像素GeforceFX100MAGP8XOpenGL1.13,DirectX92.004-2005性200MPCI-EOpenGL2.10,DirectX9.10c3.0可編程同意渲染GPGPU0/3000/4000MPCIe2.0OpenGL2.11,Directx10,CUDA,4.0資料來源:清華博學堂,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明40 U U?圖形處理器(GPU),又稱顯示核心(displaycore)、視覺處理器(videoprocessor)、顯示芯片 (displaychip)或圖形芯片(graphicschip),是一種專門執(zhí)行繪圖運算工作的微處理器。?GPU具有數(shù)百或數(shù)千個內(nèi)核,經(jīng)過優(yōu)化,可并行運行大量計算。雖然GPU在游戲中以3D渲染而聞名,但它們對運行分析、深度學習和機器學習算法尤其有用。GPU允許某些計算比傳統(tǒng)CPU上運行相同的計算速度快10倍至100倍。GPGPU,即是將GPU的圖形處理能力用于通用計算領域的處理器。GPUGPU家請務必閱讀報告附注中的風險提示和免責聲明41其他其他大云平臺加速卡占比?根據(jù)LC數(shù)據(jù),2019年,NVIDIA在全球AI大云平臺加速卡占比97%。此外,AMDGPU、賽靈思FPGA、IntelFPGA的云?2021年,中國加速卡出貨量超80萬片,Nvidia市占率80%+。英偉達數(shù)據(jù)中心GPU類別英偉達數(shù)據(jù)中心GPU類別服務器AI加速卡市場份額請務必閱讀報告附注中的風險提示和免責聲明42?CUDA是英偉達2007年推出的一種并行計算平臺和應用程序編程接口(API),允許軟件使用某些類型的GPU進行通用計算機處理。CUDA與NVIDIAGPU無縫協(xié)作,加速跨多個領域的應用程序開發(fā)和部署。?目前,超過一百萬的開發(fā)人員正在使用CUDA-X,它提供了提高生產(chǎn)力的能力,同時受益于持續(xù)的應用程序性能。資料來源:英偉達官網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明43 2015-2023年英偉達全球收入(十億美元) 2015-2023年英偉達按部門收入(百萬美元)?2023財年,英偉達全球收入269.7億美元,其中,圖形業(yè)務部門的收入約為119億美元,計算與網(wǎng)絡部門的收入為151億美元。?2023Q1(Q1FY24)財季,英偉達數(shù)據(jù)中心業(yè)務營收42.8億美元,歷史新高,同比增長14%,環(huán)比增長18%。00000QQ達各季度收入-按市場 4,2803,7503,8063,8333,620661,9001,9032,0481,752Q2FY21Q3FY21Q4FY21Q1FY22Q2FY22Q3FY22Q4FY22Q1FY23Q2FY23Q3FY23Q4FY23Q1FY24GamingDataCenterProressianalVisualizationAutoOEM&Other請務必閱讀報告附注中的風險提示和免責聲明444.網(wǎng)絡:數(shù)據(jù)中心算力瓶頸,光模塊需求放量請務必閱讀報告附注中的風險提示和免責聲明454.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBand?數(shù)據(jù)通信設備(網(wǎng)絡設備、ICT設備)泛指實現(xiàn)IP網(wǎng)絡接入終端、局域網(wǎng)、廣域網(wǎng)間連接、數(shù)據(jù)交換及相關安全防護等功能的通信設備,主要大類包括交換機、路由器、WLAN。其中主要的是交換機和路由器。?網(wǎng)絡設備是互聯(lián)網(wǎng)基本的物理設施層,屬于信息化建設所需的基礎架構(gòu)產(chǎn)品。網(wǎng)絡設備分類及介紹資料來源:華經(jīng)產(chǎn)業(yè)研究院,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明464.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBand?網(wǎng)絡設備制造服務行業(yè),上游主要為芯片、PCB、電源、各類電子元器件等生產(chǎn)商,直接下游為各網(wǎng)絡設備品牌商,終下游包括運營商、政府、金融、教育、能源、電力、交通、中小企業(yè)、醫(yī)院等各個行業(yè)。?網(wǎng)絡設備根據(jù)應用領域分為電信級、企業(yè)級和消費級。電信級網(wǎng)絡設備主要應用于電信運營商市場,用于搭建核心骨干互聯(lián)網(wǎng);企業(yè)級網(wǎng)絡設備主要應用于非運營商的各種企業(yè)級應用市場,包括政府、金融、電力、醫(yī)療、教育、制造業(yè)、中小企業(yè)等市場;消費級網(wǎng)絡設備主要針對家庭及個人消費市場。 網(wǎng)絡設備上下游情況 網(wǎng)絡設備按照應用領域分類情況資料來源:觀研報告網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明47 2017-2024年中國網(wǎng)絡設備市場規(guī)模統(tǒng)計(億美元)4.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBan 2017-2024年中國網(wǎng)絡設備市場規(guī)模統(tǒng)計(億美元)?市場規(guī)模,1)全球:根據(jù)IDC報告,2021年網(wǎng)絡市場規(guī)模為542.4億美元,同比增長10.1%。其中交換機、路由器和WLAN增速分別為9.7%、6.5%和20.4%。2)中國:2021年網(wǎng)絡市場規(guī)模為102.4億美元(約677.89億元人民幣),同比增長12.1%。數(shù)字經(jīng)濟、5G、云計算、網(wǎng)絡設備升級、大型數(shù)據(jù)中心建設等驅(qū)動網(wǎng)絡設備行業(yè)需求持續(xù)提升。?競爭格局,行業(yè)集中度較高,思科、華為、新華三等少數(shù)幾家企業(yè)占據(jù)著絕大部分的市場份額,呈現(xiàn)寡頭競爭的市場格局。?人工智能和高性能計算(HPC)日益增長的計算需求推動了多節(jié)點、多GPU系統(tǒng)的無縫、高速通信的需求,為了構(gòu)建最強大的、能夠滿足業(yè)務速度的端到端計算平臺,需要一個快速、可擴展的互連網(wǎng)絡。22021年全球及中國交換機行業(yè)市場份額情況資料來源:智研咨詢,華經(jīng)產(chǎn)業(yè)研究,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明48通信帶寬的提升速度遠低于計算提升的速度4.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBan通信帶寬的提升速度遠低于計算提升的速度?通信成為算力的瓶頸。AI加速器通常會簡化或刪除其他部分,以提高硬件的峰值計算能力,但是卻難以解決在內(nèi)存和通信上的難還是AI加速器之間的通信,都已?擴展帶寬的技術(shù)難題還尚未被攻力提高了90,000倍,雖然存儲器從DDR發(fā)展到GDDR6x,接口標準從PCIe1.0a升級到NVLink3.0,但是通訊帶寬的增長只有30倍。資料來源:量子位,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明494.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBand?英偉達NVLink。NVLink是NVIDIA的高帶寬、高能效、低延遲、無損的GPU到GPU互連技術(shù),其中包含諸如鏈路級錯誤檢測和數(shù)據(jù)包回放機制等彈性特性,可保證數(shù)據(jù)的成功傳輸。?對比上一代,第四代NVLink可將全局歸約操作的帶寬提升3倍,通用帶寬提升50%,單個NVIDIAH100TensorCoreGPU最多支持18個NVLink連接,多GPUIO的總帶寬為900GB/s,是PCIe5.0的7倍。 NVLink鏈接圖 NVLink性能表現(xiàn) NVLink規(guī)格資料來源:英偉達官網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明504.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBand?英偉達NVSwitch。第三代NVSwitch技術(shù)包括位于節(jié)點內(nèi)部和外部的交換機,用于連接服務器、集群和數(shù)據(jù)中心環(huán)境中的多個GPU。節(jié)點內(nèi)的每個NVSwitch具有64個第四代NVLink鏈路端口,可加速多GPU連接。交換機總吞吐量從上一代的7.2Tb/s提升到13.6Tb/s。新的第三代NVSwitch技術(shù)還通過組播和NVIDIASHARP在網(wǎng)計算,為集合運算提供硬件加速。?英偉達結(jié)合全新NVLINK和NVSwitch技術(shù),構(gòu)建大型NVLinkSwitch系統(tǒng)網(wǎng)絡,實現(xiàn)前所未有的通信帶寬水平。NVLinkSwitch系統(tǒng)最多可支持256個GPU。互連節(jié)點能夠提供57.6TB的多對多帶寬,可提供高達1exaFLOP級別的FP8稀疏計算算力。NVSwitchNVSwitch規(guī)格參數(shù) 資料來源:英偉達官網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明514.1網(wǎng)絡:算力的瓶頸之一,英偉達布局InfiniBandInfiniBand準,特點是高帶寬、低延遲,主要用于高性能計算(HPC)、高性能。?2019年3月,英偉達以69億美金收購Mellanox,加大員提供超強網(wǎng)絡性能和豐富功能。 iBandNVIDIANVIDIAQuantumInfiniBand交換機系列antumInfiniBand海量吞吐、出色的網(wǎng)絡計算能力、智能加速引擎、杰出的靈活性和健壯架構(gòu),在高HPCAI基礎設施中發(fā)揮出色性能,并為用戶降低成本和系andGGGGG1微秒10微秒企業(yè)存儲領域據(jù)中心骨點延遲和高吞吐量用范圍廣、已成為業(yè)界普遍標準互聯(lián)技術(shù)上需要昂貴的專聯(lián)設備一步降低資料來源:英偉達官網(wǎng),開源Linux,半導體行業(yè)觀察,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明524.2光模塊:網(wǎng)絡核心器件,AI訓練提振800G需求?光模塊是光纖通信系統(tǒng)的核心器件之一,其為多種模塊類別的統(tǒng)稱,包括:光接收模塊,光發(fā)送模塊,光收發(fā)一體模塊和光轉(zhuǎn)發(fā)模塊等。?通常情況下,光模塊由光發(fā)射器件(TOSA,含激光器)、光接收器件 (ROSA,含光探測器)、驅(qū)動電路、放大器和光(電)接口等部分組成。?光模塊主要用于實現(xiàn)電-光和光-電信號的轉(zhuǎn)換。光模塊:光電轉(zhuǎn)換示意光模塊:光電轉(zhuǎn)換示意圖資料來源:深圳市電子商會,億渡數(shù)據(jù),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明534.2光模塊:網(wǎng)絡核心器件,AI訓練提振800G需求?光模塊行業(yè)的上游主要包括光芯片、電芯片、光組件企業(yè)。光組件行業(yè)的供應商較多,但高端光芯片和電芯片技術(shù)壁壘高,研發(fā)成本高昂,主要由境外企業(yè)壟斷。光模塊行業(yè)位于產(chǎn)業(yè)鏈的中游,屬于封裝環(huán)節(jié)。光模塊行業(yè)下游包括互聯(lián)網(wǎng)及云計算企業(yè)、電信運營商、數(shù)據(jù)通信和光通信設備商等。光模塊:產(chǎn)業(yè)光模塊:產(chǎn)業(yè)鏈資料來源:深圳市電子商會,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明544.2光模塊:網(wǎng)絡核心器件,AI訓練提振800G需求?作為信息化和互連通信系統(tǒng)中必需的核心器件,光通信模塊的發(fā)展對5G通信、電子、大數(shù)據(jù)、互聯(lián)網(wǎng)行業(yè)的影響至關重要。全球數(shù)據(jù)流量的增長,光通信模塊速率的提升,光通信技術(shù)的創(chuàng)新等推動光模塊產(chǎn)業(yè)規(guī)模持續(xù)增長。全球光模塊市場Lightcounting預測,全球光模塊的市場規(guī)模在未來5年將以CAGR11%保持增長,2027年將突破200億美元。另外,高算力、低功耗是未來市場的重要發(fā)展方向,CPO、硅光技術(shù)或?qū)⒊蔀楦咚懔鼍跋隆敖当驹鲂А钡慕鉀Q方案。?光模塊應用場景主要可以分為數(shù)據(jù)通信和網(wǎng)絡通信兩大領域。數(shù)據(jù)通信領域主要是指互聯(lián)網(wǎng)數(shù)據(jù)中心以及企業(yè)數(shù)據(jù)中心。網(wǎng)絡通信主要包括光纖接入網(wǎng)、城域網(wǎng)/骨干網(wǎng)以及5G接入、承載網(wǎng)為代表的移動網(wǎng)絡應用。 2017-2022全球光模塊市場規(guī)模統(tǒng)計預測(百萬美元)年我國光模塊應用市場結(jié)構(gòu) 模塊細分市場規(guī)模及預測請務必閱讀報告附注中的風險提示和免責聲明十大光模塊廠商年全球光模塊市場份額4.2光模塊:網(wǎng)絡核心器件,AI訓練提振800G需求十大光模塊廠商年全球光模塊市場份額?2010年至2021年,全球前十家光模塊廠商中,中國企業(yè)增長至5家。Omdia發(fā)布的全球前十大光模塊廠商名單及其2021年市場份額變動情況顯示,前十名分別為:高意集團、中際旭創(chuàng)、朗美通、光迅科技、博通、海信寬帶多媒體、Acacia、昂納集團、住友電工、英特爾。國內(nèi)入圍的廠商有中際旭創(chuàng)、光迅科技、海信寬帶多媒體、昂納集團,前四大國內(nèi)光模塊廠商占據(jù)全球的26%市場份額。?海關數(shù)據(jù)顯示,2017-2021年中國光模塊行業(yè)貿(mào)易順差額逐年增長。2017年我國光模塊行業(yè)貿(mào)易順差額為14.85億美元,其中進口額為10.80億美元,出口額為25.65億美元;2021年光模塊行業(yè)貿(mào)易順差額增長至33.23億美元,其中進口額為8.77億美元,出口額為42.10億美元。22017-2021年中國光模塊行業(yè)進出口狀況表(億美元)7年8年9年0年1年2.10額0.456.12差資料來源:中商產(chǎn)業(yè)研究院,中際旭創(chuàng)公告,前瞻產(chǎn)業(yè)研究院,深圳市電子商會,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明564.2光模塊:網(wǎng)絡核心器件,AI訓練提振800G需求塊:光模塊行業(yè)上市公司基本信息對比企業(yè)簡稱業(yè)務/產(chǎn)品類型光模塊業(yè)務概況塊銷量(萬塊)光迅科技光電子器件、模塊和子系統(tǒng)075.277%高端光通信收發(fā)模塊、光器件D也在持續(xù)研發(fā)進程中。新易盛光模塊ZRZRLPO聯(lián)特科技光模塊研發(fā)生產(chǎn)的不同型號光模塊產(chǎn)品累計1000余種,公司兼具產(chǎn)品研發(fā)和生產(chǎn)制造能力,擁有光芯片集成、光器件以及光模塊的創(chuàng)科技塊等堅持走光電結(jié)合和器件模塊化、集成化、小型化的道路,專注于集成光電子器件的規(guī)?;瘧?,為電信傳輸網(wǎng)和接入網(wǎng)以及42.12%德科立光收發(fā)模塊、光放大器、光傳輸子系統(tǒng)在非相干光模塊領域,25G單波速率下,100G(4×25G)80km產(chǎn)品傳輸距離業(yè)界領先;50G單波速率下,200G(4×50G)40km產(chǎn)品傳輸距離業(yè)界領先;100G單波速率下,400G(4×100G)10km/40km產(chǎn)品傳輸距離業(yè)界領先。在相干光模塊領域,公司最新研發(fā)的100G/200G相干光模塊產(chǎn)品在國內(nèi)市場仍處于技術(shù)領先水平。公司是行業(yè)內(nèi)少數(shù)能夠同時提供高速劍橋科技速光模塊FRGFRGFR資料來源:各公司公告,前瞻產(chǎn)業(yè)研究院,國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明57 4.2光模塊:網(wǎng)絡核心器件,AI ?AIGC的高速發(fā)展將進一步促進數(shù)據(jù)流量的持續(xù)增長和包括光模塊在內(nèi)的ICT行業(yè)的發(fā)展,加速光模塊向800G及以上LightCounting800G有望拉動新一輪增長,預計在2026年突破30億美元大關。?預計英偉達H100GPU:800G光模塊為1:2-1:4。英偉達采用的InfiniBand無阻塞、胖樹架構(gòu)。我們預計算力網(wǎng)絡中,服務器層GPU與800G光模塊比例為1:1;交換機層GPU與800G光模塊比例為1:2;此外,考慮核心層交換機,以及管理網(wǎng)絡、存儲網(wǎng)絡等,以及安裝率相關因素,預計英偉達H100GPU:800G光模塊的比例約為1:2-1:4。數(shù)據(jù)中數(shù)據(jù)中心光模塊需求演進(2021-2026年數(shù)據(jù)為預測值)請務必閱讀報告附注中的風險提示和免責聲明4.2光模塊:網(wǎng)絡核心器件,AI訓練提振?2023年5月,英偉達推出DGXGH200,GH200是將256個NVIDIAGraceHopper超級芯片完全連接,旨在處理用于大規(guī)模推薦系統(tǒng)、生成式人工智能和圖形分析的太字節(jié)級模型。?NVLink交換系統(tǒng)采用兩級、無阻塞、胖樹結(jié)構(gòu)。如下圖:L1和L2層分為96和32臺交換機,承載GraceHopper超級芯片的計算底板使用NVLinkfabric第一層的定制線纜連接到NVLink交換機系統(tǒng)。LinkX電纜擴展了NVLinkfabric的第二層連接。我們預計GH200的推出將進一步促進800G光模塊的需求增長。HNVLinkGPU資料來源:英偉達官網(wǎng),國海證券研究所請務必閱讀報告附注中的風險提示和免責聲明595.存儲:人工智能“內(nèi)存墻”,3D工藝持續(xù)突破請務必閱讀報告附注中的風險提示和免責聲明60數(shù)據(jù)中心光模塊需求演進(2021-2026年數(shù)據(jù)為預測值)5.1存儲:半導體產(chǎn)業(yè)核心支柱,AI數(shù)據(jù)中心光模塊需求演進(2021-2026年數(shù)據(jù)為預測值)?計算機存儲器是一種利用半導體、磁性介質(zhì)等技術(shù)制成的存儲資料的電子設備。其電子電路中的資料

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論