電子行業(yè)深度報告:AI新范式:云廠商引領+內需為王_第1頁
電子行業(yè)深度報告:AI新范式:云廠商引領+內需為王_第2頁
電子行業(yè)深度報告:AI新范式:云廠商引領+內需為王_第3頁
電子行業(yè)深度報告:AI新范式:云廠商引領+內需為王_第4頁
電子行業(yè)深度報告:AI新范式:云廠商引領+內需為王_第5頁
已閱讀5頁,還剩65頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告1AI新范式:云廠商引領+內需為王2024年12月29日相關研究產替代打破壟斷格局-2024/12/25端布局-2024/12/18相關研究產替代打破壟斷格局-2024/12/25端布局-2024/12/18掌握私域數(shù)據(jù)的CSP廠商將在大模型廠商的下一輪競賽中更具優(yōu)勢。CSP異軍突起,百舸爭流的算力競爭時代開啟。當下AI大模型日益增長的算力需求對CSP廠商資本開支提出更高要求,考慮到成本優(yōu)勢以及更好的靈活性,CSP自研加速卡將成為未來AI芯片增量最核心的來源,英偉達在加速卡領域的市占率有望逐步被CSP廠商替代。與此同時,CSP自研算力也帶來了算力產業(yè)鏈的全新變革,全新的AEC、PCB、散熱、電源產業(yè)鏈冉冉升起,CSP合作伙伴將在算力的下一個環(huán)節(jié)中更為受益。端側:豆包出圈,互聯(lián)網巨頭入局AI終端。AI終端的發(fā)展經歷了由云到端、由ToB到ToC的5個階段,當前我們處于以字節(jié)豆包為代表的互聯(lián)網巨頭引領的第五階段。早期AI終端更多是品牌廠商引領,而當前互聯(lián)網巨頭親自下場開發(fā)硬件,有望在AI終端產業(yè)鏈中發(fā)揮更加重要的作用。我們看好AI+智能終端的趨勢,AI將重構電子產業(yè)的成長,加速硬件的智能化、伴侶化趨勢。無論是手機、PC、AIOT、可穿戴設備、汽車電子,都有重估的潛力。投資建議:我們認為,伴隨著公開數(shù)據(jù)預訓練scalinglaw的結束,AI產業(yè)敘事開始向云廠商合作伙伴轉移。從數(shù)據(jù)到模型,從訓練到推理,從云到端,CSP廠商全面布局,形成了完美的商業(yè)閉環(huán)。當下,無論是海外的谷歌、亞馬遜,還是國內的字節(jié)、騰訊,云廠商巨頭們開始接力,引領AI產業(yè)的下一棒。具體到投資方向,PCB、銅纜、溫控、電源等產業(yè)鏈,是國內企業(yè)深耕多年,具備優(yōu)勢的環(huán)節(jié)。伴隨著本土云廠商的大力擴產,內需為王的時代也將來臨。相比過去,25年的AI產業(yè)投資將更重視合作建立、訂單落地以及業(yè)績兌現(xiàn),投資回報也會更為穩(wěn)健。建議關注:1、云端算力:1)ASIC:寒武紀、海光信息、中興通訊;2)服務器:浪潮信息、工業(yè)富聯(lián)、華勤技術、聯(lián)想集團;3)AEC:新易盛、博創(chuàng)科技、瑞可達、兆龍互聯(lián)、立訊精密;4)銅連接:沃爾核材、精達股份;5)PCB:生益電子、廣合科技、深南電路、威爾高;6)散熱:申菱環(huán)境、英維克、高瀾股份;7)電源:麥格米特、歐陸通、泰嘉股份。2、端側硬件:1)品牌:小米集團、漫步者、億道信息等;2)代工:國光電器、歌爾股份、天鍵股份、佳禾智能等;3)數(shù)字芯片:樂鑫科技、恒玄科技、星宸科技、富瀚微、中科藍訊、炬芯科技、全志科技等;4)存儲芯片:兆易創(chuàng)新、普冉股份;5)渠道配鏡:博士眼鏡、明月鏡片等。風險提示:大模型發(fā)展不及預期,CSP自研算力不及預期,AI終端銷量不重點公司盈利預測、估值與評級 300499.SZ高瀾股份22.160.100.270.43 002130.SZ沃爾核材29.220.730.951.14 600577.SH精達股份8.020.260.34資料來源:Wind,民生證券研究院預測;(注:股價為2024年12月27日收盤價;未覆蓋公司數(shù)據(jù)采用wind一致預期)行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告21ScalingLaw2.0,CSP的私域數(shù)據(jù)成為關鍵 31.1關于ScalingLaw的爭議,從數(shù)據(jù)規(guī)模到數(shù)據(jù)精度 31.2CSP的三大利器:私域數(shù)據(jù)、推理需求、從云到端 2CSP異軍突起,百舸爭流的算力競爭時代開啟 92.1從外采到自研,CSP的算力升級之路 92.2CSP算力供應鏈新變革 163端側:豆包出圈,互聯(lián)網巨頭入局AI終端 283.1字節(jié)豆包先行,加速端側落地 283.2AI終端空間廣闊,SoC是影響體驗的核心硬件 324投資建議 4.1行業(yè)投資建議 364.2相關公司梳理 365風險提示 40插圖目錄 41表格目錄 41行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告31ScalingLaw2.0,CSP的私域數(shù)據(jù)成為關鍵ScalingLaw是AI產業(yè)發(fā)展的通用規(guī)律,在ScalingLaw下,大模型對算力的需求以每年10倍左右的速度增長,甚至超過了摩爾定律下半導體晶體管密度的增長速度。AI大模型的算力需求在過去幾年呈現(xiàn)快速增長的態(tài)勢,Transformer算力需求在2年內增長750倍,平均每年以接近10倍的速度增長。以OpenAI的GPT為例,GPT1在2018年推出,參數(shù)量級為1億個,OpenAI下一代推出的GPT5參數(shù)量級預計達到10萬億。圖1:AI大模型對算力的需求超過摩爾定律大模型的ScalingLaw表明,計算量、數(shù)據(jù)量、參數(shù)規(guī)模三個因素的增長能夠不斷提升大模型的性能。在任意其他兩個指標不受限制的情況下,大模型的性能和另一個因素都呈現(xiàn)冪律關系,在大模型過去的發(fā)展過程中,算力、數(shù)據(jù)量、參數(shù)規(guī)模三個指標均沒有達到上限,ScalingLaw仍然在發(fā)揮作用,大模型的性能也在持續(xù)改善。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告4圖2:ScalingLaw的三要素:算力、數(shù)據(jù)量、參數(shù)規(guī)模然而公開數(shù)據(jù)量的有限性制約了ScalingLaw進一步發(fā)揮作用。據(jù)IDC,2018年全球數(shù)據(jù)總量為39.9ZB,預計到2028年,全球數(shù)據(jù)總量將達到393.8ZB,CAGR增速為25.7%,該增速遠遠低于ScalingLaw下大模型參數(shù)和算力需求每年10倍左右的增長速度。PabloVillalobos等人的研究表明,在2028年左右,大模型能夠獲得的數(shù)據(jù)量級將達到上限,受限于數(shù)據(jù)量,ScalingLaw將會放緩。實際上,由于大模型自2022年底以來的加速發(fā)展,數(shù)據(jù)量可能在2028年以前就會達到天花板,從而限制ScalingLaw發(fā)揮作用。圖3:2018-2028年全球數(shù)據(jù)量資料來源:IDC,民生證券研究院圖4:大模型ScalingLaw將在2028年左右開始顯著放緩human-generateddata》Pa當下傳統(tǒng)的ScalingLaw受限于數(shù)據(jù)量,私域高精度數(shù)據(jù)或成為ScalingLaw2.0的核心要素。12月15日,在NeurIPS大會上,OpenAI前首席科學家Ilya在公開演講中提到,由于目前“我們已經達到了數(shù)據(jù)的峰值,未來不會再有更多的數(shù)據(jù)”,當前AI模型的預訓練方式可能走向終結。Ilya的發(fā)言認為當前傳統(tǒng)的ScalingLaw即將失效,新的ScalingLaw,即在特定領域的強化學習將發(fā)揮更本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告5重要的作用。想要在特定領域訓練出垂直化的“專家大模型”,數(shù)據(jù)的數(shù)量不再成為衡量數(shù)據(jù)好壞的唯一標準,數(shù)據(jù)的精度、準確度等指標更為重要,私域數(shù)據(jù)、人工標注的數(shù)據(jù)可能成為下一階段大模型發(fā)展過程中的核心競爭力。圖5:低精度的訓練數(shù)據(jù)增多可能反而對模型性能造成損害圖6:使用更高精度的數(shù)據(jù)將減小因數(shù)據(jù)質量不佳而對模型性能造成的損害私域數(shù)據(jù)成為延續(xù)ScalingLaw的關鍵。隨著大模型規(guī)模及訓練集的擴大,可用于訓練的互聯(lián)網公開數(shù)據(jù)逐漸稀少,基于公開數(shù)據(jù)的ScalingLaw逐步走到盡頭;擁有龐大用戶群體的互聯(lián)網巨頭,海外以AWS、Meta、谷歌、微軟代表,國內以字節(jié)、阿里、騰訊、百度等為代表,掌握了用戶在使用過程中產生的大量私域數(shù)據(jù),如AWS依托其購物平臺,積攢了大量用戶偏好及使用習慣數(shù)據(jù),以及大量的商品文字/圖片數(shù)據(jù);字節(jié)依托頭條及抖音平臺,積累了海量的資訊數(shù)據(jù)及視頻數(shù)據(jù),可以為模型的訓練提供優(yōu)質的語料,有力解決高質量數(shù)據(jù)匱乏導致的“ScalingLaw失效“問題。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告6圖7:豆包大模型使用量快速增長資料來源:字節(jié)跳動發(fā)布會,民生證券研究院算力需求會加速從訓練側向推理側傾斜,推理有望接力訓練,成為下一階段算力需求的主要驅動力。互聯(lián)網巨頭旗下亦擁有高活躍應用可以幫助引流,可以依托自身平臺流量推廣自家大模型,從而獲取客戶、積累數(shù)據(jù);可以將大模型進一步綁定手中熱門應用,如可以讓自家大模型成為自家短視頻平臺輔助剪輯、修圖的工具。CSP優(yōu)質的流量接口可賦能推理側,實現(xiàn)從訓練模型到用戶使用大模型進行推理的正向循環(huán),加速模型商業(yè)化落地。隨著端側AI的放量及AI應用的落地,豆包、ChatGPT等AI應用快速發(fā)展,AI推理計算需求將快速提升,巴克萊的報告預計AI推理計算需求將占通用人工智能總計算需求的70%以上,推理計算的需求甚至可以超過訓練計算需求,達到后者的4.5倍。OpenAI上線的o1模型也更加側重于推理測能力。o1新模型除預訓練階段外,還通過大量計算反復強化學習,并且在推理階段增加思考時間,獲得能力的提升,未來模型通過大量強化學習或者延長思考時間以獲得更準確的答案或成為可能。英偉達高級科學家JimFan認為o1模型的推出意味著模型開始呈現(xiàn)出推理側的Scalinglaw,雙曲線的共同增長,有望突破大模型能力的提升瓶頸。開發(fā)者訪問o1的成本更高,百萬token輸入/輸出收費為GPT-4o的3/4倍;復雜推理明顯拉動推理側算力需求。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告7圖8:推理對模型重要性提升鑒于推理所需的芯片算力顯著低于訓練,盡管AWS、谷歌為代表的CSP自研ASIC起步較晚,整體性能低于英偉達的GPU,但由于其較高的性價比,以及定制化的開發(fā)更加匹配自家模型的推理,云廠商可以通過ASIC降低推理成本,擴大自身優(yōu)勢。博通于業(yè)績會透露,目前正在與三個非常大型的客戶開發(fā)AI芯片,預計明年公司AI芯片的市場規(guī)模為150億-200億美元。英偉達GPU目前在推理市場中市占率約80%,但隨著大型科技公司定制化ASIC芯片不斷涌現(xiàn),這一比例有望在2028年下降至50%左右。圖9:谷歌TPU資料來源:谷歌,集微網,民生證券研究院硬件為大模型落地最重要的載體,從云到端為大模型落地的必經之路。復盤本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告8AI發(fā)展之路,從大模型推出以來,AIPC、AI+MR、AI手機、AI眼鏡等終端陸續(xù)落地。我們認為AI終端的定價=硬件成本+AI體驗,大模型體驗的優(yōu)劣決定了用戶的付費意愿,而互聯(lián)網巨頭和第三方科技公司深度參與模型的開發(fā),部分模型能力較強的廠商如字節(jié)、百度甚至親自下場開發(fā)硬件,因此我們認為互聯(lián)網巨頭有望在AI終端產業(yè)鏈中發(fā)揮更重要的作用。圖10:AI發(fā)展歷程復盤資料來源:聯(lián)想、蘋果、OpenAI官網等我們認為,隨著公開數(shù)據(jù)ScalingLaw的逐步終結,掌握私域數(shù)據(jù)的云廠商更有希望延續(xù)大模型訓練的ScalingLaw;隨著AI應用的逐步落地,AI將由訓練端逐步轉向推理端,云廠商自研ASIC將比通用GPU更具性價比,且自身具備優(yōu)質的流量接口可賦能推理側;硬件是大模型落地最重要的硬件載體,而CSP將作為大模型重要提供方,將全面賦能AIPC、AI手機、AI眼鏡、機器人等,CSP+電子品牌(蘋果、華為、聯(lián)想等)的商業(yè)模式將更為清晰。從公開數(shù)據(jù)到私域數(shù)據(jù),從訓練到推理,從云到端,三大利器全部掌握在CSP手中,形成訓練-推理-商業(yè)化落地的完美閉環(huán),我們認為未來CSP的話語權將進一步加重,AI發(fā)展的話語權將由以英偉達為代表的算力公司,以及以OpenAI為代表的大模型公司,交棒至各大CSP巨頭。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告92CSP異軍突起,百舸爭流的算力競爭時代開啟云商算力需求仍維持高增,持續(xù)增長的資本開支成為北美云商算力的主要支撐。CY3Q24北美四大云商CY3Q24合計資本開支為598.14億美元,同比增長61.7%,環(huán)比增長13.2%;Bloomberg一致預期CY2024北美四大云商資本開支合計為2226億美元,同比增長51.0%。其中:1)微軟:CY3Q24資本開支149.23億美元,qoq+7.6%,yoy+50.5%,此前公司指引Q3資本開支環(huán)比增加,實際數(shù)據(jù)基本符合預期,公司指引下一季度資本開支環(huán)比增長,但伴隨需求增長,資本開支增速將放緩;2)Meta:CY3Q24資本開支92.10億美元,qoq+12.7%,yoy+40.8%,公司將全年資本開支預期范圍從上一季度的370-400億美元上修至380-400億美元,符合391億美元的Bloomberg一致預期,關于2025年,公司預計2025年資本支出將繼續(xù)大幅增長;3)谷歌:CY3Q24資本開支130.61億美元,qoq-0.9%,yoy+62.10%,此前公司指引Q3資本開支保持或高于120億美元,實際數(shù)據(jù)略超預期,據(jù)公司指引我們測算公司2024年資本開支預計500億美元以上,2025年保持適度增長,與此前指引一致;4)亞馬遜:CY3Q24資本開支226.20億美元,qoq+28.4%,yoy+81.3%,顯著超Bloomberg一致預期,公司對2024年資本開支計劃為750億美元,預計2025年將進一步提升。我們認為,當前海外算力產業(yè)鏈的核心矛盾為云商資本開支和算力需求的增長。從北美四大云廠商對資本開支最新的反饋來看,算力需求依舊旺盛。另一方面,云商正在通過:1)AI帶來Opex方面的降本增效;2)延長云基礎設施的折舊年限等方式提升資本開支潛在空間,算力需求有望持續(xù)高增。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告10圖11:1Q20-4Q24北美云商資本開支(億美元)0圖12:2021-2024E北美云商資本開支(億美元)0云商云業(yè)務收入持續(xù)高增,為算力基礎設施擴張?zhí)峁┲饕獎恿?。北美云商方面,CY1Q23-CY3Q24亞馬遜、微軟和谷歌三大云商合計云業(yè)務收入分別為508.89/541.64/514.83/592.76/613.19/651.43/628.97億美元,同比增長17.5%/15.4%/7.9%/18.1%/20.5%/20.3%/22.2%,生成式AI的發(fā)展使得用戶對云的需求持續(xù)高漲;國內云商方面,CY1Q23-CY3Q24阿里和百度兩大云商合計云業(yè)務收入分別為289.42/296.23/319.48/337.66/302.95/316.49/345.10億元,同比增長19.4%/4.6%/1.6%/3.7%/4.7%/6.8%/8.0%,增速有所放緩,但國內云行業(yè)正向AI計算加速轉變,未來上升趨勢依然可觀。圖13:北美云商云業(yè)務收入(億美元)及同比增速Amazon微軟谷歌0圖14:國內云商云業(yè)務收入(億美元)及同比增速0目前英偉達在AI加速卡領域仍然占據(jù)主要供應商的低位,但其他商業(yè)公司以及云商自研的比例正在逐步提升。AI加速卡的競爭格局中主要有三類“玩家”:1)全球龍頭英偉達;2)其他商業(yè)AI加速卡公司,如AMD、Intel、昇騰等;3)云廠商自研加速卡。據(jù)Trendforce統(tǒng)計,2022年全球AI芯片市占率來看,英偉本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告11達獨占67.6%,預計到2024年英偉達市占率將下降到63.6%,而AMD以及其他云商自研加速卡比例有望提升。我們認為,云廠商自研加速卡將成為未來AI芯片增量最核心的來源。一方面,云商自研加速卡在成本方面顯著優(yōu)于向英偉達等商業(yè)公司外采,3Q24英偉達毛利率已達到74.4%,采用自研加速卡的方式,將幫助云商在有限的資本開支下獲得更多的AI算力。另一方面,云商自研ASIC更加靈活,云廠商可以根據(jù)自身的模型訓練和推理需求,進行AI芯片和服務器架構的設計,從而實現(xiàn)更好的訓練和推理效果。伴隨著云廠商自研ASIC產品的逐步成熟,未來云商在AI算力的布局中自研的比例有望逐步提升。圖15:2022-2024年全球AI芯片競爭格局100.0%80.0%60.0%40.0%20.0%0.0%IntelOthersNVDIA口AMDIntelOthers67.6%67.6%65.5202220232024F谷歌采取自研加速卡為主,同時采購部分英偉達加速卡的策略。谷歌研發(fā)TPU的時間始于2013年,相較于其他云廠商有近10年的時間優(yōu)勢。由于谷歌在加速卡領域布局早,產品完善度高,谷歌或為2024年北美四大云廠商中采購英偉達加速卡最少的廠商。2023年12月,谷歌推出面向云端的AI加速卡TPUv5p,相較于TPUV4,TPUv5p提供了二倍的浮點運算能力和三倍內存帶寬提升;集群方面,TPUv5ppod由8960顆芯片組成,使用最高帶寬的芯片間連接(每芯片4,800Gbps)進行互連;從訓練效果來看,相較于上一代產品,TPUv5p訓練大型LLM的速度提升了2.8倍。Meta自2021年以來便將企業(yè)發(fā)展的重點放在元宇宙和AI領域,并且修改了公司名稱。2023年,Meta宣布自研MTIAv1芯片。2024年4月,Meta發(fā)布最新版本MTIAv2加速卡,新一代MTIA加速卡在算力、內存容量、內存帶寬等方面更加平衡,采用臺積電5nm工藝制造,Int8稀疏算力可以達到708TOPS,HBM內存容量達到128GB。目前Meta仍主要采購英偉達等廠商的加速卡用于Llama等模型的訓練,后續(xù)Meta有望采用自研加速卡對大語言模型進行訓練。微軟Azure的企業(yè)數(shù)量已經達到25萬家,是目前采購英偉達加速卡最為激進的云廠商,但考慮到采購英偉達加速卡的高昂成本,微軟也宣布了自研加速卡的計劃。微軟的Maia100在2023年推出,專為Azure云服務設計。Maia100采行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告12用臺積電5nm工藝,單芯片擁有1050億個晶體管,F(xiàn)P8算力可以達到1600TFLOPS,同時支持FP4運算,算力達到3200TFLOPS,是目前廠商自研加速卡中算力最強大的產品。除了微軟自身以外,OpenAI也在嘗試采用微軟的加速卡,強大的下游客戶支持有望為微軟自研加速卡的進步帶來重要動力。亞馬遜同樣在自研加速卡方面加大投入,并且已經完善了訓練和推理的兩方面布局。2023年,亞馬遜推出了用于訓練的Trainium2加速卡,以及用于推理的Graviton4加速卡,補全了亞馬遜在訓練和推理領域加速卡的布局。亞馬遜的Trainium2加速卡Int8算力達到861TOPS,相較上一代產品性能提升4倍,在云廠商自研加速卡中表現(xiàn)優(yōu)秀。同時公司的產品可以在新一代EC2UltraClusters中擴展多達10萬顆Trainium2加速卡,與AmazonEFAPB級網絡互聯(lián),提供高達65EFlops算力,為云端大模型的訓練和推理提供強大的算力保障。表1:英偉達客戶在加速卡領域的布局情況----5--5-4--------7--資料來源:各公司官網,Semianalysis等,民注:未標注的數(shù)據(jù)為沒有在公開渠道披露的信息Trainium2芯片由少量大型NeuronCore組成,與GPU大量小張量核心不同,該設計更適合生成式AI任務。以NeuronCore為基礎計算單元,在每個NeuronCore內配備張量、矢量、標量及GPSIMD引擎,分別承擔矩陣乘法運算、向量操作、元素級操作及自定義操作,各引擎協(xié)同工作提升計算效率。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告13圖16:Trainium2芯片圖17:Trainium2內部組件資料來源:SemiAnalysis,民生證券研Trainium2由兩個計算芯片組和四個HBM3e內存堆棧封裝而成,每個計算芯片經由CoWoS-S/R封裝與其兩個相鄰的HBM3e進行通信,芯片的兩個部分通過ABF基板互連。單芯片具備650TFLOP/s的密集BF16性能,1300TFLOPS/s的密集FP8性能,搭載96GByte的HBM3e內存容量,單芯片功耗約500W。表2:Trainum2芯片參數(shù) 資料來源:SemiAnalysis,民生證券研亞馬遜的下一代Trainum3產品有望實現(xiàn)性能翻倍,預計將在25年底問世。亞馬遜于12月3日的re:Invent2024大會透露,首批基于Trainium3的實例預計將于2025年底上市,將助力AWS及其合作伙伴在AI前沿領域取得突破,滿足各行業(yè)對AI計算力增長需求,推動自然語言處理、圖像識別、藥物研發(fā)等領域創(chuàng)新發(fā)展。Trainium3將成為首款采用3nm工藝節(jié)點制造的AWS芯片,在性能、能效和密度上樹立了新標桿。更小制程工藝使晶體管尺寸縮小、集成度提高,降低功耗同時提升運行頻率與處理能力,減少芯片發(fā)熱,提升穩(wěn)定性與可靠性,為大規(guī)模AI行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告14計算集群節(jié)能增效。Trainium3芯片能效有望提高40%、性能有望翻倍提升。更高能效比讓單位功耗下計算性能大幅提升,翻倍性能增長使芯片處理能力更強,加速模型訓練與推理,支持更大規(guī)模復雜模型訓練,縮短研發(fā)周期、提升迭代效率,增強AWS在AI芯片領域競爭力。搭載Trainium3的UltraServer性能預計將比Trn2UltraServer高出4倍。這一性能提升將使得設備在處理復雜AI任務時更加高效。對于需要實時處理大量數(shù)據(jù)的應用場景,如實時語音識別、圖像生成等,性能的提升也將帶來更流暢的用相比英偉達的GPGPU,ASIC在特定任務場景下,具有高性能、低功耗、成本效益、高保密性和安全性的優(yōu)勢,成為了云廠商提高計算效率,節(jié)省算力成本的重要手段。隨著CSP的話語權不斷加強,諸如AWS、谷歌等對算力的需求不斷增長,催生了定制AI芯片的需求;博通、Marvell、AIchip等可提供先進的AI芯片定制化設計服務,成為CSP最重要的合作伙伴。據(jù)Marvell預測,2023年ASIC占數(shù)據(jù)中心加速計算芯片的16%,規(guī)模約為66億美元;隨著AI計算需求的增長,ASIC占比有望提升至25%,預計2028年數(shù)據(jù)中心ASIC市場規(guī)模將提升至429億美元,CAGR為45.4%;博通占據(jù)55%以上的市場份額,Marvell市場份額亦接近15%,成為兩個最重要的“玩家“。博通:谷歌自研AI芯片TPU的主要供應商,與谷歌TPU項目合作約10年,客戶關系及設計能力積累深厚。公司已與谷歌合作完成其第六代TPU(Trillium)設計,目前正在推進第七代設計,預計將于26/27年推出。受益于AI的高速發(fā)展,23年谷歌向博通支付的TPU費用達20億美金,24年有望增長至70億美金。除谷歌外,博通亦為Meta的AI芯片MTIA提供設計服務,亦與蘋果、字節(jié)跳動、OpenAI等巨頭合作開發(fā)芯片。博通CEOHockTan指出,到2027年,博通的客戶將在AI芯片的集群中部署多達100萬個芯片,博通的AI芯片可能會為公司帶來數(shù)百億美元的年收入增長。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告15圖18:博通兩大核心客戶AI芯片戰(zhàn)略規(guī)劃Marvell:亞馬遜自研AI芯片Trainium的主要供應商,公司與AWS簽訂5年合作協(xié)議,幫助亞馬遜設計AI芯片;2025年第三財季Marvell面向數(shù)據(jù)中心的銷售額同比增長了近一倍,達到11億美元,公司預計本財年數(shù)據(jù)中心部門將占總收入的72%,同比增長32pts。除AWS外,Marvell亦為微軟提供定制的AI芯設計服務。Marvell估計至28年,其計算、高速網絡、以太網和存儲產品組合將帶來750億美元的市場機會,核心增長動力來自定制計算(45%年復合增長率)和高速數(shù)據(jù)中心互連(27%年復合增長率)。圖19:博通兩大核心客戶AI芯片戰(zhàn)略規(guī)劃4020040200行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告16PCB(印刷電路板,PrintedCircuitBoard)承擔了各電子元器件之間信號互聯(lián)的功能;AI服務器中,由于AI算力芯片計算速度快、數(shù)據(jù)吞吐量大,對信號傳輸有著更高的要求,PCB的用量、材質及等級亦有提升,價值量相比普通服務器明顯提升。傳統(tǒng)的AI訓練服務器以8卡機的形式為主,以英偉達上一代DGXH100服務器為例,由于采用了CPU+GPU的異架構,除了傳統(tǒng)服務器中的主板、網卡板之外,主要新增兩種類型的高價質量PCB板:承載GPU的OAM(OCPAcceleratorModule,加速卡模組)及實現(xiàn)GPU多卡互聯(lián)的UBB(UniversalBaseboard,通用基板)。每顆H100芯片需要配備一張OAM,共計8張OAM搭載至1張UBB之上,形成8卡互聯(lián)。圖20:傳統(tǒng)服務器PCB應用圖21:DGXH100AI服務器中OAM和UBB(綠色)資料來源:廣合科技招股說明書,民生證券研究院資料來源:英偉達,民生證券研究院GB200服務器整體架構與DGXH100相比發(fā)生顯著變化。DGXH100中每顆GPU芯片需要承載至一張OAM加速卡上,而CPU單獨搭載至主板。而GB200中1顆GraceCPU及2顆BlackwellGPU直接搭載至1張Superchip板上,每個Computetray中包含兩張Superchip板,即4顆GPU及2顆C板實現(xiàn)了CPU與GPU間的信號傳輸及芯片供電等功能,實際上替代了DGXH100中OAM+CPU主板的功能。因此與H100相比,GB200取消了主板,并且用一張大面積的Superchip板取代之前單顆GPU的OAM。與DGXH100相比,GB200由于取消了單臺服務器內8顆GPU互聯(lián)的設計,因此不再需要UBB板,一臺NVL36/72機柜中,36/72顆芯片的互聯(lián)通過Switchtray+銅纜實現(xiàn),Switchtray取代UBB承擔了部分互聯(lián)的功能。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告17圖22:GB200服務器PCB方案發(fā)生變化資料來源:英偉達,太平洋科技,民生證券研究院當前谷歌、微軟、亞馬遜、Meta四大海外云廠商中,谷歌TPU及亞馬遜Trainium2已形成大規(guī)模出貨。與英偉達設計方案不同,谷歌及亞馬遜的AI服務器既沒有采取類似H100的八卡架構,也沒有采取像類似GB200將CPU與GPU集成在一張PCB板的方案。如谷歌最新一代(第六代)的TPU芯片Trillium,將每四顆TPU搭載至一張PCB上,組成ComputeTray;CPU單獨搭載至另一張PCB中,放置于另一個Tray。載有CPU及TPU的PCB分別放置在不同的Tray中,組合全新機架系統(tǒng)TPUv6Pod,每個TPUv6Pod由512個Trillium芯片組成,提供高達1.5ExaFlops的峰值性能,較上一代提升83%。圖23:搭載有谷歌第六代TPU芯片Trillium的PCB資料來源:Google,半導體行業(yè)觀察,民生證券研究院亞馬遜同樣采取了將CPU及GPU分離的設計方案,兩顆Trainium2芯片搭行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告18載至一張PCB上,組成ComputeTray,而兩顆CPU單獨搭載至另一張PCB上,組成HeadTray。此外,柜內交換機為支持柜間信號互聯(lián)的關鍵,搭載交換機芯片的PCB亦具有較高價值量。圖24:亞馬遜Trainium2ComputeTray傳統(tǒng)AI服務器主要是八卡架構,谷歌等廠商的TPU服務器會采用四卡架構,但是整體單個服務器內的GPU數(shù)量不會太多。以英偉達的DGXH100服務器為例,服務器主要由GPUTray、Motherboard、電源等部件組成,其中八張GPU內置在GPUTray中,通過UBB板上的NVSwitch芯片互聯(lián),GPU和Switch安裝在同一個Tray中;Motherboard上放置CPU、內存、網卡等;Motherboard和GPUTray通過軟板互聯(lián)。GPUTray內部的八張GPU之間通過NVLink通信,服務器和服務器之間通過光模塊進行通信。圖25:英偉達DGXH100服務器架構資料來源:HPCSystems,英偉達,圖26:英偉達DGXH100GPUTray資料來源:HPCSystems,英偉達,本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告19英偉達推出的GB200NVL72機柜架構全面改變了傳統(tǒng)的AI服務器形態(tài)。在一臺NVL72中,機架最上層安放交換機,用于Rack之間的通信;機架次頂部和底部各安放3個(合計6個)33KW的PowerShelf,用于交流電到直流電的轉換;機架中間部分是18個ComputeTray和9個SwitchTray,分別用戶安放GB200加速卡和NVSwitch芯片,如果采用NVL36的方案,則ComputeTray的數(shù)量將減少到9個。圖27:英偉達GB200NVL72機柜架構高速銅纜是實現(xiàn)GB200機柜式服務器36卡或72卡之間通信的主要手段。在GB200NVL72的Rack內部,GPUTray到SwitchTray的互聯(lián)采用高速銅纜,主要的優(yōu)勢在于,在傳輸距離較短的情況下,高速銅纜可以用更低的成本獲得更高的互聯(lián)帶寬。而其他的優(yōu)勢還包括:1)功耗低:采用銅互聯(lián)方案可以節(jié)省光電轉換產生的能量損耗,單只1.6T光模塊的功耗在20W左右,同時也降低了散熱問題;2)故障率低:光模塊每年有2%-5%的損壞率,而銅連接更加穩(wěn)定。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告20圖28:GB200NVL72架構的通信解決方案資料來源:Semianalysis,民生證券研究院銅纜在GB200機柜中的主要使用場景包含Rack內部以及Rack之間兩個部分。其中Rack內部的銅互聯(lián)主要負責36或72張加速卡之間的通信,最長的信號傳輸距離一般在1米以內。在8臺機架之間的通信,英偉達提供了兩種解決方案:1)傳統(tǒng)的光模塊解決方案,在目前主流的方案下,通信速率一般為1.8TB/s的NVLink帶寬的1/4.5;2)銅互聯(lián)解決方案,可以以1.8TB/s的互聯(lián)帶寬進行通信,即將576張加速卡用銅互聯(lián)的方案進行連接。目前機柜間采用銅互聯(lián)方案的滲透率仍較低,但考慮到機柜式AI服務器在性能和成本端的優(yōu)勢,預計未來主流的AI算力廠商也將推出機柜式服務器,高速銅纜在AI服務器內的滲透率有望逐步提升。圖29:Rack內部銅互聯(lián)解決方案圖30:Rack之間的銅互聯(lián)解決方案高速銅纜方案主要包括DAC(無源銅纜)、ACC(有緣銅纜)、AEC(有源本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告21電纜)。過去機柜中主要采用DAC方案進行AI芯片間的互聯(lián),但目前AI芯片的互聯(lián)帶寬升級速度較快(以英偉達為例,公司每兩年推出一代產品,每一代產品的互聯(lián)帶寬升級一倍),僅僅依靠DAC本身的升級無法滿足AI芯片快速提升的互聯(lián)帶寬要求,通過AEC進行信號的重新定時和補償,可以有效降低干擾,提升傳輸距離,減小線徑。據(jù)Lightcounting,2023年至2028年DAC和AEC的市場空間CAGR增速分別為25%和45%,AEC的市場空間增速顯著更高。1)DAC:其由鍍銀銅導線和泡沫絕源芯片制成的高速電纜組成,因其不包含光電轉化模塊而具有較低的成本;2)ACC:其作為有源銅線,本質上是作為一根有源電纜來放大模擬信號。其利用Redriver芯片架構,并采用CTLE均衡來調整Rx端的增益;3)AEC:其代表了有源銅線電纜的一種更具創(chuàng)新性的方法。它在兩頭引入了具有時鐘數(shù)據(jù)恢復功能的retimer芯片,對電信號重新定時和驅動,補償銅纜的損耗,一般用于7米以內的傳輸距離;4)AOC:其由兩端的兩個模塊組成,中間由一段光纖相連。光學模塊和光纜都是集成的,兩端的光學模塊都需要激光組件。圖31:全球DAC、AEC、AOC市場規(guī)模(十億美元)具體而言,在短距離3m)、相對較低速率的傳輸場景下,DAC的優(yōu)勢明顯。主要原因是DAC兩端無需增加redriver和retimer芯片,成本優(yōu)勢明顯。然而隨著速度和帶寬的增加,DAC的傳輸距離受到了一定的限制,有源電纜AEC在性能上的優(yōu)勢逐漸顯現(xiàn)出來。在從400G到800G的過渡過程中,銅纜的損耗增大且互連長度無法滿足需求,DAC傳輸距離從3米縮短到2米。而AEC在保持低功耗和可負擔性的同時得以滿足中短距離傳輸需求,為短鏈路提供了一種經濟高效的方式。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告22表3:DAC、AEC、AOC性能對比400G傳輸距離<3m 800G傳輸距離<2m功耗低低高 費用傳輸速度快快慢資料來源:Asterfuison,民生證券研究院DAC、ACC、AEC和AOC在AI服務器中均有采用,而AEC有望伴隨云廠商自研AI芯片的市占率提升加速滲透。目前市場主流的機柜式AI服務器中,英偉達的GB200根據(jù)不同的距離和帶寬需求,在機柜內部和機柜間采用DAC和ACC進行互聯(lián),服務器和交換機之間則主要采用AOC進行互聯(lián)。而在微軟和亞馬遜的自研AI服務器中,AEC則替代了DAC,成為機柜內互聯(lián)AI芯片的主要產品。不同廠商采用不同解決方案的主要衡量因素是性能、成本、互聯(lián)帶寬等。圖32:DAC、AEC、AOC功耗對比圖33:DAC、AEC、AOC成本對比類似英偉達使用NVLink擴展網絡實現(xiàn)芯片互聯(lián),Trainium2采用NeuronLink超速高帶寬、低延遲的芯片間互聯(lián)技術實現(xiàn)芯片與芯片之間的高速互連,支持更多的芯片連接和更高的數(shù)據(jù)傳輸速率,為大規(guī)模集群訓練和推理提供了強大的擴展性。Trainium2提供兩種產品規(guī)格,分別采用了2DTorus和3DTorus的網絡拓撲結構,可將16個(4×4)或64個(4×4×4)Trainium2芯片連接在一起,形成不同規(guī)模的計算集群,以適應不同的計算需求。在兩種服務器架構中,PCB連接同一個ComputeTray內部的2顆加速卡,其他加速卡之間的互聯(lián),以及機柜和機柜間的互聯(lián)則采用AEC。1)16卡服務器:AWS基于Trainium2打造了AI服務器,每個Trainium2服務器占用18個機架單元(18U),由1個2U的CPUHeadTray和8個與之相連的2UTrainum2ComputeTray組成。每個ComputeTray搭載兩個Trainium2芯片,與英偉達GB200的架構不同,其ComputeTray中未搭載CPU,行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告23需要依托HeadTray運行;兩個CPU單獨搭載至一個HeadTray中,通過外部PCIe5.0x16DAC無源銅纜與8個ComputeTray相連。每臺Trainium2服務器整合了16顆Trainium2芯片,具備20.8PFLOPS的算力,適合數(shù)十億參數(shù)大語言模型的訓練與部署;2)64卡服務器:AWS還基于Trainium2進一步打造了Trainium2Ultra機架方案,其集成64顆Trainium2芯片,將4臺Trn2服務器連接成1臺巨型服務器,可提供相比當前EC2AI服務器多達5倍的算力和10倍的內存,F(xiàn)P8峰值算力可達83.2PFLOPS,能夠支撐萬億參數(shù)AI模型的實時推理性能。圖34:Trainium2Rack資料來源:SemiAnalysis,民生證券研圖35:Trainium2-UltraRack資料來源:SemiAnalysis,民生證券研傳統(tǒng)風冷是以空氣為熱量傳輸媒介,液冷技術是將高比熱容的液體作為熱量傳輸媒介,直接或間接接觸發(fā)熱器件,縮短送風距離,傳熱路徑短,換熱效率高。AI算力芯片計算力能強、功耗大,產生熱量較多,若不能及時進行散熱以實現(xiàn)芯片的降溫,輕則影響芯片性能,重則將使芯片使用壽命減少乃至損傷、報廢。傳統(tǒng)數(shù)據(jù)中心中,由于以CPU云計算為主,芯片功耗較低,因此一般采取風冷散熱。然而隨著AI算力芯片功耗密度大幅提高,傳統(tǒng)風冷散熱技術已難以滿足當前的高密度計算散熱需求,諸如英偉達GB200NVL72、谷歌TPU等需要采取散熱效果更好的液冷輔助散熱,數(shù)據(jù)中心液冷時代已至。根據(jù)IDC數(shù)據(jù),中國液冷服務器市場2024上半年同比大幅增長98.3%,市場規(guī)模達到12.6億美元,出貨量同比增長81.8%,預計2023-2028年,中國液冷服務器年復合增長率將達47.6%,市場規(guī)模有望在2028年達到102億美元。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告24圖36:風冷及液冷對比資料來源:賽迪顧問《中國液冷數(shù)據(jù)中心發(fā)展白皮書》,民生證券研究院液冷技術主要可分為非接觸式液冷及接觸式液冷兩類。其中非接觸式液冷主要指冷板式液冷,將服務器發(fā)熱元件(CPU/GPU/DIMM等)貼近冷板,通過液冷板將發(fā)熱器件的熱量傳遞給封閉在循環(huán)管路中的冷卻液體,以帶走熱量。冷板式液對于服務器整體改動較小,主要可通過加裝液冷模塊、采用集中式或分布式CDU供液、Manifold分液,對芯片、內存等部件進行精準制冷;相較其他液冷方案,冷板式液冷在可靠性、可維護性、技術成熟度、適用性等方面具有優(yōu)勢,利于算力中心機房改造,根據(jù)IDC,冷板式液冷成為當前絕對主導的液冷解決方案,占據(jù)國內市場95%以上份額。冷板式液冷系統(tǒng)可分為一次側(室外)循環(huán)和二次側循環(huán)(室內)兩部分。一次側系統(tǒng)主要由室外散熱單元、一次側水泵、定壓補水裝置和管路等部件構成。二次側系統(tǒng)主要由換熱冷板、熱交換單元和循環(huán)管路、冷源等部件構成。一次側的熱量轉移主要是通過水溫的升降實現(xiàn),二次側循環(huán)主要通過冷卻液溫度的升降實現(xiàn)熱量轉移。換熱冷板及CDU亦為液冷散熱系統(tǒng)的重要組成。換熱冷板常作為電子設備的底座或頂板,通過空氣、水或其他冷卻介質在通道中的強迫對流,帶走服務器中的耗散熱。冷量分配單元(CoolantDistributionUnit,CDU)可以看作室內機與室外機的連接點,由板式換熱器、電動比例閥、二次側循環(huán)泵膨脹罐、安全閥、進出水管專用接頭、控制器及其面板等部件組成本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告25圖37:冷板式液冷系統(tǒng)示意圖接觸式液冷的液體與發(fā)熱源直接接觸,包括浸沒式液冷和噴淋式液冷兩種。浸沒式液冷是將服務器浸沒在冷卻液中,通過液體溫升或相變帶走服務器中所有發(fā)熱元件的熱量。噴淋式液冷的冷卻液從服務器機箱頂部的噴淋模塊滴下來,通過冷卻液與發(fā)熱元件之間的接觸進行對流換熱,從而為發(fā)熱元件降溫,再通過服務器內的流道匯集至換熱器將熱量散發(fā)。相比非接觸式液冷,接觸式液冷可完全去除散熱風扇,散熱及節(jié)能效果更好,數(shù)據(jù)中心PUE值可降至1.1及以下,但相應對服務器機柜及機房配套設施的投入及改造成本更高,運維難度更大。未來隨著浸沒式液冷技術標準化推進、應用部署成本降低,有望加速大規(guī)模商用進展。圖38:浸沒式液冷原理示意圖資料來源:賽迪顧問《中國液冷數(shù)據(jù)中心發(fā)展白皮書》,民生證券研究院本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告26英偉達率先推出機柜式服務器,其他CSP廠商紛紛跟進,AI服務器功率密度快速提升。AI服務器的功率密度提升來自兩個方面:1)更高算力的加速卡需要更高的功耗:以英偉達的產品為例,2020年推出的A100加速卡單卡功耗為300W,而2024年推出的GB200加速卡單卡功耗則達到了1000W;2)機柜內集成的加速卡數(shù)量不斷提升:傳統(tǒng)AI服務器以8卡形式為主,而進入2024年,英偉達推出了機柜架構的AI服務器,大大提升了單臺服務器在算力、通信等方面的性能,其他廠商也紛紛開始擁抱機柜式AI服務器的浪潮,目前主流CSP廠商均已推出或在研機柜式AI服務器。展望未來,伴隨算力供應商產品的不斷迭代,單臺AI服務器內集成的加速卡數(shù)量有望持續(xù)提升。圖39:AI帶動服務器機柜功率及功率密度持續(xù)提升服務器系統(tǒng)的可靠性要求較高,因此電源設計時需要考慮冗余。在AI服務器工作過程中,如果電源出現(xiàn)故障,則可能造成系統(tǒng)宕機,數(shù)據(jù)丟失等問題,為了避免損失,AI服務器設計中需要考慮冗余。AI服務器系統(tǒng)通常采用N+1或N+N冗余設計,意味著服務器電源功率要大于系統(tǒng)中所有耗電元器件,如GPU和CPU的功率總和,對電源提出更多要求。在選擇AI服務器電源冗余時,通??紤]系統(tǒng)成本以及可靠性要求進行選擇。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告27圖40:機架式服務器系統(tǒng)及電源框圖資料來源:德州儀器(TI),民生證券研究院AI服務器的升級對電源供電要求提出了更多挑戰(zhàn),目前機柜式服務器主流采用三級電源供電。例如英偉達的GB200機柜式AI服務器,其中一級電源為AC-DC(交流轉直流),使用powershelf將電網中的交流電轉換為機柜運行所使用的直流電;二級電源為DC-DC(高壓直流轉低壓直流以PDB(PowerDistributionBoard)的形式內置于computetray,將48V直流電降壓為12V直流電;三級電源也是DC-DC(將低壓直流進一步降壓體積較小,位于Superchip內部(芯片周圍),將二次電源轉化后的12V直流電進一步降壓為0.8V左右直流電,用于GPU和CPU芯片供電。圖41:AI服務器采用三級電源解決方案行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告283端側:豆包出圈,互聯(lián)網巨頭入局AI終端當前大模型廠商主要分為互聯(lián)網巨頭和第三方科技公司兩大陣營:(1)互聯(lián)網巨頭:代表如字節(jié)、阿里、百度、騰訊等,其優(yōu)勢在于廣大的用戶群體和流量變現(xiàn)能力。這些互聯(lián)網巨頭旗下均有高活躍度應用可以幫助引流,如字節(jié)的抖音、阿里的淘寶、百度的搜索引擎、騰訊的微信等,同時,這些應用還積累了大量可用于模型訓練的私域數(shù)據(jù)。(2)第三方科技公司:代表如智譜、Kimi、階躍星辰,主要依托模型的特色功能出圈,如Kimi在長上下文窗口技術上取得突破,率先支持200萬字上下文長度。盡管這些獨角獸具有較強的技術實力,但由于缺少可以承載模型能力的下游應用場景,因此只能尋求和第三方軟硬件公司的合作。我們認為25年有望迎來云端和終端的共振,而二者的交集正是字節(jié)產業(yè)鏈,建議關注字節(jié)火山引擎合作伙伴以及AI終端落地節(jié)奏及有望受益于此的供應鏈合在互聯(lián)網巨頭陣營中,字節(jié)目前遙遙領先于同業(yè)。相較于競爭對手而言,字節(jié)的AI起步相對較晚,但后來居上,國內百度、阿里、商湯、科大訊飛在去年3月開始都陸續(xù)推出了大模型新品和AI應用,而字節(jié)的豆包則是在同年8月才發(fā)布。盡管如此,今年5-7月,豆包App日新增用戶從20萬迅速飆升至90萬,并在9月率先成為國內用戶規(guī)模破億的首個AI應用。據(jù)量子位智庫數(shù)據(jù),截至11月底,豆包2024年的累計用戶規(guī)模已超過1.6億;11月平均每天有80萬新用戶下載豆包,單日活躍用戶近900萬,位居AI應用全球第二、國內第一。我們認為算力資源充足和愿意大力投入是字節(jié)豆包迅速起量的主要原因。算力資源方面,字節(jié)旗下火山引擎支持多芯、多云架構,擁有超大規(guī)模算力,支持萬卡集群組網、萬億參數(shù)MoE大模型;提供超高性能網絡,支持3.2TbpsRDMA網絡,全球網絡POP覆蓋廣,時延優(yōu)化最高達75%;目前花錢投流買量已成為AI星野等國內十款大模型產品,今年合計已投放超625萬條廣告,投放金額達15億元,其中,豆包以4億+元位列第二。在各家的投放渠道中,基本都離不開字節(jié)的巨量引擎(字節(jié)旗下廣告投放平臺,涵蓋今日頭條、抖音、西瓜視頻等營銷資源而背靠字節(jié)的豆包,更是將流量池的優(yōu)勢發(fā)揮到了極致。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告29圖42:國內各大模型2024年(截至11月15日)廣告投放投入投放金額(萬元)資料來源:AppGrowing,民生證券除廣告投入外,字節(jié)還積極布局AI硬件,為豆包尋找C端應用場景,打開市場空間。2024年9月,字節(jié)完成了對OWS開放式耳機品牌Oladance的全資收購,進一步拓展其硬件產品,以完善AI服務生態(tài)。10月,其收購后的首款產品OlaFriend智能體耳機正式發(fā)布,該產品功能上主要特征是接入了豆包AI大模型,為用戶提供陪伴式體驗。此外,多款第三方硬件產品也接入豆包大模型,目前OPPO、vivo、榮耀、小米、三星、華碩已聯(lián)合火山引擎發(fā)起智能終端大模型聯(lián)盟,OPPO小布助手、榮耀MagicBook的YOYO助理、小米的小愛同學,以及華碩筆記本電腦的豆叮AI助手等應用,均已接入豆包大模型服務。圖43:字節(jié)跳動2024年硬件布局據(jù)AI產品榜,字節(jié)豆包目前已經成為除了OpenAIChatGPT外月活數(shù)量最高的AI大模型。截止2024年末,豆包大模型MAU達到5998萬人,后續(xù)有望持續(xù)提升,我們假設在保守、中性、樂觀三種情況下,2025-2026年豆包大模型本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告30MAU分別達到1億、1.5億、2億人次,云雀大模型參數(shù)量仍為1300億,則豆包大模型等效H20算力需求將分別達到72、108、181萬張,對應AI服務器需求分別達到759、1139、1898億元。表4:豆包大模型推理需求測算 推理計算時間(s)22 峰值倍數(shù)44 算力需求結果(FLOPS)3.20988E+195.34979E+198.0 豆包大模型創(chuàng)造AI服務器需求(億元)字節(jié)目前積極合作供應鏈企業(yè),領導行業(yè)探索未來AI落地新方向,火山引擎大會有望成為硬件布局的宣傳窗口。此前,在5月的火山引擎春季大會上,字節(jié)對外展示3款AI硬件的合作產品,包括蔚藍機器狗、聽力熊學習機和一款學習機器人?,F(xiàn)在,火山引擎將于12月18-19日舉辦冬季《FORCE原動力大會》。大會將展示豆包大模型家族的全新升級,拓展AI應用場景邊界,并打造2000平方米AI展區(qū),互動演繹AI未來:l12月18日,字節(jié)跳動正式發(fā)布了豆包視覺理解模型,該模型具備更強的內容識別能力、理解和推理、視覺描述等能力。該模型輸入價格為0.003元/千tokens,比行業(yè)價格低85%,視覺理解模型進入“厘時代”。此外,大會將展現(xiàn)火山引擎的全棧AI能力,還將進一步結合邊緣域、汽車、消費等領域實體產業(yè),詮釋如何實現(xiàn)AI+。樂鑫科技也將參與此次大會,并發(fā)表主題演講。此外,豆包通用模型pro完成新版本迭代,綜合任務處理能力較5月提升32%,在推理上提升13%,在指令遵循上提升9%,在代碼上提升58%,在數(shù)學上提升43%等。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告31圖44:豆包通用模型pro能力全面提升資料來源:火山引擎公眾號,民生證券研究院圖45:Trainium2-UltraRack資料來源:火山引擎公眾號,民生證券研究院l12月19日,大會的開發(fā)者論壇亮相了火山方舟、扣子、豆包MarsCode等產品。其中,火山方舟發(fā)布了高代碼智能體和API接口,助力開發(fā)者高效調用大模型;扣子發(fā)布1.5版本,提供了全新的應用開發(fā)環(huán)境,全面升級多模態(tài)能力,為開發(fā)者提供專業(yè)模板,目前已擁有超過100萬的活躍開發(fā)者,成為新一代精品應用開發(fā)平臺。圖46:火山引擎時間安排表豆包引發(fā)市場關注熱潮,與其相關的產業(yè)鏈上下游企業(yè)同樣受到高度關注,國產算力+端側產業(yè)鏈全面崛起,為字節(jié)等廠商提供更有力的供應鏈支撐,保駕護航。表5:國產算力+端側產業(yè)鏈公司 領域公司業(yè)務AI算力潤 恒玄科技提供SoC芯片,BES2700芯片芯片進入字節(jié)ola耳機。樂鑫科技提供SoC芯片,esp32芯片被用于AI玩具“顯眼包”。 歌爾股份提供代工服務,字節(jié)跳動子公司PICO與歌爾股份簽署長期合作協(xié)議。 炬芯科技提供SoC芯片,ATS3085L芯片已用于榮耀手環(huán)9。本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告32全志科技提供SoC芯片,MR527芯片用于石頭V20掃地機器人。 星宸科技提供SoC芯片,計劃2025年推出AI眼鏡芯片。瑞芯微提供SoC芯片,公司邊緣AI芯片廣泛應用于智能手機、智能家居、汽車智能座艙等多個領域。國光電器提供一站式電聲解決方案,將VR/AR作為業(yè)務發(fā)展重點,已布局AR眼鏡等領域。中科創(chuàng)達智能操作系統(tǒng)及端側智能技術和產品提供商,與火山引擎共建人工智能大云天勵飛具備端到端整體解決方案的AI公司,自研了DeepEdge系列邊緣人工智能芯片滿資料來源:樂鑫董辦公眾號,每日經濟新聞等,民生證券研究院整理以豆包為代表的AI產品,正以前所未有的速度在教育、醫(yī)療、文娛等領域廣泛應用,不僅深刻改變著行業(yè)的傳統(tǒng)格局,更成為推動包括AI終端在內的各領域實現(xiàn)變革與進步的強大引擎。AI賦能有望改變電子產業(yè)的增長曲線,未來廣闊的終端硬件都有重估潛力。22年全球智能音箱市場出貨量為1.2億臺;23年全球品牌TWS耳機年銷量約3億對;2023年手表/手環(huán)年銷量預計達1.61億只;23年中國戴眼鏡人群接近7億,在引入AI功能后,有望帶動傳統(tǒng)產品升級,刺激換機需求。此外,據(jù)ContriveDatumInsights數(shù)據(jù),2030年全球AI玩具市場規(guī)模有望達351.1億美元。圖47:AI終端廣闊空間我們看好AI+智能終端的趨勢,AI將重構電子產業(yè)的成長,為智能硬件注入全新的活力,帶來產品邏輯的深度變革,加速硬件的智能化、伴侶化趨勢。無論是手機、PC、AIOT、可穿戴設備、汽車電子,都有重估的潛力。當下,各大廠商紛紛布局,應用端革新漸漸開:1)手機端:當前系統(tǒng)級AI+打通第三方App確立為端側AI的發(fā)展方向,AI行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務資格,請務必閱讀最后一頁免責聲明證券研究報告33終端成為長期產業(yè)趨勢。蘋果方面,公司于10月

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論