美國(guó)AI產(chǎn)業(yè)鏈調(diào)研紀(jì)要202406_第1頁
美國(guó)AI產(chǎn)業(yè)鏈調(diào)研紀(jì)要202406_第2頁
美國(guó)AI產(chǎn)業(yè)鏈調(diào)研紀(jì)要202406_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

202406北美AI產(chǎn)業(yè)鏈調(diào)研小結(jié)本次調(diào)研走訪北美相關(guān)科技公司以及相關(guān)產(chǎn)業(yè)專家。聊了部分公司IR(英偉達(dá)/supermicro/intel/tesla/equninix),在技術(shù)端以及產(chǎn)品應(yīng)用端,聊了相關(guān)技術(shù)與產(chǎn)品專家(openai/adobe/google/meta/微軟/amazon/nVidia/anthropic)。當(dāng)前大模型的能力是否依然在進(jìn)步?模型的能力上限在哪里?這個(gè)問題某種意義上決定整個(gè)AI產(chǎn)業(yè)的上限,模型能力的最終極限決定了算力的需求以及應(yīng)用的想象空間。從交流的專家來看,普遍對(duì)大模型的2-3年維度的持續(xù)迭代進(jìn)步保持謹(jǐn)慎樂觀的態(tài)度。但這種樂觀某種意義上,與去年gpt3.5橫空出世那種星辰大海不同,這個(gè)樂觀更多是基于研發(fā)人員在模型端的具體進(jìn)步而得出的結(jié)論,比如說大語言模型在用戶感知端的進(jìn)步已經(jīng)比較緩慢(也有專家表示這是為什么gpt5沒有推出而是推出gpt4o的原因),進(jìn)步更多的可能是用戶感知不明顯的數(shù)學(xué)能力等方面通過相對(duì)較小的大模型的預(yù)研究仍然能夠看到進(jìn)步,也意味著更大規(guī)模的算力仍然能夠帶來模型的進(jìn)步。因此,從一年維度來看,模型進(jìn)步對(duì)于算力需求的牽引應(yīng)該是非常強(qiáng)的,一方面是基于本身研發(fā)端能夠看到切實(shí)有價(jià)值的進(jìn)步,同時(shí)這個(gè)調(diào)研可以非常明顯感受到傳統(tǒng)大廠在AI大模型落后之后的壓力,比如google為此進(jìn)行了比較多的組織架構(gòu)調(diào)整,同時(shí)也是在薪資上給出了非常高的待遇(應(yīng)屆大牛工資+股票100萬刀,package唯一能匹配上openai的傳統(tǒng)大廠)對(duì)于大模型能否通向AGI,似乎并沒有人主動(dòng)提及。Google專家也表示,盡管大模型能夠通過圖靈測(cè)試(最公認(rèn)的判定AGI的標(biāo)準(zhǔn)),其實(shí)現(xiàn)在大家似乎也很難認(rèn)為當(dāng)下的大模型就是AGI了,甚至某種意義上大模型現(xiàn)在是一種統(tǒng)計(jì)結(jié)果?;蛟S,大模型再次出現(xiàn)類似于gpt3.5的能力躍升,更多的機(jī)會(huì)在于多模態(tài)(google專家演示了一個(gè)手機(jī)端gemini實(shí)時(shí)交互的視頻),或者是當(dāng)傳統(tǒng)大模型的transformer架構(gòu)有非常大的突破。scalinglaw是否持續(xù)有效,能保證大廠高強(qiáng)度的capex得以持續(xù)model的質(zhì)量主要有以下三個(gè)環(huán)節(jié)構(gòu)成模型架構(gòu):目前來看transformer架構(gòu)是公認(rèn)主流,短期很難看到被顛覆的可能。模型規(guī)模:規(guī)模越大,性能越好。數(shù)據(jù)質(zhì)量(數(shù)據(jù)的多樣性,質(zhì)量,數(shù)量):訓(xùn)練數(shù)據(jù)的枯竭是被多次提到的問題。從以上三個(gè)環(huán)節(jié)來看,數(shù)據(jù)的枯竭可能是限制scalinglaw的一個(gè)比較重要的問題,這個(gè)問題在大語言模型的訓(xùn)練中尤其明顯。數(shù)據(jù)的scalinglaw可能依然有效,但是數(shù)據(jù)的規(guī)??赡懿荒苤螣o限制擴(kuò)張下去。相比之下,多模態(tài)的訓(xùn)練數(shù)據(jù)還沒有遇到這個(gè)問題。算力的堆疊目前來看是分歧最小的方向,一方面大模型仍在進(jìn)步,另一方面硅谷巨頭仍然處在格局未定的戰(zhàn)備階段。當(dāng)前算力在美國(guó)的制約是電力,為了應(yīng)對(duì)電力短缺,谷歌已經(jīng)開始嘗試多數(shù)據(jù)中心協(xié)同計(jì)算。競(jìng)爭(zhēng)格局:目前來看,openai、google、meta是綜合來看比較領(lǐng)先的,anthropic作為amazon和google共同投資的獨(dú)角獸也是有背書的。馬斯克的Xai在起步階段,但是專家表示馬斯克在高端人才的號(hào)召力很大,xai也有非常強(qiáng)的人才儲(chǔ)備。北美幾個(gè)龍頭與openai的差距某種意義上應(yīng)該是在縮小的,一方面是傳統(tǒng)巨頭在人才儲(chǔ)備上是完全夠用的,尤其是google,在硅谷的技術(shù)人才儲(chǔ)備上是公認(rèn)的最領(lǐng)先的。其次,硅谷之間的技術(shù)交流相對(duì)便利,并且沒有禁業(yè)協(xié)議。Meta專家表示除非openai在架構(gòu)上再次出現(xiàn)躍升,否則即使他沒有開源,對(duì)于業(yè)內(nèi)專家而言他的技術(shù)實(shí)現(xiàn)也不是秘密,很快能追上。對(duì)于openai如何維持這個(gè)領(lǐng)先,openai的專家表示更多還是依靠本身的人才密度(現(xiàn)在的招聘門檻很高),以及chatgpt積累的數(shù)據(jù)資源。國(guó)內(nèi)模型研發(fā)的差距,從最前沿的科學(xué)角度差的依然比較大,硅谷的環(huán)境非常與世隔絕,科技大廠對(duì)于研發(fā)的投入更純粹(meta,amazon的專家表示公司燒百億美金,也并沒有要求一定藥做出啥產(chǎn)品來),因此在前沿架構(gòu)的探索上,和硅谷差距非常大。但是考慮到當(dāng)前硅谷整體模型的迭代也出現(xiàn)一定程度放緩,國(guó)內(nèi)模型應(yīng)該能夠保持不被拉開。應(yīng)用創(chuàng)新:北美在創(chuàng)新一樣迷茫,瓶頸何在?以微軟和adobe為例,兩個(gè)公司是產(chǎn)品廣度和深度最強(qiáng)的,并且過去一年在應(yīng)用端的產(chǎn)品發(fā)布也比較頻繁,但是從最終用戶付費(fèi)訂閱的比例來看,這個(gè)結(jié)果是低于預(yù)期的。以微軟為例,他的M365copilot熱門應(yīng)用主要集中在企業(yè)搜索,m365chat,summarization,reference(emails)等環(huán)節(jié),而最好的產(chǎn)品teamsai的日活大概在幾百萬左右。對(duì)于去年P(guān)R視頻中給予厚望的PPT和EXCEL而言,專家坦誠(chéng)是不夠好的,主要問題是,PPT與EXCEL的產(chǎn)品是一個(gè)從0-1創(chuàng)作的過程,但是對(duì)當(dāng)前大模型的能力而言,從0-1這個(gè)生成過程是非常難匹配用戶預(yù)期的。這類產(chǎn)品需要用戶從零開始去構(gòu)建promt(提示詞),對(duì)于用戶的使用門檻也非常高。PPT的創(chuàng)作是個(gè)長(zhǎng)流程的過程,類似于化工,每一步的生成誤差,積累到最后也是非常大的,會(huì)帶來整個(gè)產(chǎn)品的偏差比較大而回到大模型能力的制約上,比較認(rèn)同meta技術(shù)專家的一個(gè)觀點(diǎn),就是大模型本身現(xiàn)在展現(xiàn)出來的功能,很多時(shí)候?qū)τ脩舳詢H僅是nicetohave,但是沒有這個(gè)功能其實(shí)對(duì)大家并不是一個(gè)不能接受的退步??傮w上,對(duì)于應(yīng)用的拓展,類似移動(dòng)互聯(lián)網(wǎng)時(shí)代的原生AI應(yīng)用的,相比于創(chuàng)造需求,解決當(dāng)下需求,提高效率應(yīng)該是當(dāng)前AI能夠看到機(jī)會(huì),因此從B端角度入手,會(huì)是當(dāng)前AI應(yīng)用的主力方向。此外以AIpc和AIphone這種系統(tǒng)級(jí)別的終端創(chuàng)新,打破單個(gè)APP的數(shù)據(jù)割裂,會(huì)是C端應(yīng)用最重要的嘗試方向(anthropic專家觀點(diǎn))。小結(jié):本次調(diào)研主要走訪硅谷AI相關(guān)公司,總體印象是,AI的大模型和算力的技術(shù)進(jìn)步仍在持續(xù),其中大模型的進(jìn)步已經(jīng)度過了去年chatgpt的驚艷階段,模型能力的演進(jìn)相對(duì)平緩。算力的需求仍然旺盛,相比模型的進(jìn)展本身,算力由于存在比較明確的供需緊缺,整個(gè)環(huán)節(jié)看起來更加景氣。應(yīng)用端的創(chuàng)新也面臨著一定瓶頸。從應(yīng)用端,落地的產(chǎn)品并不多。應(yīng)用目前c端原生產(chǎn)品遇到瓶頸,更多的是B端需求,以及可能需要依賴手機(jī),電腦等終端廠商對(duì)產(chǎn)品形態(tài)進(jìn)行調(diào)整釋放創(chuàng)新空間。落實(shí)到投資維度,主要相關(guān)的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論