人工智能AI行業(yè)市場(chǎng)分析1_第1頁(yè)
人工智能AI行業(yè)市場(chǎng)分析1_第2頁(yè)
人工智能AI行業(yè)市場(chǎng)分析1_第3頁(yè)
人工智能AI行業(yè)市場(chǎng)分析1_第4頁(yè)
人工智能AI行業(yè)市場(chǎng)分析1_第5頁(yè)
已閱讀5頁(yè),還剩24頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能AI行業(yè)市場(chǎng)分析1、大模型涌現(xiàn),ChatGPT引爆AI奇點(diǎn)1.1、ChatGPT加速人工智能發(fā)展奇點(diǎn)來(lái)臨2022年11月OpenAI發(fā)布ChatGPT聊天機(jī)器人,人工智能發(fā)展奇點(diǎn)加速來(lái)臨。ChatGPT(ChatGenerativePre-trainedTransformer)是由美國(guó)人工智能公司OpenAI開(kāi)發(fā)的用于自然語(yǔ)言處理的大型預(yù)訓(xùn)練語(yǔ)言模型,由人工智能技術(shù)驅(qū)動(dòng)的自然語(yǔ)言處理工具,于2022年11月30日發(fā)布,是一款全新的聊天機(jī)器人模型,可以根據(jù)用戶的對(duì)話輸入,產(chǎn)生出與其相關(guān)的回復(fù),能夠從文本輸入中理解上下文因素,并生成有意義的句子回復(fù),能夠回答問(wèn)題、承認(rèn)錯(cuò)誤、質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼?qǐng)求。ChatGPT發(fā)布后,OpenAI網(wǎng)站訪問(wèn)量爆發(fā)式增長(zhǎng)。據(jù)SimilarWeb數(shù)據(jù)顯示,過(guò)去7個(gè)月,網(wǎng)站訪問(wèn)量快速增長(zhǎng),2023年6月網(wǎng)站訪問(wèn)量達(dá)16億次,平均訪問(wèn)時(shí)長(zhǎng)約8分鐘,每次訪問(wèn)頁(yè)數(shù)4.26個(gè)。從受眾群體地區(qū)來(lái)看,美國(guó)、印度、日本、巴西、哥倫比亞占比前五,分別為12.12%、7.61%、4.17%、3.32%、3.16%。ChatGPT用戶增速創(chuàng)歷史新高,發(fā)布5天用戶數(shù)突破100萬(wàn),2個(gè)月過(guò)億。2022年11月30日,OpenAI推出ChatGPT聊天機(jī)器人產(chǎn)品。12月5日,OpenAI創(chuàng)始人SamAltman發(fā)推稱,ChatGPT上線僅5天,用戶數(shù)突破100萬(wàn)。至2023年1月末,ChatGPT用戶數(shù)突破1億,距離發(fā)布時(shí)間僅2個(gè)月,成為史上用戶數(shù)增長(zhǎng)最快的消費(fèi)者應(yīng)用。據(jù)英偉達(dá)在ITFWorld2023演講稿統(tǒng)計(jì)顯示,海外版抖音TikTok發(fā)布后,大約用時(shí)13個(gè)月達(dá)到月活1億用戶;Instagram用時(shí)26個(gè)月(2年多)達(dá)到月活1億用戶;Facebook用時(shí)42個(gè)月達(dá)到月活1億用戶。OpenAI創(chuàng)始人背景深厚,與微軟深度合作。2015年12月,OpenAI公司在美國(guó)舊金山成立,由人工智能領(lǐng)域的頂尖科學(xué)家和企業(yè)家聯(lián)合創(chuàng)立的一家非盈利的人工智能研究公司。聯(lián)合創(chuàng)始人包括美國(guó)創(chuàng)業(yè)孵化器YCombinator總裁SamAltman(現(xiàn)CEO)、馬斯克(ElonMusk)、全球在線支付平臺(tái)PayPal聯(lián)合創(chuàng)始人PeterThiel、IlyaSutskever(師從神經(jīng)網(wǎng)絡(luò)之父GeofferyHinton,現(xiàn)首席科學(xué)家)等;2019年3月,OpenAI創(chuàng)立了OpenAILP公司,從非盈利公司轉(zhuǎn)型至有限盈利公司;2019年7月,微軟向OpenAI注資10億美元,同時(shí)微軟Azure成為OpenAI的“獨(dú)家”云計(jì)算服務(wù)提供商;2023年1月,微軟宣布與OpenAI擴(kuò)大合作關(guān)系,其旗下所有產(chǎn)品將全線整合ChatGPT,除搜索引擎必應(yīng)、Office外,微軟還將在云計(jì)算平臺(tái)Azure中整合ChatGPT,作為OpenAI的獨(dú)家云提供商,Azure將為研究、產(chǎn)品和API服務(wù)中的所有OpenAI工作負(fù)載提供支持。ChatGPT采用基于GPT-3.5架構(gòu)的大型語(yǔ)言模型,引入人類反饋強(qiáng)化學(xué)習(xí)技術(shù)(RLHF)訓(xùn)練模型。從技術(shù)原理看,ChatGPT是基于GPT-3.5(GenerativePre-trainedTransformer3.5)架構(gòu)開(kāi)發(fā)的對(duì)話AI模型,是InstructGPT的兄弟模型,采用“預(yù)訓(xùn)練+微調(diào)”的模型訓(xùn)練方式,引入RLHF技術(shù)對(duì)ChatGPT進(jìn)行訓(xùn)練,利用強(qiáng)化學(xué)習(xí)方法從人類標(biāo)注者的反饋中學(xué)習(xí)。訓(xùn)練過(guò)程可分為三個(gè)步驟:1)訓(xùn)練監(jiān)督學(xué)習(xí)模型:首先ChatGPT從prompt數(shù)據(jù)庫(kù)中抽取若干問(wèn)題并向模型解釋強(qiáng)化學(xué)習(xí)機(jī)制,隨后人類標(biāo)注者撰寫期望的輸出值,對(duì)模型給予特定獎(jiǎng)勵(lì)或懲罰引導(dǎo)教育,最后通過(guò)監(jiān)督學(xué)習(xí)微調(diào)GPT-3.5模型;2)收集數(shù)據(jù)并訓(xùn)練獎(jiǎng)勵(lì)模型:從prompt數(shù)據(jù)庫(kù)中取樣,并由人類標(biāo)注者們對(duì)模型輸出的多個(gè)結(jié)果進(jìn)行投票,按質(zhì)量排序,采用排序后的數(shù)據(jù)結(jié)果用于訓(xùn)練獎(jiǎng)勵(lì)模型;3)采用近端策略優(yōu)化(PRO)強(qiáng)化學(xué)習(xí)微調(diào)模型:近端策略優(yōu)化(ProximalPolicyOptimization)是2017年OpenAI發(fā)布的強(qiáng)化學(xué)習(xí)算法,首先通過(guò)監(jiān)督學(xué)習(xí)生成初始PRO模型,由獎(jiǎng)勵(lì)模型對(duì)回答打分后,將反饋結(jié)果優(yōu)化和迭代初始PRO模型,通過(guò)多次優(yōu)化迭代獲得質(zhì)量更高的模型。RLHF(ReinforcementLearningfromHumanFeedback)是通過(guò)人類反饋強(qiáng)化學(xué)習(xí)技術(shù)優(yōu)化語(yǔ)言模型。將人類的反饋納入訓(xùn)練過(guò)程,為機(jī)器提供了一種自然的、人性化的互動(dòng)學(xué)習(xí)過(guò)程,以更廣泛的視角和更高的效率學(xué)習(xí),允許人類直接指導(dǎo)機(jī)器,并允許機(jī)器掌握明顯嵌入人類經(jīng)驗(yàn)中的決策要素。1.2、大模型軍備競(jìng)賽,開(kāi)啟AI未來(lái)時(shí)刻人工智能是引領(lǐng)未來(lái)的新興戰(zhàn)略性技術(shù),是驅(qū)動(dòng)新一輪科技革命和產(chǎn)業(yè)革命的重要力量。1950年艾倫·圖靈(AlanTuring)提出了著名的“圖靈測(cè)試”,給出了判定機(jī)器是否具有“智能”的實(shí)驗(yàn)方法,即機(jī)器是否能夠模仿人類思維方式來(lái)“生成”內(nèi)容繼而與人交互,人們開(kāi)始關(guān)注人類智能與機(jī)器之間的關(guān)系;直至20世紀(jì)50年代中期,由于計(jì)算機(jī)的出現(xiàn)與發(fā)展,人們開(kāi)始了具有真正意義的人工智能的研究。隨著人工智能越來(lái)越多地被應(yīng)用于內(nèi)容創(chuàng)作,人工智能生成內(nèi)容(ArtificialIntelligenceGeneratedContent,AIGC)概念悄然升起。AIGC的發(fā)展可大致分為三個(gè)階段:早期萌芽階段(1950s-1990s):受限于當(dāng)時(shí)的科技水平,AIGC僅限于小范圍實(shí)驗(yàn)。在1956年的達(dá)特茅斯會(huì)議上,“人工智能”的概念被首次提出,在之后的十余年內(nèi)人工智能迎來(lái)了發(fā)展史上的第一個(gè)小高峰,研究者們紛紛涌入,取得了一批矚目的成就。沉淀積累階段(1990s-2010s):AIGC從實(shí)驗(yàn)性向?qū)嵱眯赞D(zhuǎn)變。2006年,深度學(xué)習(xí)算法取得重大突破,同時(shí)期圖形處理器(GPU)、張量處理器(TPU)等算力設(shè)備性能不斷提升,互聯(lián)網(wǎng)使數(shù)據(jù)規(guī)模快速膨脹并為各類人工智能算法提供了海量訓(xùn)練數(shù)據(jù),使人工智能發(fā)展取得了顯著的進(jìn)步,同時(shí)受限于算法瓶頸,應(yīng)用仍然有限,效果有待提升??焖侔l(fā)展階段(2010s-至今):生成內(nèi)容百花齊放,效果逐漸逼真直至人類難以分辨。自2014年起,隨著以生成式對(duì)抗網(wǎng)絡(luò)(GAN)為代表的深度學(xué)習(xí)算法的提出和迭代更新,AIGC迎來(lái)了新時(shí)代。國(guó)內(nèi)外廠商紛紛加入AI大模型軍備競(jìng)賽。在AI大浪潮下,國(guó)內(nèi)外科技廠商紛紛入局,密集上線大模型,包括自然語(yǔ)言處理模型、計(jì)算機(jī)視覺(jué)大模型、多模態(tài)大模型等多種類型。谷歌、OpenAI等國(guó)際科技巨頭處于領(lǐng)先地位,中國(guó)阿里巴巴、華為、百度等公司均推出了自己的AI大模型產(chǎn)品。2023年3月百度發(fā)布文心一言,4月華為發(fā)布盤古大模型,阿里發(fā)布通義千問(wèn)大模型,商湯科技公布“日日新SenseNova”大模型體系,5月科大訊飛發(fā)布星火大模型,此外多家上市公司也開(kāi)始布局AI大模型領(lǐng)域,積極探索索AI大模型技術(shù)的應(yīng)用。從模型參數(shù)量來(lái)看,模型參數(shù)量呈現(xiàn)上升趨勢(shì)。多模態(tài)大模型參數(shù)量相對(duì)較大,多在千億級(jí)以上,PaLM-E、VisualChatGPT、GPT-4的模型參數(shù)量分別為5620,1750和1750億。國(guó)內(nèi)大數(shù)據(jù)模型中,模型參數(shù)數(shù)量達(dá)千億的模型有文心大模型(2600億),盤古NLP(千億級(jí))等。ChatGPT開(kāi)啟商業(yè)變現(xiàn)。當(dāng)?shù)貢r(shí)間2023年2月1日,美國(guó)人工智能公司OpenAI推出ChatGPT付費(fèi)訂閱版ChatGPTPlus,每月收費(fèi)20美元。訂閱者可在免費(fèi)服務(wù)基礎(chǔ)上獲得:1)高峰時(shí)段免排隊(duì)訪問(wèn);2)更快的相應(yīng)時(shí)間;3)優(yōu)先使用新功能和優(yōu)化等權(quán)益。2023年3月1日,OpenAI官方宣布正式開(kāi)放ChatGPTAPI。我們認(rèn)為,付費(fèi)訂閱版ChatGPTPlus的推出,標(biāo)志著ChatGPT正式商業(yè)化,開(kāi)啟產(chǎn)品向商業(yè)變現(xiàn)之路。OpenAI盈利模式:開(kāi)放付費(fèi)API接口,提供多種模型。目前OpenAI提供DALL·E、GPT3、Codex、Contentfilter的API接口,用于執(zhí)行圖像模型、語(yǔ)言模型,每種模型又細(xì)分為多種子模型型號(hào),每種型號(hào)有不同的功能和價(jià)位。用戶可以根據(jù)自身業(yè)務(wù)需求選擇對(duì)應(yīng)的模型,API接口根據(jù)模型類型、業(yè)務(wù)量等指標(biāo)進(jìn)行收費(fèi)。圖像模型根據(jù)圖片分辨率的不同按張數(shù)收費(fèi),語(yǔ)言模型基于子模型型號(hào)按字符數(shù)收費(fèi),微調(diào)模型則包括訓(xùn)練和使用兩部分的價(jià)格。圖像模型:基于DALL·E實(shí)現(xiàn)文本生成圖像。通過(guò)使用DALL·E的API,可實(shí)現(xiàn)3種與圖像交互的方法:1)基于文本提示從頭開(kāi)始創(chuàng)建圖像;2)基于新文本提示創(chuàng)建對(duì)現(xiàn)有圖像的編輯;3)創(chuàng)建現(xiàn)有圖像的變體。生成的圖像有256x256、512x512、1024x1024像素三種規(guī)格,尺寸較小的圖像生成速度更快。用戶只需簡(jiǎn)單輸入一些文字描述,即可將文字描述的場(chǎng)景以圖片的形式真實(shí)展現(xiàn)出來(lái)。據(jù)OpenAI官網(wǎng)披露,目前已有300萬(wàn)人使用DALL·E模型擴(kuò)展創(chuàng)造力,加快工作流程。語(yǔ)言模型:不同功能和價(jià)格的語(yǔ)言模型。目前OpenAI提供三類語(yǔ)言模型,分別是GPT-3、Codex、Contentfilter。其中GPT-3能夠理解自然語(yǔ)言提示,并生成自然語(yǔ)言,擁有1750億個(gè)參數(shù);Codex是GPT-3模型的后代,可以理解并生成代碼,將自然語(yǔ)言轉(zhuǎn)換成代碼,并精通多種編程語(yǔ)言;Contentfilter是檢測(cè)文本是否敏感或不安全。OpenAPI已在多個(gè)應(yīng)用程序中應(yīng)用,從幫助人們學(xué)習(xí)新語(yǔ)言到解決復(fù)雜分類問(wèn)題。GitHubCopilot是一款A(yù)I編程器,由OpenAICodex語(yǔ)言模型提供支持,幫助開(kāi)發(fā)人員更快地編寫代碼;KeeperTax是一款幫助獨(dú)立承包商和自由職業(yè)者納稅的App,由GPT-3模型提供支持,可以實(shí)現(xiàn)提取文本并對(duì)交易分類;Viable通過(guò)使用GPT-3語(yǔ)言模型,幫助公司從客戶反饋中獲得見(jiàn)解,智能讀取用戶評(píng)論;Duolingo使用GPT-3語(yǔ)言模型進(jìn)行語(yǔ)法修正。GitHubCopilot:AI編程工具軟件,提高開(kāi)發(fā)效率。2021年6月29日,微軟與OpenAI共同推出了一款A(yù)I編程工具GitHubCopilot,2022年6月22日,Copilot正式上線,定價(jià)每月10美元或每年100美元,對(duì)學(xué)生用戶和流行開(kāi)源項(xiàng)目的維護(hù)者免費(fèi)提供。GitHubCopilot由OpenAICodex提供支持,這是一個(gè)由OpenAI創(chuàng)建的生成預(yù)訓(xùn)練語(yǔ)言模型,可以根據(jù)上文提示為程序員自動(dòng)編寫下文代碼。使開(kāi)發(fā)人員更快地編寫代碼,專注于業(yè)務(wù)邏輯而不是樣板,提高工作效率。KeeperTax:AI稅務(wù)軟件。通過(guò)定制版GPT-3模型來(lái)識(shí)別賬單上的各種數(shù)據(jù),以幫助用戶找到可以免稅的費(fèi)用,連接銀行自動(dòng)發(fā)現(xiàn)隱藏的稅收減免,通過(guò)搜索交易歷史,發(fā)現(xiàn)容易錯(cuò)過(guò)的可抵扣稅款的業(yè)務(wù)支出和其他稅收減免。據(jù)KeeperTax官網(wǎng)披露,Keeper用戶平均每年發(fā)現(xiàn)價(jià)值1249美元的額外稅務(wù)沖銷,目前Keeper已幫助超過(guò)50000名靈活雇員和創(chuàng)意經(jīng)濟(jì)工作者發(fā)現(xiàn)了價(jià)值7000萬(wàn)美元的稅務(wù)沖銷。Viable:AI企業(yè)分析應(yīng)用軟件。Viable是第一家使用人工智能研究分析初創(chuàng)公司,運(yùn)用OpenAI的GPT-3語(yǔ)言模型,可以幫助公司從客戶反饋中獲得見(jiàn)解,智能讀取用戶評(píng)論,衡量其產(chǎn)品市場(chǎng)適合度。Viable推出3款產(chǎn)品,對(duì)于初創(chuàng)企業(yè),僅需了解幾個(gè)關(guān)鍵數(shù)據(jù)來(lái)源的定性數(shù)據(jù),每月收費(fèi)600美元,每月最多2000個(gè)數(shù)據(jù)點(diǎn);對(duì)于成長(zhǎng)型企業(yè),希望通過(guò)客戶反饋迭代產(chǎn)品等,每月收費(fèi)1000美元,每月最多5000個(gè)數(shù)據(jù)點(diǎn);對(duì)于成熟企業(yè),獲得定制報(bào)告與測(cè)量,利用數(shù)據(jù)訓(xùn)練AI,可選擇定制服務(wù)。Duolingo:AI語(yǔ)言學(xué)習(xí)工具軟件。Duolingo是一款語(yǔ)言學(xué)習(xí)工具軟件,提供40多種語(yǔ)言課程,包括英語(yǔ)、日語(yǔ)、韓語(yǔ)、法語(yǔ)、粵語(yǔ)等大眾語(yǔ)言,也包括威爾士語(yǔ)、納瓦荷語(yǔ)等小語(yǔ)種和瀕危語(yǔ)言。Duolingo使用OpenAI的GPT-3進(jìn)行語(yǔ)法修正。推出ChatGPTPlugins插件功能,拓寬場(chǎng)景邊界。當(dāng)?shù)貢r(shí)間2023年3月23日,OpenAI推出ChatGPTPlugins插件功能,宣布ChatGPT中初步實(shí)現(xiàn)對(duì)插件的支持。ChatGPTPlugins插件專門為大語(yǔ)言模型設(shè)計(jì),以安全為核心原則,能夠幫助ChatGPT訪問(wèn)最新的信息,運(yùn)行計(jì)算,以及使用第三方服務(wù),能夠使ChatGPT參與開(kāi)發(fā)者定義的API互動(dòng),增強(qiáng)ChatGPT的能力,拓寬場(chǎng)景邊界。2、算力質(zhì)變,英偉達(dá)打造AI時(shí)代引擎2.1、算力需求指數(shù)級(jí)增長(zhǎng),加速計(jì)算深度變革算力是設(shè)備通過(guò)處理數(shù)據(jù),實(shí)現(xiàn)特定結(jié)果輸出的計(jì)算能力。算力實(shí)現(xiàn)的核心是CPU、GPU、FPGA、ASIC等各類計(jì)算芯片,并由計(jì)算機(jī)、服務(wù)器、高性能計(jì)算集群和各類智能終端等承載,海量數(shù)據(jù)處理和各種數(shù)字化應(yīng)用都離不開(kāi)算力的加工和計(jì)算算力數(shù)值越大代表綜合計(jì)算能力越強(qiáng),常用的計(jì)量單位是每秒執(zhí)行的浮點(diǎn)數(shù)運(yùn)算次數(shù)(Flops,1EFlops=10^18Flops)。據(jù)信通院測(cè)算,1EFlops約為5臺(tái)天河2A超級(jí)計(jì)算機(jī),或者25萬(wàn)臺(tái)主流雙路服務(wù)器,或者200萬(wàn)臺(tái)主流筆記本的算力輸出。算力可分為基礎(chǔ)算力、智能算力和超算算力三部分,分別提供基礎(chǔ)通用計(jì)算、人工智能計(jì)算和科學(xué)工程計(jì)算。其中,基礎(chǔ)通用算力主要基于CPU芯片的服務(wù)器所提供的計(jì)算能力;智能算力主要是基于GPU、FPGA、ASIC等芯片的加速計(jì)算平臺(tái)提供人工智能訓(xùn)練和推理的計(jì)算能力;超算算力主要是基于超級(jí)計(jì)算機(jī)等高性能計(jì)算集群所提供的計(jì)算能力。算力需求指數(shù)級(jí)增長(zhǎng),大模型參數(shù)指數(shù)級(jí)增長(zhǎng)。經(jīng)過(guò)大規(guī)模預(yù)訓(xùn)練的大模型,能夠在各種任務(wù)中達(dá)到更高的準(zhǔn)確性、降低應(yīng)用的開(kāi)發(fā)門檻、增強(qiáng)模型泛化能力等。隨著海量數(shù)據(jù)的持續(xù)積累、人工智能算力多樣化與算法的突破,大模型參數(shù)規(guī)模呈現(xiàn)指數(shù)級(jí)增長(zhǎng),先后經(jīng)歷了預(yù)訓(xùn)練模型、大規(guī)模預(yù)訓(xùn)練模型、超大規(guī)模預(yù)訓(xùn)練模型三個(gè)階段,參數(shù)量實(shí)現(xiàn)百萬(wàn)億級(jí)突破。與此同時(shí),算力需求也呈現(xiàn)指數(shù)級(jí)增長(zhǎng)。從行業(yè)分布上看,大模型的應(yīng)用領(lǐng)域逐步從學(xué)術(shù)拓展至產(chǎn)業(yè),2010年后產(chǎn)業(yè)界對(duì)大模型的應(yīng)用與算力需求顯著增長(zhǎng),成為主導(dǎo)力量。AI期刊論文與開(kāi)源項(xiàng)目快速增長(zhǎng)。ChatGPT引發(fā)了新一輪的AI浪潮,越來(lái)越多的研究機(jī)構(gòu)與公司加大對(duì)AI的研發(fā)投入。據(jù)斯坦福大學(xué)發(fā)布的《2023年AI指數(shù)報(bào)告》統(tǒng)計(jì),人工智能論文的總數(shù)自2010年呈現(xiàn)翻倍增長(zhǎng),從2010年的20萬(wàn)篇增長(zhǎng)到2021年的近50萬(wàn)篇(49601),模式識(shí)別、機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域研究的熱門話題,從國(guó)家分布看,中國(guó)保持領(lǐng)先地位,2021年占比為39.8%,其次是歐盟和英國(guó)(15.1%)與美國(guó)(10%)。AI開(kāi)源項(xiàng)目方面,據(jù)GitHub統(tǒng)計(jì),自2011年以來(lái)人工智能相關(guān)的GitHub項(xiàng)目穩(wěn)步增長(zhǎng),從2011年的1536個(gè)增長(zhǎng)至2022年34.79萬(wàn)個(gè),從國(guó)家分布看,2022年印度軟件開(kāi)發(fā)人員占比24.2%,其次是歐盟和英國(guó)(17.3%)與美國(guó)(14%)。全球算力規(guī)模不斷增長(zhǎng)。據(jù)IDC統(tǒng)計(jì),2020年全球算力總規(guī)模達(dá)到429EFlops,同比增長(zhǎng)39%,其中基礎(chǔ)算力規(guī)模(FP322,F(xiàn)P32為單精度浮點(diǎn)數(shù),采用32位二進(jìn)制來(lái)表達(dá)一個(gè)數(shù)字,常用于多媒體和圖形處理計(jì)算)為313EFlops3,智能算力規(guī)模(換算為FP32)為107EFlops4,超算算力規(guī)模(換算為FP32)為9EFlops5。據(jù)IDC預(yù)測(cè),未來(lái)五年全球算力規(guī)模將以超過(guò)50%的速度增長(zhǎng),到2025年整體規(guī)模將達(dá)到3300Eflops。全球主要國(guó)家和地區(qū)紛紛加快算力布局。算力水平方面,據(jù)IDC統(tǒng)計(jì)2021年美國(guó)、中國(guó)、歐洲、日本在全球算力規(guī)模中的份額分別為36%、31%、11%和6%。中國(guó)智能算力規(guī)模持續(xù)擴(kuò)大。據(jù)IDC統(tǒng)計(jì)與預(yù)測(cè),2021年中國(guó)智能算力規(guī)模達(dá)155.2EFLOPS,2022年智能算力規(guī)模將達(dá)到268.0EFLOPS,預(yù)計(jì)到2026年智能算力規(guī)模將進(jìn)入每秒十萬(wàn)億億次浮點(diǎn)計(jì)算(ZFLOPS)級(jí)別,達(dá)到1271.4EFLOPS。全球企業(yè)持續(xù)增加對(duì)AI的投資。伴隨數(shù)字經(jīng)濟(jì)的持續(xù)發(fā)展,為滿足企業(yè)內(nèi)部發(fā)展需求和外部市場(chǎng)需求,企業(yè)一直大力投資數(shù)字化轉(zhuǎn)型相關(guān)技術(shù)。據(jù)IDC統(tǒng)計(jì),全球企業(yè)在包括軟件、硬件和服務(wù)在內(nèi)的人工智能(AI)市場(chǎng)的技術(shù)投資從2019年的612.4億美元增長(zhǎng)至2021年的924億美元,有望到2025年突破2000億美元,增幅高于企業(yè)數(shù)字化轉(zhuǎn)型(DX)支出整體增幅。全球人工智能芯片搭載率將持續(xù)增長(zhǎng),低能耗為大勢(shì)所趨。算力是實(shí)現(xiàn)AI產(chǎn)業(yè)化的核心力量,AI產(chǎn)業(yè)技術(shù)不斷提升,產(chǎn)業(yè)商業(yè)化應(yīng)用加速落地,推動(dòng)全球人工智能芯片市場(chǎng)高速增長(zhǎng),據(jù)IDC預(yù)測(cè),至2025年全球人工智能芯片市場(chǎng)規(guī)模將達(dá)726億美元。人工智能算力規(guī)模的快速增長(zhǎng)將刺激更大的人工智能芯片需求,未來(lái)18個(gè)月,人工智能服務(wù)器GPU、ASIC和FPGA的芯片搭載率均會(huì)上升。目前中國(guó)市場(chǎng)主要以GPU為主,實(shí)現(xiàn)數(shù)據(jù)中心計(jì)算加速,市場(chǎng)占有率達(dá)89%,GPU芯片多用于圖形圖像處理、復(fù)雜的數(shù)學(xué)計(jì)算等場(chǎng)景。此外ASIC,F(xiàn)PGA,NPU等非GPU芯片市場(chǎng)占有率超過(guò)10%,其中,NPU較以往具有明顯增長(zhǎng),NPU芯片設(shè)計(jì)邏輯相對(duì)簡(jiǎn)單,常用于邊側(cè)和端側(cè)的模型推理。2.2、英偉達(dá)AI時(shí)代賣水人,打造發(fā)展引擎AI的iPhone時(shí)刻。2023年3月21日,英偉達(dá)舉行了GTC2023(GPUTechnologyConoference)主題演講,CEO黃仁勛表示“我們正處于AI的iPhone時(shí)刻”。在會(huì)上黃仁勛介紹了英偉達(dá)在AI領(lǐng)域的最新進(jìn)展,包括全新的量子計(jì)算系統(tǒng)、云服務(wù)平臺(tái)、視覺(jué)圖像系統(tǒng)等,并發(fā)布了四款A(yù)I推理芯片、三個(gè)大模型云服務(wù)、超級(jí)計(jì)算機(jī),以及針對(duì)場(chǎng)景優(yōu)化的應(yīng)用100個(gè)、更新功能的工業(yè)元宇宙Omniverse。計(jì)算技術(shù)發(fā)展日新月異,曲速引擎是加速計(jì)算,動(dòng)力來(lái)源是AI,隨著計(jì)算量的激增,生成式AI使得企業(yè)需重新思考其商業(yè)模式與產(chǎn)品。目前英偉達(dá)生態(tài)系統(tǒng)涵蓋400萬(wàn)開(kāi)發(fā)者、4萬(wàn)家公司、1.4萬(wàn)家初創(chuàng)公司。加速計(jì)算和人工智能將重塑計(jì)算機(jī)行業(yè),新計(jì)算時(shí)代臨界點(diǎn)正到來(lái)。2023年5月29日,英偉達(dá)CEO黃仁勛在Computex2023上發(fā)表主題演講,表示“加速計(jì)算已經(jīng)帶來(lái)了全新的計(jì)算時(shí)代”,在AI發(fā)展中GPU擔(dān)任的運(yùn)算器角色變得愈發(fā)重要,加速計(jì)算有望成為關(guān)鍵引擎。英偉達(dá)推出超級(jí)計(jì)算機(jī)DGXGH200,E級(jí)AI超算。2023年5月,在COMPUTEX大會(huì)上英偉達(dá)推出超級(jí)計(jì)算機(jī)DGXGH200,DGXGH200通過(guò)NVLink互連技術(shù)及NVLinkSwitchSystem,將256個(gè)GraceHopper超級(jí)晶片連接成一個(gè)超大型、1-Exaflop、144TBGPU的巨型模型,用于驅(qū)動(dòng)生成式人工智能、推薦系統(tǒng)和數(shù)據(jù)分析,為巨型人工智能模型提供線性可擴(kuò)展性,谷歌云、Meta和微軟將會(huì)是首批使用DGXGH200的公司。同時(shí)NVIDIA的GraceHopper超級(jí)晶片已開(kāi)始量產(chǎn)。英偉達(dá)推出全新Spectrum-X加速以太網(wǎng)平臺(tái)。2023年5月29日,NVIDIA推出NVIDIASpectrum-X網(wǎng)絡(luò)平臺(tái),該平臺(tái)是一個(gè)加速網(wǎng)絡(luò)平臺(tái),用以提高基于以太網(wǎng)AI云的性能與效率。Spectrum-X將NVIDIASpectrum-4以太網(wǎng)交換機(jī)與NVIDIABlueField-3DPU緊密結(jié)合,取得1.7倍整體AI性能和能效提升,同時(shí)可在多租戶環(huán)境中提供一致、可預(yù)測(cè)的性能,Spectrum-X還提供NVIDIA加速軟件和軟件開(kāi)發(fā)套件(SDK),使開(kāi)發(fā)人員能夠構(gòu)建軟件定義的云原生AI應(yīng)用。英偉達(dá)發(fā)布多款加速庫(kù)助力加速計(jì)算。加速庫(kù)是加速計(jì)算的核心,通過(guò)加速庫(kù)連接應(yīng)用,再連接至各行各業(yè),形成網(wǎng)絡(luò)中的網(wǎng)絡(luò)。經(jīng)過(guò)30年的開(kāi)發(fā),已有數(shù)千款應(yīng)用被英偉達(dá)的庫(kù)加速,涉及科學(xué)和工業(yè)多個(gè)領(lǐng)域。目前NVIDIAGPU兼容CUDA,為開(kāi)發(fā)者提供了龐大的安裝基礎(chǔ)和廣泛的覆蓋范圍,吸引了眾多終端用戶。同時(shí)英偉達(dá)建立了加速計(jì)算的良性循環(huán),涵蓋了300個(gè)加速庫(kù)和400個(gè)AI模型。英偉達(dá)在2023年GTC大會(huì)重點(diǎn)介紹了幾款加速庫(kù):cuQuantum量子加速庫(kù):用于量子電路仿真的加速庫(kù)。cuQuantum由英偉達(dá)與QuantumMachines合作開(kāi)發(fā),將NVIDIAGPU連接到量子計(jì)算機(jī)以極快的速度進(jìn)行糾錯(cuò),對(duì)量子計(jì)算機(jī)進(jìn)行加速,可供研究人員推進(jìn)量子編程模型,系統(tǒng)架構(gòu)和算法。cuOpt運(yùn)籌規(guī)劃加速庫(kù):運(yùn)籌學(xué)優(yōu)化API。NVIDIAcuOpt使用進(jìn)化算法和加速計(jì)算每秒分析300億次動(dòng)作,打破了世界紀(jì)錄。cuOpt可以優(yōu)化物流,每年有4000億個(gè)包裹被投遞到3770億個(gè)站點(diǎn)。德勤、Capgemini,Softserve、埃森哲和Quantiphi正在使用NVIDIAcuOpt來(lái)幫助客戶優(yōu)化運(yùn)營(yíng)。CV-CUDA視頻處理加速庫(kù):用于計(jì)算機(jī)視覺(jué)的云規(guī)模加速庫(kù)。CV-CUDA包括30個(gè)計(jì)算機(jī)視覺(jué)算子,可用于檢測(cè)、分割和分類,VPF是一個(gè)Python視頻編解碼加速庫(kù),騰訊使用CVCUDA和VPF每天處理30萬(wàn)個(gè)視頻,Microsoft使用CVCUDA和VPF來(lái)處理視覺(jué)搜索。Parabricks醫(yī)療加速庫(kù):用于云端或儀器設(shè)備內(nèi)的端到端基因組分析的AI加速庫(kù)。NVIDIAParabricks將會(huì)在PacBio、OxfordNanopore、Ultima,Singular、BioNano和Nanostring的第四代NVIDIA加速基因組學(xué)設(shè)備上運(yùn)行。cuLitho計(jì)算光刻加速庫(kù):通過(guò)計(jì)算技術(shù)大幅優(yōu)化芯片制造流程。cuLitho歷時(shí)4年,利用GPU技術(shù)實(shí)現(xiàn)計(jì)算光刻,可以使傳統(tǒng)光刻技術(shù)提速40倍以上,為2m及更先進(jìn)芯片的生產(chǎn)提供助力。如果在GPU上運(yùn)行cuLitho,只需8小時(shí)即可處理完一個(gè)掩膜板。臺(tái)積電可通過(guò)在500個(gè)DGXH100系統(tǒng)上使用cuLitho加速,將功率從35MW降至5MW,從而替代用于計(jì)算光刻的4萬(wàn)臺(tái)CPU服務(wù)器。推出DGXAICloud云服務(wù),重塑大模型格局,加速AI生態(tài)發(fā)展。英偉達(dá)宣布推出NVIDIADGXCloud,這是一項(xiàng)AI超級(jí)計(jì)算服務(wù),能讓企業(yè)立即訪問(wèn)為生成式AI和其他突破性應(yīng)用程序訓(xùn)練高級(jí)模型所需的基礎(chǔ)設(shè)施和軟件。企業(yè)可按月租用DGXCloud集群,每月租金為3.7萬(wàn)美元,通過(guò)瀏覽器立即訪問(wèn)英偉達(dá)的DGXAI超級(jí)計(jì)算機(jī)和AI軟件,為生成式AI和其他開(kāi)創(chuàng)性應(yīng)用訓(xùn)練先進(jìn)模型,可快速輕松地?cái)U(kuò)展大型多節(jié)點(diǎn)訓(xùn)練工作負(fù)載的開(kāi)發(fā),而無(wú)需等待通常需求量很大的加速計(jì)算資源。此外,英偉達(dá)還成立了NVIDIAAIFoundations,為有專門要求的客戶構(gòu)建和改進(jìn)相關(guān)AI模型訓(xùn)練,從而降低AI數(shù)據(jù)的生成時(shí)間和提升客戶的工作效率。NVIDIAAIFoundations包括語(yǔ)言、視覺(jué)和生物模型制作服務(wù)。其中語(yǔ)言模型NVIDIANemo用于構(gòu)建定制的語(yǔ)言文本轉(zhuǎn)文本;視覺(jué)模型PICASSO用于視覺(jué)語(yǔ)言模型制作;生物學(xué)模型BioNeMo可幫助研究人員使用專有數(shù)據(jù)創(chuàng)建、微調(diào)和提供自定義模型。英偉達(dá)將與甲骨文、微軟和谷歌等云服務(wù)提供商合作,托管DGXCloud基礎(chǔ)設(shè)施。推出GPU推理平臺(tái),為AIGC設(shè)計(jì)專用算力。英偉達(dá)推出全新GPU推理平臺(tái),4種配置分別用于加速AI視頻、圖像生成、大型語(yǔ)言模型部署和推薦系統(tǒng),為不同種類的AIGC產(chǎn)業(yè)提供了對(duì)應(yīng)的硬件產(chǎn)品。L4:針對(duì)AI視頻設(shè)計(jì)的通用GPU,可提供比CPU高120倍的AI視頻性能,能效提高99%;L40:用于圖像生成,針對(duì)圖形和AI支持的2D、視頻和3D圖像生成進(jìn)行了優(yōu)化,推理性能是英偉達(dá)最受歡迎的云推理GPUT4的10倍;H100NVL:針對(duì)ChatGPT等大型語(yǔ)言模型的大規(guī)模部署,配備雙GPUNVLink,將兩張擁有94GBHBM3顯存的PCleH100GPU拼接在一起,可處理?yè)碛?750億參數(shù)的GPT-3大模型;GraceHooper:適用于推薦系統(tǒng)和大型語(yǔ)言模型的AI數(shù)據(jù)庫(kù),圖推薦模型、向量數(shù)據(jù)庫(kù)和圖神經(jīng)網(wǎng)絡(luò)的理想選擇,通過(guò)900GB/s的高速一致性芯片到芯片接口連接英偉達(dá)GraceCPU和HopperGPU。胖樹(shù)網(wǎng)絡(luò)架構(gòu)成為人工智能數(shù)據(jù)中心的重要需求之一。NVIDIADGXSuperPOD是NVIDIA推出的一個(gè)分布式集群的參考架構(gòu),最新一代是基于NVIDIADGXA100和NVIDIAHDR200Gb/sConnectX-6HCAs組建,旨在幫助AI研究人員快速搭建一套強(qiáng)大、靈活、高效的系統(tǒng)。DGXSuperPOD采用模塊化的設(shè)計(jì),支持不同規(guī)模大小的設(shè)計(jì),一個(gè)標(biāo)準(zhǔn)的SuperPOD由140臺(tái)DGXA100和三層Infiniband交換機(jī)通過(guò)胖樹(shù)結(jié)構(gòu)全互聯(lián)起來(lái)。每臺(tái)DGXA100配有8個(gè)200Gb/s的高速計(jì)算網(wǎng),并配有2個(gè)200Gb/s的高速存儲(chǔ)網(wǎng),采用計(jì)算和存儲(chǔ)網(wǎng)絡(luò)分離的方案。人工智能數(shù)據(jù)中心內(nèi)部數(shù)據(jù)流量較大,高速率、低延時(shí)的要求推動(dòng)胖樹(shù)架構(gòu)在數(shù)據(jù)中心網(wǎng)絡(luò)中部署。光連接向高速率、大密度方向發(fā)展。大語(yǔ)言模型帶來(lái)超大算力需求拉動(dòng)通信基礎(chǔ)設(shè)施建設(shè)與擴(kuò)容,光模塊作為數(shù)據(jù)傳輸?shù)幕A(chǔ)部件,是實(shí)現(xiàn)光電轉(zhuǎn)換的核心部件,網(wǎng)絡(luò)帶寬需求增加,推動(dòng)以太網(wǎng)交換機(jī)和光學(xué)器件進(jìn)步,交換機(jī)之間連接需要高端光模塊來(lái)完成,交換芯片的技術(shù)演進(jìn)推動(dòng)光模塊更新?lián)Q代,交換芯片向大容量、高速率、低功耗方向發(fā)展,光模塊隨之迭代升級(jí)。3、中文模型奮起直追,辦公生產(chǎn)力率先變革3.1、中文模型奮起直追,更強(qiáng)中文理解大模型可大致分為基礎(chǔ)大模型、行業(yè)大模型、場(chǎng)景模型三類。基礎(chǔ)大模型:可在多個(gè)領(lǐng)域和任務(wù)上通用的大模型。利用大算力、使用海量數(shù)據(jù)與大參數(shù)的深度學(xué)習(xí)算法,在大規(guī)模無(wú)標(biāo)注數(shù)據(jù)上進(jìn)行訓(xùn)練,以尋找特征并發(fā)現(xiàn)規(guī)律,進(jìn)而形成強(qiáng)大泛化能力,可在不進(jìn)行微調(diào)或少量微調(diào)的情況下完成多場(chǎng)景任務(wù)。行業(yè)大模型:針對(duì)特定行業(yè)或領(lǐng)域的大模型。通常使用行業(yè)相關(guān)的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練或微調(diào),以提高在該領(lǐng)域的性能和準(zhǔn)確度。場(chǎng)景模型:針對(duì)特定任務(wù)或場(chǎng)景的大模型。通常使用任務(wù)相關(guān)的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練或微調(diào),以提高在該任務(wù)上的性能和效果。百度發(fā)布“文心一言”大模型,更強(qiáng)中文理解與跨模態(tài)能力。2023年3月16日,百度召開(kāi)發(fā)布會(huì)發(fā)布大語(yǔ)言模型、生成式AI產(chǎn)品“文心一言”,百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏展示了文心一言在文學(xué)創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理推算、中文理解、多模態(tài)生成五個(gè)使用場(chǎng)景中的綜合能力。百度智能云面向企業(yè)客戶開(kāi)放文心一言API接口調(diào)用服務(wù)。2023年3月27日,百度推出企業(yè)級(jí)大模型服務(wù)平臺(tái)“文心千帆”,基于文心一言底層模型(ErnieBot)數(shù)據(jù)管理、自動(dòng)化模型定制微調(diào)以及推理服務(wù)云端部署一站式大模型定制服務(wù),并提供可快速使用的文心一言企業(yè)級(jí)推理云服務(wù),助力各行業(yè)的生成式AI應(yīng)用需求落地。文心一言:知識(shí)增強(qiáng)大語(yǔ)言模型,基于飛槳深度學(xué)習(xí)平臺(tái)和文心知識(shí)增強(qiáng)大模型。文心一言大模型持續(xù)從海量數(shù)據(jù)和大規(guī)模知識(shí)中融合學(xué)習(xí)具備知識(shí)增強(qiáng)、檢索增強(qiáng)和對(duì)話增強(qiáng)的技術(shù)特色。百度同時(shí)具備人工智能四層能力,在應(yīng)用層、模型層、框架層、芯片層進(jìn)行全棧布局。從昆侖芯片、飛槳深度學(xué)習(xí)平臺(tái)、文心大模型到應(yīng)用,百度在技術(shù)棧的各層都有領(lǐng)先業(yè)界的關(guān)鍵自研技術(shù),實(shí)現(xiàn)了層與層反饋,端到端優(yōu)化,大幅提升效率。文心大模型:基于BERT結(jié)構(gòu),多范式的統(tǒng)一預(yù)訓(xùn)練模式,支持長(zhǎng)文本語(yǔ)言模型建模。2019年3月,百度發(fā)布并開(kāi)源了中國(guó)首個(gè)知識(shí)增強(qiáng)的語(yǔ)言模型文心ERNIE1.0,百度圍繞各場(chǎng)景,在NLP、CV、跨模態(tài)、生物計(jì)算等領(lǐng)域形成完善的大模型生態(tài),已歷經(jīng)四代,2022年發(fā)布的ERNE3.0TITAN參數(shù)量達(dá)到2600億,相對(duì)GPT-3的參數(shù)量提升50%。超大規(guī)模預(yù)訓(xùn)練數(shù)據(jù)集。在ERNIE3.0中,百度提出了一個(gè)多范式統(tǒng)一的大規(guī)模預(yù)訓(xùn)練框架,基于該框架,ERNIE3.0融合了自回歸網(wǎng)絡(luò)和自編碼網(wǎng)絡(luò),同時(shí)由于大規(guī)模知識(shí)圖譜類數(shù)據(jù)的引入,使得模型能夠在理解任務(wù)、生成任務(wù)、零樣本學(xué)習(xí)任務(wù)和常識(shí)推理任務(wù)上均獲取優(yōu)秀的表現(xiàn)。ERNIE3.0在14種類型共計(jì)45個(gè)自然語(yǔ)言理解數(shù)據(jù)集上取得了SOTA的結(jié)果,在9個(gè)自然語(yǔ)言生成任務(wù)上取得了SOTA的效果,在18個(gè)數(shù)據(jù)集上刷新了zero-shot的SOTA效果。創(chuàng)新型算法,更好的中文理解能力,全面的模型尺寸,覆蓋不同場(chǎng)景需求。百度創(chuàng)新性地將大數(shù)據(jù)預(yù)訓(xùn)練與多源豐富知識(shí)相結(jié)合,通過(guò)持續(xù)學(xué)習(xí)技術(shù),不斷吸收海量文本數(shù)據(jù)中詞匯、結(jié)構(gòu)、語(yǔ)義等方面的新知識(shí),實(shí)現(xiàn)模型效果不斷進(jìn)化。文心大模型引入知識(shí)圖譜,通過(guò)知識(shí)內(nèi)化(語(yǔ)義學(xué)習(xí)和數(shù)據(jù)構(gòu)造)和知識(shí)外用(知識(shí)推理和提示構(gòu)建),將數(shù)據(jù)與知識(shí)融合,使得學(xué)習(xí)效率更高、可解釋性更好,突破了多源異構(gòu)數(shù)據(jù)難以統(tǒng)一表示和學(xué)習(xí)瓶頸。針對(duì)不同的場(chǎng)景需求,百度發(fā)布不同的模型尺寸,拓寬了人工智能技術(shù)落地場(chǎng)景的覆蓋廣度。大模型體系化,預(yù)置豐富模型。不同場(chǎng)景對(duì)模型的需求會(huì)有一定的差異化,所以在通用模型的基礎(chǔ)上需增加不同特質(zhì),對(duì)此百度增加了兩類模型:1、任務(wù)大模型,主要面向特定任務(wù),比如語(yǔ)音搜索、圖文搜索、圖象理解等;2、行業(yè)大模型,針對(duì)特定行業(yè)進(jìn)行知識(shí)增強(qiáng)后的大模型。飛漿(PaddlePaddle):源于產(chǎn)業(yè)實(shí)踐的開(kāi)源深度學(xué)習(xí)平臺(tái)。百度于2013年成立深度學(xué)習(xí)實(shí)驗(yàn)室,并推出自主研發(fā)的深度學(xué)習(xí)平臺(tái),即PaddlePaddle前身;2016年8月,PaddlePaddle正式開(kāi)源,對(duì)標(biāo)谷歌TensorFlow,是中國(guó)首個(gè)開(kāi)源開(kāi)放的深度學(xué)習(xí)框架。目前PaddlePaddle集深度學(xué)習(xí)核心框架、基礎(chǔ)模型庫(kù)、端到端開(kāi)發(fā)套件、工具組件和服務(wù)平臺(tái)于一體,是全面開(kāi)源開(kāi)放、技術(shù)領(lǐng)先、功能完備的產(chǎn)業(yè)級(jí)深度學(xué)習(xí)平臺(tái)。目前飛槳已廣泛應(yīng)用于工業(yè)、農(nóng)業(yè)、服務(wù)業(yè)等。文心一格:AI藝術(shù)與創(chuàng)意輔助平臺(tái)。文心一格是百度推出的AI作畫產(chǎn)品。依托飛槳、文心大模型的技術(shù)創(chuàng)新,只需輸入文字描述,即能生成各種風(fēng)格的精美畫作??蔀楫嫀?、設(shè)計(jì)師等視覺(jué)內(nèi)容創(chuàng)作者啟發(fā)靈感,輔助藝術(shù)創(chuàng)作,也能為媒體、作者等文字內(nèi)容創(chuàng)作者提供高質(zhì)量、高效率的配圖。文心百中:產(chǎn)業(yè)級(jí)搜索系統(tǒng)。文心百中是百度推出的由大模型驅(qū)動(dòng)的產(chǎn)業(yè)級(jí)搜索系統(tǒng)。依托百度文心大模型,以極簡(jiǎn)框架,代替?zhèn)鹘y(tǒng)搜索引擎復(fù)雜的構(gòu)建及維護(hù)成本,可低成本接入各類企業(yè)和開(kāi)發(fā)者應(yīng)用,并憑借數(shù)據(jù)驅(qū)動(dòng)的優(yōu)化模式可實(shí)現(xiàn)行業(yè)優(yōu)化效率及應(yīng)用效果。商湯科技推出“日日新大模型”體系。2023年4月10日,在商湯技術(shù)交流日活動(dòng)上,商湯科技董事長(zhǎng)兼首席執(zhí)行官徐立宣布推出大模型體系“商湯日日新大模型”,包括自然語(yǔ)言生成、文生圖、感知模型標(biāo)注、以及模型研發(fā)功能。商湯SenseChat2.0大語(yǔ)言模型能力全面升級(jí)。2023年7月7日,商湯科技董事長(zhǎng)兼CEO徐立在第六屆世界人工智能大會(huì)(WAIC2023)推出商湯商量SenseChat2.0版本,實(shí)現(xiàn)大語(yǔ)言模型全面升級(jí),突破了長(zhǎng)度限制,并推出不同參數(shù)量級(jí)的模型版本,可完美適配移動(dòng)端、云端等不同終端及場(chǎng)景的應(yīng)用需求,降低部署成本。與此同時(shí),商湯秒畫SenseMirage3.0文生圖大模型亦全面升級(jí),模型參數(shù)從2023年4月的10億提升至7月的70億,可實(shí)現(xiàn)專業(yè)攝影級(jí)的圖片細(xì)節(jié)刻畫。華為云正式發(fā)布盤古大模型3.0,面向行業(yè)的大模型系列。2023年7月7日,華為開(kāi)發(fā)者大會(huì)2023在東莞召開(kāi),華為常務(wù)董事、華為云CEO張平安正式發(fā)布了華為云盤古大模型3.0,首次明確定位“為行業(yè)而生”。盤古大模型3.0分為L(zhǎng)0基礎(chǔ)大模型、L1行業(yè)大模型、L2場(chǎng)景模型三層架構(gòu),將重塑千行百業(yè)。盤古大模型強(qiáng)調(diào)在細(xì)分場(chǎng)景的落地應(yīng)用,主要解決商業(yè)環(huán)境中低成本大規(guī)模定制的問(wèn)題,用AI賦能千行百業(yè)。在煤礦領(lǐng)域,盤古礦山大模型已經(jīng)在全國(guó)8個(gè)礦井規(guī)模使用,一個(gè)大模型可以覆蓋煤礦的采、掘、機(jī)、運(yùn)、通、洗選等業(yè)務(wù)流程下的1000多個(gè)細(xì)分場(chǎng)景,讓更多煤礦工人能夠在地面上作業(yè),極大地減少安全事故;在氣象領(lǐng)域,原來(lái)預(yù)測(cè)一個(gè)臺(tái)風(fēng)未來(lái)10天的路徑,需要在3000臺(tái)服務(wù)器的高性能計(jì)算機(jī)集群上花費(fèi)5小時(shí)進(jìn)行仿真,現(xiàn)在基于預(yù)訓(xùn)練的盤古氣象大模型,10秒內(nèi)就可以獲得更精確的預(yù)測(cè)結(jié)果,速度比傳統(tǒng)數(shù)值預(yù)報(bào)提速10000倍以上。7月6日,該研究成果登上國(guó)際頂級(jí)學(xué)術(shù)期刊《自然》雜志;在交通運(yùn)輸行業(yè),盤古鐵路大模型能精準(zhǔn)識(shí)別現(xiàn)網(wǎng)運(yùn)行的67種貨車、430多種故障,綜合準(zhǔn)確性高達(dá)99.8%。通過(guò)盤古鐵路大模型的“慧眼”,無(wú)故障圖片的篩除率為95%,實(shí)現(xiàn)效率提升。盤古大模型在性能、深度、架構(gòu)及數(shù)據(jù)增強(qiáng)方面均進(jìn)行了升級(jí)。華為擁有算力、框架、平臺(tái)全棧核心技術(shù),盤古大模型實(shí)現(xiàn)了以鯤鵬和昇騰為基礎(chǔ)的AI算力云平臺(tái),以及異構(gòu)計(jì)算架構(gòu)CANN、全場(chǎng)景AI框架昇思MindSpore、AI開(kāi)發(fā)生產(chǎn)線ModelArts的全棧自主創(chuàng)新。單集群2000PFlops算力、千卡訓(xùn)練30天長(zhǎng)穩(wěn)率達(dá)到90%的昇騰AI云服務(wù)在華為云的烏蘭察布和貴安AI算力中心同時(shí)上線。3.2、生產(chǎn)力工具革新,釋放創(chuàng)造力微軟發(fā)布Microsoft365Copilot,提升工作效率,革新工作方式。2023年3月16日,微軟發(fā)布了集成了GPT4功能的Microsoft365Copilot,提供了包括文字和圖片內(nèi)容生成,歸納,數(shù)據(jù)分析、輔助決策等一系列新功能。Copilot一款基于GPT-4和MicrosoftGraph的AI辦公助手,為用戶提供了一種全新的工作方式。Copilot通過(guò)兩種方式集成至Microsoft365中,第一種是嵌入至Microsoft365應(yīng)用程序中,如Word、Excel、PowerPoint、Outlook、Teams等,第二種是郵件、聯(lián)系人、在線會(huì)議等軟件數(shù)據(jù)接入大語(yǔ)言模型,借助PowerPlatform中的Copilot,將重復(fù)的工作流程自動(dòng)化,解鎖生產(chǎn)力。Microsoft365Copilot技術(shù)原理:LLM+MicrosoftGraph+Microsoft365Apps。Microsoft365Copilot由“Copilot系統(tǒng)”提供支持,利用了三種基礎(chǔ)技術(shù):Microsoft365應(yīng)用:即Word、Excel、PowerPoint、Outlook、Teams等;MicrosoftGraph:是Microsoft365中通往數(shù)據(jù)和智能的網(wǎng)關(guān),它提供統(tǒng)一的可編程模型,可用于訪問(wèn)Microsoft365、Windows10和企業(yè)移動(dòng)性+安全性中的海量數(shù)據(jù),相當(dāng)于數(shù)據(jù)傳輸?shù)耐ǖ?,連結(jié)大模型和Microsoft365應(yīng)用;大型語(yǔ)言模型LLM:使用大量數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可以生成自然語(yǔ)言文本或理解語(yǔ)言文本的含義。用戶輸入指令后,Copilot將該指令信息發(fā)送到MicrosoftGraph,進(jìn)行上下文檢索和修正提升,并將修正后的信息發(fā)送到GPT-4,之后將回復(fù)傳回MicrosoftGraph,完成安全和合規(guī)性檢查后,最終傳回到Microsoft365應(yīng)用。Copilot能掃描MicrosoftGraph中存儲(chǔ)的電郵、會(huì)議、聊天內(nèi)容和日歷中標(biāo)注的日期和事件等所有數(shù)據(jù),根據(jù)這些內(nèi)容作出回應(yīng)。這些數(shù)據(jù)可以幫助支持Copilot的大語(yǔ)言模型改進(jìn)回答,讓回答更具體、對(duì)用戶個(gè)人更有針對(duì)性。Word:通過(guò)Copilot可實(shí)現(xiàn)文稿的快速生成和修改。幫助用戶寫作、編輯、摘要和創(chuàng)作文檔,能讓用戶集中精力發(fā)揮創(chuàng)造力,快速撰寫具有說(shuō)服力的提案;可以根據(jù)簡(jiǎn)單的筆記和其他內(nèi)部文件草擬提案,生成初稿,并按照用戶的需求調(diào)整格式、插入圖片和提取視覺(jué)素材;可以生成摘要和提供建議以改進(jìn)文檔。Excel:通過(guò)Copilot可實(shí)現(xiàn)海量數(shù)據(jù)可視化,幫助用戶分析和探索數(shù)據(jù)。用戶可以讓Copilot找出關(guān)鍵趨勢(shì)、提出跟進(jìn)問(wèn)題,并將數(shù)據(jù)可視化;Copilot還能創(chuàng)建簡(jiǎn)單的假設(shè)模型,并將操作過(guò)程逐步分解,以便用戶進(jìn)行修改。PowerPoint:通過(guò)Copilot可基于文稿生成幻燈片,通過(guò)便捷指令調(diào)用編輯功能??蓪ord文檔轉(zhuǎn)換為演示文稿,亦可將PowerPoint轉(zhuǎn)換為Word文檔;用戶只需給出簡(jiǎn)短的指示,Copilot即能迅速完成幻燈片制作,讓用戶進(jìn)行審查;能為文字過(guò)多幻燈片添加動(dòng)畫效果,以實(shí)現(xiàn)專業(yè)設(shè)計(jì)效果;可以為所有幻燈片生成演講者備注,幫助用戶成為更出色的演講者。Outlook:通過(guò)Copilot輔助整理、歸納、起草電子郵件??勺詣?dòng)管理和回復(fù)郵件,用戶可通過(guò)簡(jiǎn)單命令指引對(duì)郵件進(jìn)行分類、總結(jié)、

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論