久謙ChatGPT紀(jì)要分享_第1頁
久謙ChatGPT紀(jì)要分享_第2頁
久謙ChatGPT紀(jì)要分享_第3頁
久謙ChatGPT紀(jì)要分享_第4頁
久謙ChatGPT紀(jì)要分享_第5頁
已閱讀5頁,還剩231頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

|服務(wù)進(jìn)步的群體|1久久謙要分享本紀(jì)要僅基于本所迄今為止可獲得的信息編寫。未經(jīng)久謙咨詢事先書面同意,任何其他人士或?qū)嶓w不得使用本紀(jì)要,本紀(jì)要亦不能用于任何其他目的。即使在經(jīng)久謙咨詢同意的情況下向任何其他人士或?qū)嶓w披露了本紀(jì)要,久謙咨詢不會就本紀(jì)要的內(nèi)容對該等其他人士和實(shí)體承擔(dān)任何責(zé)任。|服務(wù)進(jìn)步的群體|3i算法:科大訊飛、拓爾思(NLP)、海康威視(圖像識別)、云從科技(圖像識別)、格林深瞳(圖像識別)ii算力:海光信息(DCU)、寒武紀(jì)(AI芯片)、景嘉微(GPU)c傳媒:平臺+光模塊+運(yùn)營商ii光模塊:中際旭創(chuàng)(800G光模塊龍頭+最早放量+最高份額和訂單+股權(quán)激勵+估值水平較低)iii國移動5ChatGPT未來迭代和產(chǎn)業(yè)輻射a基礎(chǔ)=純粹創(chuàng)新精神+長期主義:創(chuàng)新型+投入+決心+頂尖人才儲備b算力+GPU+商業(yè)模式i大算力+大模型iii知識定制化:特定領(lǐng)域數(shù)據(jù)(醫(yī)療、司法)v產(chǎn)業(yè)輻射:數(shù)據(jù)(收集+處理+清洗)、智能對話(客服、機(jī)器人)、創(chuàng)作 (素材收集+寫作)、虛擬現(xiàn)實(shí)、教育|服務(wù)進(jìn)步的群體|4AIChatGPT GPT ChatGPT出圈和國內(nèi)發(fā)展 22 OpenAI嵌入微軟Office與Bing,智能化向C端開始滲透 54 AIChatGPT用和場景商業(yè)化廣闊 60 ing T |服務(wù)進(jìn)步的群體|5OpenAI高管解密ChatGPT?GPT-3是一種大型語言模型,被訓(xùn)練用來在給定上下文中預(yù)測下一個單詞,使用Transformer的能力2GPT-3可以用于翻譯任務(wù),方法是提供比如“德語:英語”對的翻譯樣例(如果PT產(chǎn)生翻譯文本生成和問答。它明顯比早期版本的GPT(規(guī)模)更大、(功能)更強(qiáng)大,b它被用來生成創(chuàng)意寫作任務(wù)的起點(diǎn)或變體,如產(chǎn)品描述,并已與OpenAIAPI集cAPI允許用戶對GPT-3進(jìn)行特定任務(wù)的微調(diào),包括設(shè)置學(xué)習(xí)率和數(shù)據(jù)的過渡次4PeterWelinder現(xiàn)任OpenAI產(chǎn)品與合作伙伴副總裁,負(fù)責(zé)GPT-3的運(yùn)行和其他業(yè)Peter時,我記得你在OpenAI做研究,但現(xiàn)在我們發(fā)現(xiàn)你是OpenAI的產(chǎn)品和合作伙伴關(guān)系副總裁,我很好奇這意味著什么?你每天都在做什我今天所做的與我做研究時完全不同,對我來說,做研究一直都是為了解決最困2GPT-3發(fā)生了一件令人興奮的事情……當(dāng)我開始在OpenAI工作時,我做的很多事在實(shí)驗(yàn)室里能做的事情和你在現(xiàn)一些差距。使用GPT-3,當(dāng)我們在GPT-3中得到第始應(yīng)用于現(xiàn)實(shí)世界的問題,而不僅僅a手解魔方的演b這是一種非常昂貴的GPT來解決各|服務(wù)進(jìn)步的群體|6c我何利用你工具箱里的工具來解決這和正確的方法來遠(yuǎn)時,你需要想出這些玩具的方法來評估進(jìn)展a現(xiàn)在,就像客戶告訴我們“嘿,我正在嘗試將GPT-3應(yīng)用到這個用例中”,但1這是一個很好問題,我認(rèn)為我真正喜歡GPT-3的地方,以及我認(rèn)為它與眾不同的GPT切都非常簡單2GPT-3是一個大型語言模型,大型神經(jīng)網(wǎng)絡(luò)。它使用的是谷歌幾年前推出的一種Transformer架構(gòu),如今,它基本上為所有不同的語言模型提供了支GPT的訓(xùn)練方式。它只是訓(xùn)練了來自不同來源的大量文本,大部分來自互聯(lián)4你可以從幾個單詞開始,但當(dāng)我們今天訓(xùn)練這些模型時,我們訓(xùn)練它們的數(shù)量級a我認(rèn)為GPT-3的令人驚訝之處在于,如果你這樣做,然后你把模型變得非常b絡(luò),或者如果你想做c我們在使用GPT-3中發(fā)現(xiàn),你實(shí)際上在一些基準(zhǔn)測試中獲得了非常接近最先進(jìn)d該模型使用的是一個剛剛在互聯(lián)網(wǎng)上訓(xùn)練過的模型,它不專門執(zhí)行任何任務(wù),GPT-3應(yīng)用于翻譯任務(wù)在很多其他的大型語言模型中,都有一些特定的步驟,你可以對一段文本進(jìn)行編以你會在神經(jīng)網(wǎng)絡(luò)中創(chuàng)建一些表示|服務(wù)進(jìn)步的群體|7翻的神經(jīng)網(wǎng)絡(luò)會有一個單獨(dú)的部分來接受這PTb你可能只提供一個例子,那么這個稱為一下(one-shot),你可以提供一些例句子,這就是所謂的多下(Few-Shot)訓(xùn)練3如果你有幾個例子和模型,只要看看它現(xiàn)在在其上下文中看到的模式,它可以產(chǎn),我認(rèn)為告訴GPT該做什么的方Lukas,我想讓你翻譯一些句子”a我會告訴你:“請翻譯這些句子”,我可能會提供一些例子來讓你了解一下它的規(guī)律,給你一個德語句子(我不知道你懂不懂德語)你就能把它翻譯成英語b現(xiàn)在有了我們最新的模型,你甚至不需要提供這些例子,你可以像問人一樣問它你想做什么,它就會盡最大努力去做?你是主要致力于訓(xùn)練模型使用多種語言,還是主要是英語?語料庫從何而來?a不們想看看,它在更通用的能力上能有b我們不太關(guān)心翻譯,因此,每當(dāng)我們輸入額外的語言時,這只會以擅長用英語c,即使明確地試圖過濾掉大多數(shù)其他語言,也可能有一小部分?jǐn)?shù)據(jù)是2我的母語是瑞典語,但我現(xiàn)在已經(jīng)不會用瑞典語寫作了,因?yàn)槲覐膩頉]有這樣做?是預(yù)測單詞還是一次預(yù)測一個字符?這是怎么回事?|服務(wù)進(jìn)步的群體|8實(shí)際上是在預(yù)測一種叫做符號標(biāo)記(Token)的東西,這就像“單詞們將它們映射到字符序列上,結(jié)果就像“hi”或使用文本在字符層面上做到這一點(diǎn)我猜你可能會說,他們已經(jīng)為你做了標(biāo)記化,通過使用更多的1是的,訓(xùn)練標(biāo)記器(Tokenizer)的方式肯定會對不同語言的性能產(chǎn)生影響。通常2你可以在某些數(shù)據(jù)語料庫上訓(xùn)練你的標(biāo)記器,然后在其他一些數(shù)據(jù)集上分別使用標(biāo)記器很多單詞都是一個單一的符號,所以且更昂貴1是的,我記得我們的一個日本用戶的評論,他們非常喜歡使用GPT-3在英語和日歌翻譯現(xiàn)在可能更好,但根據(jù)我們擁有的數(shù)據(jù)情文章或其他東那里它找到了廣到任意的翻譯任務(wù)真是太神奇了,這種性能與早期版本的GPT有明顯的不同嗎?比如在GPT-3中是|服務(wù)進(jìn)步的群體|9GPT15億個參數(shù),TGPT發(fā)生一次,或每兩b對于諸如總結(jié)文本之類的事情,我們有一個例子是用二年級學(xué)生的風(fēng)格總結(jié)一3顯然,我們有很多學(xué)術(shù)基準(zhǔn)(academicbenchmarks),你可以運(yùn)行這些模型,你4但當(dāng)你想要創(chuàng)建一些東西的原型時,這是一種完全不同的感覺,不同的是,現(xiàn)在良好的東西GPT這些任務(wù),我們覺得“好吧,它已經(jīng)足夠接近最先進(jìn)的們所擁有的任何任務(wù)中,這就是我們設(shè)置的API驗(yàn)證的內(nèi)容,你面臨的問題是你陷入了某種寫作瓶c司開始做的是他們采用GPT-3,他們用它來生成一些起點(diǎn)或者一些產(chǎn)品如果你生成五個這樣的例子,其中一個d這幾乎是一種幫助人類創(chuàng)造力的方式,你知道嗎,我覺得這太酷了會告訴我們,“嘿,我已經(jīng)試著寫這本書半年了,我總是陷入寫作瓶頸。GPT。”當(dāng)你陷入困境a作為一個有創(chuàng)意的作家,你開始探索,就像“好吧,我沒有想過這個角色會往|服務(wù)進(jìn)步的群體|10我發(fā)現(xiàn)很多公司都在利用這一c非常令人興奮的。我覺得回答問題也非常酷,但是這個問題出乎我用例。使用OpenAIAPI微調(diào)?GPT-3的優(yōu)點(diǎn)之一似乎是它可以開箱即用。對于一些團(tuán)隊(duì),如果出現(xiàn)問題,他們會擔(dān)心該怎么辦。我想我很好奇,你通常與公司內(nèi)部的ML團(tuán)隊(duì)合作,還是更多的工的好處是,他們不必弄清楚機(jī)器學(xué)習(xí)是如何工作的,以獲得自然語言處根據(jù)任務(wù)對模型進(jìn)行調(diào)整的最大的模型或最好的b但我認(rèn)為,我們的大多數(shù)客戶可能更傾向于另一個陣營,即“真正聰明的開發(fā)一個相當(dāng)廣泛的群體c從程序員到工程師,從設(shè)計(jì)師到項(xiàng)目經(jīng)理。許多人告訴我們OpenAIAPI是他們O專家,也能從這些模型中得型編寫指令非常好的結(jié)果3這不是一種機(jī)器學(xué)習(xí)技能,這幾乎更像是一種任務(wù)規(guī)范,管理技能,我覺得很多?我覺得我聽人說過一個叫做“提示工程師(PromptEngineer)”的新角色可能與此GPT它做的事情 (AndrewMayne)2他是該API的早期用戶之一,他的內(nèi)部名稱是“提示耳語者 (PromptWhisperer)”,或“GPT-3耳語者”,他真的知道如何精心設(shè)計(jì)提示以|服務(wù)進(jìn)步的群體|11食譜書或事。我認(rèn)a在我們推出后的一年半時間里,我們看到人們在這方面有很多困難,所以我們b所以我想說,提示設(shè)計(jì)現(xiàn)在已經(jīng)不那么重要了。你可以告訴模型你想讓它做什cGPT-3在這方面非常強(qiáng)大,但有時它確實(shí)有點(diǎn)問題,一些調(diào)整很重要。但我想越1GPT-3令人驚訝的是通過零下(zero-shot)就得到了非常好的結(jié)果。你只需要提沒有例子,只是說,“嘿,把這個句子從德語翻譯成英語”就可以了,或者你提供了幾個(few-shot)示例,比如幾對德語和英語實(shí)例2只需幾個(few-shot)示例,你就可以得到令人驚訝的好結(jié)果。但這實(shí)際上意味30%的時間你得到的輸70%的時間都能做到效,你可以只提供一些例子,你知道其中至少4如果你想做翻譯,或者如果你想總結(jié)文章,你可以提供幾百篇已經(jīng)做過人工編寫以更新GPT-3來更好地完成這項(xiàng)任務(wù)限,但是通過微調(diào),可能多的例子顯然,示例越多,微調(diào)所需的時間就越長,成本也就越高。但微調(diào)基本上是一個供例子的任務(wù)a0個例子你就能顯著提高準(zhǔn)確性進(jìn)行分類等等。并通過微調(diào)模型得到了更好的結(jié)果。我們在客戶c是|服務(wù)進(jìn)步的群體|12d這可以讓他們比以前啟用更多的應(yīng)用程序。我們只是讓這種微調(diào)變得很簡單?我想對你來說,你們可以調(diào)整的參數(shù)是什么,因?yàn)槟忝枋龅姆绞?,聽起來好像沒1對于你關(guān)于參數(shù)的問題,我們試圖在我們的API中使它變得非常簡單。我們試著不同。例如,你可以設(shè)置學(xué)習(xí)率,這是你在每個學(xué)習(xí)步驟中更的程度3你可以設(shè)置你想要通過多少次數(shù)據(jù)的內(nèi)容,事實(shí)證明,如果你把數(shù)據(jù)調(diào)整太多鈕,我只想要最好的模型出來?!比缓蠛芏嘞胍獢[弄更多的參數(shù),我想我們可以長期滿足雙方的需求bBoris(Boris是一個ML技術(shù)人員),我不知道你把自己歸哪一類了,你做了一,我很好奇你使用GPT-3模型的經(jīng)驗(yàn)c有一個好的默認(rèn)值,因?yàn)樽畛跄阏娴牟恢滥銘?yīng)該在它上面改變什2除了Peter提到的參數(shù)之外,還有兩個參數(shù)也讓我很感興趣,你可以決定微調(diào)哪,也許有時確實(shí)需要,所以我想3我還喜歡看到“我可以給出多少個訓(xùn)練樣本”的效果,就像我只給出20個樣0個,因?yàn)檫@樣你就能知道我的模型在我開發(fā)一個更大的數(shù)歡擺弄各種各樣的參數(shù),看看基于這些參數(shù)能做出什么b這就像從一小組例子開始,然后把它翻倍,看看你能得到多少改進(jìn)。如果你將|服務(wù)進(jìn)步的群體|13率的線性改善c如果你有10%的錯誤率,你把訓(xùn)練數(shù)據(jù)翻倍,你可能會得到8%的錯誤率。然6%等等d如果你能看到這種趨勢,那么你就會突然有一種感覺,“就標(biāo)記更多的數(shù)據(jù)等或類似的東西,當(dāng)你這樣做時,你還希望對數(shù)據(jù)進(jìn)行隨機(jī)排序可復(fù)制的。唯一需要注意的是4在實(shí)踐中,即使是推論,這也是正確的。我們有一個叫做溫度(Temperature)0也不能保證你會得到完全確定的輸出a在這些大型模型的GPU中,有足夠多的噪音和一些奇怪的浮點(diǎn)運(yùn)算等等,都的決定夠強(qiáng)大,這樣你就不用PIAPI在基礎(chǔ)設(shè)施方面面臨的挑戰(zhàn)要大得多。允許這種情況發(fā)生是一項(xiàng)艱巨的任務(wù)用不同的模型時,你需要換入和換出不同的模型嗎?GPU程度上,對于一些最早期的微調(diào)客戶2我們基本上是按GPU小時收費(fèi)的,比如每小時,他們使用模型的次數(shù)。甚至從一GPU有不到一個小時,這一切都累積得非常非??靊我們只是設(shè)定了一個目標(biāo)說“好吧,一旦你微調(diào)了你的模型,你應(yīng)該立即能夠稱3現(xiàn)在你可以在API中使用那個模型來立即得到一個結(jié)果,而且你不會按小時或其|服務(wù)進(jìn)步的群體|14為API收費(fèi)。這真的很棘手,我們在OpenAI想出了很多技巧來平衡這些模型的最終位一個很棒的體驗(yàn)率?你覺得你和所有使用GPT-3進(jìn)行自然語言任務(wù)的每個人之間的區(qū)別是模型本身的幾個月里,我們將API的第一個原型交付客戶提高了200倍之類的a我們做了很多努力來讓它超快。第三件事是圍繞安全的事情。我們投資這些InstructGPT看到有時你可以得到出乎意料的模型輸b但由于某些原因,它可能會變得非常黑暗,或者你可能會以不同的方式得到一4事實(shí)證明,當(dāng)安全和能力齊頭并進(jìn)時,當(dāng)你能更好地控制它時,它就會變成一個5最后,我們非常關(guān)注的事情是讓它使用起來非常簡單,事實(shí)上,你不需要加載模能輕松使用它|服務(wù)進(jìn)步的群體|15?事件ChatGPTAI名字叫做文心一言,英文名刺,時間有可能提前。百度集團(tuán)-SW漲幅超15%,此外其型方面有不錯的積累,在AI發(fā)展方面把握先機(jī)a百度的文心大模型具備多功能,可以進(jìn)行文本生成,內(nèi)容提取,摘要生成,觀ToBbToB也比較穩(wěn)定。百度計(jì)劃同時推出ToBToC,并先發(fā)布ToC的demoUGC,但和PGC相比還有所欠缺。抖音方面也有應(yīng)用,通過AI的模式來生頻的客服領(lǐng)域有布局,其次是AI+營銷,例如阿里巴C市場規(guī)??焖僭鲩L,未來5年內(nèi)AIGC產(chǎn)生的圖片的占比預(yù)計(jì)會oCChatGPT,他們基于對話的語料,做了2如果和搜索引擎結(jié)合起來后,整體使用效果還是可以的,因?yàn)榻Y(jié)合后,不涉及到|服務(wù)進(jìn)步的群體|16?ChatGPT會替代傳統(tǒng)搜索引擎嗎?GPT很高2ChatGPT對于新數(shù)據(jù)不太友好,未能建立和實(shí)時信息的連接,目前預(yù)訓(xùn)練模型如問題較多的優(yōu)化以后,再看對搜至少可以跟百度的模式一樣,搞雙引擎嗎?國內(nèi)其他大廠,比如騰訊、字節(jié)等,會想著在短時間內(nèi)做出來類似ChatGPT的產(chǎn),a做這些模型的應(yīng)AIC端消費(fèi)者b在做語言處理模型,戶的搜索心智。字節(jié)也希望推出新的具體規(guī)劃品?國內(nèi)會引入ChatGPT嘛(考慮到有一些內(nèi)容指向性的問題)?如果Bing引入了ChatGPTToB端可能會引入,國內(nèi)的小公司可以應(yīng)用,目前ChatGPT的ToB端因?yàn)槌杀?、?yōu)化等問題還沒有開放,如果ChatGPT的ToB端開業(yè)公司可能會接入,并去做下游應(yīng)用端的產(chǎn)品|服務(wù)進(jìn)步的群體|17Bing實(shí)對搜索是會有一定的沖擊的,首先我們考慮一下用U,本次也是集合了幾個核價值量最大的地方會型會趨于雷同,甚至很多應(yīng)用程序會被有一個前提,算法是有上限的。但是實(shí)際來看,在短期內(nèi)趨于雷同。模型的發(fā)展的效3發(fā)展的模式也有區(qū)別??赡軙幸慌蟮墓靖慊A(chǔ)性的模型,比方類似于GPTPT。未來是兩種發(fā)展模式相結(jié)合?字節(jié)和百度在該方向的算力、數(shù)據(jù)和人員投入如何?域也已經(jīng)有千億參數(shù)的2數(shù)據(jù)方面,字節(jié)也有一些頭條和抖音的搜索數(shù)據(jù),量級上沒有百度搜索的數(shù)據(jù)量大公司的投入都非常大。百度把AIGC作為一個發(fā)展浪潮來追|服務(wù)進(jìn)步的群體|18而字節(jié),合其實(shí)整體上來說投入也還可以,ChatGPT沒有向我們大陸開放,我們ChatGPT常低ChatGPT的模型的效果能夠PK,所以可能短期來看不大能夠超過它1騰訊和阿里的搜索業(yè)務(wù)弱一些,不是重點(diǎn),例如阿里,主要聚焦于電商領(lǐng)域,所AI的文案撰寫等,未來阿里可能會繼續(xù)往這個方向布局2騰訊可能在廣告、社交、游戲等領(lǐng)域應(yīng)用AIGC技術(shù)。比方塑造更廣義的互動敘事AIGC潮。國內(nèi)的大廠的看法是要和現(xiàn)有的業(yè)務(wù)結(jié)合起。而不是只關(guān)注ChatGPT這一個AIGC的細(xì)分賽道廠大模PT資源盡可能地節(jié)省,讓整體的一個性能更好地|服務(wù)進(jìn)步的群體|19的一個產(chǎn)品CPU成本便宜,很適合做推薦算法模型的公表現(xiàn)如何更好,但相對片面一些,還是要實(shí)際測試和感受后才知道?應(yīng)用場景的數(shù)據(jù),在中國來講是不是一種比較緊缺的資源。如果是要把模型訓(xùn)練依賴這些產(chǎn)業(yè)廠商的合作?所以可能會生成類似的,加上他們自己特定領(lǐng)域的一些|服務(wù)進(jìn)步的群體|20ChatGPT中美差距究竟有多大?觀點(diǎn)匯總ChatGPT言語之間,五味雜陳。一位人工GPT車,趁早追趕反而是更重要的的討論中坦TAPI調(diào)用b建立了一個生態(tài)的公司,把tGPT人士坦言?業(yè)界人士都提到了算力問題。由于GPU芯片等問題,在一定程度上,國內(nèi)算力已比較明顯的。有業(yè)內(nèi)人士差了OpenAI這家人工智能組織,所體現(xiàn)的純碎創(chuàng)新精神和|服務(wù)進(jìn)步的群體|21國做得了、我們做不了的。”bOpenAIDeepMind機(jī)構(gòu),無論在創(chuàng)新性、儲備上,都是一如既往堅(jiān)持的討論中國企業(yè)能否超越國內(nèi)的場景,是有超越機(jī)會的。在局部應(yīng)用中開始超越,這也|服務(wù)進(jìn)步的群體|22如何理解ChatGPT的強(qiáng)勢出圈和國內(nèi)發(fā)展?ChatGPT的運(yùn)作機(jī)制、技術(shù)原理言a通過增加人類的反饋來不斷迭代人類的普通的標(biāo)注,比如人類會對他所有的給我們的語言模型去進(jìn)一步學(xué)習(xí)b通過上萬次的人類反饋的迭代,就是通過不同的語言內(nèi)容來去使語言模型去不GPT模型的一個一個來由GPT型是一個生成的預(yù)訓(xùn)練的transformer的模型。transformer模型是深度學(xué)習(xí)語言模型的一個基礎(chǔ)的框架,是在2018年6月的時候開始有第一個gpt模型transformer大的語言模型b解。也就是從2018年的6月份開始,這種強(qiáng)大的9年2月到2020年5月分別openAI分別發(fā)布了gpt2和GPT3c到GPT3的時候已經(jīng)比GPT2大一百倍,它擁有大概1,750億個參數(shù)。但是它跟為它的模型特別大d在2020年5月份提到了GPT3以后,其實(shí)一直以來它大規(guī)模的預(yù)訓(xùn)練模型已我們2022年11月底出來了。ChatGPT的模型。這一次互3使得它可以做到回答問題,而也能承認(rèn)錯誤,或者是質(zhì)疑不正確的一些問題,或者是拒絕不恰當(dāng)?shù)恼埱蟮鹊?。這樣就形成了一個面向我們c端用戶去試用,非常么一個ChatGPT的一個機(jī)器人a他的工作原理就是他就是用機(jī)器學(xué)習(xí)的算法來分析和理解我們文本輸入的一個b這個模型它是在大量的文本數(shù)據(jù)上進(jìn)行訓(xùn)練,并疊加了大量的我們的人類的一擬誤等等copenAi為了去創(chuàng)建這么一種強(qiáng)化學(xué)習(xí)的模型,它一定要去設(shè)立一些獎勵模型戶和人工智能助手去進(jìn)行交互的|服務(wù)進(jìn)步的群體|23交互的數(shù)據(jù)去標(biāo)注回答問題好壞的排序,使ChatGPT跟人類訓(xùn)練師之間進(jìn)行對話來去,通過對話來去生產(chǎn)排序標(biāo)注a使得這個模型就會根據(jù)學(xué)習(xí)的語料來去進(jìn)一步的迭代他們。他的回答的一個策b大規(guī)模的預(yù)transform術(shù)的一個技術(shù)范式,這是一個目前被學(xué)術(shù)c第二大創(chuàng)新點(diǎn)就是在于這種標(biāo)注訓(xùn)練方式。人類訓(xùn)練師通過不斷的ChatGPT模d這兩個創(chuàng)新點(diǎn)就使得模型在這一次發(fā)展當(dāng)中有了一個里程碑式的跨越的進(jìn)展,GPT本,一個方面是它的開發(fā)成本會比較高,另一aGPT一個發(fā)展歷程,從GPT2到GPT3,它的算法模型上、技術(shù)上沒有太大改變,但是它主要改變了這個模型大小。從gpt2的一b預(yù)訓(xùn)練的訓(xùn)練數(shù)據(jù)從我們一開始gpt2的5個tb的訓(xùn)練語料,增加到GPT3,需TGBD一個總訓(xùn)練的成本。所以開發(fā)的成本是它的一個主要的門檻。它的開。使用成本主要是ChatGPT單輪的對話的平均費(fèi)用大概是在0.01美元到aChatGPT,一個ChatGPT,它只依賴網(wǎng)絡(luò)上的一b所以目前我們在網(wǎng)上能夠使用的ChatGPT模型,它使用的主要數(shù)據(jù)是2021年的c的準(zhǔn)確性上也會有所降低。這個第一個局限性就是它不能夠與時俱如他很難去回答一些股票今天比如a股,它的指數(shù)大概是|服務(wù)進(jìn)步的群體|24a所以它會在這種實(shí)時性的問題上回答上會出現(xiàn)一些致命的錯誤,或者是非常不b是目前這個ChatGPT直接使用來說會有的一些局限性。如果是配合國內(nèi)上一些著人類認(rèn)知的方向去優(yōu)化,這樣chatGBT的風(fēng)格有關(guān)的,有些人類訓(xùn)練師可能是有一些ChatGPT的訓(xùn)練可能會朝著那些人類訓(xùn)練師的偏好去有一些偏b所以會產(chǎn)生一些負(fù)面不準(zhǔn)確的,甚至是有種族傾向,種族歧視傾向的一些內(nèi)容?未來的發(fā)展方向地AI更多應(yīng)用?;蛘呤悄軌蚪邮苓@樣使c根據(jù)我目前的了解,目前很多業(yè)內(nèi)的從業(yè)者對于ChatGPT還是保持一個觀望的配程度。另一方面很多企業(yè)講應(yīng)用ChatGPT也是會受制于aChatGPT術(shù)生態(tài),但他目前所學(xué)習(xí)的體行業(yè)、企業(yè)這些個性化b所以還需要企業(yè)在這種相關(guān)的行業(yè)縱深行業(yè)細(xì)分垂直行業(yè)去進(jìn)行二次的訓(xùn)練,需要很多優(yōu)秀的公司去不斷c些更貼近我們客戶需求的和痛點(diǎn)的一些解決方案產(chǎn)品。比如我們作方案d利用ChatGPT這些技術(shù)去進(jìn)行專業(yè)私有化知識的迭代,使得它具備這種解決實(shí)ChatGPT應(yīng)用方向|服務(wù)進(jìn)步的群體|25們海外的差距到底有多少?是否有追趕的機(jī)會?2再包括阿里還有騰訊可能也在做。主要是這幾個大的玩家可能會有成本去訓(xùn)練這它的回復(fù)能力確實(shí)自然程度上,還有ChatGPT是國內(nèi)的百度,還是阿里提出的練模型模型,他們的參數(shù)量上的差距已經(jīng)是接近具備訓(xùn)練這種超大規(guī)模模型參數(shù)量a但是訓(xùn)練方法上可能還有一些技術(shù),我們跟別人還是有一定差距的,所以后面以有更多的這樣的語料b跟國內(nèi)的中文的訓(xùn)練c商PK使用成本還是比較高,所以去追趕可以讓應(yīng)用可以先落地。落地以后就就可以有大量的數(shù)據(jù)去迭代我們大規(guī)模的更強(qiáng)a的成本,使得使用足夠低以后我們可以大規(guī)模的ToC商業(yè)化b這樣可能是我們比較好的一個契機(jī)。所以是否能夠找到一個領(lǐng)域或者一個行業(yè)說是收益高于使用成本的。如果它的一種場景。這樣它就會可以大規(guī)模的去的一個資金或者是訓(xùn)練語料,可以有效的迭代模|服務(wù)進(jìn)步的群體|26型較大的一個參與方b這幾家是可以有預(yù)訓(xùn)練模型能力的一些參與方。還有一些研究機(jī)構(gòu),比如清華c內(nèi)新出現(xiàn)的一些創(chuàng)業(yè)公司,他可能會在一些非常垂直的方向去做一使用價值d可以覆蓋它的使用成本的這么一些垂直領(lǐng)域。可以在這些垂直領(lǐng)域先得到應(yīng)的|服務(wù)進(jìn)步的群體|27ChatGPT會?為什么關(guān)注ChatGPT?PT擎業(yè)務(wù)構(gòu)成的威脅;百度預(yù)計(jì)3月推出類似ChatGPT的人工智能聊天機(jī)器人。而ice有替代性,正給產(chǎn)業(yè)生態(tài)帶來深刻影響B(tài)uzzFeed采用ChatGPT上崗寫稿,兩天股價漲3倍等等。產(chǎn)業(yè)與資本市場形成?對ChatGPT的產(chǎn)業(yè)觀點(diǎn)ChatGPT新技術(shù)是解決上述需求的最重要路徑08年的全球金融危機(jī),催化了云計(jì)算產(chǎn)業(yè)的快速發(fā)展并逐漸降本增效,因此會反復(fù)發(fā)酵甚ChatGPT前技術(shù)水平相對其他AI聊天工具更高,但仍未達(dá)到理想狀態(tài),其間,盈利兌現(xiàn)也需要時間?計(jì)算機(jī)板塊相關(guān)標(biāo)的深瞳、海|服務(wù)進(jìn)步的群體|28a科大訊飛、拓爾思(NLP)、??低?圖像識別)、云從科技(圖像識別)、格林深瞳(圖像識別)b域優(yōu)勢明顯a海光信息(DCU)、寒武紀(jì)(AI芯片)、景嘉微(GPU)5數(shù)據(jù)角度a天瑞聲(數(shù)據(jù)標(biāo)注)b資源?對ChatGPT的產(chǎn)業(yè)觀點(diǎn)MR季度發(fā)布,也會帶來元宇宙熱潮再次啟動。在元宇宙?傳媒板塊相關(guān)標(biāo)的aAIGC填寫關(guān)鍵詞與輔助語句形b視覺中國旗下元視覺網(wǎng)站已推出AI作圖相關(guān)應(yīng)用,且目前銷量可觀。同時,IAIAIAIStarMusic昆侖萬維正探索運(yùn)用AI技術(shù)創(chuàng)作原創(chuàng)音樂降低版權(quán)費(fèi)用支出b3運(yùn)營商方面a金股將有機(jī)會受益于ChatGPT等AI新產(chǎn)品發(fā)展|服務(wù)進(jìn)步的群體|29?海外TMT洪嘉駿對ChatGPT的產(chǎn)業(yè)觀點(diǎn)1ChatGPT用戶定位并非想要尋找最優(yōu)答案的專家型人群而是70%-80%的大多數(shù)人模具有較大挑戰(zhàn)無法擁有較好解決方ChatGPT在現(xiàn)階段算力制約下更為可能走向ToB模式。例如,微軟將其索行業(yè)格局并不會是顛覆式的,兩者將與時俱進(jìn)且并存ChatGPT模型搭建與實(shí)際商業(yè)化應(yīng)用方面均需要更新型AI降低成本。相關(guān)存儲板有更大滲透率,突破目前消費(fèi)電子為主要驅(qū)動的周期性瓶頸期投資機(jī)會ChatGPT趨勢形成,國內(nèi)龍頭?海外TMT板塊相關(guān)標(biāo)的a百度最近提出籌備ChatGPT相關(guān)產(chǎn)品bc搜索業(yè)務(wù)發(fā)展較快?ChatGPT相對于其他競品來說,主要的創(chuàng)新點(diǎn)和技術(shù)壁壘在哪里?1ChatGPT利用強(qiáng)化學(xué)習(xí)從人類標(biāo)注者反饋中學(xué)習(xí),可進(jìn)行問答、閱讀理解、頭腦風(fēng)暴等。ChatGPT關(guān)鍵能力來自于基座模型能力(InstructGPT)數(shù)據(jù)并從用戶標(biāo)注中反饋學(xué)習(xí)。ChatGPT模型結(jié)構(gòu)與InstructGPT幾乎b工標(biāo)注數(shù)據(jù)來訓(xùn)練回報模K結(jié)果質(zhì)量進(jìn)行排序,再通過對比學(xué)習(xí)方法得到一個激勵模型(RewardModel)c使用強(qiáng)化學(xué)習(xí)策略來增強(qiáng)模型預(yù)訓(xùn)練能力。此階段不需要人工標(biāo)注|服務(wù)進(jìn)步的群體|30PPO打分,此分?jǐn)?shù)即回答的整體Reward而將此Reward回傳,由此產(chǎn)生的策略梯度可以更新PPO模型參LP洗、數(shù)據(jù)采集等行業(yè)將面臨蓬勃發(fā)展。下游來看,智能勃發(fā)展客服多輪對話能力較差,伴隨ChatGPT等開放式對話模3在寫作等創(chuàng)作領(lǐng)域會有較大突破。NovelAI(diffusion)等繪畫AI可提高平均畫作成本a在搜索引擎行業(yè),目前ChatGPT還無法替代搜索引擎功能。首先,其基于大規(guī)較高b搜索引擎與ChatGPT模型雙結(jié)合方式可能會成為搜索引擎主流方向,國外部分ChatGPT功能嵌入搜索引擎向ChatGPT以及AIGC領(lǐng)域發(fā)展的公司已非常多。百度向ChatGPT領(lǐng)域發(fā)展動一代搜索引擎市場中搶先占據(jù)有利地嘗試AIGC場景在內(nèi)部進(jìn)行應(yīng)用,原來今日頭條中內(nèi)UGC現(xiàn)在已逐步往AIGC方向遷移。國內(nèi)一些創(chuàng)業(yè)型公AI烏托邦,其開放式對話與ChatGPT較為。原因在于四點(diǎn):InstructGPT依賴于GPT-3.5.GPT-3b外,對于其他公司較|服務(wù)進(jìn)步的群體|31響較大但投入與產(chǎn)出需要花費(fèi)一些時間?隨著ChatGPT的應(yīng)用群體增加,是否會出于成本考慮對國內(nèi)的流量使用進(jìn)行限ChatGPTdemo階段,是否會對流量作出限制取決于OpenAI在此階段預(yù)1短期重要產(chǎn)業(yè)變化主要在三個方面。首先,短期內(nèi)圍繞ChatGPT,搜索引擎領(lǐng)域PTChatGPT客服,是否反而會增加企業(yè)成本?PT方面。在成本方面,需要對客服對接公司來說清洗等資本花費(fèi)。對于大規(guī)模日均產(chǎn)的ToB服務(wù)模式為中小型企業(yè)提供智能客服功能也將是未來發(fā)展的方向ChatGPT在信息基礎(chǔ)設(shè)施選擇方面,國產(chǎn)設(shè)備及云的占比情況自研云計(jì)算服務(wù)。對于計(jì)算機(jī)視覺等領(lǐng)域均會使用英偉達(dá)GPU芯片3針對搜索、推薦等場景,很多公司不采用GPU而采用CPU形式,例如字節(jié)在推薦|服務(wù)進(jìn)步的群體|32|服務(wù)進(jìn)步的群體|33ChatGPT來龍去脈特點(diǎn)就是參數(shù)比較大,達(dá)1,750億的參數(shù),代價就力的時代下產(chǎn)品的“天花板”不高,ChatGPT實(shí)現(xiàn)的效果在以前是無2ChatGPT技術(shù)最初的源頭是Transformer結(jié)構(gòu),這個結(jié)構(gòu)最大的意義是可以承載更OpenAI果,很多公司并沒有持續(xù)深耕該領(lǐng)域,而OpenAI在經(jīng)過兩年后又提出了Gpt3.5,發(fā)生的事情稱做出了類似ChatGPT的模型,參數(shù)甚至ChatGPT進(jìn)一步把模型轉(zhuǎn)化為產(chǎn)品的想法。如果存在一些公司不斷改進(jìn)、持續(xù)升級的話,那么這些公司是值得關(guān)注的3ChatGPT應(yīng)用落地的一個很大的問題在于在任意場景落地都需要對產(chǎn)品進(jìn)行定制ChatGPT要好的?解決這些問題的方案主要在于解決具體場景定制化的需求ChatGPT學(xué)會、精通某一領(lǐng)域的知識億到幾百億的參數(shù),落地成本沒有那么高。中等尺寸的可能功能沒有ChatGPT強(qiáng)大,但是在專業(yè)領(lǐng)域,往往也不需要全方面的能力門型的研究機(jī)構(gòu)和團(tuán)隊(duì),另一類就是大型|服務(wù)進(jìn)步的群體|34TEA驗(yàn)Transformer結(jié)構(gòu)的出現(xiàn),技術(shù)在不斷地改變,有一個猜想就NLP消失4像ChatGPT這樣的模型出現(xiàn),我們有特定需求的時候只需要去調(diào)整ChatGPT去實(shí)|服務(wù)進(jìn)步的群體|35ChatGPT學(xué)習(xí)筆記1在2007年啟動了核高機(jī)的非結(jié)構(gòu)化數(shù)據(jù)系統(tǒng)的研究的專項(xiàng),公司戰(zhàn)略的定位是語音智能,是核b持續(xù)以來業(yè)務(wù)收入的增長也是基于我們對各個場景應(yīng)用的熟悉,知道自然語言效的整個應(yīng)用效果c能時代有三要素,算法、算力和數(shù)據(jù)。拓爾思公司作為人工智能和a股市場橫向比較,我們是真正掌握了大量的數(shù)據(jù)資產(chǎn)的公司素的這些環(huán)節(jié),都a搜索引擎是我們自然語言處理的一個核心應(yīng)用的技術(shù),公司是30年以來堅(jiān)持b數(shù)字經(jīng)濟(jì)研究院目前主要的一個研究方向就是人機(jī)對話,像托馬斯公司這幾年c人民衛(wèi)星出版社的小a機(jī)器人,時代經(jīng)濟(jì)出版社的審計(jì)問答、吉林政務(wù)的小機(jī)d像OpenAI熱點(diǎn)事件出來以后,我們的研究人員對于整個OpenAI的過去、現(xiàn)在|服務(wù)進(jìn)步的群體|36?ChatGPT加快數(shù)字勞動力時代的發(fā)展2數(shù)字勞動力將是生產(chǎn)力的第五次革命,這種新的經(jīng)濟(jì)時代、用工模式將會快速的邊界bTabBP際上它是一種數(shù)字化勞動力的c統(tǒng)勞動力爆發(fā)出更高效這種增長力水平。根據(jù)麥肯錫統(tǒng)計(jì)數(shù),到2030年,數(shù)字化勞動力的這種市場規(guī)??梢赃_(dá)到1.73萬億水平夠高效的去準(zhǔn)確的完成任務(wù)GPTaChatGPT的火爆將增強(qiáng)大眾對于這種對話式的AI的一個信心,我們會有更多的研究來加入行列,推動整個對話式的AI的發(fā)展b對話式AI大概分成四類,信息查詢類、專家咨詢類、助手類以及交流類的勞動力,需要我們大腦的賦能,專家系統(tǒng)可iii字化勞動力能夠幫助人類去完成相應(yīng)的一些任iv字化勞動力能夠滿足人類情感交流的需求,可能是情的AI標(biāo)不同的應(yīng)用場景a信息的查詢,效bMLP,專家系統(tǒng)務(wù)的事件大概是1,300多件ii到訴訟或者是非訴訟的大概1,300萬件。按照中國的律師平均費(fèi)率是律的咨詢的總體市場規(guī)模達(dá)到3,600個億3.65萬家,對法律服務(wù)技術(shù)的投入按每年100萬來算,法律的服務(wù)的總體分了大概是300萬v|服務(wù)進(jìn)步的群體|37知識體系里頭來廣告文案的生成,或者做一些劇本的創(chuàng)作。整個智能創(chuàng)作i18年公開數(shù)據(jù)顯示,18年各級的網(wǎng)信辦審批的互聯(lián)網(wǎng)信息、新聞信息服務(wù)總量大概是2,100萬,活躍賬戶有350萬ii按每年SaaS化軟件一年3,000塊報價來算,總體規(guī)模大概在120個億左球18年的全球廣告支出高達(dá)6,000多億美元,數(shù)字廣告就占到了2,800億iii里提供一個數(shù)字營銷的廣告的助手。在行動辦公波動達(dá)到530AI,拓爾思公司規(guī)劃未來拓爾思的優(yōu)勢有以下幾點(diǎn)6技術(shù)沉淀也相當(dāng)于AI的三大要素之一。最后是客戶的沉淀,整個數(shù)據(jù)的產(chǎn)品和服的企業(yè)級的用戶在廣泛使用于一個大模型,有排量數(shù),再加入人類反饋的數(shù)據(jù),我們需要累計(jì)高質(zhì)量的人類AI融合,包括從的覆蓋,實(shí)現(xiàn)全業(yè)務(wù)的數(shù)字化、智能化更好的產(chǎn)品體驗(yàn)的技術(shù)基本都是基于線索常條件下去規(guī)避|服務(wù)進(jìn)步的群體|38?無論是信息查詢、專家咨詢、助手或者交流,從公司的視角以及整個產(chǎn)業(yè)發(fā)展趨實(shí)際上是需要有一塊比較色,把這些行業(yè)的知識變成一個企業(yè)的大腦T平能夠有一一個比較亮眼的商業(yè)模式的落地怎么去確保未來這種算法以及數(shù)據(jù)的針對性是足夠匹配到行業(yè)的一個情下文關(guān)聯(lián)的一個能力。在這種大模型的前提下,?于你所熟悉的行業(yè)。我們強(qiáng)調(diào)的最多的人不斷的能積累的進(jìn)|服務(wù)進(jìn)步的群體|39驗(yàn)值是非常重要。舉個例子,拓爾思在媒體行業(yè),譬如垂直領(lǐng)域的120多家媒體,有40多家是我們的客戶,一半以上的a我們這幾年以來在整體的打包服務(wù)中,有一個拓爾思的妙筆。小四的智能寫作b我們先不斷在豐富的在積累。原來一個編輯記者要花30分鐘才搞定的一個稿c體中心成立完以后,他們出稿子的頻率越來越快,任務(wù)越來越多,活了行各b接下來在申請專利的過程中間,我們的專利申請人員對于整個專利申請的流和熟悉的程度c一系列這種知識庫的間接。我們拓爾思有一個自己的知識圖譜的研各樣的算法未來是不是會有可能在每個行業(yè)都誕生出一個龍頭,類似于搜索引擎龍頭,而不我們對各行各業(yè)所有人一起去進(jìn)行搜索?未來的趨勢到底應(yīng)該是以統(tǒng)的搜索平臺為主?的女性事件,大累的時間和計(jì)算的時間,盡是它不能夠窮盡一切正能夠替代人了?,F(xiàn)在我們在探討應(yīng)來講和大數(shù)據(jù)的中間軟件,我們已經(jīng)達(dá)到了比較強(qiáng)大的自主可控的軟業(yè)都去干a跟您舉例的,譬如知識服務(wù)用在專利檢索,用在整個專利行業(yè),未b我們還有一個可以拓展的行業(yè),結(jié)合虛擬人和兩周機(jī)器人走|服務(wù)進(jìn)步的群體|40|服務(wù)進(jìn)步的群體|41?整體形勢月持續(xù)下修,應(yīng)該會維持到2月份,截至費(fèi)半的企業(yè)獲利預(yù)估已經(jīng)到-15%的預(yù)估水準(zhǔn),基本上2月份修正完應(yīng)該經(jīng)濟(jì)不好的情況恐落入doubledeep的情況比較清楚,截至目前為止能見度還不高3庫存方面,IC公司依然很高,臺積電到今年年初才開始才有產(chǎn)能利用率顯著下滑Q會上升,主要觀察Q3.Q4金額是否有修正,業(yè)績?nèi)魩犹鞌?shù)?美國零售銷售數(shù)據(jù)MoM開始下滑,YoY還有+5%~10%左右,以現(xiàn)持在小幅成長的狀況2目前還沒有看到下半年有slowdown的跡象,其中電子產(chǎn)品從去年就不好(YoY-10%左右)但看起來有穩(wěn)定的狀況,走緩的速度下降疫情正?;筠D(zhuǎn)換為消費(fèi)力道將成為?估值方面的PE峰值,段線上的嘎空行情大概已經(jīng)Price-in,后續(xù)要看基本面是?籌碼面部分|服務(wù)進(jìn)步的群體|42而LONGFUND的部位還是處在觀望的角度,短期要有資金行情不容易,需LONGFUND回歸市場狀況而言也是如此,美國公債的流動性指數(shù)去年10月份狀況很糟,已經(jīng)有所改善做法?產(chǎn)業(yè)上較看好記憶體或面板?較不看好2NEWCPU/GPUinto2021.INTEL上半年在DESKTOP較沒有新產(chǎn)品,比較像是更新,原?AMD是GPU的小年aHPC&Server1.Intel今年的重頭戲在SapphireRapids(SPR)的量產(chǎn),明年看EmeraidRapids的量產(chǎn),今年下半年還有BSH及SierraForest后者是和ARM做bAMD今年看Genoa的改版及Bergamo(Zen4C)有提高核心數(shù)至168核心,ZEN5要看2024年cINTELBSHAP500W,2個SOCKET,AP則可掉INTELSPR的DiePackages有XCC和MCC,MCC使用較傳統(tǒng)的架構(gòu),為單顆大核AMD用許多小核心,到Granite也還是以單顆大核心的架構(gòu)aAMD產(chǎn)品規(guī)格上今年最大的賣點(diǎn)在ZEN4做到96核心,ZEN搞不好可以做到bAMD的架構(gòu)看到CCD+IOD,最多可以放到8顆CCD,設(shè)計(jì)的成本及彈性就比|服務(wù)進(jìn)步的群體|43?DataCenter用FPGA,近期有些LONGFUND就是在看信驊的2,700及ASIC去取代FPGA等等訊aCXL3.0讓CPU及GPU的記憶體可以互通,記憶體會是未來限制頻寬的因素之SPRZEN採用CXL1.1,明年可能會使用CXL2.0,而去年通過CXL3.0則是要等2026~2027年了bARM-baesdServer1.IDC預(yù)估明年ARM的市佔(zhàn)就會達(dá)到10%,主要在各家公司Ampheresolution動各家公司的support,ARM的是佔(zhàn)率應(yīng)該會2AIChipupdateiAMAZON自己的Trainium,據(jù)說自家的AIServer可能有一半以上用自己的iiAMD的Mi300是市場上第一顆SoIC+CoWos的晶片把CPU跟GPU做整合,軟等因此對Nvidia有掉市佔(zhàn)的威脅NVIDIA6~70萬片,對一開始來說不會有很大的量,目前還言之過所帶來的發(fā)展3AutonomousDrivingChipsnbTESLA的主流就是Mobileye,目前多gnin3~5年應(yīng)該是會使用高通,算W,現(xiàn)在若聯(lián)發(fā)科要重組該部門可能也較難打入一TT|服務(wù)進(jìn)步的群體|44SENIOR2也有可能取代JUNIOR的工作,相關(guān)的ROADMAP可以參考2016年NVIDIA影像辨還需要時間發(fā)酵3伺服器今年銷售預(yù)其表現(xiàn)保守,未來3~5年ChatGPT會不會帶來影改變單就AISERVER一年約一百多萬臺遠(yuǎn)低于目前一年伺服器有1,600萬臺左右,基本上AISERVER能影響整體SERVER的市場非常小2但一般來說車廠簽約基本上市3~5年,所以短期內(nèi)輝達(dá)可能還是比較弱勢ARM客戶接觸會不會搶到MTK、QCOM的市佔(zhàn)率RISK-V先前比較多給IoTGPUIntel貨會遇到哪些瓶頸?2對于intel的roadmap不用太樂觀因?yàn)橐呀?jīng)有好幾次的delay|服務(wù)進(jìn)步的群體|45AIGC路演紀(jì)要?計(jì)算機(jī)傳統(tǒng)AI落地困難,最大的問題在于小模型,對于不同場景不同細(xì)分的運(yùn)。耗費(fèi)的人力太大,又太過于瑣碎,形成高昂1CHATGPT大模型針對這個問題把參數(shù)量加到足夠大之后(GPT3參數(shù)量達(dá)到1,750億個)發(fā)現(xiàn)模型樣本量和參數(shù)量足夠大了,在很多大的泛化的場景里,不需要做好的效果a技術(shù)基于2017年的Transformer模型,可以與整個句子或段落的其他語句形成b另用transformer和大模型比較多的領(lǐng)域是自動駕駛。用的比較多的就是像的特征,同時大模型在數(shù)據(jù)標(biāo)國AI非常的領(lǐng)先,更多的還是在CV,但是在NLP領(lǐng)域,尤其是在語義的理解a例如???、大華,選取的路線還是小模型,壓縮成本,提升模型的復(fù)用率。另b在大模型算法領(lǐng)域做得比較好的公司,只能是頭部的互聯(lián)網(wǎng)公司和AI公司,CHATGPT互聯(lián)網(wǎng)公司都度文心大模型,里面也提供了跨模態(tài)的工具包;華為的盤古云在工,也有自己的AI大裝置,并且自研了訓(xùn)練框架。云從科技,之前做的是全棧AI,所以在NLP領(lǐng)域也有一些項(xiàng)目,之前也披露了他在這個視覺、語音nop領(lǐng)域有類似GPT的預(yù)訓(xùn)練模型加反饋調(diào)優(yōu)的技術(shù)路線a科大訊飛,在語音是國內(nèi)領(lǐng)先,其他比如拓爾斯,也都值得關(guān)注b傳媒web3的生產(chǎn)力工具,強(qiáng)調(diào)創(chuàng)作者經(jīng)濟(jì),就是每人都能夠借助一些工具自c的就是算法推薦,F(xiàn)acebook短視頻、電商的千人千面的推薦d單,游戲視頻械的環(huán)節(jié)形成有效替代,解放創(chuàng)作者的生產(chǎn)力,把|服務(wù)進(jìn)步的群體|46C?19年大家就已經(jīng)開始討論下一代互聯(lián)網(wǎng)的形態(tài),原因就是移動互聯(lián)網(wǎng)的滲透率到MR微軟通過AI做一些新的探索,所以巨頭入場是很重要的事情openAI作,可以跟微軟現(xiàn)有的產(chǎn)品結(jié)合,提升產(chǎn)品本身的效|服務(wù)進(jìn)步的群體|47AI或是新年預(yù)期差最大的計(jì)算機(jī)投資主線1CHAT的意思是聊天,GPT是GENERATIVEPRE-TRAINEDTRANSFORMER的英文縮2使得多個AI原本比較獨(dú)立的感知智能(語音與圖像識別)與認(rèn)知智能(NLP語義理解)基礎(chǔ)技術(shù)模型開始界限模糊走向融合PTGPTOPENAI智能聊天機(jī)器4CHATGPT跟以往AI應(yīng)用有什么不同讓大家如此震驚?核心在于兩點(diǎn):通用與逼真1AI時代資本定價標(biāo)桿性事件PT的開發(fā)者OpenAI投資多達(dá)100億美元(678億人民幣)的相關(guān)計(jì)劃值3微軟已經(jīng)將未知版本的OPENAI文本生成GPT模型整合到WORD的自動完成功能TEAMS聊天程序以及安全軟件之中國家戰(zhàn)略考慮絕不容落后的AI“軍備競賽”AI|服務(wù)進(jìn)步的群體|48|服務(wù)進(jìn)步的群體|49心AI發(fā)展?AI發(fā)展1軟件:兩個派系,分為數(shù)據(jù)派(有更多的數(shù)據(jù)來訓(xùn)練更大的模型)和知識派(加入人的知識,通過知識來建立規(guī)則,向?qū)<蚁到y(tǒng)發(fā)展)。隨著DEEPLEARNING的T兩個派系(數(shù)據(jù)派和知識派)前CHATGPT深入產(chǎn)業(yè)鏈解決問題,比ALPHAGO更振奮人心?AI和產(chǎn)業(yè)落地結(jié)合,從一橫一縱來看TGPT,感知主要指云識別和CV,如果沒有感知,物a關(guān)于行動體系,AI與人的互動有三種:托管(主要依賴于AI來做)、伴隨 (人和AI一起操作)、問答(以人為主,操作過程中有問題通過語音或文字輸入的方式詢問AI),三種從強(qiáng)到弱,前兩種無法實(shí)現(xiàn)是因?yàn)闆]有與物理世界b僅從軟件角度來看,未來強(qiáng)AI一定要將視覺、語音、自然語言、大數(shù)據(jù)融,數(shù)字人與實(shí)體機(jī)器人打|服務(wù)進(jìn)步的群體|50商來突破,通過SDK或者API來提供a處理平臺、人生、造型b參與,數(shù)字人和實(shí)體機(jī)器人可以應(yīng)用的行?從訓(xùn)練的數(shù)據(jù)集、模型的體量來看,國內(nèi)達(dá)到ChatGPT3.5,模型能力、數(shù)據(jù)能NLP華、鵬程實(shí)驗(yàn)室的大模型數(shù)據(jù)量、參數(shù)規(guī)GPT到千億級數(shù)據(jù),甚至數(shù)據(jù)量和模型都會更多。下一步要解決好地和知識做接入數(shù)據(jù)量沒有差距,追趕較快。未來做技術(shù)、又有行業(yè)理解的公司來做,形成生態(tài)的豐富化,對于本身有AI布局的公司來說都是機(jī)會NLP上遵從模型和知識相結(jié)合、再做教練模型、再做進(jìn)GPT5總是在講“正確的廢話”,具備了語言缺,教練模型就是為了提升專業(yè)性,可以通過數(shù)據(jù)和知識(行業(yè)KNOWHOW)來微軟的生態(tài)下,商業(yè)化更容易實(shí)現(xiàn)?1AI有三個階段,一檔時代:單點(diǎn)階段,語音識別,人臉識別,車牌識別、手寫體代:顛覆入口和內(nèi)容2L顛覆入口:顛覆交互方式,搜索的入口變革(敲命令行——微軟用視窗顛覆,鼠|服務(wù)進(jìn)步的群體|51合理,應(yīng)用很直接,對于入口的顛覆意愿很的方式問世,也會相應(yīng)擁抱新技術(shù)bl顛覆內(nèi)容:AIDC,以豐富、更個性化的方式來生成內(nèi)容AI1技術(shù):堅(jiān)持投入,在正確賽道上長期布局。AI的未來發(fā)展一定會對場景和產(chǎn)業(yè)形的邏輯,自2020年便在預(yù)訓(xùn)練、業(yè)務(wù)遷移上,視覺、語3技術(shù)平臺化、應(yīng)用場景差異化:要從TIER3逐步走到TIER1,逐漸成為AI平臺公地,一方面是用行業(yè)KNOW-HOW提升未招的標(biāo)會后續(xù)落實(shí),業(yè)績有保障;TOB業(yè)務(wù)加強(qiáng)布局AI在TOB行業(yè)解決問題增多,標(biāo)準(zhǔn)化程度上升,可復(fù)制性變強(qiáng),公司在TOB行業(yè)業(yè)績的增速也會較為可觀;數(shù)字人在TOB和TOC業(yè)務(wù)會有更大應(yīng)用空間?今年在ToB上主要哪些行業(yè)會有訂單落地?銷售價格、收入確認(rèn)節(jié)奏如何?年增速有明顯提升。金融的應(yīng)用場景快速變有信心?政府上主要落地的業(yè)務(wù)?1AI賦能數(shù)字城市治理,大邏輯有三個部分|服務(wù)進(jìn)步的群體|52多地政府和云從溝通如何通過AI能力打通、為數(shù)據(jù)賦能,并且公司是科技部業(yè)水平1今年業(yè)績增速相較2022年會有較大的提升側(cè),訓(xùn)練側(cè)只有AI公司需要大量數(shù)據(jù)和算力來做支撐,一如每個人需要的助理以10個計(jì),每個數(shù)字人/實(shí)體機(jī)器人需要一套算力支撐計(jì)算,范圍擴(kuò)建CHATGPT覺、語音模型等可景會對CHATGPT更迫切,比如搜索引擎。如果未來幾年本增效,逐漸滲透得對行業(yè)進(jìn)行改?第二個問題就是你問他最后的范式會是少數(shù)公司占據(jù),還是逐漸會更多的公司來天機(jī)器人,在這一塊上礎(chǔ)這件事情?百度3月底會發(fā)類似的模型,未來會形成怎樣的格局?是由幾個公司來發(fā)布通用|服務(wù)進(jìn)步的群體|53,取決于是什么模型。如果2在具體場景上需要中等規(guī)模公司借助行業(yè)KNOW-HOW來做。但是對于語音和視3TIER1-3都不會降低門檻,只會降低最上層場景應(yīng)用的門檻展?AI公司是否會與BAT等大廠合作來做場景、生態(tài)的協(xié)同?公司的技術(shù)優(yōu)勢?2AI公司業(yè)績增速達(dá)不到移動互聯(lián)網(wǎng)前兩年的快速增速,移動互聯(lián)網(wǎng)公司依靠商業(yè)而AI公司存在技術(shù)和場景應(yīng)用的臨界點(diǎn)問題眾接受,才會迎來爆點(diǎn),技術(shù)的積累AI司的發(fā)展相對較慢4視覺是云從起家的技術(shù)點(diǎn),優(yōu)勢最強(qiáng)|服務(wù)進(jìn)步的群體|54OpenAI嵌入微軟Office與Bing,智能化向C端開始滲透?微軟計(jì)劃將OpenAI嵌入Office與Bing,智能化向C端開始滲透OPENAI累計(jì)注資數(shù)十億美元的微軟正在計(jì)劃將OPENAI中的CHATGPT模塊應(yīng)用索引擎之外,微軟正在謀劃將OPENAI與自身業(yè)務(wù)進(jìn)行更T,從微軟辦公軟件的體量上看,此舉可能會?微軟計(jì)劃對OpenAI投資100億,業(yè)內(nèi)對AI在C端應(yīng)用持續(xù)看好慮向OPENAI投資100億美元。微軟此前一直在就追加更3在達(dá)到這一門檻后,微軟將擁有OPENAI49%的股份,其他投資者獲得另外49%的但潛在投資者在最近收到的相關(guān)文件顯22年底前完成。我們認(rèn)為,微軟此次大手筆投資,也代表NAI展,進(jìn)一步加速智能化在C端的滲透?各大科技公司不斷加碼AI,AI2C進(jìn)展持續(xù)加AI型“MED-PALM”。在經(jīng)歷一系列考核后,該模型被證實(shí)“幾乎達(dá)到”了2MED-PALM在科學(xué)常識方面的正確率在92%以上,在理解、檢索和推理能力方|服務(wù)進(jìn)步的群體|55進(jìn)一步完善樣響應(yīng)完整的命令抽屜,找到一袋薯片并將它拿給研究5隨著AI技術(shù)的發(fā)展,AI在C端的實(shí)際應(yīng)用正不斷擴(kuò)展,未來AI2C的進(jìn)展有望持|服務(wù)進(jìn)步的群體|56ChatGPT力?動態(tài)點(diǎn)評的進(jìn)一步提升,在搜索、結(jié)合其他AIGC工具生成元宇宙內(nèi)容等場景都有縮方法結(jié)合,使大模型更適應(yīng)下游任。GPU方面,燧原、壁仞、天數(shù)OpenAI日發(fā)布ChatGPT,在短短幾天內(nèi)用戶突破100萬人1根據(jù)數(shù)個關(guān)鍵詞或問題生成幾百字的應(yīng)用文書、趣味性文章、科普回答CHATGPT已經(jīng)展現(xiàn)了大幅超越過去AI問答系統(tǒng)(例如同屬OPENAI,基于GPT-3AI索、結(jié)合其他52016年ALPHAGO在圍棋比賽中擊敗李世石以來,深度學(xué)習(xí)等AI技術(shù)快速發(fā)展。進(jìn)入千億參數(shù)時代跨模態(tài)模型。今年以來,圖像模型本和數(shù)據(jù)密集的業(yè)態(tài),是中美科技巨頭競爭的焦點(diǎn)|服務(wù)進(jìn)步的群體|57PT460-1200萬美元。ELEUTHERAI(致力于開源大模型的組織)在22年推出的200億估計(jì),最終一次訓(xùn)練成本大約53-66萬美元。大模型研發(fā)逐漸成為資本和數(shù)據(jù)密業(yè)態(tài)括OPENAI的GPT-3.英偉達(dá)與微軟的MEGATRONTURING-等。今年8月以來,美國限制對華出口A100等高端GPU,或影響中國大模AI3CHATGPT在GPT-3.5系列模型(2022年初完成訓(xùn)練)上微調(diào)而成。GPT-3.5基于質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼埱笈c修改、生成AIGC提示詞等領(lǐng)域展現(xiàn)出強(qiáng)大的能力CHATGPT與OPENAI前代對話式語言模型——2022年1月發(fā)布的基于GPT-3的INSTRUCTGPT都采用了基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),以實(shí)現(xiàn)有害和不真實(shí)Ta在編程方面,目前應(yīng)用最廣泛的AI編程工具是Copilot(基于OpenAICodex模型),根據(jù)用戶輸入的部分代碼實(shí)現(xiàn)代碼補(bǔ)全。ChatGPT則可以根據(jù)用戶輸入WebGPT模型來升級ChatGPT。盡管ChatGPT拒絕回答未經(jīng)訓(xùn)c此外,如果用戶逐步引導(dǎo),ChatGPT仍然會響應(yīng)有害指令。例如一位工程師在CHATGPTAI準(zhǔn)確性、時效性尚待提高,因此短期內(nèi)適用于C現(xiàn)有的搜索引擎,較高的運(yùn)行期內(nèi)更有可能的方案是作為現(xiàn)|服務(wù)進(jìn)步的群體|58TAIOPENAIAPI美元/KTOKENS的費(fèi)用。預(yù)訓(xùn)練大模型前景廣闊,是中爭的焦點(diǎn)模型性能的不斷提升、更適宜的算法模型(如RLHF、擴(kuò)散模型、CLIP模型)以及是多模態(tài)、跨模態(tài)大模型的發(fā)展目前的預(yù)訓(xùn)練大模型大多基于TRANSFORMER架構(gòu),GPT和BERT是基于6OPENAI于2018年提出基于TRANSFORMER的NLP模型——GPT,來解決分類、推理、相似度、問答等自然語言問題。GPT首次摒棄基于RNN的傳統(tǒng)NLP模型結(jié)構(gòu)陸續(xù)推出GPT-2.GPT-3等模型a2018年,谷歌提出使用Transformer架構(gòu)實(shí)現(xiàn)并行執(zhí)行的BERT模型,在多項(xiàng)BERTbAI模型訓(xùn)練算力增長速度超越芯片摩爾定律。根據(jù)OpenAI測算,自2012年AI每年頭部訓(xùn)練模型所需片的算力極限邊際效應(yīng)量不斷刷新上限的趨勢已經(jīng)放緩成的AIGC奠定技術(shù)基礎(chǔ)。我們看好大模型逐漸成為AI基礎(chǔ)設(shè)施,結(jié)合微調(diào)等方式滿足下游多行業(yè)需求e與科研機(jī)構(gòu)成為主要玩家。以daLabsGPUGPT參數(shù)配置時的訓(xùn)練成本fEleutherAI(一個致力于開源大模型的組織)在2022年推出的類GPT模型——200億參數(shù)的GPT-NeoX-20B,則使用96塊A100芯片訓(xùn)練了三個月,據(jù)成本和高技術(shù)壁壘使科技巨頭和科研機(jī)構(gòu)成為主要玩家。根據(jù)OpenBMB統(tǒng)型發(fā)展1根據(jù)OPENBMB截至2022年10月的統(tǒng)計(jì),擁有大模型數(shù)量前十名的組織中,中/|服務(wù)進(jìn)步的群體|59美分別占據(jù)4/6席;擁有大模型參數(shù)量前十名的組織中,中/美同樣分別占據(jù)4/6型包括OPENAI的GPT-3.英偉達(dá)與微軟的3今年8月以來,美國限制對華出口A100等高端GPU,我國AI大模型訓(xùn)練與推理|服務(wù)進(jìn)步的群體|60AI產(chǎn)業(yè)鏈研究之ChatGPT下游應(yīng)用和場景商業(yè)化廣闊?OpenAI發(fā)布能夠以對話形式交互的模型ChatGPT日,人工智能實(shí)驗(yàn)室OPENAI推出了一款名為CHATGPT的模型,對話形式交互。對話模式使CHATGPT能夠回答后續(xù)問題、承認(rèn)錯適當(dāng)?shù)恼埱蟪虂砜矗珻HATGPT根據(jù)GPT-3.5系列的一個模型進(jìn)行微調(diào),兩者均于微AZUREAI練。相較而言原先GPT-3的訓(xùn)練集只有文本,本次新推出CHATGPT能力了排序,在此基礎(chǔ)上完成訓(xùn)GPT完成人類指令人工智能實(shí)驗(yàn)室OPENAI于2015年成立,由TWITTER現(xiàn)任CEO埃隆·馬斯克和CHATGPT的發(fā)布,馬斯克在TWITTER上公開表示了對OPENAI的認(rèn)可,并且通過在TWITTER上展示自己詢問CHATGPT怎么設(shè)計(jì)TWITTER時CHATGPT給出的一步擴(kuò)大了對CHATGPT的關(guān)注度。目前,CHATGPT正處于免費(fèi)適用階段?ChatGPT相較GPT3.5主要有三點(diǎn)提升1CHATGPT能夠記住之前的對話,連續(xù)對話的感覺更加用戶友2CHATGPT可以承認(rèn)錯誤,并能夠根據(jù)用戶的提示對原答案進(jìn)行修正AI經(jīng)常創(chuàng)造虛假的內(nèi)容,盡管這些內(nèi)容話語通順,但脫離實(shí)際CHATGPT哥倫布并不屬于這個正補(bǔ)充樣本,從而實(shí)現(xiàn)深度訓(xùn)練1CHATGPT的能力提升得益于其訓(xùn)練方法。大模型是指通過在模型中加入海量參以絕對絕對規(guī)模增長微調(diào)”。首先在數(shù)據(jù)量龐大的公開數(shù)據(jù)集上訓(xùn)練,然后將其遷移到目標(biāo)場景中(比如跟人類對話),通過目標(biāo)場景中的小數(shù)據(jù)|服務(wù)進(jìn)步的群體|61能力,要么需要改造任務(wù),要么需要總之是讓模型和任務(wù)更加匹配,從而實(shí)現(xiàn)更好的效果4CHATGPT新加入的訓(xùn)練方式被稱為“從人類反饋中強(qiáng)化學(xué)習(xí)” GFROMHUMANFEEDBACKRLHF?我們認(rèn)為,盡管微調(diào)/prompt等工作從本質(zhì)上對模型改變并不大,但是有可能大CHATGPTAI行業(yè)發(fā)展具有廣闊前景。大模型的優(yōu)勢在于升,準(zhǔn)確率也能不斷取得突破。從前大模型的提升重心更多放在了大模型(LLM)本身和PROMPTENGINEERING上,CHATGPT的型結(jié)果和大模型本身之間的閉環(huán)具有技術(shù)優(yōu)勢。自2020年OPENAI推出NLP大模型GPT3至今,全球范圍內(nèi)AI大0萬億級別DEBUG中需要關(guān)注具體問題,從而給出正確的代碼CHATGPT一個對話式的語言模型,本身不能生成多模態(tài)內(nèi)變量輸入其他模型,從而進(jìn)一步拓展其功能。例如,通過CHATGPT和STABLEDIFFUSION的結(jié)合使用,能夠生成藝術(shù)性極在搜索中引用模型aChatGPT通過創(chuàng)建迭代反饋的閉環(huán),有利于其商業(yè)策略的實(shí)現(xiàn)。這次ChatGPTOpenAI的信息|服務(wù)進(jìn)步的群體|62dOpenAI方式大量獲得真實(shí)樣本,TMITTECHNOLOGYREVIEW對OPENAI科學(xué)家的采訪中,他們提到了后續(xù)有可能將CHATGPT和WEBGPT的能力結(jié)合起來??梢栽O(shè)想,CHATGPT+WEBGPT可以對信息?推薦關(guān)注標(biāo)的2格靈深瞳|服務(wù)進(jìn)步的群體|63ChatGPT與人形機(jī)器人共舞?概要以及是危險的工作。自從上世紀(jì)60年代機(jī)器人被發(fā)明以后,在制造業(yè)已經(jīng)一些難以突破的瓶頸力a如果機(jī)器人分能夠像人一樣非常靈活的應(yīng)用在不同的場景當(dāng)中,對于不同場景b去年特斯拉在10月1號的AIDAY公布的第一款人形機(jī)器人擎天柱,市場認(rèn)為件拆解圖上看到執(zhí)行器當(dāng)中所運(yùn)用的是兩手指空心杯電機(jī),集成程度很高PT類軟件嫁接到人形機(jī)器人上也能推動b機(jī)器人為什么要做成功能和社交屬性c有ChatGPT情感支持和溝?受益方向1工業(yè)機(jī)器人:埃斯頓、匯川技術(shù)、拓斯達(dá)、凱爾達(dá)、新時達(dá)、柏楚電子景業(yè)智能4伺服系統(tǒng)及電機(jī):鳴志電器、禾川科技、江蘇雷利5機(jī)器視覺:奧普特、矩子科技、天準(zhǔn)科技、凌云光?機(jī)械板塊|服務(wù)進(jìn)步的群體|64人和特種機(jī)器人板指空心杯電機(jī)、滾柱絲杠、執(zhí)行器集成會帶動機(jī)器人滲透率的提升,再結(jié)合年前工信部聯(lián)合17部門度和廣度顯著提升聚焦10大應(yīng)用重點(diǎn)領(lǐng)域,突破100種+機(jī)器人創(chuàng)新應(yīng)用技術(shù)及解決方案,推廣機(jī)器人典型應(yīng)用場景器人在更多場景的應(yīng)用,而智能化能力將加?物流自動化?關(guān)注的技術(shù)趨勢13D視覺引領(lǐng)下一代機(jī)器視覺革命。預(yù)計(jì)2025年3D視覺市場規(guī)模超過100億元,CAGR74%:“新半車”等應(yīng)用增量不斷。鋰電、服務(wù)、解決方案能力上建立優(yōu)勢,預(yù)計(jì)2023年國產(chǎn)化率提升至65%,催生更?各環(huán)節(jié)主要標(biāo)的、大族激光等外大廠持續(xù)催化,重視AIGC/ChatGPT主題持續(xù)擴(kuò)散今日官宣類b根據(jù)國家工業(yè)信息安全發(fā)展研究中心、工信部電子知識產(chǎn)權(quán)中心聯(lián)合發(fā)布的《中國人工智能專利技術(shù)分析報告(2022)》,百度專利申請量和授權(quán)專利持d框架-深度學(xué)習(xí)平臺飛槳(PaddlePaddle),根據(jù)IDC數(shù)據(jù),22H穩(wěn)居中國深度|服務(wù)進(jìn)步的群體|65MetaPyTorch的TensorFlow地,互聯(lián)網(wǎng)傳媒是典型的智力勞動密集型產(chǎn)業(yè),AIGC有望在內(nèi)容和信息生產(chǎn)(文本圖像游戲視頻)等最先落地并有望發(fā)生PGC-UGC-AIGC的革命變化5也持續(xù)拓展至搜索、科研、辦公、電商客服、智能家居等領(lǐng)域。預(yù)計(jì)AIGC主題投資擴(kuò)散,科技創(chuàng)新在2023傳媒復(fù)蘇之年(政策邊際放松)提振板塊估值?后續(xù)催化1微軟將在美東時間今日(北京時間2月8日周三凌晨2點(diǎn))舉行發(fā)布會,OpenAI谷歌今日宣布對話式AI工具Bard正式開始測試,將于2月8日舉辦一場關(guān)于搜?相關(guān)標(biāo)的1AI技術(shù):領(lǐng)軍百度(AI布局全面且領(lǐng)先),低估值的昆侖萬維(發(fā)布昆侖天工,AIGC全系列算法與模型開源),風(fēng)語筑(與百度合作緊密,AIGC技術(shù)已應(yīng)用在內(nèi)容生產(chǎn))2應(yīng)用:視覺中國(AIGC圖片),中文在線(AI輔助文字創(chuàng)作),三七互娛(率先),吉比特(AI等新方向持續(xù)探索跟蹤,內(nèi)容創(chuàng)新能力強(qiáng))AIplaytika據(jù)和AI是其核心能力),心動公司 (taptap有望受益于AIGC實(shí)現(xiàn)內(nèi)容提質(zhì)增量),愷英網(wǎng)絡(luò)(創(chuàng)新方向積極布局),神州泰岳(NLP研發(fā)應(yīng)用深耕多年,游戲出海排名前列)capex主線的主要跟蹤指標(biāo),但缺點(diǎn)是后驗(yàn)、有噪音 (amazon也僅有40-50%比例的capex是ICT相關(guān))、太短期(預(yù)算季度波動大)北美capex增量有限,但:meta為首的偏內(nèi)容玩家聚焦了新架構(gòu)/高密度ICT力很強(qiáng)?技術(shù)演進(jìn)的分流和聚焦00G代際的切換方向相對明確;100G向上的演進(jìn)方案相對多放增|服務(wù)進(jìn)步的群體|66aIDC層面供給加速出清、需求靜待花開b提出新一批IDC用能規(guī)劃、各地算力樞紐提示了供給正在加速出清。我/快等內(nèi)容創(chuàng)新持續(xù)拉動+云和互聯(lián)網(wǎng)需求預(yù)期提化推進(jìn),可以期待需求轉(zhuǎn)暖因此,不妨再回顧下我們23年投資策略中提到的流量主線的“擴(kuò)散邏輯”~標(biāo)的數(shù)據(jù)中心等環(huán)節(jié)供需變化?TMT入式軟件”適合。今天是輪動到智但復(fù)雜的場景適合,比如自然語言處aigc輪動規(guī)律 (機(jī)構(gòu)化),上游化(賣鏟人)。按照這個規(guī)律,會擴(kuò)散到其他有業(yè)績的比如上互聯(lián)網(wǎng)風(fēng)險偏好,主有兩個會,tmt會回到成長和價值|服務(wù)進(jìn)步的群體|67微軟新版Bing搜索引擎發(fā)布會?紀(jì)要內(nèi)容OpenAIChatGPT家唯一談?wù)摰氖虑椤5诙俏铱吹揭粭l推文說有人使用GitHubCopilot構(gòu)建了80%的代碼。最近在GitHub上突破了擁世界,而不是實(shí)驗(yàn)室。其中預(yù)訓(xùn)練大模型為這項(xiàng)技術(shù)將重塑幾乎所有軟件類別C?全新Bing的四大突破等瀏覽器一體的搜索體驗(yàn)?現(xiàn)在,我們即將看到新的Bing的實(shí)際應(yīng)用。它擁有專注于答案、聊天和幫助提示3例子:前三名吸塵器的優(yōu)缺點(diǎn)4例子:比如用戶想搜索的墨西哥城旅游的攻略。他可以輸入:為我和我的家人制家人|服務(wù)進(jìn)步的群體|685例子:搜索“頂級日本詩人”,下方有維基百科的鏈接?新Edge界面1Edge中還將有一個AI驅(qū)動的副駕駛。我們通過更時尚、更輕便、非??岬男路绞紼dge集成了Bing3新Bing有五個方面的貢獻(xiàn)。核心基礎(chǔ)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論