版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
ArchSummit全球架構(gòu)師峰會深圳2023|07|21李維NLP科學(xué)家出門問問VP“李維NLP老司機(jī)、勞碌命,前訊飛AI研究院副院長,出門問問VP。Netbase前首席科學(xué)家10年,指揮研發(fā)18種語言的社會媒體輿情系統(tǒng),成為美國NLP產(chǎn)業(yè)應(yīng)用的經(jīng)典成功案例。Cymfony前研發(fā)副總,獲第一屆問答系統(tǒng)第一名,贏得17個SBIR小企業(yè)創(chuàng)新研究項目大模型風(fēng)暴01大模型之煉0203大模型與AIGC巴別塔建成日:公元2022年11月30日比native還native理解能力輸入能聽LLM“勞碌命”輸出會說生成能力自學(xué)習(xí)、預(yù)訓(xùn)練、生成式AIThebestthingaboutAIisitsabilityto(自回歸GPT系列)ThebestthingaboutAIisitsabilitytounderstandThebestthingaboutAIisitsabilitytounderstandworldsThebestthingaboutAIisitsabilitytounderstandworldsthat“大號”的N-gram模型ThebestthingaboutAIisitsabilitytounderstandworldsthatareThebestthingaboutAIisitsabilitytounderstandworldsthatarebothThebestthingaboutAIisitsabilitytounderstandworldsthatarebothexciting…………給定上文,預(yù)測下一詞:nexttokenpredictionRaw文字序列LLM
多維向量corpora自學(xué)習(xí)生成式AI(自回歸GPT系列)WaymoreOpen-endedCF:Web-1age11年前的第一次AI深度神經(jīng)革命,聚焦感知,靠的是帶標(biāo)大數(shù)據(jù)有監(jiān)督訓(xùn)練。5年多前的二次AI深度革命,NLP大模型(LLM)為旗幟,AI從感知到認(rèn)知,靠的是自監(jiān)督預(yù)訓(xùn)練。半年前通天塔的三次AI革命,搞定了自然語言交互,以ChatGPT為里程碑。FewShotsZeroshotZeroshot/零樣本:不依賴標(biāo)注大數(shù)據(jù),克服知識瓶頸機(jī)器遷就人,而不是人遷就機(jī)器海量樣本標(biāo)注少樣本標(biāo)零樣本標(biāo)注人類知識客戶調(diào)查部分人類知識用戶粘性、增長性語言知識利用已有測試:NLP測試集,高考,各資格考試Zeroshot開放類任務(wù)理論上沒有測試集,無法定量數(shù)據(jù)質(zhì)量(QA)碼農(nóng)貴族、產(chǎn)品經(jīng)理/CXO、數(shù)據(jù)分析員、用戶群體:底線拉平,LLM聽得懂所有人的指示為“萬眾創(chuàng)業(yè)”創(chuàng)造了條件新突破導(dǎo)向新生態(tài)ChatGPT建成語言通天塔洗禮后的新生態(tài)建設(shè)??語言大模型搞定人類語言標(biāo)志感知智能走向認(rèn)知智能:語言+知識??機(jī)器遷就人,而不是人遷就機(jī)器LLMCoPilot落地,AIGC前景廣闊??實體交互方式的革命:不僅僅是人機(jī)用戶接口:交互克服人工智障??語言模型蘊(yùn)含了知識模型,雖然并不完備LLMAgent研究值得關(guān)注模型痛點(diǎn)、領(lǐng)域挑戰(zhàn)??幻覺問題誰調(diào)用誰:插件與外掛??穩(wěn)定性問題領(lǐng)域數(shù)據(jù)庫、業(yè)務(wù)邏輯、私有數(shù)據(jù)??知識欠缺問題自主AI研究:Agent??多模態(tài)問題與現(xiàn)有領(lǐng)域Legacy系統(tǒng)的關(guān)系架構(gòu)師/工程師焦慮:youarenotalone!??一夜醒來,專業(yè)沒了工作被取代???有說:半年前的專業(yè)經(jīng)驗是負(fù)資產(chǎn)藝術(shù)被顛覆???AI系統(tǒng)的涌現(xiàn),資源的爆發(fā)知識更新跑不贏知識增長?百花齊放,AI日新月異是幻覺與想象力是同義詞?
?“一正胡八”:說謊不“臉紅”,真假莫辨,極度誤導(dǎo)沒有“幻覺”,如何講“故事”(cf《人類簡史》)?
?有利于藝術(shù)創(chuàng)造任務(wù),卻是領(lǐng)域落地的命門寫小說,不是報道新聞:記者成不了小說家?
?加大模型可以減少幻覺,不能根治幻覺長尾細(xì)節(jié)=噪音,抗噪=遺忘細(xì)節(jié)?
?強(qiáng)化學(xué)習(xí)可能醫(yī)治“一本正經(jīng)”,不能根治“胡說八道”模型不是數(shù)據(jù)庫:源于數(shù)據(jù),高于數(shù)據(jù)?
?領(lǐng)域場景解決方案:外掛數(shù)據(jù)庫張冠李戴是順暢生成的必然?
?人來把關(guān)和核實:可以先假設(shè)細(xì)節(jié)都是不真實的知道自己不知道?一切都是概率?是遺忘,不是“說謊”:沒學(xué)會人類的語氣詞是不穩(wěn)定與創(chuàng)造性是同義詞預(yù)訓(xùn)練的feature,notabug對于部分落地場景的挑戰(zhàn)??不穩(wěn)定,才有創(chuàng)造性、多樣性容易做demo,不容易獨(dú)立落地??生成式LLM的本性:概率模型有利于藝術(shù)創(chuàng)造任務(wù),卻也是領(lǐng)域落地的命門??不穩(wěn)定=隨機(jī)采樣,太穩(wěn)定=枯燥重復(fù)加大模型可以緩解不穩(wěn)定,不能根治不穩(wěn)定??模型不是數(shù)據(jù)庫:是條件預(yù)測,不是檢索多次生成:majorityvote??不穩(wěn)定帶來驚喜或驚恐人來把關(guān)和挑選:副駕駛模式,亦可使多次生成是LLM不是數(shù)據(jù)庫序列數(shù)據(jù)預(yù)訓(xùn)練的邊界?
?容易做demo,不容易獨(dú)立落地加大模型可以增加知識,不能窮盡知識?
?知識淵博,尤其是百科知識和多數(shù)常識業(yè)務(wù)邏輯?
?領(lǐng)域知識欠缺提示工程:in-contextlearning,shortmemory?
?模型不是數(shù)據(jù)庫:是條件預(yù)測,不是檢索傳統(tǒng)領(lǐng)域數(shù)據(jù)庫、知識庫、術(shù)語詞典、知識圖譜向量數(shù)據(jù)庫很火解決背景信息不足longmemory加強(qiáng)領(lǐng)域內(nèi)功的副駕駛CoPilotLLMin-&-out:既用其語言天才,“坐臺”建設(shè)負(fù)僅預(yù)設(shè)專家流既是服務(wù)員也也用其知識技能責(zé)離線的調(diào)教程化在線介入是大廚副駕駛逼近主LLM賦能的自O(shè)ptional專家把生產(chǎn)力駕駛:主式研究:關(guān)或人類反饋大爆發(fā)參照特斯拉主駕駛FSD之路2大模型預(yù)訓(xùn)練及其微調(diào)機(jī)制完全基于注意力機(jī)制,完全不用遞歸和卷積特別擅長對序列數(shù)據(jù)中的長距離依賴進(jìn)行建模,非常適合自然語言處理任務(wù)我有一只貓Ihaveacat(input)(output)Transformerseq2seqdecoder里面的結(jié)構(gòu),用來解碼生成下一個目標(biāo)語言單詞的概率分布編碼信息,一般最常見的是重復(fù)6次左右encoder里面的結(jié)構(gòu),主要是向量與矩陣計算FeedForwad計算出每個單詞與其他單attention前饋神經(jīng)網(wǎng)絡(luò)詞的相關(guān)性,然后使用這些相關(guān)性加權(quán)求和得到每個單詞的表示向量。SelfAttention自注意力機(jī)制大語言模型,本質(zhì)上是一個包含了大量參數(shù)的神經(jīng)網(wǎng)絡(luò)。這個神經(jīng)網(wǎng)絡(luò)可以看作是一個復(fù)雜的函數(shù),它接收輸入(如一段文本),然后生成輸出(如下一個詞)。神經(jīng)網(wǎng)絡(luò)的每一層都可以看作是一個函數(shù),它接收上一層的輸出(或者輸入數(shù)據(jù),如果它是第一層),然后生成自己的輸出。每個層都包含許多的神經(jīng)元。每個神經(jīng)元都有一個權(quán)重,這就是大語言模型的參數(shù)。這些權(quán)重在訓(xùn)練過程中被調(diào)整,以使模型能夠更好地預(yù)測輸出。AI大模型就是FoundationModel(基礎(chǔ)模型),指通過在大規(guī)模寬泛的數(shù)據(jù)上進(jìn)行訓(xùn)練后能適應(yīng)一系列下游任務(wù)的模型。GPT-3訓(xùn)練數(shù)據(jù)來自于互聯(lián)網(wǎng)上的大量文本,包括維基百科、新聞文章、網(wǎng)頁、論壇、社交媒體等。模型先進(jìn)行預(yù)訓(xùn)練,即在未標(biāo)記的文本上進(jìn)行多次迭代的自監(jiān)督學(xué)習(xí),以學(xué)習(xí)語言的結(jié)構(gòu)和規(guī)律。25“預(yù)訓(xùn)練+微調(diào)”技術(shù),可用一套技術(shù)解決不同語言、不同場景、不同NLP任務(wù),有效地提升了開發(fā)效率。針對不同任務(wù)進(jìn)行微調(diào)行業(yè)數(shù)據(jù)微調(diào)超大規(guī)模預(yù)訓(xùn)練海量文本數(shù)據(jù)超大規(guī)模算力行業(yè)、場景應(yīng)用語言模型未知領(lǐng)域微調(diào)更多微調(diào)場景...26大模型底座更通用,頂層更垂直,fine-tune是在不改動預(yù)訓(xùn)練模型的基礎(chǔ)上,在模型「頂層」使模型能夠更貼合實際使用場景。來源StandfordAlpaca:AStrong,來源:《followinstructionswithhumanReplicableInstruction-FollowingModelfeedback》RLHFSELF-INSTRUCT基于人類反饋的指令微調(diào)強(qiáng)化學(xué)習(xí)大模型底座通過人工標(biāo)注對模型輸出結(jié)果打分建立獎勵模型,然后通過獎勵模型繼續(xù)循環(huán)迭代,OpenAI獲得了更真實、更無害,并且更好地遵循用戶意圖的語言模型InstructGPT。步驟1:搜集說明數(shù)據(jù),訓(xùn)練監(jiān)督策略步驟2:搜集比較數(shù)據(jù),訓(xùn)練一個獎勵模型步驟3:搜集說明數(shù)據(jù),使用增強(qiáng)學(xué)習(xí)優(yōu)化模型有監(jiān)督微調(diào)(SFT)獎勵模型(RM)訓(xùn)練通過PPO根據(jù)獎勵模型進(jìn)行強(qiáng)化學(xué)習(xí)。搜集說明數(shù)據(jù)(基于對這個prompt訓(xùn)練的數(shù)新的prompt從數(shù)據(jù)集中prompt訓(xùn)練方式的數(shù)據(jù)據(jù)集和若干模型的結(jié)果抽樣集),訓(xùn)練監(jiān)督策略進(jìn)行抽樣借助模型生成輸出Labeler(標(biāo)注人員)從最Labeler(標(biāo)注人員)揭示優(yōu)到最差將輸出結(jié)果進(jìn)期望的輸出行為行排序反饋模型為輸出計算一個反饋結(jié)果這個數(shù)據(jù)用來訓(xùn)練反饋數(shù)據(jù)用來聯(lián)合監(jiān)督學(xué)習(xí)模型反饋結(jié)果用來優(yōu)化策略,對GPT-3進(jìn)行微調(diào)28“序列猴子”大模型及其AIGC產(chǎn)品矩陣3三位一體的獨(dú)特商業(yè)模式飛輪效應(yīng)凸顯每個人/企業(yè)都應(yīng)該有專屬的“ChatGPT”高智商的大腦動聽的聲音好看的外表智能硬件載體知識只要給予無限時間,一只猴子幾乎必然能夠打出任何文字,比邏輯對話如莎士比亞的《哈姆雷特》語言推理如果喂給機(jī)器猴子海量的文本序列,通過大規(guī)模算力去訓(xùn)練它,數(shù)學(xué)就能練就有智能的“序列猴子”規(guī)劃大模型的能力體系序列猴子:面向創(chuàng)作者的應(yīng)用出門問問研發(fā)了多款面向創(chuàng)作者的AIGC產(chǎn)品及應(yīng)用,為萬千創(chuàng)作者構(gòu)建一站式CoPilot產(chǎn)品矩陣,打通內(nèi)容創(chuàng)作全流程。超超注冊會員付費(fèi)會員像做PPT一樣制作數(shù)字人視頻和直播多元化高清數(shù)字人3種形態(tài)
200+數(shù)字形象形象克隆3D捏臉海量資產(chǎn)IP激活
1000+音色2000+聲音豐富語音風(fēng)格40國語言立體面部4K高清逼真效果超長序列本視頻由出門問問AIGC應(yīng)用“奇妙元”通過一張照片生成聲音由“魔音工坊”生成。25年前的yourstruly本視頻由出門問問AIGC應(yīng)用“奇妙元”通過一張照片生成聲音由“魔音工坊”生成。如今的“我”:勞碌命本視頻由出門問問AIGC應(yīng)用“奇妙元”通過形象克隆生成聲音由“魔音工坊”生成。大模型與語音助手結(jié)合,實現(xiàn)更強(qiáng)、更智能的功能。魔法小問:“Siri”+“ChatGPT”大模型大腦數(shù)字人形象好看的外表好聽的聲音語音助手個人信息記憶文檔分析圖片生成序列猴子大模型,開放生態(tài)賦能各行各業(yè)…AIoT律所教育醫(yī)療金融車企出門問問為企業(yè)客戶提供專屬的大模型定制化開發(fā)服務(wù),確保服務(wù)全流程打通與高質(zhì)量交付。企業(yè)專有數(shù)據(jù)模型定制數(shù)據(jù)處理模型訓(xùn)練私有化部署參數(shù)調(diào)優(yōu)根據(jù)客戶的需求和場景幫助客戶在使用大模型使用企業(yè)的數(shù)據(jù)對模型針對特定行業(yè)或企業(yè)內(nèi)幫助客戶在訓(xùn)練好的大,為客戶量身定制一個之前,對其數(shù)據(jù)進(jìn)行清進(jìn)行訓(xùn)練,并進(jìn)行模型部業(yè)務(wù)場景定制的大模模型上進(jìn)行參數(shù)調(diào)試,適合其業(yè)務(wù)和數(shù)據(jù)的大洗、預(yù)處理、轉(zhuǎn)換和規(guī)評估。型,在企業(yè)內(nèi)部進(jìn)行部模型。包含API接口定范化等,以確保數(shù)據(jù)的幫助客戶在其自身數(shù)據(jù)署和應(yīng)用,以滿足客戶以獲得更好的性能和準(zhǔn)制、數(shù)據(jù)定制、模型架質(zhì)量和一致性,并使其上訓(xùn)練大
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年度農(nóng)田水利EPC施工合同
- 2024年度體育賽事贊助與媒體轉(zhuǎn)播合同
- 金色魚鉤課件教學(xué)課件
- 2024年度定制家具制作與銷售合同
- 2024年國際貨物買賣與運(yùn)輸服務(wù)合同
- 2024年度版權(quán)衍生品開發(fā)合同
- 2024年度商用門安裝合同樣本
- 2024年度設(shè)備租賃服務(wù)合同
- 2024江蘇省建設(shè)工程造價咨詢?nèi)^程合同模板
- 2024年度學(xué)校實驗室燈具更換勞務(wù)外包合同
- 第15課 兩次鴉片戰(zhàn)爭 教學(xué)設(shè)計 高中歷史統(tǒng)編版(2019)必修中外歷史綱要上冊+
- 銀行客戶經(jīng)理招聘面試題與參考回答(某大型集團(tuán)公司)
- 2024-2025學(xué)年度第一學(xué)期七年級語文課內(nèi)閱讀練習(xí)含答案
- 福建省2025屆普通高中學(xué)業(yè)水平合格考試仿真模擬政治試題(一)
- 幼兒園三年發(fā)展規(guī)劃(2024年-2026年)
- 2024-2030年中國重癥監(jiān)護(hù)監(jiān)護(hù)系統(tǒng)行業(yè)市場發(fā)展趨勢與前景展望戰(zhàn)略分析報告
- 2024年艾滋病知識題庫
- 2024年安徽龍亢控股集團(tuán)限公司公開招聘人員13人(高頻重點(diǎn)提升專題訓(xùn)練)共500題附帶答案詳解
- 湖南美術(shù)出版社六年級上冊《書法練習(xí)指導(dǎo)》表格教案
- 投標(biāo)項目進(jìn)度計劃
- 中醫(yī)腦病科缺血性中風(fēng)(腦梗死恢復(fù)期)中醫(yī)診療方案臨床療效分析總結(jié)
評論
0/150
提交評論