《大語言模型基礎(chǔ)》教學(xué)大綱_第1頁
《大語言模型基礎(chǔ)》教學(xué)大綱_第2頁
《大語言模型基礎(chǔ)》教學(xué)大綱_第3頁
《大語言模型基礎(chǔ)》教學(xué)大綱_第4頁
《大語言模型基礎(chǔ)》教學(xué)大綱_第5頁
已閱讀5頁,還剩6頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

《大語言模型基礎(chǔ)》教學(xué)大綱課程名稱:大語言模型基礎(chǔ) Foundationoflargelanguagemodels課程編號:CS-301學(xué)分:2學(xué)分課程簡介:本課程旨在介紹大語言模型的基本概念、核心技術(shù)、應(yīng)用場景以及開發(fā)流程。通過本課程的學(xué)習(xí),學(xué)生將能夠理解大語言模型的工作原理,掌握大語言模型的基本概念、核心技術(shù)、應(yīng)用場景以及開發(fā)流程,掌握模型的訓(xùn)練、微調(diào)和應(yīng)用方法,并能夠獨立設(shè)計和實現(xiàn)基于大語言模型的應(yīng)用系統(tǒng),為未來的學(xué)術(shù)研究和實際應(yīng)用打下堅實的基礎(chǔ)。課程目標:1.知識目標:掌握大語言模型的基本概念、發(fā)展歷程和技術(shù)原理。2.技能目標:能夠使用開源大模型進行微調(diào)和應(yīng)用開發(fā)。3.應(yīng)用目標:能夠在實際項目中設(shè)計和實現(xiàn)基于大語言模型的解決方案。4.倫理目標:了解大語言模型倫理和法律問題,具備負責(zé)任的技術(shù)應(yīng)用能力。課程內(nèi)容:第1章:大模型基礎(chǔ)?1.1人工智能基礎(chǔ)?1.1.1人工智能的實現(xiàn)途徑?1.1.2機器學(xué)習(xí)和深度學(xué)習(xí)?1.1.3監(jiān)督與無監(jiān)督學(xué)習(xí)?1.2大模型定義?1.2.1模型預(yù)訓(xùn)練和微調(diào)?1.2.2大模型的特征?1.2.3大模型的優(yōu)勢?1.3大模型技術(shù)的形成?1.3.1Blockhead思維實驗?1.3.2大模型的歷史基礎(chǔ)?1.3.3基于Transformer模型?1.3.4大模型的世界模型問題?1.3.5文化知識傳遞和語言支持?1.4通用人工智能?1.4.1什么是通用人工智能?1.4.2大模型與通用人工智能?1.4.3人工智能生成內(nèi)容第2章:大模型與生成式AI?2.1什么是語言模型?2.1.1語言模型的定義?2.1.2注意力機制?2.1.3開源還是閉源?2.2大模型發(fā)展三階段?2.2.1基礎(chǔ)模型階段?2.2.2能力探索階段?2.2.3突破發(fā)展階段?2.3Transformer模型?2.3.1Transformer過程?2.3.2Transformer結(jié)構(gòu)?2.3.3Transformer模塊?2.4生成式人工智能?2.4.1生成式AI定義?2.4.2生成式AI層次?2.4.3生成式預(yù)訓(xùn)練語言模型GPT第3章:大模型架構(gòu)?3.1大模型生成原理?3.1.1上下文學(xué)習(xí)?3.1.2指令微調(diào)?3.1.3零樣本/少樣本?3.1.4深度學(xué)習(xí)架構(gòu)?3.1.5訓(xùn)練策略及優(yōu)化技術(shù)?3.1.6所謂世界模型?3.2多模態(tài)語言模型?3.2.1多模態(tài)指令微調(diào)?3.2.2多模態(tài)上下文學(xué)習(xí)?3.2.3多模態(tài)思維鏈?3.2.4大模型輔助視覺推理?3.3大模型的結(jié)構(gòu)?3.3.1LLaMA的模型結(jié)構(gòu)?3.3.2LLaMA的注意力機制?3.4應(yīng)用技術(shù)架構(gòu)?3.4.1指令工程?3.4.2函數(shù)調(diào)用?3.4.3檢索增強生成?3.4.4微調(diào)?3.5OpenAI的Sora大模型?3.5.1Sora技術(shù)報告分析?3.5.2Sora主要技術(shù)特點?3.5.3Sora的模型訓(xùn)練過程第4章:人工數(shù)據(jù)標注?4.1知識表示方法?4.1.1知識的概念?4.1.2知識表示的定義?4.1.3知識表示的過程?4.2什么是數(shù)據(jù)標注?4.3數(shù)據(jù)標注分類?4.3.1圖像標注?4.3.2語音標注?4.3.33D點云標注?4.3.4文本標注?4.4制定標注規(guī)則?4.5執(zhí)行數(shù)據(jù)標注?4.6標注團隊管理第5章:大模型預(yù)訓(xùn)練數(shù)據(jù)?5.1數(shù)據(jù)來源?5.1.1通用數(shù)據(jù)?5.1.2專業(yè)數(shù)據(jù)?5.2數(shù)據(jù)處理?5.2.1質(zhì)量過濾?5.2.2冗余去除?5.2.3隱私消除?5.2.4詞元切分?5.3數(shù)據(jù)影響分析?5.3.1數(shù)據(jù)規(guī)模?5.3.2數(shù)據(jù)質(zhì)量?5.4典型的開源數(shù)據(jù)集?5.4.1Pile?5.4.2ROOTS?5.5訓(xùn)練集、測試集、驗證集的異同?5.5.1訓(xùn)練、測試與驗證數(shù)據(jù)集的不同之處?5.5.2訓(xùn)練、測試與驗證數(shù)據(jù)集的相似之處?5.6數(shù)據(jù)集面臨的挑戰(zhàn)?5.6.1規(guī)模和質(zhì)量待提升?5.6.2大模型與數(shù)據(jù)集相輔相成?5.6.3標準規(guī)范需健全?5.6.4存儲性能待提高第6章:大模型開發(fā)組織?6.1大模型開發(fā)流程?6.2大模型的數(shù)據(jù)組織?6.2.1數(shù)據(jù)采集?6.2.2數(shù)據(jù)清洗和預(yù)處理?6.2.3數(shù)據(jù)標注?6.2.4數(shù)據(jù)集劃分?6.2.5模型設(shè)計?6.2.6模型初始化?6.2.7模型訓(xùn)練?6.2.8模型驗證?6.2.9模型保存?6.2.10模型測試?6.2.11模型部署?6.3分而治之的思想?6.3.1分布式計算?6.3.2消息傳遞接口MPI?6.3.3MapReduce模型?6.3.4批處理和流處理?6.4分布式訓(xùn)練與策略?6.4.1什么是分布式訓(xùn)練?6.4.2數(shù)據(jù)并行性?6.4.3模型并行性?6.4.4流水線并行性?6.4.5混合并行?6.4.6分布式訓(xùn)練集群架構(gòu)第7章:提示工程與微調(diào)?7.1什么是提示工程?7.1.1提示工程的原理?7.1.2提示工程應(yīng)用技術(shù)?7.1.3提示的通用技巧?7.2大模型為什么要微調(diào)?7.3提示學(xué)習(xí)和語境學(xué)習(xí)?7.3.1提示學(xué)習(xí)?7.3.2語境學(xué)習(xí)?7.4上下文窗口擴展?7.5指令數(shù)據(jù)的構(gòu)建?7.5.1手動構(gòu)建指令?7.5.2自動構(gòu)建指令?7.5.3開源指令數(shù)據(jù)集?7.6微調(diào)及其PEFT流行方案?7.6.1微調(diào)技術(shù)路線?7.6.2提示微調(diào)?7.6.3前綴微調(diào)?7.6.4LoRA?7.6.5QLoRA第8章:強化學(xué)習(xí)方法?8.1強化學(xué)習(xí)的概念?8.1.1強化學(xué)習(xí)的定義?8.1.2不同于監(jiān)督和無監(jiān)督學(xué)習(xí)?8.1.3不同于傳統(tǒng)機器學(xué)習(xí)?8.1.4大模型的強化學(xué)習(xí)?8.1.5先驗知識與標注數(shù)據(jù)?8.2強化學(xué)習(xí)基礎(chǔ)?8.2.1基于模型與免模型環(huán)境?8.2.2探索與利用?8.2.3片段還是連續(xù)任務(wù)?8.2.4網(wǎng)絡(luò)模型設(shè)計?8.3強化學(xué)習(xí)分類?8.3.1從獎勵中學(xué)習(xí)?8.3.2被動與主動強化學(xué)習(xí)?8.3.3學(xué)徒學(xué)習(xí)?8.4深度強化學(xué)習(xí)第9章:大模型智能體?9.1智能體和環(huán)境?9.2智能體的良好行為?9.2.1性能度量?9.2.2理性?9.3環(huán)境的本質(zhì)?9.3.1指定任務(wù)環(huán)境?9.3.2任務(wù)環(huán)境的屬性?9.4智能體的結(jié)構(gòu)?9.4.1智能體程序?9.4.2學(xué)習(xí)型智能體?9.4.3智能體組件的工作?9.5構(gòu)建大模型智能體?9.6人工智能內(nèi)容生成(AIGC)?9.6.1內(nèi)容孿生?9.6.2內(nèi)容編輯第10章:大模型應(yīng)用框架?10.1大模型哲學(xué)問題?10.1.1組成性?10.1.2天賦論與語言習(xí)得?10.1.3語言理解與基礎(chǔ)?10.1.4世界模型?10.1.5知識傳遞和語言支持?10.2大模型應(yīng)用流程?10.2.1確定需求大小?10.2.2數(shù)據(jù)收集?10.2.3數(shù)據(jù)集預(yù)處理?10.2.4大模型預(yù)訓(xùn)練?10.2.5任務(wù)微調(diào)?10.2.6部署?10.3大模型應(yīng)用場景?10.3.1機器翻譯、文本理解與分析?10.3.2自然語言生成?10.3.3搜索與知識提取?10.3.4代碼開發(fā)?10.3.5檢測和預(yù)防網(wǎng)絡(luò)攻擊?10.3.6虛擬助理和客戶支持?10.3.7SEO關(guān)鍵詞優(yōu)化?10.4案例:Magic突破Q算法第11章:技術(shù)倫理與限制?11.1人工智能面臨的倫理挑戰(zhàn)?11.1.1人工智能與人類的關(guān)系?11.1.2人與智能機器的溝通?11.2數(shù)據(jù)隱私保護對策?11.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題?11.2.2數(shù)據(jù)利用失衡問題?11.2.3構(gòu)建隱私保護倫理準則?11.2.4健全道德倫理約束機制?11.3人工智能倫理原則?11.3.1職業(yè)倫理準則的目標?11.3.2創(chuàng)新發(fā)展道德倫理宣言?11.3.3歐盟可信賴的倫理準則?11.4大模型的知識產(chǎn)權(quán)保護?11.4.1大模型的訴訟案例?11.4.2大模型生成內(nèi)容的知識產(chǎn)權(quán)保護?11.4.3尊重隱私,保障安全,促進開放?11.4.4邊緣群體的數(shù)字平等第12章:大模型產(chǎn)品評估?12.1模型評估概述?12.2大模型評估體系?12.2.1知識與能力?12.2.2倫理與安全?12.2.3垂直領(lǐng)域評估?12.3大模型評估實踐?12.3.1基礎(chǔ)模型評估?12.3.2學(xué)習(xí)模型評估?12.4大模型產(chǎn)品對比?12.5大模型的大趨勢教學(xué)方法:?課堂講授:通過多媒體課件和案例講解,系統(tǒng)介紹大語言模型的基礎(chǔ)知識和技術(shù)原理。?實驗實訓(xùn):通過實驗室實踐,讓學(xué)生動手操作,掌握大語言模型的訓(xùn)練、微調(diào)和應(yīng)用方法。?小組討論:組織學(xué)生進行小組討論,探討大語言模型的實際應(yīng)用和倫理問題。?項目作業(yè):布置實際項目作業(yè),要求學(xué)生

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論