2025大模型的本地部署和微調(diào)_第1頁
2025大模型的本地部署和微調(diào)_第2頁
2025大模型的本地部署和微調(diào)_第3頁
2025大模型的本地部署和微調(diào)_第4頁
2025大模型的本地部署和微調(diào)_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

目1PromptLearning6 幻覺問題:LLM有時會生成看似合理但實(shí)際錯誤的內(nèi)容,這種現(xiàn)象被稱 時效性問題:LLM的訓(xùn)練數(shù)據(jù)通常截至于特定時間點(diǎn),因此無法處理訓(xùn) 檢索增強(qiáng)生成(RAG):結(jié)合信息檢索和生成模型,在生成答時實(shí)時檢 降低風(fēng)險:對于敏感領(lǐng)域,錯誤答可能帶來較大風(fēng)險,定制化模型能RAG(Retrieval-Augmented 助答。微調(diào)(Fine- 1 推薦技術(shù) 通過不斷更新檢索索引,RAG能夠利用最新數(shù)據(jù)答問題,而無需頻繁2 通過對預(yù)訓(xùn)練模型進(jìn)行領(lǐng)域微調(diào)(PromptLearning、LoRA、3判斷依據(jù):大模型有時會生成“幻覺”信息(即不符合事實(shí)的內(nèi)容)推薦技術(shù)4推薦技術(shù) 5 推薦技術(shù)推薦技術(shù) 7 低;而RAG在生成答前需執(zhí)行檢索操作,可能會引入額外延遲。8 通過參數(shù)壓縮、量化及高效的微調(diào)方法(LoRA),可以將定制化模型RAG例子1 RAG技術(shù),通過接入實(shí)時更新的新聞數(shù)據(jù)庫,檢索最新的新聞內(nèi)容,例子2 背景說明:法律領(lǐng)域具有高度專業(yè)性,答要求嚴(yán)謹(jǐn)、精準(zhǔn)。預(yù)訓(xùn)練模技術(shù)選擇:微調(diào) Fine-tuning,使模型更法律答,滿足高標(biāo)準(zhǔn)的法律咨詢需求。RAGFlow——WebUI接口與PromptLearning將文本按固定token數(shù)量(如256、512)切分,同時采用滑動窗口技術(shù),在相鄰chunk(例如20%重疊),確保邊界信息不丟失,提高檢索時的性。例如,Langchain中的RecursiveCharacterTextSplitter就是一種常見實(shí)現(xiàn)。進(jìn)行重寫,使得查詢更準(zhǔn)確、語義更明確,從而提高檢索的召率。RAG——PromptLearning使用模板化的prompt,例如要求模型在答時引用來源編號、使用JSON格式返結(jié)果,或指定答應(yīng)當(dāng)簡潔扼要、符合特定格式。這樣既能控制輸出風(fēng)格,又能增強(qiáng)答案的可靠性。RAG——PromptLearning準(zhǔn)確、信息更豐富的答。promptlearning——LoRA(Low-RankAdaptation)—— RLHF(ReinforcementLearningfromHumanFeedback)——用戶饋全量微調(diào) Fine-HuggingFace的PEFT(Parameter-EfficientFine-Tuning) LoRA(Low-RankAdaptation)等,減少微與Transformers庫無縫集成,支持多種預(yù)訓(xùn)練模型的微調(diào)。LLaMA- 型訓(xùn)練、PPO(ProximalPolicyOptimization)、DPO等。支持多種訓(xùn)練方法,如全參數(shù)微調(diào)、部分參數(shù)微調(diào)、LoRA、QLoRA提供多種使用方式,包括命令行接口(CLI)、WebOpenAI提供命令行接口(CLI)支持在OpenAI OpenAI上微調(diào)模型的用戶,特別是需要快gpu預(yù)訓(xùn)練模型參數(shù)量按參數(shù)個數(shù)計:FP16時每個參數(shù)約2 舉例:1B(10)1022GB,僅模實(shí)際運(yùn)行時:至少需要2GB在全量微調(diào)時:總需要模型本身權(quán)重:至少需要梯度計算:至少需要激活、優(yōu)化器狀態(tài)、中間值:至少需要總需要2.12G=2GB+6GB*2%激活、優(yōu)化器狀態(tài)、中間值:至少需要通常內(nèi)存=顯存文本訓(xùn)練硬盤SSD大小不低于CPU個數(shù):通常1到4張顯卡選擇2個cpu軟件開發(fā)RAG+微調(diào)+業(yè)務(wù)功能費(fèi)用:目前的起價都是在總硬件的3到42、根據(jù)現(xiàn)有的經(jīng)驗(yàn)和實(shí)驗(yàn)觀察,對于像deepseek7b這樣規(guī)模的7B模型,在僅對q、k、vLoRA(r=4、α=16)的情形下,通常建議至少準(zhǔn)備上千條高

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論