版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
PREORDERPREORDERPREORDER1|戰(zhàn)略態(tài)勢:人工智能時代的汽車行業(yè)發(fā)展隨著科技的飛速發(fā)展,汽車行業(yè)正面臨著顛覆性的變革。從傳統(tǒng)的燃油車到電動汽車,從手動駕駛到自動駕駛,從機械座艙、電子座艙到智能座艙,每一次的技術(shù)突破都在推動著汽車行業(yè)的進步。在智能化、網(wǎng)絡(luò)化、電動化的趨勢下,汽車不僅僅是一種出行工具,而是一個承載了眾多創(chuàng)新技術(shù)的移動智能終端。在發(fā)展與變革的過程中,大語言模型和群體智能對車企在生產(chǎn)、銷售、營銷等各環(huán)節(jié)均帶來前所未有的機遇和挑戰(zhàn),群體智能與組織孿生解決方案也從紙上談兵變?nèi)后w智能技術(shù)的發(fā)展,為汽車行業(yè)帶來了新的機遇。通過多個智能體的協(xié)作,可以處理更加復(fù)雜和動態(tài)的任務(wù),如智能交通系統(tǒng)的優(yōu)化、車輛群的協(xié)調(diào)運行等。這不僅提高了汽車行業(yè)的運營效率,也為此外,數(shù)字組織孿生技術(shù)的應(yīng)用,為汽車行業(yè)帶來了革命性的變革。通過創(chuàng)建數(shù)字孿生模型,企業(yè)能夠在虛擬空間中模擬和分析研發(fā)、生產(chǎn)與營銷流程,從而實現(xiàn)更高效的資源配置和風險管理。這項技術(shù)在產(chǎn)品設(shè)計、生產(chǎn)過程優(yōu)化、以及市場策略制定等方面都顯示出巨大本白皮書全面探討了大模型群體智能技術(shù)及其在汽車行業(yè)的應(yīng)用潛力。首先,我們在第一章分析了中國汽車行業(yè)的市場現(xiàn)狀,聚焦于消費需求的變化、供給側(cè)的挑戰(zhàn)以及由此產(chǎn)生的機遇。接著,我們在第二章深入探討了大模型群體智能技術(shù)體系,包括大語言模型、AIAgent、群體智能和組織孿生。第三章著重于分析大模型群體智能技術(shù)在汽車行業(yè)的應(yīng)用價值和實踐案例。最后,在第四章詳細描述了汽車行業(yè)群體智能生態(tài)矩陣及其共贏邏輯,并以對未來的展望作為總結(jié),強調(diào)了這些技術(shù)對于汽車行業(yè)轉(zhuǎn)型升級的重要性。中國汽車行業(yè)發(fā)展近30年經(jīng)歷了“起步積累段干預(yù)個人購車,價格機制逐步發(fā)揮調(diào)控作用。進入2勵轎車進入家庭,市場價格成為調(diào)控需求與供給的核心機制。21世紀數(shù)據(jù)來源:全球經(jīng)濟指標雖然中國乘用車市場整體處于需求增長停滯的大環(huán)境中,但細分的新能源車市場表現(xiàn)越加醒目。2023年新能源汽車市場滲透率突破30%,提前實現(xiàn)了《新能源汽車產(chǎn)業(yè)發(fā)展規(guī)劃(2021-2035)》中關(guān)于2025年新能源新車銷量達到新車總銷量20%的目標,已經(jīng)成為我國汽車行業(yè)彎道超車的重點賽道。國家政策的扶持給新能源汽車發(fā)展帶來眾多有利條件,財政部、稅務(wù)總局、工信部在2023年6月聯(lián)合發(fā)布的《關(guān)于延長和優(yōu)化新能源車輛購置稅減免政策的公告》,將新能10月由科技部發(fā)布的《關(guān)于支持新能源汽車產(chǎn)業(yè)高質(zhì)量發(fā)展的若干政策實施》等一系列政策的頒布,推動了新能源汽車市場繁榮發(fā)展、刺數(shù)據(jù)來源:全國乘用車市場信息聯(lián)席會,統(tǒng)計整理易車研究院調(diào)研發(fā)現(xiàn),結(jié)婚、生子是中國老百姓的關(guān)鍵購車需求節(jié)點[1-1]。2008年開始,80后的“結(jié)婚購車浪潮”是中國車市(特別是首購車用戶)的主要推動力。2018年后,90后開始大規(guī)模進入車市,90后人數(shù)減少購買潛力不及80后;結(jié)合圖表1-4我們發(fā)現(xiàn)近五年大家對結(jié)婚和生子積極性持續(xù)走低,一定程度上降低了首購車人數(shù)據(jù)來源:國家統(tǒng)計局(統(tǒng)計口徑數(shù)源整理:易車研究院《2023年車市價格戰(zhàn)洞數(shù)據(jù)來源:國家統(tǒng)計局(統(tǒng)計口徑數(shù)源整理:易車研究院《2023年車市價格戰(zhàn)洞首購車用戶呈現(xiàn)下降趨勢,再購逐漸成為核心增長動力且均價有所提升,給中高端車型帶來更多機會。根據(jù)易車研究院2023年《家庭擁車數(shù)量洞察報告》2014年至2022年首購和再購的數(shù)據(jù),再購市調(diào)研,有54%的受訪者表示在再購車時考慮升級價格區(qū)間[1-3],促數(shù)據(jù)來源:易車研究院(以家庭為單位)《家庭擁車數(shù)量洞察報告》[1-2]近年來消費者獲取汽車資訊呈現(xiàn)多渠道、多觸點的特點,在常態(tài)化觸媒包圍下,品牌主都在想方設(shè)法地搶占用戶注意力。群邑聯(lián)合易車發(fā)布的《2023全域鏈路時代汽車營銷變革白皮書》中提到,整個用用戶注意力從原先聚焦于汽車垂直資訊平臺與汽車廠商官網(wǎng),持續(xù)且不同程度地分散到各個泛娛樂類短視頻平臺、知識分享及社交媒體平臺、搜索引擎、新聞資訊平臺和綜合視頻平臺等。廠商需依據(jù)各平臺的用戶畫像和推送邏輯,不斷向用戶推送車系種草內(nèi)容或競品攔截信息搶占用戶注意力。從被動獲取信息到主動篩選、糅合信息,實際延長了用戶從形成認知到產(chǎn)生購買行為的時間,用戶注意力被分散的同時也增加了轉(zhuǎn)化難度。因此,企業(yè)亟待信息整合,為用戶提供高信息來源:群邑,易車《2023全域鏈路時代汽車營銷變革白皮書》2019-2023年汽車品牌與車型迅猛增長,在新產(chǎn)品數(shù)目不斷擴張的同時,舊有格局也悄然發(fā)生變化,給新入局者提供了發(fā)展機會,也為汽車市場注入了新的活力??焖儆咳氲男庐a(chǎn)品給消費者更多的選擇空間,滿足不同消費者多樣化的需求,其中新能源品牌近年來在汽車數(shù)據(jù)來源:各品牌官方發(fā)布渠道,統(tǒng)計整理近5年來整體市場份額波動較大,行業(yè)洗牌加速且尚未形成穩(wěn)定格局,恰好是新入局玩家憑借敏銳的市場洞察和創(chuàng)新能力,在市場中迅速崛起的好時機。如圖表1-9展示近5年中國乘用車品牌銷量數(shù)據(jù)來源:全國乘用車市場信息聯(lián)席會,統(tǒng)計整理我們認為“價格戰(zhàn)”是把雙刃劍,企業(yè)可以利用價格優(yōu)惠吸引消費者注意,在激烈的市場競爭中快速搶占份額,但同時也會壓縮部分利潤空間。從2021年-2023年9月中國乘用車市場終端優(yōu)惠與終端銷量走勢圖表,不難發(fā)現(xiàn)優(yōu)惠幅度與銷量基本呈正比。2021-2022年,中國乘用車市場每輛車的平均優(yōu)惠幅度在1.5-2隨后眾多新能源品牌和傳統(tǒng)車企也紛紛跟進,通過降價、限時促銷等方式來吸引消費者。2023年二季度末,平均每輛車的終端優(yōu)惠突破了數(shù)據(jù)來源:易車車型庫,出處:易車研究院,《2023年車市價格戰(zhàn)洞察報告》[1-1]銷量提升并不等同于企業(yè)利潤提升。2023年上半年,從國內(nèi)10家上市車企業(yè)對外公布的財報數(shù)據(jù)看,多數(shù)車企上半年營收、凈利潤數(shù)據(jù)來源:上市公司車企財報公開信息整理2023年上半年,經(jīng)銷商集團受到價格戰(zhàn)影響,虧損面積增大。降價銷售新車壓縮了利潤空間,毛利潤和毛利率均不及22年同期也有部分消費者為搭乘購置稅減半的福利,在22年底前提前透支數(shù)據(jù)來源:經(jīng)銷商集團財報公開信息整理打造行業(yè)領(lǐng)先的成本優(yōu)勢、實現(xiàn)一致的品牌體驗持續(xù)影響用戶心易慧智能實地走訪汽車銷售門店發(fā)現(xiàn),人力成本居高不下,引入傳統(tǒng)工具化應(yīng)用也并未帶來預(yù)期的經(jīng)營效能提升,此外,人員服務(wù)專業(yè)度問題及為保障品牌一致性帶來了大量額外成本問題,是經(jīng)銷商與品牌直營店面臨的普遍挑戰(zhàn)。品牌在銷售模式上,正加速從主流經(jīng)銷商模式到直營模式,再到混合經(jīng)營模式進行積極探索,以達到降本增經(jīng)銷商模式通過經(jīng)銷商網(wǎng)絡(luò)銷售和服務(wù)車輛,仍是當前汽車廠商的主流銷售渠道。自負盈虧的經(jīng)銷商模式,具備覆蓋性廣、細分性強經(jīng)銷商門店人工邀約試駕,仍是潛客孵化的主要手段。面對嚴苛的邀約數(shù)量、服務(wù)通話質(zhì)量和轉(zhuǎn)化率考核,經(jīng)銷商顧問在有限精力內(nèi)僅能做到應(yīng)付考核,對中低意向的客戶基本放棄維護,導(dǎo)致大量潛客流失。即便專業(yè)類應(yīng)用工具越來越多,但學(xué)習成本極高,多半是擺設(shè),主機廠無法獲得用戶真實數(shù)據(jù)反饋,難以帶來經(jīng)營效益及效率提升。新勢力品牌入局多采用直營模式,通過品牌APP報價/下單、設(shè)立自營交付中心,沒有中間商賺差價可以有效的控制價格和利潤,全鏈路對接終端消費者,有效保障了品牌服務(wù)的一致性,優(yōu)異的線下體驗對促成購車不可或缺。與用戶直聯(lián)的環(huán)節(jié)中,廠商可以更加準確有效的掌握消費者的第一手信息、迅速獲得產(chǎn)品反饋,幫助企業(yè)快速進行產(chǎn)品迭代。特別在品牌建立初期,直營模式利于品牌形象打造、提需要極高的運營成本投入在門店建設(shè)和人員培訓(xùn),無疑縮小了品牌的基于汽車行業(yè)加速內(nèi)卷的市場競爭和消費者需求放緩的市場背景,人工智能正在重塑汽車行業(yè)的生態(tài),對汽車企業(yè)智能化轉(zhuǎn)型而言是挑戰(zhàn)更是機遇。全面的成本領(lǐng)先是未來汽車企業(yè)競爭的基礎(chǔ)。在激烈的市場競爭中,汽車企業(yè)需要通過全面的成本領(lǐng)先策略來降低生產(chǎn)成本、提高運營效率,從而獲取競爭優(yōu)勢。在人工智能時代,自動化和智能化生產(chǎn)成為主流趨勢,這有助于降低汽車企業(yè)的生產(chǎn)成本和提高生產(chǎn)效率。例如,通過引入自動化生產(chǎn)線和智能倉儲管理系統(tǒng),汽車企業(yè)可以減少人力成本和庫存成本,從而實現(xiàn)更高效的生產(chǎn)管理。同時,企業(yè)需持續(xù)投入大量資金進行技術(shù)研發(fā)和人才引進,關(guān)注全球產(chǎn)業(yè)鏈的變化,積極尋求與供應(yīng)商和合作伙伴的協(xié)同降本機會,建立完善的AI基礎(chǔ)設(shè)施以實現(xiàn)降本增效。一致的品牌體驗和個性化的品牌溝通會成為品牌心智塑造的勝負手。借助AI技術(shù),企業(yè)可以更深入地了解消費者需求,提供個性化的品牌溝通和一致的品牌服務(wù)體驗,來滿足消費者對品質(zhì)和服務(wù)的基本需求,從而塑造出可信賴的品牌形象。例如,根據(jù)消費者的購車習慣和偏好,為其推薦合適的車型和配置。同時,企業(yè)可以通過AI技術(shù)優(yōu)化客戶服務(wù)中心,提供高效、專業(yè)的咨詢服務(wù),提升用戶滿意度和用戶粘性。然而,在保持品牌一致性的同時滿足消費者的個性化需求,這需要企業(yè)具備精準的市場分析和精細的產(chǎn)品規(guī)劃能力。此外,企業(yè)還需面對數(shù)據(jù)安全和隱私保護的挑戰(zhàn),確保消費者數(shù)據(jù)的安全與合規(guī)使用??萍纪黄疲哼~向通用人工智能的大模型群體數(shù)據(jù)驅(qū)動的解決方案與精細化運營突破人效天花板。隨著科技的進步和消費者需求的變化,傳統(tǒng)的以“人”為中心的運營方式已經(jīng)難以適應(yīng)市場發(fā)展的需求。在人工智能時代,數(shù)據(jù)成為企業(yè)的核心資產(chǎn)。通過對數(shù)據(jù)的收集、分析和挖掘,企業(yè)可以洞察市場趨勢、優(yōu)化產(chǎn)品設(shè)計、提升服務(wù)質(zhì)量。例如,利用AI算法分析消費者行為數(shù)據(jù),預(yù)測未來市場趨勢,提前布局產(chǎn)品研發(fā)。同時,企業(yè)可以通過精細化運營提高人效,降低人工成本。例如,利用AI技術(shù)優(yōu)化人力資源管理,實現(xiàn)人才的精準招聘與培養(yǎng)。然而,數(shù)據(jù)驅(qū)動的解決方案與精細化運營也對企業(yè)提出了新的要求。企業(yè)需構(gòu)建完善的數(shù)據(jù)收集和分析體系,確保數(shù)據(jù)的準確性和完整性;企業(yè)需加強數(shù)據(jù)安全保護,防止數(shù)據(jù)泄露和被濫用??萍纪黄疲哼~向通用人工智能的大模型群上限。隨著技術(shù)發(fā)展,大規(guī)模與訓(xùn)練語言模型參數(shù)數(shù)量不斷快速提升,模型能力也飛速躍升,2022年底,隨著ChatGPT的發(fā)布,人們廣泛意識到大模型對技術(shù)和生產(chǎn)力帶來的無限潛力,開始討論大語言模型是否產(chǎn)生了智能的“涌現(xiàn)”,研究基于大語言模型應(yīng)用到生產(chǎn)生活領(lǐng)在當下,大模型技術(shù)路線已在產(chǎn)業(yè)界達成廣泛共識,但究竟它將成為類似Web3.0的技術(shù)浪潮,還是一場足以綿延至少十年的產(chǎn)業(yè)革命,仍是一個值得深思的問題。以大模型為核心的AGI革命是第四次重大技術(shù)變革,它可以和蒸汽革命、電力革命、信息革命相提并論,并將持續(xù)至少20到30年,深刻改變我們的世界。若干年后,整個人科技突破:邁向通用人工智能的大模型群體我們可以將大模型比作汽車引擎,它為汽車提供動力。然而,要制造出一輛完整的汽車,除引擎外,還需要轉(zhuǎn)向系統(tǒng)、底盤、內(nèi)飾以及其他所有必要組件。同樣,要充分發(fā)揮大模型的潛力,我們還需要在這個“引擎”基礎(chǔ)上加入一系列高級技術(shù),如增強的記憶能力和使用工具的能力,這樣才能開拓更廣泛的應(yīng)用領(lǐng)域和想象空間。而AIAgent(智能體)正是集合這些技術(shù)能力的載體。隨著針對大語言模型的廣泛研究,人們發(fā)現(xiàn)大模型目前存在“幻覺”等問題,導(dǎo)致在真實場景中落地困難。鑒于此,能夠調(diào)用工具,進行復(fù)雜任務(wù)規(guī)劃、執(zhí)行的Agent技術(shù),逐漸進入人們研究的領(lǐng)域。AIAgent的出現(xiàn)開啟了一種新的交互方式。不再是被動的執(zhí)行工具,它能主動感知環(huán)境并動態(tài)響應(yīng),標志著人類智能理解的主動轉(zhuǎn)變。這一創(chuàng)新是邁向全面人工智能情感智能、感知能力、價值觀念和成長潛力。這些特征使它們能夠適應(yīng)多種應(yīng)用場景。為使單個智能體發(fā)揮出色的能力,需要讓它們相互連接并協(xié)作,以處理和完成更為復(fù)雜的任務(wù)。實際上,無論是人類社會還是自然界,群體智能的案例比比皆是。正如我們需要團隊和組織將個人聯(lián)合起來一樣,自然界中的蜂群、蟻群和魚群也展示出超越個體的高級智能行為。簡單個體聚集成群體時,個體間交互能夠使群體涌現(xiàn)超越個體的智能。隨著研究的深入,AIAgent相互間,能夠通過通信形成協(xié)作,完成單智能體無法完成的工作。結(jié)合能夠自主理解、規(guī)劃、執(zhí)行、反思任務(wù)的AIAgent技術(shù),并最終采用最短路徑科技突破:邁向通用人工智能的大模型群體式:組織孿生。組織孿生是一個以數(shù)字技術(shù)為核心的創(chuàng)新框架,它包括三個關(guān)鍵部分:崗位孿生、架構(gòu)孿生和業(yè)務(wù)孿生。崗位孿生利用大模型技術(shù)創(chuàng)建個人的數(shù)字孿生虛擬人,這些虛擬人能模擬真人的交流方式,包括聲音和表情,并具備“感性智能”。它們能夠執(zhí)行內(nèi)容生成、基礎(chǔ)交流、客戶服務(wù)等工作。架構(gòu)孿生則是在數(shù)字世界中映射真實公司的組織架構(gòu),通過智能體網(wǎng)絡(luò)技術(shù)定義智能體間的交流和邏輯。最后,業(yè)務(wù)孿生通過整合大語言模型、搜索增強技術(shù)和智能體構(gòu)建等,自動執(zhí)行實際業(yè)務(wù),優(yōu)化業(yè)務(wù)執(zhí)行效果。這個框架特別適用于復(fù)雜的行業(yè)場景,如汽車行業(yè),提供了一個全新的數(shù)字化工作和管理方式。2.2.1.1大語言模型基本概念自2018年,以BERT和GPT為代表的預(yù)訓(xùn)練語言模型(PLM)技術(shù),大幅刷新各類自然語言處理任務(wù)的性能上限,已經(jīng)成為人工智能領(lǐng)域的主流技術(shù)范式。預(yù)訓(xùn)練語言模型采用“預(yù)訓(xùn)練+微調(diào)”方法,主要分為兩步:1)將模型在大規(guī)模無標注數(shù)據(jù)上進行自監(jiān)督訓(xùn)練得到預(yù)訓(xùn)練模型,2)將模型在下游各種自然語言處理任務(wù)上的小規(guī)模有標注數(shù)據(jù)進行微調(diào)得到適配模型。相比傳統(tǒng)人工智能模型,預(yù)訓(xùn)練模型在下游應(yīng)用中具有數(shù)據(jù)成本低、通用性強、綜合性能好科技突破:邁向通用人工智能的大模型群體并且僅通過少量樣本的學(xué)習,就達到逼近人類的學(xué)習能力,展現(xiàn)出邁訓(xùn)練數(shù)據(jù)量呈現(xiàn)“伸縮定律”(ScalingLaw)現(xiàn)象,即模型參數(shù)、訓(xùn)練數(shù)據(jù)規(guī)模越大模型性能越好,這激發(fā)了大語言模型研究熱潮。大2.2.1.2大語言模型發(fā)展歷程圖表2-6展示了由深度學(xué)習引導(dǎo)的本輪人工智能大潮里程碑式成果。本輪深度學(xué)習浪潮可以最早從視覺領(lǐng)域發(fā)展起來,2012年圖靈獎得主Hinton提出AlexNet在大規(guī)模視覺識別挑戰(zhàn)賽ImageNet評測上大幅超越現(xiàn)有模型,并首次在深度學(xué)習中引入GPU加速,激發(fā)了深度學(xué)習的研究熱潮。2012至2016年間,視覺領(lǐng)域成為深度學(xué)習的主導(dǎo)領(lǐng)域,生成對抗網(wǎng)絡(luò)GAN、深度殘差網(wǎng)絡(luò)ResNet等創(chuàng)新技術(shù)應(yīng)運而生。同時,自然語言處理領(lǐng)域亦有所發(fā)展,如文本詞嵌入基礎(chǔ),盡管其在性能提升上并不顯著。2017年成為轉(zhuǎn)折點,Google提出的Transformer框架在機器翻譯中取得顯著進步,其分布式學(xué)習于Transformer提出了預(yù)訓(xùn)練語言模型BERT和GPT,顯著提高了NLP任務(wù)的性能,并展示出廣泛的通用性。這標志著“預(yù)訓(xùn)練+微調(diào)”技術(shù)范式的開端。此后,眾多預(yù)訓(xùn)練模型相繼涌現(xiàn),OpenAI以GPT-本學(xué)習和復(fù)雜任務(wù)處理的能力,顯示出實現(xiàn)通用智能的巨大潛力,開等跨模態(tài)模型,進一步推動了深度學(xué)習和人工智能的發(fā)展??萍纪黄疲哼~向通用人工智能的大模型群體此次大模型浪潮中,OpenAI成為該領(lǐng)域的絕對的領(lǐng)導(dǎo)者,其提出了系列有影響力的大模型,特別是Cha性能發(fā)生質(zhì)變,開創(chuàng)了人工智能的新變革。圖表2-7展示了OpenAI2.2.1.3大語言模型能力與特點大語言模型較傳統(tǒng)人工智能模型,呈現(xiàn)出如下能力和特點,如圖·涌現(xiàn)能力(EmergentAbilities),隨著模型計算量和訓(xùn)練數(shù)據(jù)量的增加,大語言模會涌現(xiàn)出上下文學(xué)習、指令遵循、思維鏈推理、交互認知等能力。這里上下文學(xué)習是指給定少量演示樣本,大模型就可以參考回答用戶的問題,具備了一舉反三能力;指令遵循是指用戶給定任務(wù)描述文本指令,大模型可以找指令要求回答問題;思維鏈推理旨在大模型能夠給出問題解答過程,通過推理過程可以提升大模型回答準確率;交互認知是指大模型具備與工具、環(huán)境等交互完成任務(wù)大模型可以與人類的需求、期望、價值觀、倫理道德等進行深度對齊,通過有監(jiān)督微調(diào)和人類反饋強化學(xué)習等學(xué)習人類偏好反饋,能夠有效降低大模型的錯誤、虛假等“幻覺”內(nèi)容生成,提升大模型的忠誠性、可靠性、有幫助性等,這是ChatGPT成功關(guān)鍵,也是目前解決大模型安全的關(guān)鍵技術(shù)。OpenAI團隊提出了超級對齊的概念,并給出了科技突破:邁向通用人工智能的大模型群體·序列建模,大語言模型技術(shù)能夠?qū)θ魏慰梢员恍蛄谢氖聞?wù)進行壓縮和學(xué)習。大語言模型采用Transformer架構(gòu),通過將輸入轉(zhuǎn)化成token序列實現(xiàn)對輸入的編碼和理解。目前Transformer架構(gòu)已經(jīng)成為文本、視覺、語音等各種領(lǐng)域的大模型的核心架構(gòu),實現(xiàn)了對各種模態(tài)數(shù)據(jù)編碼能力。在文本之外,我們可以通過序列化方法抽象、學(xué)習理解世界中的萬事萬物,如語言可以轉(zhuǎn)化成文本序列,圖像通過成序列,Agent的工具調(diào)用可以劃分成動作執(zhí)行的序列,電磁波可以轉(zhuǎn)化成音頻序列等。在大模型中這些序列都是詞元(Token)序列。任何可以被序列化的信息均可被大模型學(xué)習。2.2.1.4大語言模型發(fā)展趨勢更大模型參數(shù):由于大模型性能與模型參數(shù)呈現(xiàn)“ScalingLaw”(擴展定律),即在充分數(shù)據(jù)訓(xùn)練下模型參數(shù)規(guī)模越大模型的性能越好。同時,模型參數(shù)規(guī)模越大模型的泛化性和復(fù)雜數(shù)據(jù)的編碼能力也越好,而且呈現(xiàn)更強的涌現(xiàn)能力。這激發(fā)了人們對更大模型的參數(shù)規(guī)模從過去的5年間,參數(shù)規(guī)模增長5000倍(2018年幾億參數(shù)科技突破:邁向通用人工智能的大模型群體多模態(tài)大模型:多模態(tài)數(shù)據(jù)豐富無處不在,互聯(lián)網(wǎng)90%以上是圖像與音視頻數(shù)據(jù),文本不到10%。多模態(tài)協(xié)同更符合人類感知與表達方式,是機器實現(xiàn)類人智能重要途徑。目前構(gòu)建融合更多模態(tài)的大模型是當前大模型發(fā)展趨勢。這一趨勢是指將文本、圖像、聲音等多種模態(tài)的數(shù)據(jù)融合在一起,通過大模型進行處理和理解。例如,Midjourney和OpenAI的DALL-E2能夠根據(jù)文本描述生成相應(yīng)的圖像,而GPT-4可以根據(jù)理解圖像和文本跨模態(tài)理解和生成。這類模型AIforScience(大模型+X這個方向強調(diào)將大語言模型應(yīng)用于科學(xué)研究中,例如藥物發(fā)現(xiàn)、蛋白質(zhì)結(jié)構(gòu)預(yù)測等。大模型在這些領(lǐng)域的應(yīng)用,不僅能夠加速數(shù)據(jù)分析和知識發(fā)現(xiàn),還能夠提出新的科學(xué)的蛋白質(zhì)結(jié)構(gòu)預(yù)測模型Alphafold,預(yù)測準確性已達到與人類可比水平,取得了重大突破,極大地加速了生物醫(yī)學(xué)領(lǐng)域的研究進程。清華大學(xué)將大模型應(yīng)用于生醫(yī)領(lǐng)域提出了KV-PLM,將生醫(yī)文獻數(shù)據(jù)中分子結(jié)構(gòu)通過SMILES表達式的形式映射到自然語言,然后對文字表達序列和生醫(yī)文本進行掩碼語言建模,實現(xiàn)了分子表達式與文本描述的橋接,在分子檢索等領(lǐng)域任務(wù)上取得大幅提升。些智能體可以在多種場景下協(xié)助人類,如個人助理、客服機器人、教育輔助等。AIAgent的發(fā)展不僅在于算法本身的優(yōu)化,還包括對人類行為和需求的理解,以及與人類的交互能力。例如,GPT-4等大語言2.2.2.1Transformer架構(gòu)Transformer架構(gòu)[2-1]是目前大語言模型采用的主流架構(gòu)[2-2],其基于自注意力機制(Self-attentionMechanism)模型。其主要思想是通過自注意力機制獲取輸入序列的全局信息,并將這些信息通過網(wǎng)絡(luò)層進行傳遞。標準的Transformer如圖表2-12所示,是一個編碼器-解碼器架構(gòu),其編碼器和解碼器均由一個編碼層和若干相同的Transformer模塊層堆疊組成,編碼器的Transformer模塊層包括多頭注意力層和全連接前饋網(wǎng)絡(luò)層,這兩部分通過殘差連接和層歸一化操作連接起來。與編碼器模塊相比,解碼器由于需要考慮編碼器輸出作為背景信息進行生成,其中每個Transformer層多了一個交叉科技突破:邁向通用人工智能的大模型群體注意力層。相比于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長短時記憶神經(jīng)網(wǎng)絡(luò)Transformer架構(gòu)包含編碼層與Transform編碼層,主要是將輸入詞序列映射到連續(xù)值向量空間進行編碼,每個詞編碼由詞嵌入和位置編碼構(gòu)成,由二者加和得到:1)詞嵌入,在Transformer架構(gòu)中,詞嵌入是輸入數(shù)據(jù)的第一步處理過程,它將詞映射到高維空間中的向量,可以捕獲詞匯的語義信息,如詞義和語法關(guān)系。每個詞都被轉(zhuǎn)化為一個固定長度的向量,2)位置編碼,由于自注意力機制本身對位置信息不敏感,為了讓模型能夠理解序列中的順序信息,引入了位置編碼。標準Transformer架構(gòu)的位置編碼方式是使用正弦和余弦函數(shù)Transformer模塊,通過自注意力機制獲取輸入序列的全局信息,并將這些信息通過網(wǎng)絡(luò)層進行傳遞,包括多頭注意力層和全連接前饋網(wǎng)絡(luò)層,這兩部分通過殘差連接和層歸一化操作連接起來,Transformer模塊,由自注意力層、全連接前饋層、殘差連接和層歸值矩陣,其中矩陣中的每一行對應(yīng)一個詞。注意力機制的計算方Attention)機制,即輸入序列被線性映射多次得到不同的投影矩陣。多個尺度化后點積注意力可以并行計算,并產(chǎn)生多個自注意力輸出。多頭注意力生成多個高維的注意力表示,這使得其比單頭注意力具有科技突破:邁向通用人工智能的大模型群體2)全連接前饋層,在注意力層之后的全連接前饋層由兩個線性變FFN(X)=O(XW+b,)W+b,FFN作用包括兩個方面:(1)非線性激活:在每個注意力模塊之后引入了非線性激活函數(shù),這有助于增強模型的表達能力2)信息整合:自注意力機制允許模型在不同的位置間建立聯(lián)系,而全連接前饋網(wǎng)絡(luò)則在每個位置獨立地對信息進行整合,這兩者結(jié)合起來,使得模型既能捕獲全局(長距離)的信息,又能在每個位置進行局部3)殘差連接和層歸一化,在每個注意力層和每個全連接前饋層之一化(LayerNormalization)技術(shù),這有助于在模型非常深時保留信息并確保模型性能。具體來說,對于某一層神經(jīng)網(wǎng)絡(luò)f(·),殘差連接和歸一化層定義為LayerNorm(x+f(x))在Transformer模型被提出之后,它也衍生出了相當一部分的變體,包括在編碼器和解碼器中出現(xiàn)了不同方式的注意力機制、歸一化2.2.2.2大語言模型典型架構(gòu)現(xiàn)有的大語言模型幾乎全部是以Transformer模型作為基礎(chǔ)架構(gòu)來構(gòu)建的,不過它們在所采用的具體結(jié)構(gòu)上通常存在差異。LLM根據(jù)架構(gòu)主要分為三類:1)自回歸語言模型,采用Transformer的編構(gòu),代表性模型BERT、RoBERTa等;3)序列到序列語言模型,采目前LLM在國際上也被認為是實現(xiàn)通用人工智能的“基礎(chǔ)模型”(FoundationModel在國內(nèi)也被稱為“大模型”。2022年底,對話、代碼生成等任務(wù),展現(xiàn)了強大的語言理解、多類型任務(wù)處理、認知交互能力,取得了巨大成功,標志AGI邁向了新的臺階。由于GPT-3、ChatGPT等的成功和展現(xiàn)的巨大潛力,使得自回歸語言模型科技突破:邁向通用人工智能的大模型群體大語言模型構(gòu)建的整體技術(shù)路線如圖表2-14所示依次包括數(shù)據(jù)準備、模型預(yù)訓(xùn)練、模型微調(diào)、適配部署、模型應(yīng)用等下面對大語言模型構(gòu)建中主要關(guān)鍵技術(shù)進行介紹,包括模型預(yù)訓(xùn)2.2.3.1大語言模型的高效預(yù)訓(xùn)練支撐大語言模型高效訓(xùn)練的技術(shù)主要包括高性能訓(xùn)練工具、高效預(yù)訓(xùn)練策略、高質(zhì)量訓(xùn)練數(shù)據(jù)、高效的模型架構(gòu)等。高性能訓(xùn)練工具,旨在通過對模型計算、顯存、內(nèi)存和通信使用的系統(tǒng)級優(yōu)化,提高訓(xùn)練吞吐量和加載更大模型到顯存中,實現(xiàn)在有限資源下大模型高效訓(xùn)練的目的。系統(tǒng)級優(yōu)化通常是與模型無關(guān)的,并且不會改變底層的學(xué)習算法,被廣泛應(yīng)用于各種大模型的模型。相關(guān)方法主要從兩個方向?qū)崿F(xiàn):一是設(shè)備內(nèi)優(yōu)化方法,包括降低浮點數(shù)的冗余表示的半精度浮點優(yōu)化、混合精度浮點優(yōu)化等方法,降低梯度計算中過程中冗余表示的梯度檢查點(Checkpointing)方法,以及內(nèi)存優(yōu)化的ZeRO-Offload方法,即通過將數(shù)據(jù)和計算從GPU卸載到CPU,以此減少神經(jīng)網(wǎng)絡(luò)訓(xùn)練期間GPU內(nèi)存占用的方法。二是多設(shè)備優(yōu)化方法,也稱分布式優(yōu)化,即分布在許多計算節(jié)點上的多個GPU一起用于訓(xùn)練單個模型,這類方法主要有數(shù)據(jù)并行、模型并行、流水線并行等方法。數(shù)據(jù)并行性,即當將一個大的批處理數(shù)據(jù)被劃分到不同的計算節(jié)點。模型并行性,即在進行模型并行性時,模型參數(shù)可以分布到多個節(jié)點上。流水線并行,它將一個深度神經(jīng)網(wǎng)絡(luò)劃分為多層,然后將不同的層放到不同的節(jié)點上,計算每個節(jié)點后,輸出被發(fā)送到下一個節(jié)點進行下一層計算。以上三種維度的并行優(yōu)化方法相互獨立,可以同時使用來加速模型訓(xùn)練?;谝陨戏椒?gòu)建的代表性的大模型訓(xùn)練工具,主要有微軟的DeepSpeed-Megatron、科技突破:邁向通用人工智能的大模型群體高效預(yù)訓(xùn)練策略。其主要思路是采用不同的策略以更低成本實現(xiàn)對大語言模型的預(yù)訓(xùn)練。一種是在預(yù)訓(xùn)練中設(shè)計高效的優(yōu)化任務(wù)目標,使得可以使得模型能夠利用每個樣本更多的監(jiān)督信息,從而實現(xiàn)模型以解決在預(yù)訓(xùn)練中單純增加批處理大小可能會導(dǎo)致優(yōu)化困難問題。第三種是漸進式訓(xùn)練策略,不同于傳統(tǒng)的訓(xùn)練范式使用相同的超參數(shù)同時優(yōu)化模型每一層,該方法認為不同的層可以共享相似的自注意力模式,首先訓(xùn)練淺層模型,然后復(fù)制構(gòu)建深層模型。第四種是知識繼承方法,即在模型訓(xùn)練中同時學(xué)習文本和已經(jīng)預(yù)訓(xùn)練大語言模型中的知繼承技術(shù)經(jīng)測試可以使大模型在預(yù)訓(xùn)練前期提速37.5%。第五種是可預(yù)測擴展策略(PredictableScaling)[2-7],旨在大模型訓(xùn)練初期,利用大模型和小模型的同源性關(guān)系,通過擬合系列較小模型的性能曲線預(yù)測大模型性能,指導(dǎo)大模型訓(xùn)練優(yōu)化。OpenAI在GPT-4訓(xùn)練中,使用1000倍至10000倍較少計算資源訓(xùn)練的小模型可靠地預(yù)測高效的模型架構(gòu):BERT之后的Transformer架構(gòu)在提高自然語言處理效率方面有兩個重要優(yōu)化方向1)統(tǒng)一的序列建模,旨在將多種自然語言處理任務(wù)(如分類、信息抽取、翻譯、對話等)整合到一個統(tǒng)一的框架,然后在同一模型中執(zhí)行多個任務(wù),以實現(xiàn)更高效的自然語言處理。該方法可以充分利用大規(guī)模訓(xùn)練數(shù)據(jù),從而提高了模型在多個任務(wù)上的性能和泛化性。這減少了開發(fā)和維護多個單獨模型的復(fù)雜性以及資源消耗,提高模型的通用性。統(tǒng)一任務(wù)序列建模有兩種方式:一是轉(zhuǎn)化為序列生成的統(tǒng)一任務(wù),如T5[2-10]和BART[2-9]等將多種自然語言任務(wù)統(tǒng)一轉(zhuǎn)化文本到文本的生成任務(wù);二是轉(zhuǎn)化為大語言模型預(yù)訓(xùn)練任務(wù),通過語言提示在輸入文本中插入人類設(shè)計或者自動生成的上下文,實現(xiàn)對不同任務(wù)的處理。(2)計算高效的模型訓(xùn)練穩(wěn)定性、顯存利用等方面進行優(yōu)化。比如,Transformer其并行處理機制是以低效推理為代價的,解碼時每個步驟的復(fù)雜度為O(N),Transformer模型也是顯存密集型模型,輸入序列越長、占用的內(nèi)存其采用線性化注意力+尺度保持(Retention)機制,在基本保持模型性能的基礎(chǔ)上同時實現(xiàn)模型訓(xùn)練速度、推斷速度和內(nèi)存節(jié)約的大幅提升。針對自注意力顯存消耗大,斯坦福大學(xué)在Transformer中引內(nèi)存高效的注意力算法,已經(jīng)被各種主流大模型采用以擴展對超長文本輸入的支持。最近,模塊化大模型架構(gòu)引起廣泛關(guān)注,其利用大模型的神經(jīng)激活稀疏性,對稠密模型進行模塊化劃分,不同任務(wù)科技突破:邁向通用人工智能的大模型群體只經(jīng)過部分模塊計算實現(xiàn)訓(xùn)練和推理加速,典型工作包括Google的2.2.3.2大語言模型的適配微調(diào)大語言模型由于在大規(guī)模通用領(lǐng)域數(shù)據(jù)預(yù)訓(xùn)練通常缺乏對特定任務(wù)或領(lǐng)域的知識,因此需要適配微調(diào)。微調(diào)可以幫助模型更好地適應(yīng)此外,微調(diào)可以提高部署效率、減少計算資源需求。指令微調(diào)和參數(shù)指令微調(diào)(InstructionTuning)[2-19],是一種可以幫助大語言模型實現(xiàn)人類語言指令遵循的能力,在零樣本設(shè)置中泛化到未見任務(wù)上的學(xué)習方法。指令微調(diào)學(xué)習形式與多任務(wù)提示微調(diào)相似,但與提示微調(diào)讓提示適應(yīng)大語言模型并且讓下游任務(wù)對齊預(yù)訓(xùn)練任務(wù)不同,其是讓大語言模型對齊理解人類指令并按照指令要求完成任務(wù),即在給定指令提示的情況下給出特定的回應(yīng),其中提示可以選擇性包含一條解釋任務(wù)的指令。指令微調(diào)研究涉及指令理解、指令數(shù)據(jù)獲取和指令(1)指令理解,指大語言模型準確理解人類語言指令的能力,是大語言模型執(zhí)行指令完成任務(wù)的前提。為了增強對指令的理解,許多工作采用多任務(wù)提示方式對基于指令描述的大量任務(wù)集上對大語言模型進行微調(diào),如FLAN[2-20]、InstructGPT[2-19]等,這些模型在(2)指令數(shù)據(jù)獲取,指如何構(gòu)建包含多樣性的任務(wù)指令數(shù)據(jù)。指令數(shù)據(jù)構(gòu)建常見有三種方式:i)基于公開人工標注數(shù)據(jù)構(gòu)建,代表指生成構(gòu)建,如UnnaturalInstructions[2-23],通過種子指令作讓大語言模型生成新的指令描述和問題,然后再輸入到模型讓其輸出回答。清華大學(xué)&面壁智能團隊推出的對話指令數(shù)據(jù)集UltraChat,通過調(diào)用多個ChatGPTAPI相互對話生成高質(zhì)量的訓(xùn)練數(shù)據(jù)。此外,還通過自動標注的方法構(gòu)建了面向大模型對齊的大規(guī)模反饋數(shù)科技突破:邁向通用人工智能的大模型群體(3)指令對齊,大語言模型在多種自然語言處理任務(wù)上都展現(xiàn)了卓越的性能。然而,它們有時可能會出現(xiàn)不預(yù)期的行為,如創(chuàng)造虛大語言模型在預(yù)訓(xùn)練時僅通過語言模型建模,未涉及人類的價值觀或偏好。為了解決這一問題,研究者提出了“指令對齊”,使大語言模型的輸出更符合人類的預(yù)期。但這種對齊與原始預(yù)訓(xùn)練有所不同,更注重于有用性、誠實性和無害性。此外,指令對齊可能會降低大語言模型的某些通用能力,這被稱為“AlignmentTax”。為實現(xiàn)模型輸出與對人類價值的對齊,InstructGPT提出了一種基于人類反饋的微ChatGPT也采用了與InstructGPT相似的技術(shù),以確保產(chǎn)生高質(zhì)量且無害的輸出。指令對齊的廣泛應(yīng)用,適配微調(diào)從純數(shù)據(jù)學(xué)習的傳統(tǒng)微參數(shù)高效微調(diào)(Parameter-EfficientTuning)。早代表的微調(diào)方法,是在大模型基座上增加一個任務(wù)適配層,然后進行預(yù)訓(xùn)練和微調(diào)之間的任務(wù)形式不一致,這種差別會顯著影響知識遷移的效能。二是高計算成本,大語言模型的參數(shù)規(guī)模不斷增長,導(dǎo)致模型全參微調(diào)也需要大量計算資源。解決以上問題的有效途徑是參數(shù)高效學(xué)習,即通過僅微調(diào)少量參數(shù)實現(xiàn)大模型在下游任務(wù)上獲得全參微調(diào)效果。目前許多參數(shù)高效微調(diào)方法被提出,這些方法大致可分為3并僅微調(diào)該引入部分的參數(shù)。如適配器(Adapter)方法,旨將小規(guī)模的神經(jīng)模塊(適配器)注入到預(yù)訓(xùn)練模型中,并只調(diào)整這些適配器以進行模型自適應(yīng)。在實際應(yīng)用中,適配器模塊通常分別插入在多頭旨在原模型指定模型中部分參數(shù)為可訓(xùn)練參數(shù),并固定模型其他參數(shù)。這類方法簡單也十分有效,如僅通過優(yōu)化模型內(nèi)的偏置項并固定其他參數(shù),模型仍然可以再現(xiàn)95%以上的模型全參微調(diào)性能3)重參數(shù)化方法:將原模型或部分模型參數(shù)重參數(shù)化到低維度參數(shù)空間中,僅僅優(yōu)化低維空間中的近似參數(shù),顯著降低模型的計算量和內(nèi)存消耗。如LoRA[2-24],將模型自注意力模塊的變化權(quán)重參數(shù)分解為兩個低秩矩陣相乘,即W-M+AW-M+MomM參數(shù)高效微調(diào)通常具有微調(diào)參數(shù)規(guī)模小、增量式微調(diào)參數(shù)、即插即用等特點,這種技術(shù)也統(tǒng)一成技術(shù)框架DeltaTuning[2-3]??萍纪黄疲哼~向通用人工智能的大模型群體一些圍繞參數(shù)高效微調(diào)的開源工具也被研發(fā),代表性包括調(diào)參數(shù)可以被重復(fù)利用,一些關(guān)于高效微調(diào)的倉庫也被構(gòu)建,如高效微調(diào)吸引了越來越多的關(guān)注,以開發(fā)一種更輕量級的下游任務(wù)適通過大規(guī)模文本數(shù)據(jù)預(yù)訓(xùn)練之后的大語言模型具備了作為通用任務(wù)求解器的潛在能力,但這些能力在執(zhí)行一些特定任務(wù)時可能不會顯式地展示出來。在大模型輸入中設(shè)計合適的語言指令提示有助于激發(fā)這些能力,該技術(shù)稱為模型提示技術(shù)。代表性的提示技術(shù)有指令提示在GPT-3[2-6]中首次提出上下能夠達到人類水平,證明在低資源場景下非常有效,引起廣泛關(guān)注。指令提示核心思想是w避免強制大語言模型適應(yīng)下游任務(wù),而是通過提供“提示(Prompt)”來給數(shù)據(jù)嵌入額外的上下文以重新組織下游任務(wù),使之看起來更像是在大語言模型預(yù)訓(xùn)練過程中解決的問題[2-28]。指令提示有三種形式1)少樣本提示,是指在一個自然語言提示后面附加一些示例數(shù)據(jù),作為大語言模型的輸入。其可以提高大語言模型在不同領(lǐng)域和任務(wù)上的適應(yīng)性和穩(wěn)定性。少樣本提示也存在一些挑戰(zhàn),例如如何確定合適的示例數(shù)量、如何選擇示例等2)零樣本提示,是指不使用任何示例數(shù)據(jù),只依靠一個精心設(shè)計的提示來激活大語言模型中與目標任務(wù)相關(guān)的知識和能力。零樣本提示關(guān)鍵問題包括如何設(shè)計合適的提示、如何選擇最優(yōu)的提示等;(3)上下文學(xué)習(In-contextLearning,ICL也稱情境學(xué)習,是指將一個自然語言問題作為大語言模型的輸入,并將其答案作為輸出[學(xué)習可以看作是一種特殊形式的少樣本提示,在問題中隱含地包含了目標任務(wù)和格式信息。情境學(xué)習可以簡化問題表示和答案生成,并且可以靈活地處理多種類型和復(fù)雜度的問題。其挑戰(zhàn)在于,如何確保問科技突破:邁向通用人工智能的大模型群體及多個推論步驟,通過多步推理允許產(chǎn)生可驗證的輸出,可以提高黑盒模型的可解釋性。思維鏈是一種提示技術(shù),已被廣泛用于激發(fā)大語言模型的多步推理能力,被鼓勵大語言模型生成解決問題的中間推理鏈,類似于人類使用深思熟慮的過程來執(zhí)行復(fù)雜的任務(wù)。在思維鏈提示中,中間自然語言推理步驟的例子取代了少樣本提示中的〈輸入,輸出〉對,形成了〈輸入,思維鏈,輸出〉三元組結(jié)構(gòu)。思維鏈被認為是大語言模型的“涌現(xiàn)能力”,通常只有模型參數(shù)規(guī)模增大到一定程度后,才具有采用思維鏈能力。激活大語言模型的思維鏈能力方法,在提示中給出逐步的推理演示作為推理的條件,每個演示都包含一個問題和一個通向最終答案的推理鏈(圖表2-19)。CoT在推理過程中從左到右的token級決策,一般不擅長對需要探索、策略性預(yù)見、推理存在結(jié)構(gòu)關(guān)系的任務(wù),思維樹(TreeofThought,ToT)和思維圖2.2.3.4大語言模型的安全治理如歧視言論、辱罵、違背倫理道德的內(nèi)容等,這種潛在的安全風險普遍存在于文本、圖像、語音和視頻等諸多應(yīng)用場景中,并會隨著模型的大規(guī)模部署帶來日益嚴重的安全隱患。目前大模型衍生出內(nèi)容安全、隱私安全、政治安全、軟硬件安全等諸多安全風險問題。2023年5月,三星半導(dǎo)體工程師使用ChatGPT參與修復(fù)源代碼時發(fā)生無意間泄密芯片機密代碼的重大事故。大模型容易受到攻擊,人們發(fā)現(xiàn)對ChatGPT進行提示注入,誘導(dǎo)可以輸出Windows11的序列號。大模型存在嚴重的“幻覺”問題,模型在輸出中生成生成錯誤、編造虛假國際和各國紛紛出臺各種政策法規(guī)以規(guī)范化大模型發(fā)展。2023年3月,美國白宮科技政策辦公室發(fā)布《促進隱私保護數(shù)據(jù)共享和分析的國家戰(zhàn)略》。該策略旨在保障公共和私營部門實體中用戶的數(shù)據(jù)隱私,同時確保數(shù)據(jù)使用的公平性和最大的效率。202會(EuropeanParliament)通過《人工智能法案》草案,旨在為人工智能引入統(tǒng)一的監(jiān)管和法律框架,并涵蓋了除軍事用途外的所有人工智能類型。2023年7月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》,對生成式人工智能服務(wù)在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中進行安全規(guī)范。包括語料安全、模型安全、安全措施、安全評估等??萍纪黄疲哼~向通用人工智能的大模型群體包括后門攻擊、對抗攻擊、提示注入等問題;用戶層,包括隱私泄露、知識版權(quán)等問題;應(yīng)用層,包括低可靠、低可信度、不可解釋等問題;社會層,包括價值對齊、虛假信息、意識形態(tài)等問題。安全數(shù)據(jù)構(gòu)建。訓(xùn)練數(shù)據(jù)的安全性是構(gòu)建安全大模型的基石。訓(xùn)練數(shù)據(jù)安全性是指數(shù)據(jù)集的來源和質(zhì)量都是可靠的,數(shù)據(jù)中蘊含的知識是準確的,數(shù)據(jù)集內(nèi)容符合主流價值觀。方法包括:1)確保訓(xùn)練數(shù)據(jù)來自可信的、可靠的來源。數(shù)據(jù)應(yīng)該從權(quán)威機構(gòu)、專業(yè)組織、可驗證的數(shù)據(jù)倉庫或其他公認的數(shù)據(jù)提供者獲得。在數(shù)據(jù)標注時,確保標注的準確性和一致性。標注過程應(yīng)該由經(jīng)過培訓(xùn)的專業(yè)人員進行,并且需要進行驗證和審核,以確保標注的正確性。此外,需要進行數(shù)在大模型中,保護數(shù)據(jù)的敏感信息是至關(guān)重要的,特別是當模型需要處理涉及個人隱私、敏感信息或商業(yè)機密等敏感數(shù)據(jù)時。數(shù)據(jù)的敏感信息去除是一種隱私保護措施,旨在確保數(shù)據(jù)在訓(xùn)練過程中不會泄露通過構(gòu)建有害關(guān)鍵詞庫、人工規(guī)則、安全分類模型等,對數(shù)據(jù)涉及安全風險類型數(shù)據(jù)進行過濾清洗。2023年10月,國家網(wǎng)信辦《生成式人工智能服務(wù)安全基本要求》(征求意見稿)中對語料及生成內(nèi)容的主要安全風險進行了分類,包括包含違反社會主義核心價值觀的內(nèi)容、包含歧視性內(nèi)容、商業(yè)違法違規(guī)、侵犯他人合法權(quán)益、無法滿足特定模型安全對齊。為了訓(xùn)練有用、誠實和無害的人工智能系統(tǒng),使用人類反饋的強化學(xué)習技術(shù)(RLHF)實現(xiàn)大模型與人類偏好的安科技突破:邁向通用人工智能的大模型群體全對齊。讓模型的輸出與人類價值觀盡可能一致,提高其有用性、真實性和無害性。RLHF訓(xùn)練過程包括指令微調(diào)、獎勵模型訓(xùn)練和對齊優(yōu)化三個階段。指令微調(diào)階段,也稱有監(jiān)督微調(diào),旨在優(yōu)化大模型,使其能夠理解用戶的指令;獎勵模型訓(xùn)練階段中,人類對模型生成的多條不同回復(fù)進行評估,這些回復(fù)兩兩組合,由人類確定哪條更優(yōu),生成的人類偏好標簽使獎勵模型能學(xué)習并擬合人類的偏好。在對齊優(yōu)化階段,獎勵模型根據(jù)生成回復(fù)的質(zhì)量計算獎勵,這個獎勵作為強化學(xué)習框架中的反饋,并用于更新當前策略的模型參數(shù),從而讓模型的輸出更符合人類的期望。這一階段體現(xiàn)了人類價值觀和模型技術(shù)邏輯的深度交融,通過人類反饋調(diào)整模型的產(chǎn)出、優(yōu)化模型的生成策略,使其更好地反映人類價值觀。基于人類反饋的安全對齊技術(shù)已逐漸成為當下大模型安全研究的主流技術(shù)。除了OpenAI,DeepMind的Sparrow、Anthropic的Claude模型等國外大模型,以及國內(nèi)代表模型幻覺治理。大模型生成內(nèi)容存在嚴重的“幻覺”問題,容易生成錯誤、虛假信息,尤其對于事實知識性問題。該問題對于相關(guān)知識學(xué)習缺乏越嚴重領(lǐng)域該問題越嚴重。目前降低大模型幻覺的方法主要有:1)外接知識庫,即讓大模型在回答問題時,能夠通過調(diào)用網(wǎng)頁搜索引擎或本地知識庫檢索,獲取缺乏的相關(guān)背景知識作為上下文,再進行回答,并且在回答內(nèi)容中提供內(nèi)容原始來源,提升大模型調(diào)用網(wǎng)頁搜索引擎獲取互聯(lián)網(wǎng)信息回答用戶問題,并在回答中提供鏈接;2)分多步推理并展示推理過程,即將復(fù)雜任務(wù)問題通過思維鏈技術(shù)拆解成多步執(zhí)行,將中間狀態(tài)輸出展示給用戶;3)自定義工作流Workflow,比如對中間任務(wù)需要嚴格執(zhí)行的過程通過預(yù)定義工提升中間內(nèi)容的精準性和可控性,如COZE、靈境矩陣等智能體生產(chǎn)平臺;3)工具調(diào)用,對于專業(yè)技能問題如數(shù)值計算、軟件編程、數(shù)彌補大模型專業(yè)技能的缺失,代表性工作包括ChatGPTPlugins、文心一言插件功能、工具學(xué)習技術(shù)框架ToolLLM等;4)人機交互,在大模型運行期間增加大模型與人類交互,對大模型不確定性的任務(wù)獲取人類反饋后執(zhí)行,代表性工作如超級智能體XAgent;5)大模型持續(xù)學(xué)習,讓大模型持續(xù)學(xué)習更多的訓(xùn)練數(shù)據(jù),提升大模型知識覆蓋度。模型對抗防御[2-56]。大語言模型在受到提示注入攻擊、模型科技突破:邁向通用人工智能的大模型群體輸入擾動、模型參數(shù)修改等方式使得模型正常服務(wù)。1)提示注入攻擊,即使用精心設(shè)計的提示誘導(dǎo)模型輸出違反其安全規(guī)則的答案。如在NewBing的聊天搜索引擎剛推出時,斯坦福大學(xué)學(xué)生KevinLiu成功地對其進行了提示注入攻擊,他發(fā)現(xiàn)聊天機器人的內(nèi)部代號是冊碼。2)模型輸入擾動,如在模型輸入中拼接部分其他字符可形成對抗樣本,既可以讓ChatGPT輸出失敗。3)模型參數(shù)修改,復(fù)旦大總參數(shù)的1%。該核心區(qū)域表現(xiàn)出顯著的維度依賴性,即使特定維度上的單個參數(shù)的擾動也可能導(dǎo)致語言能力的喪失。大模型安全防御技術(shù)可分為兩大類:提示注入防御和輸出內(nèi)容水印技術(shù)。1)提示注入防御技術(shù)主要包括輸入側(cè)防御和輸出側(cè)防御。輸入側(cè)防御通過提示過濾,檢測并過濾可能含風險的用戶輸入,如注入攻擊或敏感內(nèi)容,以防止這些輸入與大語言模型或相關(guān)軟件交互。提示增強技術(shù)則通過構(gòu)建更魯棒的提示來抵抗注入攻擊,利用大語言模型的理解能力進行“自我增強”,在提示詞中加入任務(wù)內(nèi)容和用戶輸入內(nèi)容的強調(diào),提高系統(tǒng)提示的精確度。提示增強分為語義增強和結(jié)構(gòu)增強。而輸出側(cè)防御則采用內(nèi)容審核過濾方法,通過規(guī)則或模型識別,避免輸出風險內(nèi)容,保障內(nèi)容安全。2)輸出內(nèi)容水印,包括明水印和隱水印,用于保護知識版權(quán)和防止模型輸出被惡意使用。這些水印技術(shù)在模型服務(wù)界面上標記內(nèi)容來源,以提示和追蹤目的,防止內(nèi)容惡意傳播。例如,馬里蘭大學(xué)提出在模型解碼階段加入水印,通過特定算法檢測文本水印以確定來源;騰訊則提出可編碼水印技術(shù)。盡管這些方法在實驗中有效,但在實際應(yīng)用中的辨識率尚不能完全保模型安全評測。隨著大模型能力的不斷增長,確保其安全、可靠和符合倫理標準的運行變得至關(guān)重要。大模型的安全評估不僅為開發(fā)人員、政策制定者和其他利益相關(guān)者提供了關(guān)于模型性能和風險的深入了解,而且有助于整個社會創(chuàng)造了一個更加安全、透明和可信賴的型的內(nèi)容安全性評測平臺[2-48]。該平臺依托于一套系統(tǒng)的安全評測框架,從辱罵仇恨、偏見歧視、違法犯罪等8個典型安全場景和6種指令攻擊兩個角度綜合評估大語言模型的安全性能。其中,指令攻擊模型進行了安全評估,并發(fā)現(xiàn)指令攻擊更有可能暴露所有模型的安全多大學(xué)及牛津大學(xué)等科研機構(gòu)和高校,提出一個針對新型威脅評估通用模型的框架,將大模型安全評估分為兩類:①評估模型是否具有某科技突破:邁向通用人工智能的大模型群體些危險的能力;②判斷模型多大程度上可能使用這些能力造成傷害。該框架指出大模型的極端風險評估將成為安全人工智能研發(fā)的重要組成部分,安全評估應(yīng)涵蓋特定領(lǐng)域的風險水平以及特定模型的潛在風險屬性。評估結(jié)果可以幫助開發(fā)者識別可能導(dǎo)致極端風險的考慮到越來越多的大模型被訓(xùn)練應(yīng)用于真實世界的交互任務(wù),2023年衡量大模型在各種社會決策場景中的能力和道德行為。該項評估主要成,在評估中為大模型代理提供真實世界的目標,并通過專注于高層次的決策來追蹤代理的不道德行為,以評估其在現(xiàn)實社會環(huán)境中的規(guī)回歸架構(gòu)的生成式模型框架,在此基礎(chǔ)研發(fā)了系列大模型GPT-1、ChatGPT,基礎(chǔ)模型參數(shù)20B,采用InstructGPT技術(shù),即預(yù)訓(xùn)練+科技突破:邁向通用人工智能的大模型群體編程coding、寫作等各種任務(wù);2023年3月GPT-4,是一種支文跨模態(tài)輸入的多模態(tài)大模型,在推理方面的能力比ChatGPT更強,同時也減少了幻象的產(chǎn)生,能夠更準確地理解和回應(yīng)復(fù)雜的問題,從大語言模型,2023年3月發(fā)布大語言模型產(chǎn)品Claude-1,7月更新至Claude-2。該系列模型通過預(yù)訓(xùn)練、RLHF和“憲法人工智能一家AI安全和研究公司,愿景是構(gòu)建可靠的、可解釋的和可操控的·文心一言:文心一言由百度公司研發(fā),是基于百度知識增強大文心一言率先向全社會全面開放,提供APP、網(wǎng)頁版、API接口等多槳”深度學(xué)習框架進行訓(xùn)練。文心一言還建設(shè)了插件機制,通過外部工具、服務(wù)的調(diào)用,拓展大模型的能力的邊界。公眾號、APP同時上線,國內(nèi)首批上線的大模型產(chǎn)品。大模型對華為基礎(chǔ)上構(gòu)建的智能對話助手,由清華系百川智能公司開發(fā),2023年9月在網(wǎng)頁端、公眾號同時上線,其基礎(chǔ)大模型采用Transformer解碼器架構(gòu)。Baichuan2-53B融合了意圖理解、信息檢索以及強化學(xué)習技術(shù),結(jié)合有監(jiān)督微調(diào)與人類意圖對齊,在知識問答、文本創(chuàng)作領(lǐng)域表以GPT-4為代表的大語言模型,展現(xiàn)了復(fù)雜指令遵循、思維鏈推理和認知交互能力,催生了AIAgent領(lǐng)域的研究和應(yīng)用熱潮。AIAgent的進步不僅僅體現(xiàn)在技術(shù)層面,它也在重塑我們與計算機系統(tǒng)的互動方式,影響著社會、經(jīng)濟和文化的各個方面。本節(jié)介紹AI科技突破:邁向通用人工智能的大模型群體AIAgent,或稱人工智能體,是一種能夠感知環(huán)境、進行決策、執(zhí)行動作完成既定目標的智能實體。不同于傳統(tǒng)的人工智能,AIAgent具備通過獨立思考、調(diào)用工具或使用技能去逐步完成給定目標的能力。AIAgent和大模型的區(qū)別在于,大模型與人類之間的交互是基于提示(Prompt)實現(xiàn)的,用戶提示是否清晰明確會影響大模型回大語言模型作為目前AIAgent的核心,以巨大參數(shù)規(guī)模捕捉復(fù)雜語言結(jié)構(gòu),實現(xiàn)上下文理解和連貫文本輸出。這一“能力涌現(xiàn)”現(xiàn)象體現(xiàn)在大模型能進行高級認知任務(wù),如抽象思考和創(chuàng)造性寫作。AIAgent不僅理解和生成語言,還整合規(guī)劃、記憶、工具使用能力,擴在人工智能領(lǐng)域,AIAgent可以根據(jù)其運作模式和應(yīng)用范圍被劃運作,完成特定任務(wù)的智能體。這類Agent擁有獨立的決策能力,能夠基于輸入的數(shù)據(jù)或觀察到的環(huán)境自行做出響應(yīng)。它們通常被設(shè)計用于特定的應(yīng)用場景,例如個人助理、智能推薦系統(tǒng)或特定領(lǐng)域的問題解答。自主型Agent的核心特點是能夠在沒有外部指令或者很少人工干預(yù)的情況下,完成復(fù)雜的任務(wù)。代表性Agent為AutoGPT、2)協(xié)同型AIAgent則是指在一個系統(tǒng)中多個智能體協(xié)同工作,共同完成任務(wù)的情形。這類Agent的的能力可能有限,但當它們作為一個集體工作時,能夠處理更為復(fù)雜、多樣的任務(wù)。協(xié)同型Agent在處理需要多方面協(xié)作和信息共享的任務(wù)時表現(xiàn)尤為出色,如多Agent系統(tǒng)在自動化工廠、交通管理等領(lǐng)在實際應(yīng)用中,這兩種類型的Agent都在不斷發(fā)展和完善,以適應(yīng)日益復(fù)雜和多樣化的應(yīng)用需求。隨著技術(shù)的進步,兩者之間的界限也在逐漸模糊,例如某些系統(tǒng)可能同時采用自主型和協(xié)同型Agent來AIAgent根據(jù)其人工智能水平可以大致四級,可以從感知能力、科技突破:邁向通用人工智能的大模型群體L1(部分自動感知,處理單一模態(tài)下的相對簡應(yīng)用于簡單場利用大量人類監(jiān)督信號獲得的一定程度的理解語言、利用語言人少量的常見標準工具的調(diào)用,簡單的工具調(diào)用邏靜態(tài)地執(zhí)行特定的、預(yù)定義的任務(wù)。涉及少量的、簡單串并聯(lián)L2(有條件自多模態(tài)感知能力,能處理更廣更長尾、更復(fù)雜全面的認知能力,包含記憶能高度智能的對話能力、內(nèi)容生成可使用的工具數(shù)量、類型、實現(xiàn)的業(yè)務(wù)邏輯的復(fù)雜度得到極大提以業(yè)務(wù)流程達到動化為目標,可以規(guī)劃和編排大量流程節(jié)點和復(fù)L3(高度自動綜合利用認知能力,環(huán)境交互結(jié)果,在少量人類干預(yù)下獲得超高通過綜合利用環(huán)境知識、人類少達到高精度的認在人類少量干預(yù)下,可以實現(xiàn)絕能夠主動洞察問題域和求解域的環(huán)境變化,實現(xiàn)業(yè)務(wù)流程的靈活適應(yīng)和編排,環(huán)L4(完全自動在無人工干預(yù)下智能體自主進化獲得超高精度的主學(xué)習提升認知能自動學(xué)習工具使用的方式、實現(xiàn)100%的自動化調(diào)用工具的能能利用過程反難例挖掘等高度智能化的決策機制,自主提升規(guī)·L1級別:這是智能體的早期形態(tài),通過整合傳統(tǒng)的視覺能力、語義理解能力、RPA流程自動化能力,完全由領(lǐng)域?qū)<襾韺崿F(xiàn)既定業(yè)務(wù)流程的定義和編排以解決單點的、簡單明確的任務(wù)。代表性的智能體包括以UiPath為代表的傳統(tǒng)RPA機器人、NICE的桌面機器人這種高昂的教育成本會一定程度上限制智能體的普及。·L3級別:在這個級別上,智能體可以有效洞察問題域的環(huán)境變化,然后主動利用求解域中人類碎片化的歷史經(jīng)驗、監(jiān)督信號,智能化地探索、理解、學(xué)習問題解決的方法,達到“滄海拾貝”、“睹微而且可以得到更高的任務(wù)完成率、準確率。L3智能體的“高精度”、“少干預(yù)“、”快適應(yīng)“的特性使其在市場需求和技術(shù)演進高度動態(tài)·L4級別:這是最高級別,智能體具備自學(xué)習和自組織的能力,該級別基本代表了通用人工智能AGI和類人智能,對應(yīng)自動駕駛自動化水平的高度的完全自動化(L5)級別。目前還處于初步探索階段,具有潛力的智能體工作如OpenAI的Q*項目、大模型群體智能技術(shù)科技突破:邁向通用人工智能的大模型群體1980年代已在人工智能領(lǐng)域有了研究,其發(fā)展演進與人工智能技術(shù)演1)基于符號規(guī)則的智能體階段(1980年前后采用邏輯規(guī)則和符號表示來封裝知識和促進推理過程。早期符號型智能體的典型例能體其環(huán)境之間的交互,強調(diào)快速和實時響應(yīng),缺乏復(fù)雜決策和規(guī)劃能力,該階段采用統(tǒng)計學(xué)習模型基于數(shù)據(jù)和環(huán)境交互進行學(xué)習。該階段的典型例子如麻省理工大學(xué)的行為基礎(chǔ)機器人Genghis,它們通過簡單的感知和動作規(guī)則與環(huán)境交互,而不是通過復(fù)雜的模型和規(guī)劃。3)基于深度學(xué)習的智能體階段(~2000-2020年):采用深度學(xué)習模型作為智能體控制模型,通過智能體與環(huán)境交互獲得反饋優(yōu)化深度學(xué)習模型實現(xiàn)對復(fù)雜環(huán)境適應(yīng)。2014年由DeepMind推出的引發(fā)全球熱議的圍棋機器人AlphaGo,其采用強化學(xué)習方法訓(xùn)練深度學(xué)習模型。與之類似的還有2017年OpenAI推出的用于玩《Dota2》AlphaStar等,這些AI都能根據(jù)對實時接收到的信息的分析來安排和規(guī)劃下一步的操作,均采用了強化學(xué)習的方法構(gòu)建。當時的業(yè)界潮流是通過強化學(xué)習的方法來對AIAgent進行訓(xùn)練,主戲這類具有對抗性、有明顯輸贏雙方的場景中。但如果想要在真實世界中實現(xiàn)通用性,基于當時的技術(shù)水平還難以實現(xiàn)。4)基于大模型的智能體階段(2021-2023年以及之后2021同時展現(xiàn)了大模型的認知交互能力。2022年底ChatGPT展現(xiàn)了大語言模型強大的語義理解和通用任務(wù)處理能力,讓人們看到了構(gòu)建AIOpenAI推出智能體構(gòu)建平臺GPTs、游戲公司SignificantGravitas,,用LLM作為智能體的大腦,通過感知、規(guī)劃、工具使用、記憶等實現(xiàn)復(fù)雜任務(wù)處理。AIAgent成功為群體智能構(gòu)建提供了有力支撐,多個AIAgent之間可以通過協(xié)同互補,完成超越單智能體的更高階的復(fù)雜科技突破:邁向通用人工智能的大模型群體AIAgent成為目前各大科技巨頭布局的新風口。比如微軟推出界》,阿里云ModelScopeGPT、斯坦福與谷歌聯(lián)合搭建的虛擬小鎮(zhèn)Smallville等等,同時,OpenAI也已然奔赴至Agents,在開發(fā)者大被認為是大語言模型的下半場。微軟公司創(chuàng)始人比爾·蓋茨在其個人網(wǎng)站撰文,闡述智能體技術(shù)將在未來數(shù)年中變革計算機使用模式。從大模型“單體智能”到大模型“智能群體化”,再到千行百業(yè)。隨著基礎(chǔ)模型能力的不斷加強,以及在應(yīng)用場景的深入探索,大模型主要基于OpenAIGPT-4實現(xiàn),大模型的復(fù)雜指令遵循、規(guī)劃、思維鏈推理、長期記憶等能力是AIAgen2)Agent標準和規(guī)范缺乏:目機構(gòu)和公司推出自己的大模型、Agent、工具鏈等,缺乏統(tǒng)一的接口確保其安全性和可靠性變得尤為重要。這包括保護系統(tǒng)免受外部攻擊、科技突破:邁向通用人工智能的大模型群體以及在多變環(huán)境中的穩(wěn)定運行。安全管理不僅關(guān)系到技術(shù)的穩(wěn)定性和4)多模態(tài)感知與交互能力不足:人類通過多模態(tài)方式感知世界,而當前的AIAgent主要依賴于文理能力還需要進一步發(fā)展。這意味著AIAgent在模擬方式方面還有很大的進步空間,尤其是在多模態(tài)數(shù)據(jù)處理和解釋上。5)社會化能力與倫理問題:目前AIAgent在社會行為、人格特征以及認知、情感和性格模擬方面還處于起步階段。隨著技術(shù)的發(fā)展,更多的倫理和社會學(xué)問題將浮現(xiàn),如虛擬人與社會人的關(guān)系,以及在擬人個性化對話場景中的安全性和可信度問題。這些挑戰(zhàn)涉及到倫理、社會學(xué)和經(jīng)濟學(xué)領(lǐng)域,需要跨學(xué)科的合作和研究。6)智能體部署成本高:目前AIAgent性能仍然依賴于大模型,但大模型API調(diào)用成本高昂,難以支持大規(guī)模商業(yè)化部署,需要小模7)擬人化單體智能:擬人化單體智能具備6大典型特性:構(gòu)建具德/價值取向/安全等)、成長性(進化、自適應(yīng)和自學(xué)習)等特性的智能體,可以適應(yīng)更復(fù)雜的場景應(yīng)用,具有重要市場應(yīng)用前景,目在以大模型為核心的自主智能體系統(tǒng)中,除了大模型作為核心科技突破:邁向通用人工智能的大模型群體1)規(guī)劃(Planning):為了完成復(fù)雜任務(wù),智能體需要將該任務(wù)分解成更小、可管理的子目標,以高效處理復(fù)雜任務(wù)。同時還需要對自身過去的行為進行批評和反思,從錯誤中學(xué)習并改進,為未來步一步步達成目標。在這一環(huán)節(jié)中,執(zhí)行工具是一種十分重要的執(zhí)行能3)感知(PerceptionAIAgent需要擴展自身的感知范圍,除了文字還需要理解圖像、音頻等信息。這種擴展的感知范圍幫助智):如何更好地利用歷史信息,所以需要構(gòu)建起一個記憶機制對信息進行高效管理與利用。這通常包含兩個部分:短期記憶——暫時存儲和處理當前的輸入信息,幫助進行任務(wù)執(zhí)行和問題求解。這種記憶形式有助于AIAgent在處理語言、理互時更加高效;長期記憶——這使得智能體具備在較長時間內(nèi)保留和回溯信息的能力,通常通過外部向量存儲和快速檢索實現(xiàn)。5)工具使用(ToolUse):Agent學(xué)習調(diào)用外部應(yīng)用程序的API,以獲取模型訓(xùn)練數(shù)據(jù)權(quán)重中缺失的“額外信息”(任務(wù)相關(guān),預(yù)訓(xùn)練后通常難以更改包含當前信息、代碼執(zhí)行能、專有信息源的2.3.3.1大模型工具學(xué)習大語言模型具備理解、推理和決策能力,可與外部工具互動。在特定領(lǐng)域任務(wù)中,如金融領(lǐng)域的證券交易和市場預(yù)測,大語言模型通常需要結(jié)合外部工具獲取信息和技能才能處理。整合外部工具與大語言模型可以發(fā)揮各自優(yōu)勢實現(xiàn)復(fù)雜任務(wù)的處理,其中外部工具可增強專業(yè)知識和可解釋性,大語言模型提供語義理解和推理規(guī)劃能力。瀏覽器和搜索引擎交互獲取互聯(lián)網(wǎng)信息在長文本問答上實現(xiàn)非常強的能力,展現(xiàn)了大語言模型利用工具解決復(fù)雜問題的巨大潛力。該工作引起了學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注,產(chǎn)生了許多面向不同任務(wù)或場景需求的大模型調(diào)用工具的方法,如Webshop[2-32],使用大語言模型替代人在購物平臺上執(zhí)行一系列操作、購買所需物品。2023年3外部插件的功能,支持瀏覽器實時信息獲取、代碼解釋器、PDF閱讀等能力,截至8月已支持480個常用工具插件。Meta將這種通過非參數(shù)的外部模塊擴展大語言模型能力的方法,統(tǒng)一稱為增廣語言模型科技突破:邁向通用人工智能的大模型群體指在讓模型能夠理解和使用各種工具完成任務(wù)的學(xué)習過程。物理交互的工具(如機器人、傳感器等)、基于圖形用戶界面的工具(如瀏覽器、Office辦公軟件等)、基于編程接口的工具(如數(shù)據(jù)庫、知識圖譜)等。從學(xué)習目標的角度來看,現(xiàn)有工具學(xué)習方法主要可以分為兩類[2-35]:一類是工具增強學(xué)習(Tool-augmentedLearning),利用各種工具的執(zhí)行結(jié)果,增強基礎(chǔ)模型性能。在這一范式中,工具執(zhí)行結(jié)果被視為輔助生成高質(zhì)量輸出的外部資源;第二類是工具導(dǎo)向?qū)W習(Tool-orientedLearning將學(xué)習過程重點從增強模型性能轉(zhuǎn)向工具執(zhí)行本身。這一類研究關(guān)注開發(fā)能夠代替人類從目前來看,LLM工具學(xué)習已經(jīng)取得了顯著的進展,相關(guān)應(yīng)用處在爆發(fā)上升趨勢,已展現(xiàn)廣闊的應(yīng)用前景。隨著大模型性能不斷提升,給工具學(xué)習帶來許多機遇和挑戰(zhàn)[2-35]1)工具學(xué)習的安全性。在期待LLM與工具學(xué)習結(jié)合所帶來的生活改變之前,審視其中潛在的風險尤為重要。需要防止惡意用戶誤導(dǎo)模型調(diào)用工具,以及提升模型使用工具的可信度等問題;(2)工具AI創(chuàng)造,LLM可能具有自發(fā)創(chuàng)造工具的潛力。一直以來,創(chuàng)造和使用工具被認為是人類智能的獨特特征,而LLM的出現(xiàn)可能顛覆這一觀念。越來越多的證據(jù)表明,具的能力不再是人類專有的領(lǐng)域;(3)知識沖突,引入工具后,模型需要解決來自不同來源的知識沖突問題,包括模型自身、外部知識庫等。解決不同知識庫間的知識沖突,以實現(xiàn)知識的有效整合,是迎接工具學(xué)習挑戰(zhàn)的關(guān)鍵一步;(4)多工具協(xié)同,一個復(fù)雜任務(wù)通常需要多種類型工作協(xié)同配合完成,需要讓大模型學(xué)會規(guī)劃和執(zhí)行多類型工具完成復(fù)雜任務(wù)。未來,我們預(yù)期工具學(xué)習將會進一步融合更多2.3.3.2檢索增強生成種結(jié)合檢索和生成的深度學(xué)習方法,用于增強大語言模型的任務(wù)處理能力,是AIAgent的實現(xiàn)長期記憶的關(guān)鍵技術(shù)。RAG的核心是向量數(shù)據(jù)庫技術(shù),這是一種存儲和檢索大量信息中,首先利用一個檢索器從一個預(yù)先構(gòu)建的向量數(shù)據(jù)庫中檢索相關(guān)信息。這個數(shù)據(jù)庫通常包含大量文本數(shù)據(jù)的向量表示,這些向量是通過科技突破:邁向通用人工智能的大模型群體預(yù)訓(xùn)練的語言模型生成的。檢索過程基于查詢向量和數(shù)據(jù)庫中的文檔向量之間的相似性。檢索到的信息隨后被送入生成器,生成器是基于Transformer架構(gòu)的神經(jīng)網(wǎng)絡(luò),它綜合檢索到的信息和原始輸入來生成響應(yīng)或回答。這個過程可以大大提高大語言模型的生成性能,因為它允許模型利用數(shù)據(jù)庫中的豐富信息,提供更準確和信息豐富的輸出。RAG模型的一個關(guān)鍵優(yōu)勢是它能夠處理更復(fù)雜、開放式的問題,因為它可以訪問和利用比傳統(tǒng)模型更大量的外部知識庫數(shù)據(jù)。此外,向量數(shù)據(jù)庫的使用使得檢索過程更高效,因為相似性搜索可以迅速在海量向量數(shù)據(jù)庫通過將文檔數(shù)據(jù)轉(zhuǎn)化為向量存儲,解決大模型海量知識的存儲、檢索、匹配問題。向量是AI理解世界的通用數(shù)據(jù)形式。向音視頻等非結(jié)構(gòu)化數(shù)據(jù)通過預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)抽象、轉(zhuǎn)換為高維語義向量,由此實現(xiàn)了知識的結(jié)構(gòu)化管理,從而實現(xiàn)快速、高效的數(shù)據(jù)存儲和檢索過程,賦予了AIAgent“長期記憶”。同時,將高維空間中的多模態(tài)數(shù)據(jù)映射到低維空間的向量,也能大幅降低存儲和計算的成本:向量數(shù)據(jù)庫的存儲成本比直接將數(shù)據(jù)訓(xùn)練到神經(jīng)網(wǎng)絡(luò)的參數(shù)中的成本要低2到4個數(shù)量級。代表性的向量數(shù)據(jù)庫包括Pinecone、Weaviate、Milvus、Qdrant、Chroma、Elasticsearch、Embedding技術(shù)和向量相似度計算是向量數(shù)據(jù)庫的核心。Embedding技術(shù)是一種將圖像、音視頻等非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)化為計算機能夠識別的語言的方法。在通過Embedding技術(shù)將非結(jié)構(gòu)化數(shù)據(jù)科技突破:邁向通用人工智能的大模型群體例如文本數(shù)據(jù)轉(zhuǎn)化為向量后,就可以通過數(shù)學(xué)方法來計算兩個向量之間的相似度,即可實現(xiàn)對文本的比較。向量數(shù)據(jù)庫強大的檢索功能就是基于向量相似度計算而達成的,通過相似性檢索特性,針對相似的問題找出近似匹配的結(jié)果。相似性向量檢索采用最大內(nèi)積搜索(MaximunInnerProductSearch,MIPS)。通過使用外部存儲器可以緩解關(guān)注范圍有限的限制。一種標準的做法是將信息的嵌入表示法保存到向量數(shù)據(jù)庫中,該數(shù)據(jù)庫能夠支持快速的最大內(nèi)積搜索。為了優(yōu)化檢索速度,常見的選擇是近似相鄰(ApproximateNearest精度來換取速度的巨大提升。幾種常見的快速最大內(nèi)積搜索算法如局部敏感的哈希算法(LSH)、層次導(dǎo)航最小世界算法(Hierarchical2.3.3.3長序列流式輸入處理具鏈,接受持續(xù)環(huán)境輸入。但是大語言模型由于輸入長度限制難以直接處理長序列輸入,通常僅支持幾千token的序列長度,如LLaMA2最大支持4096tokens、GLM-130B最大支持2048toke支持長序列流式輸入的大語言模型技術(shù)被提出,代表性技術(shù)有三大類,分別是位置編碼拓展、全局注意力有損改進、新型注意力機制設(shè)計:第一類是基于位置編碼拓展的方法,將通常使用的旋轉(zhuǎn)位置編碼(RoPE)經(jīng)過直接放縮或頻域放縮的方法,使模型的最大處理長度變長數(shù)倍,這種方法在工程上有較廣泛的應(yīng)用,能夠支持十萬左右的輸入序列長度,但是其核心沒有突破全局自注意力機制的平方復(fù)雜度,需要消耗巨大的顯存,并且仍然有最大處理長度的限制,無法處理超第二類方法是對Transformer的全局自注意力機制進行有損的改進。包括使用滑動窗口,限制每個token只能看到自己鄰近的位置的token,以此避免模型處理超過訓(xùn)練階段的相對位置編碼,通過犧牲效果彌補模型生成的穩(wěn)定性。后續(xù)工作進一步通過設(shè)計特殊的注意力遮蔽矩陣,避免在使用上述滑動窗口過程中模型注意力塌陷的問題。這類方法雖然表面上支持模型接受流式輸入,但是對于滑動窗口外的內(nèi)容,模型將完全遺忘,無法支持模型形成長期記憶能力。第三類方法則是通過拋棄Transformer的全局自注意力機制,設(shè)計新的信息處理機制來處理長程流式輸入。最早的工作可以追溯到LinearTransformer設(shè)計的線性復(fù)雜度注意力機制,隨后出現(xiàn)了RWKV、RetNet等模型,這些模型都具有亞平方復(fù)雜度注意力機制。此類模型都會在隱狀態(tài)中形成可以總結(jié)歷史所有信息的內(nèi)在狀態(tài)(InternalState使模型的長期2.3.3.4智能體自適應(yīng)和自學(xué)習科技突破:邁向通用人工智能的大模型群體智能體能夠根據(jù)環(huán)境和任務(wù)的動態(tài)變化不斷提升智能水平,適應(yīng)不同復(fù)雜場景的需求,是實現(xiàn)類人智能的重要標志。相關(guān)方法可以分為·無參數(shù)優(yōu)化自進化方法。一種是構(gòu)建本地技能庫(Skill庫和迭代prompt機制三個新型組件構(gòu)成。自動課程用于提出開放式的探索目標,該課程是由GPT-4根據(jù)“盡可能多發(fā)現(xiàn)不同的東西”的技能庫用于開發(fā)越來越復(fù)雜的行為,通過存儲有助于成功解決某個任務(wù)的行
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 海洋生物產(chǎn)品購銷合同范例
- 委托設(shè)計房屋合同范例
- 建設(shè)工程2014合同范例
- 農(nóng)田機械維修合同范例
- 畫室交費合同范例
- 拼裝房屋直銷合同范例
- 2025年陽江貨物從業(yè)資格證考試題
- 正規(guī)合同范例 銷售合同
- 合作餐飲合同范例
- 煤炭運輸服務(wù)合同范例
- 2025屆廣州市高三年級調(diào)研測試(零模)數(shù)學(xué)試卷(含答案)
- 2024-2025學(xué)年上海市虹口區(qū)高三一模地理試卷(含答案)
- 企業(yè)管理制度-薪酬管理制度
- 4.1.1陸地水體間的相互關(guān)系課件高中地理湘教版(2019)選擇性必修一
- 【MOOC】大學(xué)生心理學(xué)-中央財經(jīng)大學(xué) 中國大學(xué)慕課MOOC答案
- 外墻真石漆施工方案
- 計劃崗位培訓(xùn)課件
- 中藥涂擦治療
- 2024年廣西普法云平臺考試答案
- 2023-2024學(xué)年廣東省深圳市福田區(qū)八年級(上)期末英語試卷
- IATF16949體系推行計劃(任務(wù)清晰版)
評論
0/150
提交評論