行研新視角:AIGC助推元宇宙進程加速未來商業(yè)化場景探究1723424049_第1頁
行研新視角:AIGC助推元宇宙進程加速未來商業(yè)化場景探究1723424049_第2頁
行研新視角:AIGC助推元宇宙進程加速未來商業(yè)化場景探究1723424049_第3頁
行研新視角:AIGC助推元宇宙進程加速未來商業(yè)化場景探究1723424049_第4頁
行研新視角:AIGC助推元宇宙進程加速未來商業(yè)化場景探究1723424049_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

行研新視角2024年4月16日請務必閱讀免責條款圖片來源:百度2新視角:AIGC將極大的推動元宇宙的發(fā)展,元宇宙中大量的數(shù)字原生內容,需要由AI來幫助中的數(shù)字身份塑造、元世界打造提供數(shù)據(jù)與算法服務,實現(xiàn)渲染、交互驅動、智能計目前海外互聯(lián)網(wǎng)巨頭紛紛入局GPT大模型研發(fā),技術都在周期性迭代,各家都基于自身的生態(tài)和研發(fā)優(yōu)勢開發(fā)。目前市場上頭部互聯(lián)網(wǎng)企業(yè)(微軟、谷歌、亞馬遜)最新研發(fā)的大模型不僅在文本處理能力上不斷提升,同時也在多模態(tài)能力上日益精進,單次處理的內容上限已經(jīng)能夠達到百萬token級別。知識儲備上已經(jīng)擁有與人類本科生水平相當?shù)闹R和理解能力,再次定義了AI的高度。隨著互聯(lián)網(wǎng)用戶對在線內容的消費和支付意愿一直增加,未來將構建一個內容龐大且快速增長的元宇宙生態(tài)將創(chuàng)造更大的商業(yè)化潛力。隨著技術的不斷進步,元宇宙的概念也逐漸被越來越多的人所認可。元宇宙的出現(xiàn)將會帶來許多變革,它將會改變人們的生活方式、社交方式、娛樂方式等等。在元宇宙中,人們可以穿梭于不同的虛擬現(xiàn)實世界之間,與其他玩家進行交互,體驗更加豐富、更加真實的虛擬世界。同時,元宇宙也將會成為一個新的經(jīng)濟體系,人們可以在其中交易虛擬物品、虛擬貨幣等等,在這個極具活力的生態(tài)中,商業(yè)化空間巨大。1.AIGC將推動元宇宙發(fā)展 5 51.2組成元宇宙概念的拼圖逐漸完整 71.3為什么元宇宙還沒實現(xiàn)? 91.4AIGC如何提升元宇宙內容生成效率 2.頭部大模型技術在競爭中不斷精進 3.文字以外的領域同樣在發(fā)生變革 3.2AI能夠自行通關游戲,虛擬角色將更擬真 4.未來商業(yè)化場景暢想 5.相關標的 6.風險提示 34圖目錄圖1:AIGC最典型的商業(yè)化產(chǎn)品:ChatGPT 6圖2:AIGC未來將是元宇宙重要內容創(chuàng)作來源 6圖3:GPTAI通過重復學習實現(xiàn)高概率結果 7圖4:目前自然語言大模型訓練仍在突飛猛進 7圖5:元宇宙是虛擬與現(xiàn)實結合的混合生態(tài) 8圖6:構成元宇宙的八大要素缺一不可 8圖6:Chatgpt的文字生成能力展示 圖7:Midjourney的圖片生成能力展示 圖8:FakeYou的音頻生成能力展示 圖9:SORA的視頻生成能力展示 圖10:GPT經(jīng)過多次升級,目前已經(jīng)能夠滿足更多的內容生成 圖12:Claude3號稱花最少得錢獲取最優(yōu)秀的用戶體驗 圖13:AI繪畫已經(jīng)從簡單生成圖片已經(jīng)進化到理解和推理繪畫的內容 圖14:SORA概念視頻上線,生成內容時長1分鐘 圖15:Cradle能直接根據(jù)游戲內的提示和教程生成對應的可執(zhí)行代碼 表目錄表1:AIGC技術升級將助力元宇宙加速實現(xiàn) 9表2:三大廠商模型測評能力對比 表3:三大廠商模型付費會員使用價格對比 表4:GPT4.0在各項功能上有較大突破 表5:AIGC及元宇宙相關概念標的估值 2151.AIGC將推動元宇宙發(fā)展1.1被稱為下一代風口的AIGC到底是什么AIGC(AIGeneratedContent)是由AI生成的內容,其特點是自動化生產(chǎn)、高效。隨著自然語言生成技術NLG和AI模型的成熟,AIGC逐漸受到大家的關注,目前已經(jīng)可以自動生成文字、圖片、音頻、視頻,甚至3D模型和代碼。我們認為AIGC將極大的推動元宇宙的發(fā)展,元宇宙中大量的數(shù)字原生內容,需要由AI來幫助完成創(chuàng)作。AIGC是利用人工智能技術來生成內容,被認為是繼PGC、UGC之后的新型內容創(chuàng)作方式。AIGC依托高效的數(shù)據(jù)、算法、場景學習優(yōu)勢,能夠為用戶在元宇宙中的數(shù)字身份塑造、元世界打造提供數(shù)據(jù)與算法服務,實現(xiàn)渲染、交互驅動、智能計算、數(shù)據(jù)開放與數(shù)字資產(chǎn)流通功能,高效產(chǎn)出元宇宙文本、圖片、視頻等優(yōu)質內容,以及虛實交互的直播、社交場景。未來AIGC的應用能夠持續(xù)擴展元宇宙技術創(chuàng)新應用領域,豐富更多虛擬現(xiàn)實應用場景。元宇宙構成要素包括硬件設備、軟件平臺、虛擬現(xiàn)實技術、人工智能、區(qū)塊鏈等。硬件設備包括虛擬現(xiàn)實眼鏡、手套、體感設備等,可以讓用戶身臨其境地感受到虛擬現(xiàn)實空間。軟件平臺則提供了一個開放的環(huán)境,使得用戶可以自由地創(chuàng)建和分享內容。虛擬現(xiàn)實技術則是元宇宙的核心,它可以讓用戶在虛擬現(xiàn)實空間中進行交互和溝通。人工智能則可以為元宇宙中的角色賦予智能,讓他們更加真實。區(qū)塊鏈則為元宇宙提供了一個去中心化的管理方式,使得用戶可以自由地交換和共享數(shù)字資產(chǎn)??傊?,元宇宙是一個融合了多種技術的數(shù)字世界,它將給人類帶來更加廣闊的想象空間和無限的可能性。6愛內容質量所限金產(chǎn)能所限UGCPGCAIGCChatGPT是首個成熟的AIGC產(chǎn)品ChatGPT是由OpenAI公司開發(fā)的一種基于Transformer架構的先進語言模型,成為機器學習并輸出內容的首個應用類工具,它擁有強大的語言理解和生成能力,能夠模擬人類的溝通方式,提供更為高效、自然的表達方式。這種模型在各種場景下具有廣泛的應用潛力,包括但不限于在線聊天、智能語音助手以及自然語言處理任務等。ChatGPT通過持續(xù)的學習和優(yōu)化算法,不斷提升自身的性能和準確性,從而更好地滿足用戶的多樣化需求。作為AIGC領域中的一種具體應用和產(chǎn)品,ChatGPT屬于文本生成范疇,其優(yōu)點在于能夠生成流暢、連貫且富有邏輯的文本內容。當GPT模型在參考了千億甚至萬億級數(shù)據(jù)后,經(jīng)過大模型預訓練,可以基本掌握自然語言處理規(guī)律,但此階段錯誤率較高,通過人工標注錯誤答案,并不斷進行反饋學習,于是在參考數(shù)據(jù)足夠多、算力足夠強大的情況下,GPT模型可通過“涌現(xiàn)”效應產(chǎn)生較強類人智能。在與用戶的交互中,ChatGPT能夠展現(xiàn)出自然、有趣的對話風格,為用戶帶來良好的使用體驗。ChatGPT的局限性在于它主要依賴概率進行文本生成,有時可能會產(chǎn)生不正確或不合適的文本內容。為了提升模型的性能,需要借助人類用戶的反饋進行強化學習。盡管如此,ChatGPT仍然無法完全替代人類在某些復雜、精細的溝通場景中的作用。ChatGPT作為一種基于Transformer的語言模型,在文本生成7和自然語言處理領域具有顯著的優(yōu)勢和廣泛的應用前景。隨著技術的不斷進步為人類的生活和工作帶來更多便利。果圖4:目前自然語言大模型訓練仍在突飛猛進不完整的句子不完整的句子美高嗎GPT=GenerativePre-trainedTransformer資料來源:Google論文、國元證券經(jīng)紀(香港)整理資料來源:Google論文、國元證券經(jīng)紀(香港)整理1.2組成元宇宙概念的拼圖逐漸完整元宇宙生態(tài)當前仍處于初級階段我們認為元宇宙正引領一場劃時代的技術革命,其深遠影響將重塑人類社會的面貌。元宇宙作為人類運用數(shù)字技術精心構建的虛擬世界,不僅映射了現(xiàn)實世界的豐富多樣,更超越了其界限,為用戶提供了一個可與現(xiàn)實世界無縫交互的數(shù)字生活空間。它整合了5G、云計算、人工智能、虛擬現(xiàn)實、區(qū)塊鏈、數(shù)字貨幣、物聯(lián)網(wǎng)、人機交互等核心底層技術,并對芯片、顯示屏幕、電池等硬件技術提出了更高的升級要求。在這個虛擬世界中,各種素材的生成、交互,以及設備的接入、數(shù)據(jù)傳輸?shù)汝P鍵環(huán)節(jié),均依賴于人工智能的精準驅動,這要求端側必須擁有強大的算力支撐。元宇宙的構建包含八大核心要素:身份、朋友、沉浸感、低延遲、多元化、隨時隨地、經(jīng)濟系統(tǒng)和文明。根據(jù)Roblox等上市公司的深入研究,元宇宙展現(xiàn)出8五大鮮明特征與屬性:社會與空間的交融屬性、科技賦能的超越現(xiàn)實延伸、人、機與人工智能的共創(chuàng)共生、真實感與現(xiàn)實世界的精準映射,以及虛擬資產(chǎn)與服務的自由交易與流通。本質上,元宇宙是對現(xiàn)實世界的深度虛擬化與數(shù)字化,這一過程需要對內容生產(chǎn)、經(jīng)濟系統(tǒng)、用戶體驗以及實體世界內容的深度融合進行大量創(chuàng)新性的改造。然而,元宇宙的發(fā)展并非一蹴而就,而是在共享的基礎設施、統(tǒng)一的標準及協(xié)議的支撐下,由眾多工具、平臺的不斷融合與進化而最終成形。基于擴展現(xiàn)實技術,元宇宙為用戶提供了前所未有的沉浸式體驗;借助數(shù)字孿生技術,它生成了現(xiàn)實世界的精準鏡像;通過區(qū)塊鏈技術,元宇宙搭建了一個去中心化的經(jīng)濟體系。在這一體系中,虛擬世界與現(xiàn)實世界在經(jīng)濟、社交、身份等多個系統(tǒng)上實現(xiàn)了緊密融合,每個用戶都被賦予了內容生產(chǎn)和世界編輯的權力,從而共同塑造這個充滿無限可能的數(shù)字新世界。圖5:元宇宙是虛擬與現(xiàn)實結合的混合生態(tài)圖6:構成元宇宙的八大要素缺一不可圖5:元宇宙是虛擬與現(xiàn)實結合的混合生態(tài)虛擬世集虛擬世集現(xiàn)實言常界內容應用端社會本質-社會屬性達成資料來源:Google論文、國元證券經(jīng)紀(香港)整理資料來源:Google論文、國元證券經(jīng)紀(香港)整理AIGC技術助力元宇宙內容快速膨脹互聯(lián)網(wǎng)內容生產(chǎn)方式經(jīng)歷了PGC、UGC、AIGC的過程。PGC是專業(yè)生產(chǎn)內容,如Web1.0專業(yè)人員生產(chǎn)的文字和視頻,其特點是專業(yè)、內容質量有保證。UGC是用戶生產(chǎn)內容,伴隨Web2.0概念而產(chǎn)生,特點是用戶可以自由上傳內容,內容豐富,因此用戶數(shù)成為了各家爭奪的資源。到了Web3.0,由于元宇宙概念興起,需要大量的內容來支持生態(tài)擴張,單靠人工創(chuàng)作效率及商業(yè)化潛力太低,因此AIGC技術將助力元宇宙加速實現(xiàn)。9互聯(lián)網(wǎng)時代Web1.0Web2.0Web3.0/元宇宙內容生產(chǎn)方式特點發(fā)展核心PGC(專業(yè)生產(chǎn))UGC(用戶生產(chǎn))專業(yè)、質量有保證自由上傳、內容豐富網(wǎng)絡傳輸用戶數(shù)量AIGC(AI生產(chǎn))高效率算力資料來源:國元證券經(jīng)紀(香港)整理元宇宙是指一個由虛擬世界和現(xiàn)實世界相互連接的綜合性數(shù)字世界,可以為用戶提供更為全面、便捷的服務和娛樂體驗。在那里人們可以做一些在正常生活中不可能做或者不方便做的事情,同時這個生態(tài)又是跟現(xiàn)實十分接近的虛擬世界,因此人們可以在這個世界中獲得大量的成就感和滿足。這一概念早在2021年就開始興起,科技行業(yè)巨頭們紛紛為進軍元宇宙領域布局,大家也對元宇宙的未來一片看好:例如2021年3月美國Roblox公司首次將“元宇宙”寫進招股說明書,2021年8月字節(jié)跳動收購了VR硬件公司PICO,2021年10月Facebook更名為Meta。但是發(fā)展至現(xiàn)在市面上依然沒有成型的元宇宙生態(tài),資本市場的熱度也有所下降。我們認為其主要制約因素有以下幾點:擴展性和性能:元宇宙需要處理大量的虛擬世界、虛擬物品和用戶,對于系統(tǒng)的擴展性和性能提出了挑戰(zhàn)。在目前的技術水平下,實現(xiàn)大規(guī)模、高并發(fā)的元宇宙體驗仍然面臨技術限制。人工智能與自主行為:元宇宙中的虛擬角色和虛擬物品通常由人工智能控制,但目前的人工智能技術在模擬人類行為和情感方面仍存在局限性。實現(xiàn)更加智能化和自主化的虛擬角色和虛擬物品仍然是一個技術挑戰(zhàn)。設備和設施:要在元宇宙中獲得沉浸式體驗,用戶通常需要使用虛擬現(xiàn)實(VR)或增強現(xiàn)實(AR)設備,如頭戴式顯示器、手柄等。然而,目前這些設備在成本、便攜性和用戶友好性方面還存在一些限制。云設備和計算資源:元宇宙需要強大的計算資源和硬件設備的支持,包括高性能計算機、GPU、服務器、傳感器、攝像頭、運動跟蹤設備等,以提供更加真實、高效和流暢的虛擬環(huán)境和交互體驗。內容生成與內容互動效率:元宇宙需要大量的內容和實時調整的動態(tài)環(huán)境,建立一個交互體驗高的元宇宙需要持續(xù)和高效的生成內容,同時也需要后臺AI來對用戶與生態(tài)交互進行實時生成,單靠人力資源創(chuàng)作元宇宙搭建周期過長。那么從內容生成的角度來看目前AIGC的高速發(fā)展將能夠提升生態(tài)內容的生成效率,而且由于目前普遍大模型已經(jīng)開始多模態(tài)化,ChatGPT目前可實現(xiàn)的功能不僅僅局限于聊天,它具有強大的自然語言處理能力,可以完成文本生成、圖像生成、音頻生成與視頻生成等模態(tài),未來還可以進行生態(tài)框架生成、3D模型生成等。介于元宇宙需要大量的內容進行生態(tài)拓展,因此AIGC的高效內容生產(chǎn)文本生成模態(tài):ChatGPT可以按照要求高質量完成文案生成、撰寫新聞稿在線答疑等任務,某些方面甚至有超越搜索引擎的趨勢。同時具備較強上下文連接以及多輪對話的能力,人機交互體驗感大幅提升?!だm(xù)和一的農(nóng)服,穿多層衣服,特到是保峨的內衣福和毛衣,可以讓仰保持四圖像生成模態(tài):目前ChatGPT大致可以實現(xiàn)三類AI繪畫,一種是通過文字描述生成圖像,另一種是在已有圖像的基礎上借助文字描述生成新的圖像,第三類是先通過文字描述產(chǎn)生圖像,然后在生成圖像的基礎上再借助文字進行調整。如Midjourney、DALL.E2以及國內的文心一格等應用軟件。音頻生成模態(tài):目前人工智能內容生成在音頻生成領域的應用非常廣泛,例如有聲讀物的制作、語音播報、短視頻配音、音樂合成等領域,目前以GPT技術為標志的人工智能內容生成主要有兩種類型:語音合成與歌曲生圖8:FakeYou的音頻生成能力展示州文字轉語音Tracr(Oweraatch)-Wegtotc★評分,37-聲音好聽視頻生成模態(tài):目前ChatGPT已經(jīng)可以實現(xiàn)直接利用文字描述生成視頻。早在2022年9月,Meta公司推出的Make-A-Video工具就已經(jīng)可以實現(xiàn)文字描述生成短視頻的功能,谷歌公司也推出了分辨率更高、功能更加強大的視頻內容生成軟件,生成的視頻不僅更加清晰,同時能理解并生成不同風格的視頻作品。另外2024年2月15日向公眾展示了由Sora生成的多個高清視頻,稱該模型能夠生成長達一分鐘的視頻。2.頭部大模型技術在競爭中不斷精進目前海外互聯(lián)網(wǎng)巨頭紛紛入局GPT大模型研發(fā),技術都在周期性迭代,各家都基于自身的生態(tài)和研發(fā)優(yōu)勢開發(fā)。過去十年間,谷歌、臉書、亞馬遜、蘋果和微軟等科技巨頭紛紛開啟AI軍備競賽,先后成立專門的AI實驗室,包括谷歌DeepMind、背靠微軟OpenAI和背靠亞馬遜的。其中,被谷歌收購的DeepMind因擁有AlphaGo(阿爾法狗)最為家喻戶曉。而大模型是“大算力+強算法”的產(chǎn)物,是人工智能發(fā)展的趨勢和未來。大模型助力AI實現(xiàn)從“手工作坊”到“工廠模式”的轉變,從而使得AI從實驗室走向規(guī)?;漠a(chǎn)業(yè)應用。根據(jù)Claude3系列開發(fā)者Anthropic公布的測試數(shù)據(jù)來看,目前市場上頭部互聯(lián)網(wǎng)企業(yè)(微軟、谷歌、亞馬遜)最新研發(fā)的大模型不僅在文本處理能力上不斷提升,同時也在多模態(tài)能力上日益精進,單次處理的內容上限已經(jīng)能夠達到百萬token級別,意味著單次能夠處理海量信息達到1小時的視頻、11小時的音頻、超過30,000行的代碼庫,或是超過700,000個單詞。知識儲備上已經(jīng)擁有與人類本科生水平相當?shù)闹R和理解能力,再次定義了AI的高度。價格方面,目前由于芯片供應及海外電價等原因,使得價格偏高,但是預計未來隨著技術更新以及算法持續(xù)優(yōu)化,價格有優(yōu)化空間,使得更多用戶能夠享受到科技進步帶來的紅利。大模型通?;诖笠?guī)模無標注數(shù)據(jù)進行訓練,掌握某種特征和規(guī)則;基于大模型進行應用開發(fā)時,將大模型進行微調,或者不進行微調,就可以完成多個應用場景的任務。與此同時,大模型具有自監(jiān)督學習能力,不需要或很少需要通過人工標注的數(shù)據(jù)進行訓練,降低了訓練成本,因而能夠加快AI的產(chǎn)業(yè)化進程,降低AI應用的門檻。通過不斷迭代,大模型能夠具有更強的通用性以及更高的智能程度,從而使得AI更廣泛地賦能各行業(yè)與此同時目前支持ChatGPT正常運行所需耗費的資源非常多,同時決定大模型核心算力水平的GPU供應尚集中在少數(shù)國家手中,雖然GPT技術是開源的,在沒有充足GPU供給的情況下,難以維持強大且持續(xù)的算力支撐,從而產(chǎn)生通用人工智能技術研發(fā)的“馬太效應”,強者愈強,且極易引發(fā)技術壟斷。因此我們預計未來成功的大模型和元宇宙生態(tài)將會從頭部互聯(lián)網(wǎng)巨頭中產(chǎn)生。表2:三大廠商模型測評能力對比評估方案測評能力Claude3OPUSClaude3SonnetClaude5HaikuGPT-4GPT-3.5UItra83.70%94.40%53.20%74.40%82.00%83.60%87,80%pro96.50%63.50%67.70%86.80%75.00%84.70%MMLUGPOAGSM8KMATHMGSMHumanEalDROP,F1-SCOREBIG-Bench-HardARC-ChallengeHelaSwag知識儲備水平推理能力數(shù)學推理評測解答數(shù)學問題測評多語吉環(huán)境數(shù)學能編碼能力文本推理能力混合推理能力知識問答常識儲備86.80%95.00%60.10%90.70%94.90%83.10%86.80%96.40%95.40%40.40%92.30%43.10%83.50%78.90%82.90%93.20%89.00%88.90%38.90%75,10%75.90%78.40%73.70%89.20%85.90%86.40%70.00%35.70%28.10%92.00%57.10%52.90%34.10%67.00%48.10%80.90%64.10%83.10%66.60%96.30%85.20%95.30%85.50%價格對比0PUS:輸入:15$/1000000tokenSonnet:輸入:3$/1000000tokenHaiku:輸入:0.15$/1000000token19.9$/包月美元,在舊金山創(chuàng)立了OpenAIInc.。2016年,微軟Azure云服務為OpenAI提供了算力條件。2018年發(fā)布了最早的一代大型模型GPT-1,運用幾十億文本檔案的語言資料庫進行訓練,模型的參數(shù)量為1.17億個;2019年,GPT-2發(fā)布,模型參數(shù)量提高到15億個,得益于更高的數(shù)據(jù)質量和更大的數(shù)據(jù)規(guī)1750億個,其訓練參數(shù)是GPT-2的10倍以上,技術路線上則去掉了初代GPT的微調步驟,直接輸入自然語言當作指示,給GPT訓練讀過文字和句子后可接續(xù)問題的能力,同時包含了更為廣泛的主題。2023年OpenAI正式推出GPT-4,支持多模態(tài)且擁有強大的識圖能力。具體提升有以下幾點:參數(shù)數(shù)量和模型規(guī)模。GPT-4的參數(shù)數(shù)量遠超過GPT-3.5,達到了1.8萬億模型架構和預訓練技術。GPT-4采用了更加先進的架構設計,使用混合訓性能和效率。GPT-4在各種NLP任務上顯示出比GPT-3.5更好的性能,例種數(shù)據(jù)類型,這使得它能夠進行更加智能化的自然語言處理任務。應用場景。GPT-4已經(jīng)被廣泛應用于各種自然語言處理任務中,例如文本對話和指令性任務處理。GPT-4能夠更好地理解對話中的上下文,并能夠圖10:GPT經(jīng)過多次升級,目前已經(jīng)能夠滿足更多的內容生成GPT-1GPT-1GPT-2GPT-3文字處理單樣本學習Meta-Learning容量提升內容微調不再對內容調整多樣本學習多模態(tài)模型效率提升效率提升(訓練參數(shù)150億)(訓練參數(shù)1750億)資料來源:OpenAI官網(wǎng)、國元證券經(jīng)紀(香港)整理表4:GPT4.0在各項功能上有較大突破GPT-3.5GPT-4.0輸出速度較慢有提升,但不明顯分段能力生成幾百字后停止,需要回復“繼續(xù)”基本連貫答案質量滿足基本需求推理、角色能力有極大提升文字限制最多回復3000字,但幾百字就結束最多2.5w字圖片能力無輸出圖片對接互聯(lián)網(wǎng)無可以通過第三方插件輸出最新互聯(lián)網(wǎng)信息連續(xù)對話能力最大容量8000個字最大容量64000個字模型自然語言模型多模態(tài)模型資料來源:OpenAI官網(wǎng)、國元證券經(jīng)紀(香港)整理2.2谷歌:Gemini1.5采用MoE架構超長上下文回溯谷歌于2024年2月宣布推出Gemini1.5,它是一種中型多模式模型,針對多種任務的擴展進行了優(yōu)化,其性能水平與迄今為止最大的模型1.0Ultra類似。Gemini1.5還引入了長上下文理解方面的突破性實驗特征。Gemini1.5建立在谷歌對Transformer和MoE架構的領先研究之上。傳統(tǒng)Transformer充當一個大型神經(jīng)網(wǎng)絡,而MoE模型則分為更小的神經(jīng)網(wǎng)絡。根據(jù)給定輸入的類型,MoE模型學會選擇性地僅激活其神經(jīng)網(wǎng)絡中最相關的路徑。人工智能模型“上下文窗口”用于處理信息的構建塊,可以是文字、圖像、視頻、音頻或代碼的整個部分或子部分。模型的上下文窗口越大,它在給定提示中可以接收和處理的信息就越多,從而使其輸出更加一致、相關和有用。通過一系列機器學習創(chuàng)新,Gemini1.5Pro增加了1.5Pro的上下文窗口容量,Gemini1.5Pro可以在生產(chǎn)環(huán)境中運行多達100萬個Token,可以一次性處理大量信息,包括1小時的視頻、11小時的音頻、超過30,000行代碼或超過70萬個單詞的代碼庫。對上下文長度限制在128Ktoken,其檢索質量隨著上下文長度的增加而波動,平均召回率在128Ktoken處約為50%。相比之下,Gemini1.5Pro在128Ktoken時保持約70%的召回率,在1MToken時保持超過60%的召回率。圖11:Gemini1.5在超長冗余信息中依然保持較高召回率0.8-Numberoftokensincontext2024年3月,亞馬遜云科技與Anthropic展開合作,發(fā)布了新一代大語言模型Claude3家族。包括Haiku、Sonnet和Opus按規(guī)模遞增,依次提供越來越強大的性能,為的是讓用戶根據(jù)特定需求在智能、速度和成本間找到最佳平衡。該快速實時響應,視覺能力提升:Claude3旨在為用戶提供更即時的任務響應。以速度和成本效益見長的Haiku模型,能在不到三秒的時間內讀完一個信息和數(shù)據(jù)密集、約1萬tokens、包含圖表和圖形的arXiv研究論文。同提高準確度:新一代的Opus、Sonnet和Haiku模型在面對潛在敏大幅降低了錯誤拒絕的概率,能更精準細膩地理解問題的真實意圖,有效支持200K超長上下文:Claude3提供高達200Ktoken的上下文窗口能力,提供支持100萬token輸入能力。圖12:Claude3號稱花最少得錢獲取最優(yōu)秀的用戶體驗coST3.文字以外的領域同樣在發(fā)生變革3.1繪圖及電影制作應用場景不斷拓寬在AI作畫方面,目前技術水平在突飛猛進,其背后的算法模型也在不斷迭代,目前已經(jīng)可以生成可以媲美專業(yè)畫師的作品,生成圖片的效率也從的數(shù)小時到現(xiàn)在的幾分鐘甚至數(shù)十秒。AI繪畫技術現(xiàn)在可以在一定程度上模擬人類藝術家的繪畫風格和創(chuàng)作理念,產(chǎn)生出多樣化的藝術作品。隨著技術的不斷進步,AI繪畫的質量和效果也將得到進一步提升。未來的AI繪畫技術可能會更加精準地模擬人類的審美和感性需求,從而輸出更高質量的繪畫作品。同時,AI繪畫還可能具備更強大的學習和進化能力,能夠不斷學習和優(yōu)化自身的繪畫技巧,提供更加多樣化的創(chuàng)作風格。AI繪畫技術不僅可以應用于藝術創(chuàng)作領域,還可以應用于設計、游戲開發(fā)和教育等領域,提升行業(yè)創(chuàng)新和效率。目前廣泛應用于在游戲開發(fā)中,通過AI繪畫技術可以用于虛擬角色的繪制和場景的渲染,節(jié)省更多人力成本。圖13:AI繪畫已經(jīng)從簡單生成圖片已經(jīng)進化到理解和推理繪畫的內容在AI生成影片方面,美國人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型SORA概念視頻上線后引發(fā)市場極大反響,Sora技術依托于OpenAI開發(fā)的DALL-E3技術架構,被賦予“擴散變換器”的稱謂,其核心技術采用了基于潛在擴散模型的去噪方法。雖然Sora目前還處于反饋獲取階段,距離商業(yè)化還有一段時日,但是未來將會對很多行業(yè)產(chǎn)生較大的影響。整個生成的視頻時長有明顯提升,,但是Sora可以直接生成60秒視頻內容。第二點是盡管對物理世界規(guī)律的理解上可能還存在小偏差,但總體上呈現(xiàn)出較好的前后一致性。圖14:SORA概念視頻上線,生成內容時長1分鐘animatedctyckot,alo3.2AI能夠自行通關游戲,虛擬角色將更擬真由北京智源人工智能研究院、新加坡南洋理工大學、北京大學提出通用計算機控制GeneralComputerControl(GCC)-Cradle,使智能體不依賴任何內部API直接控制鍵盤、鼠標和任何軟件交互,無論開源還是閉源,甚至能玩《荒野大鏢客2》這樣的商業(yè)3A游戲大作。我們相信該技術一旦成熟,未來AI控制虛擬角色來拓展元宇宙將成為現(xiàn)實。因為元宇宙中NPC同樣扮演的重要的角色,通過植入更多的能夠控制虛擬角色的AI將能夠極大程度提升元宇宙的體驗真實感,《西部世界》將不再是熒幕上的電視劇,而會在元宇宙中得以實圖15:Cradle能直接根據(jù)游戲內的提示和教程生成對應的可執(zhí)行代碼Cradle能夠有效地通過反思來發(fā)現(xiàn)并且糾正錯誤20游戲和元宇宙正互為解藥加速合體,元宇宙帶來游戲技術進步,游戲幫元宇宙技術落地。經(jīng)過多年發(fā)展,除了目前類Roblox元宇宙已經(jīng)成功實現(xiàn)創(chuàng)作生態(tài)、內購、廣告、電商等盈利模式,我們認為未來還有更多的元宇宙游戲類型可以開發(fā),這包括動作類、角色扮演類、體育類、社交類。這里面我們認為最終的形態(tài)將很有可能會像日本小說家川原礫著作《刀劍神域》系列那樣,會有很多個小的虛擬世界,每個虛擬世界都有自己的特點和特色(中古世紀、超現(xiàn)代、魔法世界等),同時玩家又可以實現(xiàn)虛擬人物的無縫穿越,擁有虛擬又真博彩我們認為未來元宇宙技術解決了許多博彩公司正面臨的許多挑戰(zhàn),例如如何更好地吸引年輕客戶,并為他們提供更身臨其境的體驗。已經(jīng)有開發(fā)商直接將賭桌搬到VR設備上。在2015年,ALEA推出SlotsMillion,世界上第一個VR多玩家在線賭場,但是體感和畫面仍有較大提升空間,我們認為博彩并不只是比牌面大小,而通過觀察對手的表情、動作來贏得博弈的成就感才是博彩最吸引人的地方。同時由于元宇宙使用的是WEB3.0技術,因此如果在使用結算我們認為未來元宇宙中大部分的社交都會是場景化的,元宇宙打破了時間和空間的限制,技術賦予社交生態(tài)更多的想象空間??梢噪S時去想去的地方。除了與朋友逛街,參加聚會,看電影,旅行,還可以舉辦的聚會,參加類似線下的活動,人和人的交流將會在這個既虛擬又真實的環(huán)境中更大膽、更開放。我們認為一些特定的人群將會非常樂意沉浸式體驗這種新型社交方式,例如LGBT、二次元等具有代表性的群體。算力和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論