2024AIGC視頻生成行業(yè):走向AI創(chuàng)生時代視頻生成的技術演進、范式重塑與商業(yè)化路徑探索_第1頁
2024AIGC視頻生成行業(yè):走向AI創(chuàng)生時代視頻生成的技術演進、范式重塑與商業(yè)化路徑探索_第2頁
2024AIGC視頻生成行業(yè):走向AI創(chuàng)生時代視頻生成的技術演進、范式重塑與商業(yè)化路徑探索_第3頁
2024AIGC視頻生成行業(yè):走向AI創(chuàng)生時代視頻生成的技術演進、范式重塑與商業(yè)化路徑探索_第4頁
2024AIGC視頻生成行業(yè):走向AI創(chuàng)生時代視頻生成的技術演進、范式重塑與商業(yè)化路徑探索_第5頁
已閱讀5頁,還剩92頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

A1A1GC出品機構:甲子光年智庫研究團隊:張一甲、宋濤*劉瑤、小麥對本報告亦有貢獻。物理學家想學習上帝;數(shù)學家想反抗上帝;工程師說都不用,我們再造一個。”Part02AIGC視頻生成推動世界走向“AI創(chuàng)生時代” 效果逼真:普通人一時難以分辨效果逼真:普通人一時難以分辨OpenAI發(fā)布文生視頻模型Sora,堪稱視頻生成領域的“GPT-3”時刻““Sora”一詞在微信指數(shù)及百度指數(shù)的關注度快速上升2月16日微信指數(shù)快速上升2月16日微信指數(shù)快速上升百度關鍵詞搜索趨勢處于高位百度關鍵詞搜索趨勢處于高位“百萬”剪輯:堪比專業(yè)的鏡頭語言“百萬”剪輯:堪比專業(yè)的鏡頭語言多模態(tài):文字、圖片、視頻皆可生成視頻多模態(tài):文字、圖片、視頻皆可生成視頻W.A.L.T4-18秒Sora的語言理解能力更強,可將簡短的用戶提示轉(zhuǎn)換為更長的詳細描述Sora還可以生成圖片,最高可達到2048*2048分辨率Sora通過插幀技術,實現(xiàn)完全不同主題和場景構圖的視頻之間的流暢自然的過渡效果Sora可生成具有動態(tài)攝像機運動效果的視頻,隨著攝像機的移動和旋轉(zhuǎn),人和場景元素在三維空間中保持一致移動Sora可以對短期和長期依賴關系進行建模,保持各個主體的時空連貫性和一致性Sora以簡單的方式模擬影響世界狀態(tài)的行為,比如一個人吃完漢堡可以在上面留下咬痕Sora還能夠模擬人工過程,比如視頻游戲,同時通過基本策略控制玩家,同時以高保真度渲染世界及其動態(tài)W.A.L.T4-18秒Sora的語言理解能力更強,可將簡短的用戶提示轉(zhuǎn)換為更長的詳細描述Sora還可以生成圖片,最高可達到2048*2048分辨率Sora通過插幀技術,實現(xiàn)完全不同主題和場景構圖的視頻之間的流暢自然的過渡效果Sora可生成具有動態(tài)攝像機運動效果的視頻,隨著攝像機的移動和旋轉(zhuǎn),人和場景元素在三維空間中保持一致移動Sora可以對短期和長期依賴關系進行建模,保持各個主體的時空連貫性和一致性Sora以簡單的方式模擬影響世界狀態(tài)的行為,比如一個人吃完漢堡可以在上面留下咬痕Sora還能夠模擬人工過程,比如視頻游戲,同時通過基本策略控制玩家,同時以高保真度渲染世界及其動態(tài)模型StableVideoDiffusionEmuVideoGen-2pika1.0李飛飛及其學生團Sora模型展現(xiàn)自身超強視頻生成及剪輯能力,超出其他競品一個段位視頻時長60秒 20秒以內(nèi)視頻長寬比1920*1080之間1920*1080之間的任意尺寸固定尺寸比例,例如16:9,9:16,1:1等視頻清晰度1080p部分upscale后達到4k成語言理解能力強弱文本生成視頻支持支持強支持視頻生成視頻視頻生成視頻支持支持文本編輯視頻支持支持擴展視頻向前/向后擴展僅支持向后視頻的無縫連接支持不支持強弱或不支持遠程相干性和物體持久性強強弱弱強弱數(shù)字世界模擬支持不支持與世界互動:有時可以用簡單的方式模擬影響世界狀況的動作Sora 3D一致性:確保景別切換時運鏡的連貫基于時空雙維度的視頻擴展畫家可以在畫布上留下新的筆觸,并隨著時間的推移而持續(xù)存在。不同主題場景視頻的無縫一鍵進行風格渲染模擬數(shù)字世界遠程相關性和物體持久性《我的世界》中的玩家,同時以高保真度渲染世界及其動態(tài)。與世界互動:有時可以用簡單的方式模擬影響世界狀況的動作Sora 3D一致性:確保景別切換時運鏡的連貫基于時空雙維度的視頻擴展畫家可以在畫布上留下新的筆觸,并隨著時間的推移而持續(xù)存在。不同主題場景視頻的無縫一鍵進行風格渲染模擬數(shù)字世界遠程相關性和物體持久性《我的世界》中的玩家,同時以高保真度渲染世界及其動態(tài)。大模型訓練的“暴力美學”在視頻生成領域再次涌現(xiàn)卓越特性OpenAI發(fā)現(xiàn)視頻模型在大規(guī)模訓練時表現(xiàn)出許多有趣的“涌現(xiàn)”能力,使Sora能夠從物理世界中模擬人、動物和環(huán)境。值得一1122以上四個鏡頭由遠及近,保證了視頻鏡頭中人和場景的一致性,是其他AI生成視頻中少見的。1212 以上四個鏡頭在同一視頻中生成,包括機器人的多個角度。信能比信能比>300<AI賦能生產(chǎn)力二次躍遷,開啟智能新世代信能比>1000宙線:時間原始時代農(nóng)業(yè)時代工業(yè)時代當下AGI第一代PC第一臺計算機GPT-1信能比信能比>300<AI賦能生產(chǎn)力二次躍遷,開啟智能新世代信能比>1000宙線:時間原始時代農(nóng)業(yè)時代工業(yè)時代當下AGI第一代PC第一臺計算機GPT-1Sora意味著scalinglaw(規(guī)模法則)再次驗證,推動文生視頻進入“GPT-3”時刻Scalinglaw(規(guī)模法則)的再次驗證:雖然Sora并不十全十美,但它通過scalinglaw和原有模型拉開了差距,為視頻生成領域提供了另一條可以走通的路線,推動行業(yè)進入全新的階段。從發(fā)展階段類比,文生視頻的“GPT-3”時刻:又進一步。Sora讓實現(xiàn)AGI的目標Sora更像文本模型的GPT從發(fā)展階段類比,文生視頻的“GPT-3”時刻:又進一步。Sora讓實現(xiàn)AGI的目標無窮小信息時代數(shù)字時代智能新世代推動人類向AGI邁過又一個里程碑推動人類向AGI邁過又一個里程碑推動人類向AGI邁過第一個里程碑信能比,是甲子光年智庫發(fā)明的概念,反映單位能源所能駕馭的信息量。信能比通過單位時間內(nèi)產(chǎn)生/傳輸/使用/存儲的信息量除以單位時間內(nèi)所消耗的能信能比可以體現(xiàn)數(shù)據(jù)智能技術的先進性和能源效率的高效性:它能夠反映整個社會數(shù)字化、智能化水平的高低;它能體現(xiàn)能源體系的可持續(xù)發(fā)展能力;它能反映生產(chǎn)力的高低和生產(chǎn)效率的提年數(shù)據(jù)來源:甲子光年智庫7年數(shù)據(jù)來源:甲子光年智庫7領域類型2020年之前2030年E2025年E2024年E2023年2022年2020年文本生成類案領域類型2020年之前2030年E2025年E2024年E2023年2022年2020年文本生成類案圖像生成類文本領域科研文字生成類代碼領域視頻生成類代碼生成類圖像領域語音生成類視頻/3D/游戲領域多模態(tài)生成類歷史反復表明,一旦先行者模式驗證,后來者整體的應用進程時間表將加快51.9%51.9%37.6%32.4%27.6%26.2%22.4%17.1%生成視頻質(zhì)量視頻分辨率Transformer+DiffusionModelDiffusionModel擴散模型路線Text2Video-Zero通義千問視頻大模型TransformerTransforGAN+VAEText2FilterVideoGPT最大生成時長(秒)生成視頻質(zhì)量視頻分辨率Transformer+DiffusionModelDiffusionModel擴散模型路線Text2Video-Zero通義千問視頻大模型TransformerTransforGAN+VAEText2FilterVideoGPT最大生成時長(秒)702003060時間.Gen-2.EmuVideoSora的出現(xiàn)意味著視頻生成的DiT技術路線得到有力驗證視頻生成技術路線在過去主要有兩條,一條是基于Transformer的路線,以Phenaki為代表,第二條是DiffusionModel(擴散模型)路線,該路線在2023年是主流路線,誕生了Meta的Make-A-Video、英偉達的VideoLDM,Runway的Gen1、在2023年是主流路線,誕生了Meta的Make-A-Video、英偉達的VideoLDM,Runway的Gen1、Gen2,字節(jié)的MagicVideo等代表性產(chǎn)品。4040GPT-4國CLIPGPT-4國CLIPSora模型將視頻壓縮到低維空間(latentspace并使用時空補?。⊿pacetimelatentpatches)來表示視頻。這個過程類似于將文本轉(zhuǎn)換為Token表示,而視頻則轉(zhuǎn)換為patches表示。Sora模型主要在壓縮的低維空間進行訓練,并使用解碼器將低維空間映射回像素空間,以生成視頻。Token表示,而視頻則轉(zhuǎn)換為patches表示。Sora模型主要在壓縮的低維空間進行訓練,并使用解碼器將低維空間映射回像素空間,以生成視頻。Sora是diffusiontransformer,而transformer在各個領域都表現(xiàn)出顯著的規(guī)模效應。ZεRHWZεRHWTdZTZTεRHWTdZ′εRHWTdDiffusionDiffusionTransformerBlockZZZGPT-4CLIPGPT-4CLIPSora模型的實施路徑可拆分為四個部分??Part2:視頻數(shù)據(jù)切分為Patches,通過編碼器壓縮成低維空間表示,解決了時間和空間兩個維度的注意力交互(patch化是訓練生成式模型的一個?.LatentDiffusionModels(LDMs):使用變分自編碼器將圖像壓縮到低維表示,然后在低維空間中訓練DDPM。這樣可以降低計算成本,?ZεRHWTdZεRHWTdDiffusionTransformerBlockZTεRHWTdZZ′εRHWTdZ倫理合規(guī)性技術局限性物理現(xiàn)實主義的挑戰(zhàn)Sora對復雜場景中物理原理的處理不一致,導致果關系,偶爾會偏離物理合理性。例如物體的不自然變換雜的動作或捕捉微妙的面部表情是模型可以增強的領域。以導致Sora現(xiàn)階段更擅長幽默的結果而非嚴肅的內(nèi)容。Sora生成的視頻中可能會出現(xiàn)物體無緣無故消失或出現(xiàn),Sora有時會誤解給定提示中與物體的放置或排列可能會導致預期時間流發(fā)生偏差,影響生成內(nèi)容的可靠性和連貫人機交互的限制Sora生成視頻的隨機性很強,類似人類的“做夢”,用戶可能很難精確指定或調(diào)整視頻中特定元素的呈現(xiàn),這限制了Sora在視頻數(shù)據(jù)合規(guī)性可能涉及到他人的隱私信息倫理合規(guī)性技術局限性物理現(xiàn)實主義的挑戰(zhàn)Sora對復雜場景中物理原理的處理不一致,導致果關系,偶爾會偏離物理合理性。例如物體的不自然變換雜的動作或捕捉微妙的面部表情是模型可以增強的領域。以導致Sora現(xiàn)階段更擅長幽默的結果而非嚴肅的內(nèi)容。Sora生成的視頻中可能會出現(xiàn)物體無緣無故消失或出現(xiàn),Sora有時會誤解給定提示中與物體的放置或排列可能會導致預期時間流發(fā)生偏差,影響生成內(nèi)容的可靠性和連貫人機交互的限制Sora生成視頻的隨機性很強,類似人類的“做夢”,用戶可能很難精確指定或調(diào)整視頻中特定元素的呈現(xiàn),這限制了Sora在視頻數(shù)據(jù)合規(guī)性可能涉及到他人的隱私信息,例如在視頻中出現(xiàn)的人物、場景或個人數(shù)據(jù)等。未經(jīng)授權或未經(jīng)允許的情況下,生成和傳播涉及他人隱私的虛假視頻可能導致隱私泄露問題。版權風險生成的視頻內(nèi)容可能涉及到他人的知識產(chǎn)權/版權,如果未經(jīng)授權使用他人的作品或內(nèi)容進行生成,就可能涉嫌侵犯他人的版權AI安全問題可能導致深度偽造視頻的增加,即利用技術手段在視頻中替換現(xiàn)實中的人物或場景,使得偽造的視頻無法通過社會帶來信任危機和安全隱患。確保Sora的輸出始終安全且公正是一項主要挑戰(zhàn)。Sora仍存在三大方面局限性,會短期制約其商業(yè)化、規(guī)模化應用經(jīng)濟賬與成本問題經(jīng)濟賬與成本問題OpenAI自從推出文本生成大模型再到推出視頻生成大模型,一直沒有解決商業(yè)化問題,大模型的訓練需要較高成本投入,如何算好經(jīng)濟賬是影響規(guī)模化應用的前提。需要依賴高質(zhì)量、大規(guī)模的視頻數(shù)據(jù)Sora的訓練路徑需要依賴龐大規(guī)模的視頻數(shù)據(jù),并需要較高的數(shù)據(jù)標注、合成能力,后期的迭代升級會受到底層訓練數(shù)據(jù)的影響與限制。算力瓶頸問題Sora視頻模型的訓練需要很高的算力支撐,如何平衡算力、成本、能源消耗等關系是值得關注的制動因素,也將是影響Sora大規(guī)模商業(yè)化運營的瓶頸。 5挑戰(zhàn)者新勢力領導者先行者5挑戰(zhàn)者新勢力領導者先行者視頻生成處于用戶滿意但不推薦象限,說明現(xiàn)有視頻生成工具雖然驚艷,但尚無法支持實際工作用戶對AIGC產(chǎn)品不同應用場景的滿意度與NPS值VS學家田淵棟也表示,關于SoraVS學家田淵棟也表示,關于Sora什么像“預測下一個token”或“重建”這樣簡單的思路會產(chǎn)ArtificialIntuition的作者OpenAI把Scale作為核心價值觀之一:我們相信規(guī)?!谖覀兊哪P汀⑾到y(tǒng)、自身、過程以及抱負中——具有魔力。當有疑問時,就擴大規(guī)模。Sora被OpenAI定義為“世界模擬器”,由此引發(fā)了世界模型的實施路線之爭正方:正方:OpenAI把它定義為一個“世界模擬器”YannLeCun,圖靈獎獲得者和Meta首席科YannLeCun,圖靈獎獲得者和Meta首席科學家,最近表達了對Sora的生成式技術路線的質(zhì)疑,并指出該路線可能面臨失敗的風險。我們相信這種能力將成為實現(xiàn)AGI的重要里程碑。”英偉達高級研究科學家JimFan更是直接斷言:“Sora是一個數(shù)據(jù)驅(qū)動的物理引擎,是一個可學習的模擬器,或世界模型。”解物理世界。他指出生成視頻的過程與基于世界模型的因果預測完全不同。解物理世界。他指出生成視頻的過程與基于世界模型的因果預測完全不同。認為這種方法是浪費,就像被廣泛拋棄的“通過合成來分析”的想有有限數(shù)量的符號。在這種情況下,處理預測中的不確定性相對容易。而在處理高維連續(xù)的感覺輸入時,基本上不可能處理預測的不確定性,這也是為什么針對感覺輸入的生成模型注定會失敗的原因。的暴力美學路線。從ChatGPT到Sora,都是這一思路的代表性產(chǎn)物。持有類似觀點。他認為僅僅通過讓AI觀看視頻是無法完全學習到世界模型的。盡管像Sora這樣的視頻生成模型確實融入了物理模型,問題在于這些模型的準確性及其泛化能力——即它們是否能夠適應新的、非訓練數(shù)據(jù)插值的 PartPart02AIGC視頻生成推動世界走向“AI創(chuàng)生時代”AIGC視頻生成開啟AI創(chuàng)生時代,重塑視頻產(chǎn)業(yè)鏈僅僅是第一步技術成雙生文明熟終極度第二智慧體系?第二語言術成雙生文明熟終極度第二智慧體系?第二語言 L1:AI生產(chǎn)時代L2:AI原生時代1傳統(tǒng)視頻制作執(zhí)行流程1 策劃 籌備制定視頻內(nèi)容的概念和主題。編寫劇本或提綱,規(guī)劃視頻的情節(jié)和內(nèi)容。確定目標受眾和傳達的信息。確定拍攝地點、演員、道具等資源。制定拍攝計劃和時間表。準備拍攝設備和技術團隊。用戶提示最終生成.用戶提供關于期望視頻內(nèi)容的提示詞或描述性.生成滿 足用戶要求的最終視頻內(nèi)容。.實際拍攝視頻素材。.確保拍攝質(zhì)量和符合劇本要求。 拍攝.1傳統(tǒng)視頻制作執(zhí)行流程1 策劃 籌備制定視頻內(nèi)容的概念和主題。編寫劇本或提綱,規(guī)劃視頻的情節(jié)和內(nèi)容。確定目標受眾和傳達的信息。確定拍攝地點、演員、道具等資源。制定拍攝計劃和時間表。準備拍攝設備和技術團隊。用戶提示最終生成.用戶提供關于期望視頻內(nèi)容的提示詞或描述性.生成滿 足用戶要求的最終視頻內(nèi)容。.實際拍攝視頻素材。.確保拍攝質(zhì)量和符合劇本要求。 拍攝.視頻剪輯和編輯。.添加音效、音樂、特效等元素。.調(diào)整畫面色調(diào)、字幕等。.最終呈現(xiàn)和渲染視頻。4后期基于AIGC視頻生成工具的提示交互式視頻制作范式將重塑傳統(tǒng)視頻制作流程?生成視頻,省去了很多繁瑣步驟,尤其可將攝影、素??基于AIGC工具的提示交互式視頻生成制作流程基于AIGC工具的提示交互式視頻生成制作流程32.用戶對生成的提出修改或調(diào).模型根據(jù)用32.用戶對生成的提出修改或調(diào).模型根據(jù)用戶反饋進行調(diào)整,并重新生成視頻4.模型生成視頻內(nèi)容,包括數(shù)據(jù)來源:甲子光年智庫,2024年以生成式AI技術為底色,已經(jīng)完成部分技術積累MorphstudioRrunway徐圖智能相關賽道企業(yè)若想數(shù)字人本身可以完成部分視頻錄制,雖然暫且無端到端生成(文字直接生成視頻),但可以快速Y蔚領時代對視頻,尤其是專業(yè)視頻(影視、廣告、動畫或游戲具備先發(fā)優(yōu)勢,要么技術更強,建立技術壁壘,要么產(chǎn)品對用戶需求的理解更深,建立用戶粘性和數(shù)據(jù)飛輪具備充分的技術積累,產(chǎn)品豐富,平臺用戶量高Tencen㎡騰訊 以生成式AI技術為底色,已經(jīng)完成部分技術積累MorphstudioRrunway徐圖智能相關賽道企業(yè)若想數(shù)字人本身可以完成部分視頻錄制,雖然暫且無端到端生成(文字直接生成視頻),但可以快速Y蔚領時代對視頻,尤其是專業(yè)視頻(影視、廣告、動畫或游戲具備先發(fā)優(yōu)勢,要么技術更強,建立技術壁壘,要么產(chǎn)品對用戶需求的理解更深,建立用戶粘性和數(shù)據(jù)飛輪具備充分的技術積累,產(chǎn)品豐富,平臺用戶量高Tencen㎡騰訊 伴隨開源模型的出現(xiàn),AI視頻生成將迎來多元化的入局者文生視頻領域迫切需要如文生視頻領域迫切需要如LLama2的模型,非開源SoraSora雖未公測,根據(jù)當下的視頻效果,模型及對應的技術路線與其他公司已經(jīng)拉開差距,但猜測其模型可能仿照ChatGPT,不提供開源模型全民視頻創(chuàng)作的浪潮正蓄勢而來,未來人人都會年數(shù)據(jù)來源:甲子光年智庫18年數(shù)據(jù)來源:甲子光年智庫核心環(huán)節(jié)演進用戶AIGC視頻生產(chǎn)制播一體設備用戶精準推送檢索模糊推送主動檢索內(nèi)容L2-AI原生時代:視頻用戶身份實現(xiàn)“三位一體”核心環(huán)節(jié)演進用戶AIGC視頻生產(chǎn)制播一體設備用戶精準推送檢索模糊推送主動檢索內(nèi)容角色變遷:視頻用戶變?yōu)锳I原生居民,實現(xiàn)生產(chǎn)者、消費者、擁有者“三位一體”越來越多視頻用戶將成為AI原生居民:他們同時是內(nèi)容生產(chǎn)者、消費者和擁有者。個體在視頻內(nèi)容生產(chǎn)、消費和擁有方面擁有更大的主動權和自主性。這階段階段??AIGC角色轉(zhuǎn)換?內(nèi)容消費者?初次內(nèi)容生產(chǎn)者?角色轉(zhuǎn)換?內(nèi)容消費者?初次內(nèi)容生產(chǎn)者專業(yè)人工專業(yè)人工專業(yè)設備專業(yè)內(nèi)容用戶無法自動化無法自動化平臺平臺無法自動化年數(shù)據(jù)來源:甲子光年智庫年網(wǎng)絡時代數(shù)字時代AI原生時代媒體時代古代牌匾內(nèi)容生產(chǎn)者文字+圖片+廣告視頻L2-AI原生時代:視頻成為“第二語言”網(wǎng)絡時代數(shù)字時代AI原生時代媒體時代古代牌匾內(nèi)容生產(chǎn)者文字+圖片+廣告視頻視頻成為人類的第二語言,人類語言告別“詞不達意”階段視頻具有連續(xù)性,視頻表達將不受限于“詞匯量”,比文字表達擁有更豐視頻將成為人類的第二語言,大量用戶會進行行為遷移——原本用文字表達的場景,將用視視頻具有連續(xù)性,視頻表達將不受限于“詞匯量”,比文字表達擁有更豐視頻成為第二語言視頻成為第二語言階段>?素進行交流表達的語言形式。階段>??投放渠道>元宇宙、虛擬世界視頻平臺互聯(lián)網(wǎng)媒體刊物?投放渠道>元宇宙、虛擬世界視頻平臺互聯(lián)網(wǎng)媒體刊物在線,雙向交互變遷>離線離線在線,單向?qū)崟r、沉浸在線,雙向交互變遷>離線離線在線,單向?qū)崟r、沉浸高門檻的內(nèi)容生產(chǎn)、消費者生產(chǎn)、消費、擁有三位一體高門檻的內(nèi)容生產(chǎn)、消費者高門檻的內(nèi)容生產(chǎn)、消費者生產(chǎn)、消費、擁有三位一體高門檻的內(nèi)容生產(chǎn)、消費者角色變遷>內(nèi)容消費者可交互、可編輯、可定制的視頻可交互、可編輯、可定制的視頻文字視頻內(nèi)容形態(tài)>文字+圖片文字視頻內(nèi)容形態(tài)>文字+圖片年數(shù)據(jù)來源:甲子光年智庫年L5:Species完全實現(xiàn)智能交互的數(shù)字人視頻生成大模型L4:Agent語音交互智能化,但在特定場合需要人工接管文本生成大模型L3:Copilot依賴算法驅(qū)動肢體、姿態(tài)、口型、表情等L2:Chatbot依賴外部動捕設備采集肢體、表情和口型信息L1:ToolL5:Species完全實現(xiàn)智能交互的數(shù)字人視頻生成大模型L4:Agent語音交互智能化,但在特定場合需要人工接管文本生成大模型L3:Copilot依賴算法驅(qū)動肢體、姿態(tài)、口型、表情等L2:Chatbot依賴外部動捕設備采集肢體、表情和口型信息L1:Tool主要依賴人工制作形象和動畫效果智能化水平數(shù)字人與視頻生成大模型的結合,推動數(shù)字人發(fā)展進入L5級AIGC視頻生成技術的發(fā)展將會推動數(shù)字人進入全新階段。數(shù)字人與視頻生成大模型(如Sora)的結合,提升了數(shù)字人的逼真度和互動性,其擬人化程度終極:硅基生命數(shù)字人可自主理解世界、形成關系互動備算法層鏈平臺層文本數(shù)據(jù)類公司視頻數(shù)據(jù)類公司類公司算力層備算法層鏈平臺層文本數(shù)據(jù)類公司視頻數(shù)據(jù)類公司類公司算力層應用層與交互層在B端C端都將帶來無窮想象空間應用層與交互層在AIGC視頻生成將加速元宇宙世界的內(nèi)容構建虛擬活動虛擬活動影音機聲控設備智能體XR頭顯/眼鏡腦機接口手勢識別及控制設備觸控設備未來發(fā)展重心在應用內(nèi)容構建政務工業(yè)制造虛擬人人形機器人泛娛樂社交購物教培通用場景數(shù)字支付平臺VR互動平臺人機交互社交游戲應用層交互層虛擬辦公共識機制共識機制密碼學技術智能合約鏈式存儲視頻等多模態(tài)傳遞信息為主的人機交互文本具身智能機器人機器人人/機器CA圖片DAB視覺數(shù)字視頻物理世界信息數(shù)字世界物理世界信息宙文本仿真多模態(tài)數(shù)字世界+物理世界視頻等多模態(tài)傳遞信息為主的人機交互文本具身智能機器人機器人人/機器CA圖片DAB視覺數(shù)字視頻物理世界信息數(shù)字世界物理世界信息宙文本仿真多模態(tài)數(shù)字世界+物理世界視頻成為機器理解物理世界的主要媒介,推動AI與物理世界進一步融合人機交互進入視頻語言時代。與傳統(tǒng)人機交互相比,視頻語言在信息表達形AIGC視頻生成與具身智能、工業(yè)視覺、工業(yè)元宇宙等方向的文本傳遞信息為主的人機交互BBBBCCBBBB交互語言:文字為主,傳統(tǒng)人機交互主要依賴于鍵盤、鼠標、觸摸屏等輸入設備以及文字、圖像、聲音等輸出方式進行交流。交互語言:聲音、動作、表情、場景……交互語言:文字為主,傳統(tǒng)人機交互主要依賴于鍵盤、鼠標、觸摸屏等輸入設備以及文字、圖像、聲音等輸出方式進行交流。信息表達:信息含量低。傳統(tǒng)人機交互以文字、圖像、聲音等為主要表達方式,信息相對單一。感知能力:傳統(tǒng)人機交互主要依賴于計算機對文字、圖像、聲音等信息信息表達:信息含量低。傳統(tǒng)人機交互以文字、圖像、聲音等為主要表達方式,信息相對單一。感知能力:傳統(tǒng)人機交互主要依賴于計算機對文字、圖像、聲音等信息的理解和處理能力。感知能力:視頻語言時代的人機交互需要計算機具備更強的視頻感知和理解能力,能夠識別、理解和分析視頻中的內(nèi)容和情境。交互體驗:單向交互模型。傳統(tǒng)人機交互通常是靜態(tài)的,用戶通過鍵盤、鼠標等輸入設備與計算機進行交互,交互過程相對單一。交互體驗:實時、沉浸式交互。視頻語言時代的人機交互更加動態(tài)和生動,用交互體驗:單向交互模型。傳統(tǒng)人機交互通常是靜態(tài)的,用戶通過鍵盤、鼠標等輸入設備與計算機進行交互,交互過程相對單一。年23數(shù)據(jù)來源:甲子光年智庫年23第五步第二步第三步第四步2.4L3-AI創(chuàng)生時代:數(shù)字科研推動新一輪“科學革命”第五步第二步第三步第四步AIGC生成技術與數(shù)字孿生、仿真等融合,可驅(qū)動科技研發(fā)進入全新范式AIGC生成技術與數(shù)字孿生、仿真等技術的融合可以探索出一條基于虛擬世界仿真的科技研發(fā)模型。這種模型可以通過在虛擬世界中建立逼真的數(shù)字孿生模型和仿AI的進一步發(fā)展,將推動數(shù)字科研加快實現(xiàn)。未來數(shù)字科研模型有望成為科學研究的通AI的進一步發(fā)展,將推動數(shù)字科研加快實現(xiàn)。未來數(shù)字科研模型有望成為科學研究的通第一步第一步AIGC生成虛擬世界內(nèi)容進行科技研究和實驗物理世界驗證和實踐構建新型科研范式建立數(shù)字孿生模型和仿真環(huán)境AIGC生成虛擬世界內(nèi)容進行科技研究和實驗物理世界驗證和實踐構建新型科研范式在虛擬世界中得到的研究成果在虛擬世界中得到的研究成果和解決方案可以在現(xiàn)實物理世界進行驗證和實踐,通過實驗通過AIGC生成技術,可以生成逼真的虛擬世界內(nèi)容,包括各種場景、人物、物體、聲光等,以豐在虛擬世界中進行科技研究和實驗,利用數(shù)字孿生模型和仿探索新的科技解決方案和創(chuàng)新基于虛擬世界仿真的科技研發(fā)模型,可以為科研人員提供更加靈活、高效、低成本的研究平臺,加速科技創(chuàng)新和成果轉(zhuǎn)孿生模型和仿真環(huán)境,包括各年24數(shù)據(jù)來源:甲子光年智庫年24②③感知預輸入①預測匹配/思考形成認知④ 感知輸入匹配/思考形成認知生成預測①②③④②③感知預輸入①預測匹配/思考形成認知④ 感知輸入匹配/思考形成認知生成預測①②③④兩種世界模型:預測式模型和生成式模型世界模型的核心路徑分歧來自于:世界是不是真的需要一個解析解?人類依靠大腦來理解世界。美國藝術與科學學院院士、加拿大皇家學會院士莉莎·費德曼·巴瑞特在《認識大腦》一書中提出了人類大腦通過對外界刺激進行預測來解釋和理解世界的過程。甲子光年將這個過程概括為四個階段:預測階段、感知階段、匹配/思考階段、形成認知階段,可簡稱為“預測式模型”。是否遵循大腦理解世界的模式構成了世界模型的不同思路,將催生不同技術路線。伴隨AI創(chuàng)生時代到來,我們將迎來人類大腦智慧之外的“第二智慧體系”。甲子光年將世界模型大體劃分為兩類:-第一智慧體系:預測式世界模型,代表是人類大腦,Meta的V-JEPA也屬于預測式模型。-第二智慧體系:生成式世界模型,代表是ChatGPT、Sora等深度學習的數(shù)據(jù)驅(qū)動流派。深度學習的數(shù)據(jù)驅(qū)動流派的核心思路是:通過大量數(shù)據(jù)模擬世界所得到的結果可能會比一個解析解更能反映世界的真實物理,更能體現(xiàn)智能。人類智慧只是智慧的一種范式,ChatGPT、Sora等范式已能夠通過大量模擬世界學習到世界規(guī)律。因此,用一個物理公式概括現(xiàn)實世界的思路并不一定正確,深度學習的數(shù)據(jù)驅(qū)動流派開啟的“第二智慧體系”也可能成為理解世界最終奧妙的一把鑰匙,而非追求解析解。感知前的預測階段,大腦基于內(nèi)部模型、先前經(jīng)驗和期望,預測可能發(fā)生的情況。對外界刺激的感知,接受外部刺激,形成感知信號,并進行感知輸入。在預測與感知的匹配階段,大腦將外界刺激與先前的預測進行匹配,并調(diào)節(jié)、更新預測,以使其與感在意義建構和理解階段,大腦解釋、理解感知到的信息,并將其納入更廣泛的認知框架中。形成認知形成認知新形態(tài)的新形態(tài)的交互行為、角色、載體形態(tài)的變化推動人類認知重塑,并形成新文化圈層輯和可定制的形式,使得視頻成為了更加靈活多樣的信息傳遞載體。AI的歸AI,人類的歸人類符號世界眼耳鼻舌身意心靈世界無限的創(chuàng)意和想象無限的創(chuàng)意和想象世界模型世界模型物理世界物理世界心靈世界文明的演進:人類文明進入與AI共建共生的“雙生時代”,AI的歸AI,人類的歸人類符號世界眼耳鼻舌身意心靈世界無限的創(chuàng)意和想象無限的創(chuàng)意和想象世界模型世界模型物理世界物理世界心靈世界文明的演進:人類文明進入與AI共建共生的“雙生時代”,圖2:人與AI共建共生的“雙生時代”圖2:人與AI共建共生的“雙生時代”AIAI符號世界眼耳鼻眼耳鼻舌身意備注說明:波普爾的世界三元組):第二元:心靈世界(World2):指的是個體的主觀第三元:符號世界(World3):指的是人類通過語言、符號和文化制度等共同建構的文化世界,包括科學理論、藝術作品、社會制度、文化傳統(tǒng)等。符號世界是人類共同的文化積累年27數(shù)據(jù)來源:甲子光年智庫年27PartPart02AIGC視頻生成推動世界走向“AI創(chuàng)生時代” 短視頻類新聞資訊微短劇綜藝節(jié)目視頻內(nèi)容的兩大類型:短視頻和長視頻短視頻類新聞資訊微短劇綜藝節(jié)目IP→內(nèi)容→衍生,是視頻內(nèi)容價值鏈的主要邏輯鏈條,長視頻與短視頻是兩大核心類型游戲策劃/產(chǎn)品鏈>衍生品開發(fā)IP評估與交易劇本開發(fā)與策劃投資評估內(nèi)容生產(chǎn)制作主要職責>制作公司視頻平臺制作公司制作公司制作公司視頻平臺衍生品設計 核心角色>編劇工作室投資公司數(shù)字平臺衍生品開發(fā)策劃工作室后期公司發(fā)行公司傳統(tǒng)電視臺海外視頻平臺游戲公司視頻制作工具票務平臺策劃/產(chǎn)品鏈>衍生品開發(fā)IP評估與交易劇本開發(fā)與策劃投資評估內(nèi)容生產(chǎn)制作主要職責>制作公司視頻平臺制作公司制作公司制作公司視頻平臺衍生品設計 核心角色>編劇工作室投資公司數(shù)字平臺衍生品開發(fā)策劃工作室后期公司發(fā)行公司傳統(tǒng)電視臺海外視頻平臺游戲公司視頻制作工具票務平臺視頻產(chǎn)業(yè)鏈包含七個關鍵環(huán)節(jié),制作環(huán)節(jié)是最核心環(huán)節(jié),也是AI視頻生成工具現(xiàn)階段主要圖:傳統(tǒng)視頻產(chǎn)業(yè)鏈及關鍵核心角色內(nèi)容宣傳發(fā)行內(nèi)容播放 長視頻需覆蓋完整視頻產(chǎn)業(yè)鏈,短視頻則更注重分發(fā)和變現(xiàn)長視頻與短視頻在產(chǎn)業(yè)鏈中的各自側(cè)重點有顯著性差異。長視頻需要完整覆蓋視短視頻>制作分發(fā)技術成熟度短視頻社交長視頻處在L1階段短視頻已邁入L2階段終極?技術成熟度短視頻社交長視頻處在L1階段短視頻已邁入L2階段終極?短視頻正在進入AI原生時代,長視頻正在進入AI生產(chǎn)時代的局限性,導致一些具有高度專業(yè)性的領域僅僅將其作為生產(chǎn)工具,例如為電影、劇集等提供素材來源,尚無法帶來顛覆性重塑,但的局限性,導致一些具有高度專業(yè)性的領域僅僅將其作為生產(chǎn)工具,例如為電影、劇集等提供素材來源,尚無法帶來顛覆性重塑,但短視頻領域則會首先面臨AIGC視頻生成技術的顛覆,甲子光年智庫判斷短視頻領域?qū)M入L2即AI原生時代,短視頻產(chǎn)業(yè)鏈將不復L1:AI生產(chǎn)時代L2:AI原生時代年32數(shù)據(jù)來源:甲子光年智庫年32數(shù)字時代短視頻的角色分工AI原生時代的短視頻平臺……AI原生平臺數(shù)字人口播素材生成視頻生成個人平臺AI克隆音色圖文成片分鏡特效數(shù)字時代短視頻的角色分工AI原生時代的短視頻平臺……AI原生平臺數(shù)字人口播素材生成視頻生成個人平臺AI克隆音色圖文成片分鏡特效短視頻進入AI原生時代,產(chǎn)業(yè)鏈被壓縮,催生AI原生模式的新型平臺浸是指實現(xiàn)全面體驗的沉浸式視頻生產(chǎn)。實時是低延時的視頻快速生成?;邮侵敢贿吔换υ捯贿呥M行視頻調(diào)整的個性化、定制化的互動視頻。聚聯(lián)是指去中心化的生產(chǎn)方式。數(shù)字時代短視頻的工作流數(shù)字時代短視頻的工作流年33數(shù)據(jù)來源:甲子光年智庫年33C端用戶B端用戶去中心化平臺C端用戶B端用戶去中心化平臺新型制播一體的AI原生內(nèi)容平臺,有望顛覆短視頻平臺格局,每個用戶既是導演又是平臺可以建立直播平臺。內(nèi)容創(chuàng)作者的價值將更注重創(chuàng)意能力、解決實際問題的能力、個人IP影響力等。負責創(chuàng)意的生產(chǎn)提供,既可以是B端用戶也可以是C端用戶自行產(chǎn)生。負責創(chuàng)意的生產(chǎn)提供,既可以是B端用戶也可以是C端用戶自行產(chǎn)生。負責生成視頻的流量分發(fā)與內(nèi)容變現(xiàn),將會催生三大類型的變現(xiàn)平臺:最中心的流量分發(fā)平臺、外圍的直播平臺、用戶平臺。生成,平臺負責為用戶提供全套的視頻生成工具。用戶以導演的角色進行交互式生成用戶以導演的角色進行交互式生成流量分發(fā)AIGCAIGC視頻生成大模型!注重向下游尋找發(fā)行資源和播映渠道更注重向上游拓展優(yōu)質(zhì)IP和創(chuàng)意能力視頻制作環(huán)節(jié)難度下降,成本降低,將會推動產(chǎn)業(yè)鏈上游和下游發(fā)展!注重向下游尋找發(fā)行資源和播映渠道更注重向上游拓展優(yōu)質(zhì)IP和創(chuàng)意能力視頻制作環(huán)節(jié)難度下降,成本降低,將會推動產(chǎn)業(yè)鏈上游和下游發(fā)展制作環(huán)節(jié)難度下降,將會助推產(chǎn)業(yè)鏈上游的創(chuàng)意環(huán)節(jié)和下游宣發(fā)播映環(huán)節(jié)重要程度上升,好故事、好腳本、好平臺將成為視頻產(chǎn)業(yè)的核心競爭力新核心環(huán)節(jié)>新核心環(huán)節(jié)>35映后開發(fā)策劃/劇本視頻生成應用層視頻生成文本+劇本視頻+人機交互文本+小說視頻+元宇宙視頻+剪輯視頻+特效視頻+3D視頻+動作圖片+設計圖片+海報圖片+美術圖片+設計視頻+剪輯視頻+渲染文本+策劃音頻+配樂音頻+配樂文本+創(chuàng)意視頻生成基礎層音頻生成文本生成模型音頻生成 圖片生成模型長視頻生成模型圖片生成模型短視頻生成模型映后開發(fā)策劃/劇本視頻生成應用層視頻生成文本+劇本視頻+人機交互文本+小說視頻+元宇宙視頻+剪輯視頻+特效視頻+3D視頻+動作圖片+設計圖片+海報圖片+美術圖片+設計視頻+剪輯視頻+渲染文本+策劃音頻+配樂音頻+配樂文本+創(chuàng)意視頻生成基礎層音頻生成文本生成模型音頻生成 圖片生成模型長視頻生成模型圖片生成模型短視頻生成模型重塑后的視頻產(chǎn)業(yè)鏈將整合簡化為三大環(huán)節(jié):創(chuàng)意生成—視頻生成—宣發(fā)播映?主要包括原IP、策劃/劇本和映后開發(fā)環(huán)節(jié)。?主要以講好故事、做好創(chuàng)意策劃為?需要整合文本生成和圖像生成模型。?主要包括制作環(huán)節(jié)。?主要負責將故事由文本變?yōu)橐曨l內(nèi)?需要具備長視頻生成和音頻生成模?主要包括宣發(fā)與播映環(huán)節(jié)。?主要負責將生成視頻內(nèi)容進行宣傳和播放。?需要具備短視頻生成、音頻生成和圖片生成模型。視頻生成模型產(chǎn)業(yè)體系視頻生成應用層宣發(fā)播映模型產(chǎn)業(yè)體系票務平臺院線傳媒公司視頻制作工具動畫公司短視頻平臺長視頻平臺制作公司數(shù)字平臺營銷公司教育培訓經(jīng)紀公司發(fā)行公司傳統(tǒng)電視臺廣告公司后期公司算法層視頻生成文本生成工具廠商音頻生成工具廠商音頻生成工具廠商圖片生成工具廠商圖片生成工具廠商長視頻生成工具廠商短視頻生成工具廠商視頻生成基礎層文本生成+圖片生成的大模型廠商長視頻生成+音頻生成的大模型廠商視頻數(shù)據(jù)類公司短視頻+音頻+圖片生成的多模態(tài)大模型廠商平臺層數(shù)據(jù)平臺文本數(shù)據(jù)類公司圖片數(shù)據(jù)類公司算力層AIDC智算中心視頻生成模型產(chǎn)業(yè)體系視頻生成應用層宣發(fā)播映模型產(chǎn)業(yè)體系票務平臺院線傳媒公司視頻制作工具動畫公司短視頻平臺長視頻平臺制作公司數(shù)字平臺營銷公司教育培訓經(jīng)紀公司發(fā)行公司傳統(tǒng)電視臺廣告公司后期公司算法層視頻生成文本生成工具廠商音頻生成工具廠商音頻生成工具廠商圖片生成工具廠商圖片生成工具廠商長視頻生成工具廠商短視頻生成工具廠商視頻生成基礎層文本生成+圖片生成的大模型廠商長視頻生成+音頻生成的大模型廠商視頻數(shù)據(jù)類公司短視頻+音頻+圖片生成的多模態(tài)大模型廠商平臺層數(shù)據(jù)平臺文本數(shù)據(jù)類公司圖片數(shù)據(jù)類公司算力層AIDC智算中心重塑后的視頻產(chǎn)業(yè)鏈將會變?yōu)榛谌竽P腕w系的全新產(chǎn)業(yè)鏈,并帶來全新的生產(chǎn)方式創(chuàng)意生成模型產(chǎn)業(yè)體系創(chuàng)意生成模型產(chǎn)業(yè)體系制作公司文學平臺出版社游戲公司編劇工作室衍生品設計策劃工作室衍生品開發(fā)AI芯片公司 生產(chǎn)出版發(fā)行用戶消費IP版權生產(chǎn)模式>獲取授權再開發(fā)內(nèi)容推廣IP版權交易模式>版權確認數(shù)字簽約IP版權生產(chǎn)交易開發(fā)一體化的平臺生產(chǎn)出版發(fā)行用戶消費IP版權生產(chǎn)模式>獲取授權再開發(fā)內(nèi)容推廣IP版權交易模式>版權確認數(shù)字簽約IP版權生產(chǎn)交易開發(fā)一體化的平臺IP版權生產(chǎn)交易開發(fā)一體化的平臺有望成為新的發(fā)展機遇傳統(tǒng)的版權生產(chǎn)與交易模式傳統(tǒng)的版權生產(chǎn)與交易模式作者版權擁有方普通用戶專業(yè)用戶版權代理方影視公司游戲公司動漫公司影視公司游戲公司動漫公司且可以是文本文章、圖片、音頻剪輯、視頻片段等各種形式的內(nèi)容。版權交易不再是人與人之間的交易,而是創(chuàng)作者與技術平臺之間的交使用監(jiān)控使用監(jiān)控創(chuàng)作者VS技術平臺定價和許可38人人都是小說家準備工作?選擇一個用于生成文本的AIGC模型,可以是一個預訓練好的通用語言模型,也可以是經(jīng)過?確定故事基本框架,包括主要人物、情節(jié)發(fā)展、背景設定等方面的內(nèi)容。這些信息將作為設定故事框架?基于設定好的故事框架使用AIGC模型生成文本。通過向模型提供一些關鍵詞、句子或段落生成文本篩選和編輯?在使用AIGC模型生成文本的同時,還可以發(fā)揮作家的創(chuàng)意和思維進行人工創(chuàng)作和整合,以人工創(chuàng)作與整合人人都是小說家準備工作?選擇一個用于生成文本的AIGC模型,可以是一個預訓練好的通用語言模型,也可以是經(jīng)過?確定故事基本框架,包括主要人物、情節(jié)發(fā)展、背景設定等方面的內(nèi)容。這些信息將作為設定故事框架?基于設定好的故事框架使用AIGC模型生成文本。通過向模型提供一些關鍵詞、句子或段落生成文本篩選和編輯?在使用AIGC模型生成文本的同時,還可以發(fā)揮作家的創(chuàng)意和思維進行人工創(chuàng)作和整合,以人工創(chuàng)作與整合白金作家群體不再成為稀有資源,未來人人都是小說家,中小型文學平臺將可能迎來春天現(xiàn)階段的作家群體分布呈現(xiàn)金字塔狀態(tài)現(xiàn)階段的作家群體分布呈現(xiàn)金字塔狀態(tài)占比90.6%的公眾作家,其將成為很多視頻生成平白金作家大神作家普通作家公眾作家39沉浸式互動點播云影院有望成為第三大發(fā)行體系院線為主線上渠道帶貨視頻平臺云影院互臺線下渠道銷售傳統(tǒng)廠牌制片網(wǎng)絡平臺深度參與制片個性化設計生產(chǎn)AI平臺+用戶深度參與制片家庭娛樂產(chǎn)品發(fā)行包月視頻點播服務電視付費視頻點播付費電視不付費電視/付費有線電視頻道沉浸式互動點播云影院有望成為第三大發(fā)行體系院線為主線上渠道帶貨視頻平臺云影院互臺線下渠道銷售傳統(tǒng)廠牌制片網(wǎng)絡平臺深度參與制片個性化設計生產(chǎn)AI平臺+用戶深度參與制片家庭娛樂產(chǎn)品發(fā)行包月視頻點播服務電視付費視頻點播付費電視不付費電視/付費有線電視頻道傳統(tǒng)制播分離模式將被拋棄,沉浸式互動點播云影院將成新機遇傳統(tǒng)的宣發(fā)模式是制播分離的傳統(tǒng)的宣發(fā)模式是制播分離的傳統(tǒng)視頻宣發(fā)模式導致下游宣發(fā)播映環(huán)節(jié)過于依賴影院等傳統(tǒng)平臺或長視頻平臺。傳統(tǒng)視頻宣發(fā)模式導致下游宣發(fā)播映環(huán)節(jié)過于依賴影院等傳統(tǒng)平臺或長視頻平臺。隨著AIGC視頻生成對視頻產(chǎn)業(yè)鏈的重塑,過去基于固定宣發(fā)流程的發(fā)行模式有望向互動點播模式轉(zhuǎn)型,以AI平臺為核心,讓用戶深度參與電影前期的劇本創(chuàng)作和內(nèi)容生產(chǎn),并在沉浸式互動點播云影院上線,滿足不同用戶對故事走向的不同需求。點播影院模式一直是小眾市場。圖1:傳統(tǒng)專業(yè)長視頻發(fā)行模式:以美國電影發(fā)22345671影院發(fā)行影院發(fā)行點映模式在中國市場尚是小眾市場PartPart02AIGC視頻生成推動世界走向“AI創(chuàng)生時代” 年復合增長率提高幅美國經(jīng)濟體文娛業(yè)在調(diào)整期后反而成為投資高增長領域30%電影電視節(jié)目書籍音樂其他金融危機后42.828.819.815.825%20%15%10%5%度0%-5%200%-10%0203040506070809101112131415年復合增長率提高幅美國經(jīng)濟體文娛業(yè)在調(diào)整期后反而成為投資高增長領域30%電影電視節(jié)目書籍音樂其他金融危機后42.828.819.815.825%20%15%10%5%度0%-5%200%-10%02030405060708091011121314151617視頻是文娛產(chǎn)業(yè)的核心內(nèi)容形態(tài),將會受到大經(jīng)濟周期的影響,迎來新的發(fā)展機遇美國在經(jīng)濟調(diào)整期時增長最快的行業(yè)是文娛業(yè)美國在經(jīng)濟調(diào)整期時增長最快的行業(yè)是文娛業(yè) 高增長..零售業(yè)●● 壓縮批發(fā)業(yè) 壓縮批發(fā)業(yè).高擴張高擴張150%-50%0%50%250%300%350%100%150%-50%0%50%250%300%350%收入規(guī)模提高比例42平均投資規(guī)模50平均投資規(guī)模50第一輪投資浪潮中,文娛產(chǎn)業(yè)投資聚焦內(nèi)容生態(tài)本身,而忽視了底層技術領域視頻影視時尚服飾美食影音-網(wǎng)絡文學音樂新媒體圖像處理藝人經(jīng)紀重點領域拓展領域試水領域在線電臺游戲傳媒體育動漫廠5543氣泡大小代表投資企業(yè)數(shù)量時尚服圖像處在線電體育動漫音樂藝人經(jīng)網(wǎng)絡文游戲影視2017201520142013新媒體娛樂營視頻制作和播映環(huán)節(jié)是過往投資重點宣發(fā)環(huán)節(jié)是過往投資缺失環(huán)節(jié)創(chuàng)意生成環(huán)節(jié)是過往投資缺失環(huán)節(jié)氣泡大小代表投資企業(yè)數(shù)量時尚服圖像處在線電體育動漫音樂藝人經(jīng)網(wǎng)絡文游戲影視2017201520142013新媒體娛樂營視頻制作和播映環(huán)節(jié)是過往投資重點宣發(fā)環(huán)節(jié)是過往投資缺失環(huán)節(jié)創(chuàng)意生成環(huán)節(jié)是過往投資缺失環(huán)節(jié)BAT在第一輪投資浪潮的主投資方向是內(nèi)容制作和播映平臺,對創(chuàng)意生成、技術領域缺乏關注展上游和下游布局。20162012201120112010視視頻學紀銷202年圖2:2011-2017年BAT企業(yè)影IP策劃/劇本投資內(nèi)容制作發(fā)行售票放映衍生品44投資規(guī)模?播映發(fā)行4.3文娛領域有望開啟第二輪投資浪潮投資規(guī)模?播映發(fā)行經(jīng)濟周期調(diào)整與技術革命雙重加持將推動以視頻為核心內(nèi)容形態(tài)的文娛產(chǎn)業(yè)迎來第二輪爆發(fā)期圖:以視頻內(nèi)容形態(tài)為核心的文娛領域投資周期曲線圖第一波文娛投資高峰期第二波第一波文娛投資高峰期文娛投資高峰期?AI視頻工具?創(chuàng)意生成產(chǎn)業(yè)?宣發(fā)播映平臺?AI技術+內(nèi)容型現(xiàn)在公司:內(nèi)容生態(tài)型文學影視游戲影視影視綜藝影視衍生品影視游戲 文學上游文學音樂算法層品 下游平臺層算力層4.3文娛領域有望開啟第二輪投資浪潮現(xiàn)在公司:內(nèi)容生態(tài)型文學影視游戲影視影視綜藝影視衍生品影視游戲 文學上游文學音樂算法層品 下游平臺層算力層第二輪圍繞視頻內(nèi)容為核心的投資熱點領域,將以視頻內(nèi)容+技術的生態(tài)型公司為主在第一輪文娛領

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論