版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
基于AI的虛擬主播設計第1章虛擬人全套可編輯PPT課件虛擬數(shù)字人的應用虛擬人的市場有關(guān)虛擬人目錄/說課流程TeachingProcess一二三有關(guān)“虛擬人”一
“虛擬人”定義虛擬人是通過計算機圖形學技術(shù)(ComputerGraphic,CG)創(chuàng)造出與人類形象接近的數(shù)字化形象,賦予其特定的人物身份設定。
延伸概念以“虛擬人”為開端,出現(xiàn)虛擬人、數(shù)字人和虛擬數(shù)字人這三種身份概念。虛擬人身份是虛構(gòu)的;而數(shù)字人則強調(diào)該構(gòu)造角色存在于數(shù)字世界之中;虛擬數(shù)字人概念主要強調(diào)其虛擬身份和數(shù)字化制作特性。虛擬人介紹存在于非物理世界,但實現(xiàn)難度不同。“虛擬”依托多項技術(shù)實現(xiàn),相關(guān)技術(shù)成熟為其發(fā)展的提供重要推動力?!皵?shù)字”在外表,行為、交互等方面高度擬人化。“人”虛擬數(shù)字人具體特征可以拆分為“虛擬”、“數(shù)字”及“人”三個部分。虛擬數(shù)字人虛擬數(shù)字人特征外表擬人化行為交互形式新穎虛擬數(shù)字人的面部長相與整體形象。因材施教虛擬數(shù)字人中的“人”作為其核心要素。循序漸進虛擬數(shù)字人的面部表情、形體表達、語音表述等。分層兼顧虛擬數(shù)字人與現(xiàn)實世界的交互水平,包括回答內(nèi)容、肢體反應等。虛擬數(shù)字人——“人”的體現(xiàn)虛擬數(shù)字人構(gòu)成虛擬數(shù)字人的分類人格象征和圖形維度是虛擬數(shù)字人常見的分類依據(jù),此外,驅(qū)動類型也可作為其分類依據(jù)。010203“人格象征”根據(jù)人格象征進行分類,虛擬數(shù)字人可分為虛擬IP和虛擬世界第二分身。“圖形維度”根據(jù)人物圖形維度分類,虛擬數(shù)字人可分為2D和3D兩大類,從外形上可分為卡通、寫實等風格?!膀?qū)動類型”按照驅(qū)動類型進行劃分,虛擬數(shù)字人可分為智能驅(qū)動型數(shù)字人以及真人驅(qū)動型數(shù)字人。虛擬人的市場二2017年的“加快人工智能等技術(shù)研發(fā)和轉(zhuǎn)化”,2018年“加強新一代人工智能應用”,2020年“深化大數(shù)據(jù)、人工智能等研發(fā)應用”。政策環(huán)境“聲行并茂”的虛擬人離不開技術(shù)環(huán)境的支持,涉及眾多技術(shù)領(lǐng)域,涵蓋AI技術(shù)、實時渲染技術(shù)、3D建模技術(shù)以及動作捕捉技術(shù)等。技術(shù)環(huán)境國民消費結(jié)構(gòu)升級,消費者更加注重精神消費,未來在教育文化娛樂消費方面的需求將會增加,為虛擬人產(chǎn)業(yè)提供經(jīng)濟發(fā)展推動力。經(jīng)濟環(huán)境“Z世代”逐步成為消費主力,用戶偏好重塑產(chǎn)業(yè)形態(tài),而這些消費主力對虛擬人的需求較大,這也促使虛擬人產(chǎn)業(yè)的發(fā)展。社會環(huán)境虛擬人的發(fā)展環(huán)境廠商深耕軟硬件行業(yè),具有深厚技術(shù)壁壘。基礎層為虛擬人提供基礎軟件支撐,硬件包括顯示設備、光學器件、傳感器、芯片等,基礎軟件包括建模軟件、渲染引擎。提供多元技術(shù)支持,賦予虛擬人真實感及靈動感。平臺層包括軟硬件系統(tǒng)、生產(chǎn)技術(shù)服務平臺、AI能力平臺,為虛擬人的制作及開發(fā)提供技術(shù)能力。帶領(lǐng)虛擬人切入商業(yè)化賽道。應用層是指虛擬人技術(shù)結(jié)合實際應用場景,切入各類,形成行業(yè)應用解決方案,賦能行業(yè)領(lǐng)域?;A層平臺層應用層虛擬人的產(chǎn)業(yè)鏈虛擬人根據(jù)產(chǎn)業(yè)應用可分為:服務型虛擬數(shù)字人和身份型虛擬數(shù)字人。預計到2030年,我國虛擬數(shù)字人國內(nèi)市場規(guī)模將達到2700億。其中,得益于虛擬IP的巨大潛力以及虛擬第二分身的起步,身份型虛擬數(shù)字人將占據(jù)主導地位,約1750億;服務型虛擬數(shù)字人則相對穩(wěn)定發(fā)展,代替真人服務的虛擬數(shù)字人市場規(guī)模將增長至840.2億元,多種對話式服務升級至虛擬數(shù)字人形態(tài),多模態(tài)AI助手市場規(guī)模將達到115.2億元,服務型虛擬數(shù)字人總規(guī)模超過950億。虛擬人的市場規(guī)模虛擬數(shù)字人的應用三由卡梅隆導演的《阿凡達》,全片以CG技術(shù)塑造了一批生動逼真的虛擬數(shù)字人物,有聲有色地刻畫出了潘朵拉星球上的納美人。2019年,由二十世紀福克斯電影公司出品的科幻動畫片《阿麗塔:戰(zhàn)斗天使》中主角阿麗塔的人物,讓虛擬數(shù)字人的形象塑造達到了逼真度的巔峰級別。影視領(lǐng)域的虛擬數(shù)字人《賽博朋克2077》是一款開放式角色扮演類游戲,由波蘭CDPR團隊推出,生動的描繪了未來世界背景下獨特的賽博風格?!队澜贌o間》是由國內(nèi)二十四工作室制作的多人動作競技類游戲,該游戲以玄幻的虛擬世界為背景,具有濃厚的東方神秘色彩。游戲領(lǐng)域的虛擬數(shù)字人娛樂行業(yè)的虛擬數(shù)字人虛擬歌手2007年,日本推出的以語音合成程序為基礎開發(fā)的音源庫“初音未來”,成為首個現(xiàn)象級虛擬歌手。2012年,上海的一家公司推出了國內(nèi)著名的虛擬歌手洛天依。為提高虛擬數(shù)字人的社會認知度作出了貢獻,也獲得了行業(yè)和社會的認可。虛擬網(wǎng)紅LilMiquelaAI國風偶像LingMetahumanAYAYI虛擬偶像虛擬網(wǎng)紅2021年10月31日,一個名為“柳夜熙”的短視頻賬號依靠她的第一條短視頻吸粉無數(shù),“元宇宙”“虛擬網(wǎng)紅”“美妝”這三大關(guān)鍵詞作為柳夜熙的標簽,使其的出現(xiàn)極具話題性。由此可見,虛擬網(wǎng)紅的出現(xiàn),可以衍生各種角色交互形成的世界觀,給觀眾帶來更大的想象空間。虛擬網(wǎng)紅其他應用123金融行業(yè)智能理財顧問、智能客服等,提供以客戶為中心的、智能高效的個性化服務,優(yōu)化完善金融行業(yè)服務流程。醫(yī)療行業(yè)虛擬家庭陪護、虛擬家庭醫(yī)生等,降低用戶前往醫(yī)院、排隊掛號的不便性,并且為用戶提供居家就可體驗的健康檢測優(yōu)質(zhì)服務。教育行業(yè)擬教師可為學生構(gòu)建個性化學習環(huán)境,以VR/AR提供場景式教育環(huán)境,相比傳統(tǒng)教學方式效率更高,與學生的互動性更強。虛擬數(shù)字人其他應用感謝您的聆聽基于AI的虛擬主播設計第2章虛擬主播虛擬主播出道虛擬主播的優(yōu)勢主播是什么樣的職業(yè)目錄/說課流程TeachingProcess一二三主播是什么樣的職業(yè)一主播與其背后的職能主播是指“主持人型播音員”,簡單理解,播音是為現(xiàn)成的文稿提供聲音播報,主持過程中“自我發(fā)揮”的內(nèi)容占比很大。010203隨著互聯(lián)網(wǎng)技術(shù)的深入研究,“人人都可成主播”標志著泛主播時代已經(jīng)到來。在泛主播時代,主播的定義和范疇從傳統(tǒng)媒體的播音主持人,擴大到互聯(lián)網(wǎng)視頻節(jié)目的創(chuàng)作者。泛主播時代改變了原有傳統(tǒng)媒體主播的傳播主體地位。傳統(tǒng)主播注意點03傳統(tǒng)媒體應該增加“親民度”。02傳統(tǒng)新聞主播應該在保持傳統(tǒng)媒體自身優(yōu)勢的基礎上,使媒體融合多層次、寬領(lǐng)域地發(fā)展。04傳統(tǒng)媒體主播作為主流輿論的引領(lǐng)者,要與時俱進、提高專業(yè)能力。01傳統(tǒng)新聞主播應看到新媒體的優(yōu)勢,取長補短,使新聞媒介的功效得到更好的發(fā)揮。05傳統(tǒng)媒體主播要重視用戶需求。傳統(tǒng)主播與其主體地位
傳統(tǒng)主播傳統(tǒng)主播就是相對于網(wǎng)絡主播的一個概念。狹義的“主播”專指在新聞節(jié)目中處于核心位置的播音員、主持人或者評論員。廣義的“主播”是指主持各類節(jié)目,用本身的語言表達能力使節(jié)目可以順利進行的人。
非傳統(tǒng)主播指各大平臺以娛樂、直播帶貨、游戲等為主題進行直播的各類主播。具有代表性的娛樂主播是目前市場上數(shù)量最多、入行門檻最低的主播類型,也是大多數(shù)直播平臺的主力軍。行業(yè)中的不同主播虛擬主播的優(yōu)勢二ABCD全天候待命與超低錯誤率與真人主播相比,虛擬主播能全天候待命,并在有任務需求時立刻進入狀態(tài)。另外,虛擬主播可以借助程序快速完成新聞稿的生產(chǎn),從而保證極高的效率。實驗階段短,培養(yǎng)成本低虛擬主播能在誕生之前就擁有傳輸入庫的由無數(shù)播報員積累起來的經(jīng)驗,并且依靠深度學習能力進行分析利用,使其一開始就有非凡、龐大的學習資源。不受環(huán)境影響的業(yè)務能力虛擬主播可以使用無人機等拍攝裝備作為本體進行近距離拍攝和實時轉(zhuǎn)播,在無人員傷亡的情況下消化極端惡劣的工作環(huán)境?!盁o所不知”的潛力虛擬主播“與生俱來”的資料庫和學習能力,可以輕松勝任訪談類節(jié)目的主持人,并與各個領(lǐng)域的專家交談。虛擬主播的優(yōu)勢虛擬主播“出道”三2001年,傳媒行業(yè)迎來了“開天辟地的創(chuàng)舉”——世界上第一位虛擬主持人“安娜諾娃”(Ananova)誕生了。2004年,CCTV-6電影頻道推出了國內(nèi)首位虛擬電視節(jié)目主持人——“小龍”。2021年11月18日,長江日報報業(yè)集團與科大訊飛共同打造推出長江日報AI虛擬主播“小晴”和“小江”。隨著AI虛擬主播的不斷加入,為我們的日常生活催生出更多的可能性,未來將會有越來越多的熒幕“新”面孔與大家見面。虛擬主播“出道”感謝您的聆聽基于AI的虛擬主播設計第3章AI與虛擬人虛擬人的AI技術(shù)一理論的革新思維的轉(zhuǎn)變技術(shù)的融合三次AI熱潮1理論革新23思維轉(zhuǎn)變技術(shù)融合1950年10月,艾倫.圖靈發(fā)表了一篇名為《計算機械和智能》的論文,提出了著名的圖靈測試,影響深遠,直至今日,仍被計算機領(lǐng)域研究學者等所重視。以圖靈測試為標志,數(shù)學證明系統(tǒng),知識推理系統(tǒng),專家系統(tǒng)等里程碑式的技術(shù)與應用在研究學者中掀起了第一次AI熱潮。當研究學者“拋棄”了以模仿人類思維來總結(jié)思維規(guī)則,以此進行人工智能開發(fā)的方式,轉(zhuǎn)變思維方式,在研究過程中更多應用計算機技術(shù)與數(shù)學知識。這種轉(zhuǎn)變看似容易,其實面臨著與人類既有觀念和經(jīng)驗“抗爭”的極大阻力。最終,計算機與數(shù)學的思維“獲勝”,基于數(shù)據(jù)統(tǒng)計模型的思想開始廣泛傳播。從本質(zhì)上講,深度學習是一種用數(shù)學模型對真實世界中的特定問題進行建模,以解決該領(lǐng)域相關(guān)或相似問題的過程?;ヂ?lián)網(wǎng)的蓬勃發(fā)展,帶來了高質(zhì)量的大數(shù)據(jù),計算機性能的提升也使得數(shù)據(jù)可以更好的存儲和利用。第三次熱潮即為深度學習、大數(shù)據(jù)、高效率大規(guī)模計算的人工智能技術(shù)的融合。三次AI熱潮虛擬人的AI技術(shù)框架非交互類虛擬數(shù)字人系統(tǒng)運作流程五大模塊構(gòu)成虛擬人生成的通用系統(tǒng)框架:·人物形象生成模塊·人物語音生成模塊·人物動畫生成模塊·音視頻合成顯示模塊·交互模塊添加關(guān)鍵字人物形象生成模塊人物動畫生成模塊人物語音生成模塊音視頻合成顯示模塊交互模塊通用系統(tǒng)框架應用自然語言處理技術(shù),分析用戶的語音語義,識別用戶意圖,根據(jù)分析后的結(jié)果,決策虛擬人后續(xù)的語音與動作。應用多模態(tài)技術(shù)融合生成的人物語音與人物動畫,使其在同一時間線輸出,生成視頻。根據(jù)輸入文本信息或是生成的語音信息,應用唇形動畫技術(shù),生成相應人物唇形動畫;根據(jù)動畫制作或是動作捕捉技術(shù),制作或捕捉人體相應動作生成相應人物行為動畫。根據(jù)輸入的文本信息應用語音合成技術(shù)生成對應的人物語音??梢愿鶕?jù)人物圖形資源的維度,應用3D建模技術(shù)進行人物模型構(gòu)建,目前虛擬人的人物形象生成包括2D人物形象與3D人物形象。交互模塊音視頻合成顯示模塊人物語音生成模塊人物動畫生成模塊人物形象生成模塊框架詳解交互模塊虛擬人交互類型分類交互模塊為擴展項,可根據(jù)是否包含該模塊,將虛擬人劃分為交互型虛擬人與非交互型虛擬人。非交互型虛擬人系統(tǒng)生成人物形象后,依據(jù)目標文本生成對應人物語音及動畫,并合成音視頻呈現(xiàn)給用戶。虛擬人的AI技術(shù)介紹
3D建模技術(shù)3D建模技術(shù)分為靜態(tài)掃描建模和動態(tài)光場重建。
驅(qū)動方式按照驅(qū)動方式分類,虛擬人可以分為真人驅(qū)動型和計算驅(qū)動型。3D建模技術(shù)多相機陣列相比靜態(tài)重建技術(shù),具有高視覺保真的動態(tài)光場三維重建技術(shù)不僅可以重建人物的幾何模型,并且可以一次性獲取動態(tài)人物模型數(shù)據(jù),該技術(shù)將成為虛擬人建模的重點發(fā)展方向。不過目前主流技術(shù)認為靜態(tài)掃描,動態(tài)光場將成為未來建模技術(shù)的重點發(fā)展方向。靜態(tài)掃描技術(shù)可分為結(jié)構(gòu)光掃描重建和相機陣列掃描重建。結(jié)構(gòu)光掃描重建時間長,對人體這類運動的目標在友好度和適應性方面較為差強人意,因此更多的應用于工業(yè)生產(chǎn)、檢測領(lǐng)域。相機陣列掃描重建替代結(jié)構(gòu)光掃描重建,并克服以上存在的問題成為人物建模的主流方式,如圖所示。隨著拍照式相機陣列掃描重建得到飛速地發(fā)展,目前可以實現(xiàn)毫秒級高速拍照掃描,高性能的相機陣列精度甚至可以達到亞毫米級,并成功應用于游戲、電影、傳媒等行業(yè)。驅(qū)動方式虛擬人驅(qū)動類型分類完成人物形象建模后,就需要考慮人物形象數(shù)字化,也就是人物形象的驅(qū)動。從技術(shù)層面來看,按照驅(qū)動方式分類,虛擬人可以分為真人驅(qū)動型和計算驅(qū)動型,如圖所示。真人驅(qū)動型虛擬人在真人驅(qū)動型虛擬人實現(xiàn)過程中,完成原畫建模以及真人關(guān)鍵點綁定后,使用動作捕捉設備或是攝像頭捕捉真人的動作、表情等,以實時驅(qū)動虛擬人生成相應的行為。動作捕捉是指通過數(shù)字手段記錄顯示中人們的運動過程。動作捕捉可以根據(jù)實現(xiàn)原理不同分成光學動作捕捉、慣性動作捕捉、基于計算機視覺的動作捕捉方案,如圖所示?,F(xiàn)階段,光學動作捕捉和慣性動作捕捉占據(jù)主導地位。真人驅(qū)動型虛擬人行為均由真人操作實現(xiàn),因此在動作靈活度、互動效果等方面有明顯優(yōu)勢。這些優(yōu)勢一方面能夠在影視內(nèi)容制作中降低生產(chǎn)成本,同時為影視行業(yè)的制作降低門檻,推動影視級內(nèi)容向消費級轉(zhuǎn)型;另一方面,應用于虛擬偶像之中,可幫助虛擬人完成虛擬人完成大型直播、商場路演等互動性強的活動。計算驅(qū)動型虛擬人123計算驅(qū)動型虛擬人,其語音表達、面部表情、具體動作將主要通過深度學習模型的運算結(jié)果實時或離線驅(qū)動,在渲染后實現(xiàn)最終效果,基于AI的虛擬主播設計就是計算驅(qū)動型虛擬人。計算驅(qū)動型虛擬人最終效果由形象3D建模技術(shù)(真人模型構(gòu)建是否符合真人的面貌、形體)、語音合成技術(shù)(語音表述在韻律、情感、流暢度等方面是否符合真人發(fā)聲習慣)、唇語動畫生成技術(shù)(口型與語音是否可以一致,符合真人發(fā)聲標準)等技術(shù)共同影響。該類型的虛擬人無需花費較大成本即可生成真實的人物模型,并可以實現(xiàn)將輸入文本轉(zhuǎn)化為語音以及相關(guān)動畫,沒有時延的要求,僅需將人物語音以及人物動畫應用多模態(tài)技術(shù)生成視頻輸出給用戶即可。簡單易學,快速上手,對初學者制作虛擬人的學習提供友好的入門基礎。計算驅(qū)動型AI技術(shù)在虛擬人領(lǐng)域的應用二應用麻省理工學院虛擬人麻省理工學院媒體實驗室(MITMediaLab)的研究人員開源了一個虛擬角色生成工具。該工具結(jié)合了面部、手勢、語音和動作領(lǐng)域的人工智能模型,可用于創(chuàng)建各種音頻和視頻輸出,一舉登上《NatureMachineIntelligence》應用使用人工智能技術(shù)制作的蒙娜麗莎、瑪麗·雪萊、馬丁·路德·金、阿爾伯特·愛因斯坦、文森特·梵高和威廉·莎士比亞的動畫這項技術(shù)也可以用于積極的目的,比如,讓阿爾伯特·愛因斯坦復活,去教一堂物理課,或者與年長的自己聊一聊天。為了鼓勵這項技術(shù)所能帶來的積極作用,麻省理工學院媒體實驗室(MITMediaLab)的研究人員開源了一個易于使用的虛擬角色生成管道。該虛擬角色生成管道結(jié)合了面部、手勢、語音和動作領(lǐng)域的人工智能模型,可用于創(chuàng)建各種音頻和視頻輸出。研究人員希望教師、學生和醫(yī)療保健工作者可以嘗試一下,看看這個工具能否在各自的領(lǐng)域幫助到他們。應用北京理工大學虛擬人“靈”2022年下半年,北京理工大學將承辦第十三屆“挑戰(zhàn)杯”中國大學生創(chuàng)業(yè)計劃競賽。北京理工大學堅持“以賽育人”,發(fā)揮數(shù)字孿生、虛擬現(xiàn)實、數(shù)字仿真等技術(shù)優(yōu)勢,將數(shù)字化辦賽理念貫穿“挑戰(zhàn)杯”競賽全過程。活動現(xiàn)場,發(fā)布了“挑戰(zhàn)杯”001號數(shù)字參賽者、數(shù)字化參賽引導者“靈”。數(shù)字人“靈”是由北京市混合現(xiàn)實與新型顯示工程技術(shù)研究中心(北京理工大學)科研團隊基于先進的光場采集重建技術(shù)打造的新一代高逼真多模態(tài)數(shù)字人?!办`”的面部表情由800多根“骨骼”協(xié)同控制,而面部材質(zhì)則由82個材質(zhì)參數(shù)進行動態(tài)調(diào)整。數(shù)字人是語義、語音、視覺三大AI技術(shù)融合的結(jié)晶。應用韓國首位AI主播“金柱夏”2020年11月,韓國MBN電視臺推出韓國首位AI主播“金柱夏”,“金柱夏”由MBN電視臺和人工智能開發(fā)公司“MoneyBrain”共同研發(fā),該AI虛擬主播實現(xiàn)技術(shù)集人工智能、深度學習、卷積神經(jīng)網(wǎng)絡等技術(shù)于一體,可以逼真還原真人說話的樣子,令人難以區(qū)分?!敖鹬摹笨梢栽诎l(fā)生災難等緊急情況時,迅速向觀眾播報新聞內(nèi)容,并且可以24小時連續(xù)工作。感謝您的聆聽基于AI的虛擬主播設計第四章技術(shù)介紹多模態(tài)融合NLP與語音合成三維重建目錄/說課流程TeachingProcess一二三三維重建一4.1.1什么是三維重建ABCD三維重建三維重建是在計算機中為三維物體創(chuàng)建可進行表示和分析的數(shù)學模型。三維重建技術(shù)是通過三維物體的展開處理過程分析其性質(zhì)的基礎技術(shù),也是是利用計算機對客觀世界虛擬現(xiàn)實表現(xiàn)的關(guān)鍵技術(shù)。三維重建技術(shù)在計算機視覺中,根據(jù)單視圖或者多視圖的物體圖像進行三維物體信息重建的過程被稱為三維重建技術(shù)。構(gòu)建模型有兩類方法實現(xiàn)物體的三維模型構(gòu)建:一類是通過幾何建模軟件(Maya、3DMAX等),采用人機交互的方式構(gòu)建可控的三維模型。構(gòu)建模型第二類是通過借助技術(shù)手段來獲取物體的幾何形狀,并在計算機中實現(xiàn)物體的三維模型構(gòu)建。4.1.1什么是三維重建三維重建的一般步驟第二類方法是物體的三維重建過程,是將二維投影與計算機技術(shù)結(jié)合,恢復三維物體的特征數(shù)據(jù)與形式狀態(tài)的數(shù)學建模過程。010203圖像獲取攝像機標定特征提取特征匹配三維重建
根據(jù)點云模型構(gòu)建可視曲面,最終完成三維模型的建立。4.1.2三維人臉重建技術(shù)的發(fā)展歷程01020304基于參數(shù)控制方式的三維人臉模型出現(xiàn)。1972年,Parke首次提出了利用三維頂點定義的多邊形實現(xiàn)對人臉的三維重建,構(gòu)建了全球第一個人臉模型。1993年,T.Akimot等研究學者提出通過人臉面部重要的特征點(如眼睛、鼻子、嘴巴等)及對應關(guān)系進行三維人臉面部模型的構(gòu)建,以此實現(xiàn)特定的三維人臉模型重建。研究者們通過采用基于人臉面部圖像的方式進行三維人臉重建的研究,其中以單張二維人臉圖像進行三維人臉模型的構(gòu)建方式最為熱門。20世紀70年代20世紀80年代20世紀90年代20世紀90年代1981年,Badler實現(xiàn)了基于面部肌肉的三維人臉模型的構(gòu)建,使模型表現(xiàn)出豐富的人臉面部特征。1987年,Waters建立基于偽肌肉的三維人臉面部模型,實現(xiàn)人臉面部的各種表情生成。4.1.2三維人臉重建技術(shù)的發(fā)展歷程2001年基于視頻的三維人臉重建系統(tǒng)單張二維人臉圖像正側(cè)面照片相結(jié)合三維人臉形變模型網(wǎng)格形變結(jié)合視覺技術(shù)ASM優(yōu)化算法基于PDE形變模型的三維人臉模型重建算法2006年2008年2009年2012年2013年2015年4.1.3三維人臉重建技術(shù)的應用
美國科幻大片《阿麗塔:戰(zhàn)斗天使》該影片采用三維人臉重建技術(shù),在虛擬世界中創(chuàng)建了大量形態(tài)各異、流暢真實的虛擬角色,且影片中對人物的特效制作精確到了每一個表情細節(jié),
阿麗塔角色模型制作阿麗塔的面部造型經(jīng)歷了超過50次的迭代重建,單是五官各部位的組合就已有200種設計,配合最先進的光照引擎、人體物理動作引擎、皮膚紋理渲染引擎的使用,生成人物的真實感爆棚,4.1.3三維人臉重建技術(shù)的應用iPhoneX采用了基于三維重建的面部識別技術(shù),即FaceID,也就是3D人臉識別技術(shù)。FaceID優(yōu)勢精確度高環(huán)境適應性強防偽穩(wěn)定性高實用性強蘋果的FaceID采用可投射30000個光點的點陣投影儀和紅外攝像頭形成的3D結(jié)構(gòu)光深度攝像頭感知用戶面部特征。通過采集所得到的三維人臉特征數(shù)據(jù)為手機持有者建立專屬的三維人臉模型,并將該模型存儲于手機中,此后每一次人臉識別都會與該模型進行比較,當面部重合度達到規(guī)定的閾值時就會返回人臉識別正確的指令,完成高精度的3D人臉識別任務。4.1.3三維人臉重建技術(shù)的應用《阿凡達》3D電影保羅的“復活”《速度與
激情7》CG技術(shù)和影視制作互相促進、相輔相成。不僅是三維人臉重建技術(shù),整個計算機圖形學三維重建技術(shù)都在該領(lǐng)域得到了充分的應用。保羅的“復活”應用了大量的三維人臉重建算法。通過對保羅現(xiàn)有的影像資料進行人臉圖像以及面部表情數(shù)據(jù)的采集,從而重建保羅3D人臉模型。在替身演員面部進行特征點標記,利用人臉對齊算法實現(xiàn)替身演員面部動作與保羅3D人臉模型的一致,生成動態(tài)影像作品。影視制作領(lǐng)域4.1.3三維人臉重建技術(shù)的應用游戲開發(fā)領(lǐng)域蘋果Animoji動話表情隨著計算機應用技術(shù)的迅速發(fā)展以及變革,AR與VR的出現(xiàn),打破了虛擬與現(xiàn)實的界限,為人們帶來與世界全新的連接方式和革命性的沉浸式體驗。通過三維人臉重建技術(shù)的運用,玩家可在游戲中創(chuàng)建極具真實感和個性化的人物角色,也可以根據(jù)圖像采集獲取的信息,進行個性化玩家角色定制,創(chuàng)建3D頭像、3D表情等,使玩家如同身臨其境,以獲得更好的游戲體驗。4.1.3三維人臉重建技術(shù)的應用公共安全領(lǐng)域人臉的唯一性,成就了3D人臉識別技術(shù)作為身份認證的方式。3D人臉識別可應用于教育、醫(yī)療、司法、金融等多個領(lǐng)域。例如,使用已構(gòu)建的三維人臉模型進行3D人臉比對,從而進行門禁解鎖;在3D人臉識別的金融終端辦理個人業(yè)務;三維人臉識別技術(shù)與天眼系統(tǒng)的結(jié)合可進行監(jiān)控交通違法行為或者是追捕罪犯;在考場中對考生進行人臉生物特征識別,防止替考等違法行為的出現(xiàn)??的螤柎髮WFerrari團隊研究4.1.3三維人臉重建技術(shù)的應用醫(yī)療美容領(lǐng)域大族三維官方網(wǎng)站通過三維人臉重建技術(shù)對患者進行建模,能夠使用極具真實感的三維模型對病情進行可視化分析,精準地找到病因所在。通過虛擬現(xiàn)實技術(shù)對建立的三維面部模型進行手術(shù)練習,提升手術(shù)操作的熟練度,降低手術(shù)風險,提高疾病的治愈率。美容方面,對客戶的人臉進行三維重建后,在3D模型上進行面部微調(diào),以便為客戶制定更好的美容方案,客戶也將更直觀地去預覽手術(shù)完成的效果。NLP與語音合成二4.2.1NLP——自然語音處理技術(shù)1.NLP技術(shù)簡述
自然語音處理(NLP)是一種使用自然語言構(gòu)建人與機器間溝通橋梁的技術(shù)理論與研究方法。
簡單來說,NLP可以讓人機交互中的機器理解自然語言,并對交互過程中的相應信息做出判斷和回復,這一技術(shù)的出現(xiàn)解決了人工智能在性能完整度中的智能認知問題。4.2.1NLP——自然語音處理技術(shù)2.NLP技術(shù)的發(fā)展歷程萌芽階段快速發(fā)展時期寒冬時期20世紀60年代,計算機科學之父阿蘭·圖靈發(fā)表的《機器能思考嗎》這篇劃時代論文進一步激發(fā)人工智能思潮的出現(xiàn),促進自然語言處理技術(shù)的發(fā)展。隨著深入研究,新問題不斷涌現(xiàn),學者們意識到無法在短時間內(nèi)對自然語言處理的應用進行開發(fā),逐漸失去研究信心。在此期間,隱馬爾可夫模型的統(tǒng)計方法在語音識別領(lǐng)域獲得成功?;诮y(tǒng)計學與神經(jīng)網(wǎng)絡的研究促使自然語言技術(shù)走出寒冬期,并在之后的研究發(fā)展中占據(jù)主流位置。自然語言處理技術(shù)融入了人工智能之中,并出現(xiàn)了基于規(guī)則方法的符號派和使用概率方法的隨機派兩個派系。此階段實現(xiàn)了人機簡單交互。復蘇新發(fā)展時期1980年,第一屆機器學習國際研討會在美國卡內(nèi)基梅隆大學召開,標志機器學習研究將在世界范圍內(nèi)重新興起,自然語言處理技術(shù)也正式回歸。4.2.1NLP——自然語音處理技術(shù)3.NLP技術(shù)的領(lǐng)域應用AI皇冠上的明珠醫(yī)療領(lǐng)域傳統(tǒng)紙質(zhì)病歷的電子化,高效管理病患信息。網(wǎng)絡信息領(lǐng)域垃圾郵件的自動信息識別,垃圾郵件的自動篩選過濾。商業(yè)服務領(lǐng)域?qū)υ挋C器人和智能客服,提供快速且智能回復方式。軍警領(lǐng)域警情分析,軍事情報處理。4.2.1NLP——自然語音處理技術(shù)3.NLP技術(shù)的領(lǐng)域應用01美國教育科技公司推出的AI聊天機器人——Let'sTalk!助理
應用自然語言處理、機器學習等技術(shù),結(jié)合相關(guān)算法進行開發(fā),它可以理解以英文提交的相關(guān)問題,家長和學生也可以通過它隨時查詢學?;顒右约皩W校管理提出相關(guān)意見。
例如用餐時間,學校政策查詢等。Let’sTalk助理在投入使用后的30天內(nèi),回答200多個用戶提出的400多個問題,平均用戶滿意度得分為9.6(滿分為10)。4.2.2TTS——語音合成技術(shù)1.TTS技術(shù)簡述
語音合成技術(shù)(TTS)是實現(xiàn)文本到語音轉(zhuǎn)化的智能語音交互技術(shù),將輸入的文本智能轉(zhuǎn)化為自然語音流暢輸出,目的就是使機器可以模仿人的說話方式和停頓習慣,實現(xiàn)機器發(fā)聲。
根據(jù)人類講話過程中所用語言功能,由淺入深對語音合成技術(shù)進行分類,可分為三個層次:從文字到語音、從概念到語音、從意向到語音。這三個層次體現(xiàn)了大腦生成語音的不同形成過程,這些過程涉及大腦的高級神經(jīng)活動。目前,語音合成技術(shù)的研究主要還是集中在從文本到語音這一層次。4.2.2TTS——語音合成技術(shù)1.TTS技術(shù)簡述
從語音合成系統(tǒng)的流程圖中看出,在文本信息轉(zhuǎn)化為語音的過程中,主要分為語音處理和語音合成兩部分。語音處理其實就是在語言層面進行文本分析,將輸入的文本通過詞典進行文本分詞,文本-語音規(guī)則轉(zhuǎn)化為語音層次的表現(xiàn)特征,也就是字音轉(zhuǎn)換,實現(xiàn)文字序列到音韻序列的轉(zhuǎn)化;再結(jié)合語音庫,通過語音合成器生成語音波形,語音合成有多種形式,使用參數(shù)合成器,或是將自然語言與算法結(jié)合以波形拼接的方式實現(xiàn),最終通過TTS技術(shù)的使用,可以獲取一個流暢且真實的語音輸出。
4.2.2TTS——語音合成技術(shù)2.TTS技術(shù)的發(fā)展歷程通過機械裝置模擬人類的聲音,利用所制作的精巧氣囊和風箱搭建發(fā)聲系統(tǒng),合成簡單的元音與單音。語音合成技術(shù)進入電子合成器語音合成階段。貝爾實驗室的Dudley推出一款名為“VODER”的電子合成器,利用電子器件實現(xiàn)聲音諧振的模擬。以集成電路技術(shù)的發(fā)展為基礎,出現(xiàn)了較為復雜的組合型電子合成器——共振峰合成器。隨著計算機存儲能力的發(fā)展及POSLA方法的提出,單元挑選和波形拼接技術(shù)走向成熟,進入拼接式語音合成階段。AI技術(shù)不斷發(fā)展,基于深度學習的語音合成技術(shù)進入人們的視野,取得一定的科研成果。18、19世紀20世紀初20世紀70、80年代20世紀90年代21世紀至今4.2.2TTS——語音合成技術(shù)3.TTS技術(shù)的領(lǐng)域應用更真實更清晰高質(zhì)量跨國交流領(lǐng)域語音合成技術(shù)結(jié)合翻譯系統(tǒng),為不同國籍、不同語言的人們打破語言交流限制智能家居領(lǐng)域語音合成技術(shù)為居家機器人提供了表達的方式幫助弱勢群體語音技術(shù)也幫助失語癥患者與其他人更流暢、無障礙的交流智能客服領(lǐng)域語音識別技術(shù)與自然語言處理技術(shù)的融合,智能應答提供了自然流暢的交流過程。4.2.2TTS——語音合成技術(shù)3.TTS技術(shù)的領(lǐng)域應用02準兒翻譯機4.2.3唇形動畫驅(qū)動技術(shù)1.唇形動畫驅(qū)動技術(shù)簡述
隨著人工智能的發(fā)展,人們對人機交互的期待逐漸提高,真實地再現(xiàn)人類語言交流時的唇形動畫,以增強人機交互的自然度。
相較從單純的聲音輸出中獲取的信息量,唇形動畫作為人類發(fā)聲的理解源與視覺源,使得說話人所表達語音信息更加完整,進而提高語音交流中的信息獲取量,使人們可以更好地感知語音。唇形動畫驅(qū)動技術(shù)成為人機交互領(lǐng)域中的一個重要研究課題。4.2.3唇形動畫驅(qū)動技術(shù)2.唇形動畫驅(qū)動方式模擬人類說話過程中復雜的唇形運動細節(jié)123必須具備兩方面因素一是精準的動畫控制,使用數(shù)據(jù)驅(qū)動人臉唇部區(qū)域網(wǎng)格的運動必須具備兩方面因素二是提升動畫控制技術(shù)的水平實現(xiàn)方式有三種數(shù)據(jù)驅(qū)動作為唇形動畫驅(qū)動技術(shù)的關(guān)鍵所在。實現(xiàn)方式有三種:文本驅(qū)動、語音驅(qū)動和視頻驅(qū)動。4.2.3唇形動畫驅(qū)動技術(shù)2.唇形動畫驅(qū)動方式
第一種方式是將輸入信息進行文本分析,并從中提取文本的音素信息與漢語發(fā)音的時間信息;利用語音合成技術(shù)將輸入的文字信息轉(zhuǎn)換為音頻數(shù)據(jù);根據(jù)文本中所提取的音素信息匹配相應的視位,結(jié)合漢語言發(fā)音的時間信息,將視位信息進行排列組合得到視位序列,視位序列與人臉模型融合實現(xiàn)基于文本驅(qū)動的唇形動畫的生成;最后將唇形動畫與文本轉(zhuǎn)化的語音同步結(jié)合,實現(xiàn)可視化語音生成。(一)基于文本驅(qū)動方式的唇形動畫生成4.2.3唇形動畫驅(qū)動技術(shù)2.唇形動畫驅(qū)動方式
第二種方法是將輸入的文本通過TTS引擎實現(xiàn)文本到語音的轉(zhuǎn)化,TTS引擎的使用不僅縮短了人臉動畫系統(tǒng)的開發(fā)時間,而且語音生成效果非常理想。對轉(zhuǎn)化后的語音進行特征參數(shù)提取,確定每個音素發(fā)音時的唇形以及發(fā)音時長,并從各音素與視位映射關(guān)系中抽取出其相應的表示基本唇形的關(guān)鍵幀,將關(guān)鍵幀合并后進行平滑處理,實現(xiàn)基于文本驅(qū)動的可視化唇形動畫輸出。(一)基于文本驅(qū)動方式的唇形動畫生成4.2.3唇形動畫驅(qū)動技術(shù)2.唇形動畫驅(qū)動方式
基于語音驅(qū)動方式的唇形動畫生成步驟:首先將語音信號轉(zhuǎn)化為可視化參數(shù)進行輸出,以此驅(qū)動唇形運動,最終實現(xiàn)唇形動畫的生成。該方式將語音與唇形動畫相結(jié)合,既保證了動畫生成的實時性,又使語音與唇形運動處于同步狀態(tài)。
實現(xiàn)步驟為:首先將語音作為原始驅(qū)動源輸入,提取語音特征參數(shù);之后對語音特征參數(shù)進行基本唇形的關(guān)鍵幀映射,建立語音幀與唇形類別的映射關(guān)系,并按照相應的幀速率組合生成關(guān)鍵幀序列;最后對該唇形關(guān)鍵幀進行平滑處理,結(jié)合語音,生成更具真實感的唇形動畫。(二)基于語音驅(qū)動方式的唇形動畫生成4.2.3唇形動畫驅(qū)動技術(shù)2.唇形動畫驅(qū)動方式
基于視頻驅(qū)動方式的唇形動畫生成需要實時采集視頻中的唇形特征點,使用采集到的唇形特征點驅(qū)動唇形變化,以實現(xiàn)唇形動畫的生成。
該方式的重難點是對視頻中的動態(tài)人臉進行特征點提取,目前被廣泛應用的是結(jié)合主動輪廓模型與主動形狀模型的技術(shù)方法。
基本思想是:使用ASM算法檢測視頻中說話人的面部信息,并對人臉面部唇形特征點的進行跟蹤并提??;解析所獲取的唇部特征信息,并在三維人臉模型中進行標定;標定特征點的人臉模型通過采集的數(shù)據(jù)驅(qū)動唇部運動,使三維人臉網(wǎng)格模型發(fā)生形變,實現(xiàn)唇形動畫的生成。(三)基于視頻驅(qū)動方式的唇形動畫生成4.2.3唇形動畫驅(qū)動技術(shù)3.唇形動畫驅(qū)動技術(shù)的領(lǐng)域應用合成后的虛擬畫面,可以篡改說話內(nèi)容,給對方的接收系統(tǒng)發(fā)送模擬的多媒體信息??蓱糜谛虃善瓢?、國防安全、信息安全等重大安全領(lǐng)域。重大安全領(lǐng)域虛擬人物發(fā)音結(jié)合唇形的運動變化,可以極大地提高聽障群體對聲音信息的理解能力,為他們在日常生活中的信息獲取提供一定的幫助。聽障群體輔助領(lǐng)域真實感建模與自然化唇形動畫結(jié)合,真實再現(xiàn)新聞主播播報場景。進行全天24小時無間歇、無差錯新聞播報,為觀眾提供即時、快捷的新聞資訊。虛擬主播領(lǐng)域聽到聲音的同時,唇形動畫作為人類視覺信號進行輸入,豐富和完善語音信息。這一技術(shù)的出現(xiàn),讓自然化的人機交互成為可能。廣泛前景4.2.4人臉表情合成技術(shù)1.人臉表情合成技術(shù)簡述1989年,美國社會語言學家AlbertMehrabian提出一個著名的溝通定律——“55387”定律,該定律認為在表達語言信息的過程中,55%來自于說話人的表情動作,38%來自于語言表述,7%來自于文本內(nèi)容。
在人類使用語言進行溝通交流中,表情動作起著非常關(guān)鍵的作用,面部表情在人際交往中有著無可替代的地位和作用,通過人臉表情合成技術(shù)實現(xiàn)富有表情的人臉語音動畫,人機系統(tǒng)更具交互性。4.2.4人臉表情合成技術(shù)2.人臉表情合成技術(shù)方式介紹面部參數(shù)控制方式關(guān)鍵幀插值方式人臉表情捕捉方式011988年,國際標準化組織提出MEPG-4標準,定義了面部定義參數(shù)(FDP)與面部動畫參數(shù)(FAP)?;贛PGE-4的人臉表情合成系統(tǒng)采用圖像特征的方式將人臉模型進行特征化表示,驅(qū)動人臉表情動畫。02傳統(tǒng)的人臉表情動畫生成是采用基于關(guān)鍵幀插值的方式實現(xiàn)的。實現(xiàn)原理是采用插值法在兩個相鄰關(guān)鍵幀之間獲得新的表情,獲得的表情關(guān)鍵幀被稱為過渡幀,過渡幀的位置是根據(jù)上述兩個關(guān)鍵幀的加權(quán)權(quán)重所決定的。03將完成特征點標記的人臉通過攝像機進行實時檢測,將捕捉的面部表情動作傳送至電腦端,電腦對人臉特征點定位,進行面部特征點以及頭部運動軌跡等參數(shù)信息的采集,從采集到的參數(shù)信息中分析提取有效信息,對三維人臉模型進行的驅(qū)動,從而生成人臉表情動畫。4.2.4人臉表情合成技術(shù)2.人臉表情合成技術(shù)方式介紹2013年Cao等研究學者進行基于三維回歸模型的實時表演驅(qū)動人臉動畫系統(tǒng)的開發(fā)。2019年閆衍芙等研究學者提出一種基于卷積神經(jīng)網(wǎng)絡的動作單元參數(shù)回歸網(wǎng)絡模型。2014年Cao等研究學者提出使用單目攝像機進行人臉跟蹤,實現(xiàn)人臉動畫的自動生成。未來研究持續(xù)深入發(fā)展,虛擬人物面部將具備更豐富的表情,將會有更多的面部表情捕捉技術(shù)被提出。2016年吳曉軍等研究學者提出了不需要進行特征點標記的人臉表情捕捉方式,利用網(wǎng)格形變算法實現(xiàn)人臉表情動畫的生成人臉表情捕捉方式的發(fā)展4.2.4人臉表情合成技術(shù)3.人臉表情合成技術(shù)在影視制作領(lǐng)域應用基于表演驅(qū)動的動畫表情實現(xiàn)過程隨著3D電影時代的到來,人臉表情合成技術(shù)在影視特效制作領(lǐng)域應用十分廣泛,為了精準的捕獲到人臉的表情以及運動軌跡,采用多攝像頭以及在人臉上標記定位點等方式輔助人臉特征點的獲取。經(jīng)過對表演者的面部表情以及運動軌跡的特征參數(shù)提取,生成的三維表情融合于構(gòu)建的3D虛擬人物中,生成三維表情動畫。4.2.4人臉表情合成技術(shù)3.人臉表情合成技術(shù)在影視制作領(lǐng)域應用電影《阿凡達》演員人臉驚訝表情捕捉電影《阿凡達》演員人臉憤怒表情捕捉4.2.4人臉表情合成技術(shù)3.人臉表情合成技術(shù)在影視制作領(lǐng)域應用電影《加勒比海盜》演員人臉表情捕捉電影《阿麗塔:戰(zhàn)斗天使》演員人臉表情捕捉多模態(tài)融合三4.3.1什么是多模態(tài)融合
模態(tài)是指事物發(fā)生或存在的方式,或是某種物體類型的信息,或是這類物體信息的表達方式。人類生活的世界其實就是一個多模態(tài)相互融合的環(huán)境。觀看人物表演的模態(tài)轉(zhuǎn)換合成過程:耳朵調(diào)動聽覺-眼睛調(diào)動視覺(口型、表情)-個人感悟。起源于生活,在學者們的不斷探索與研究中,將其融入科技中,應用于生活,服務于生活。多模態(tài)是包含兩個或者兩個以上模態(tài)各種形式的組合,當所研究的事物具有多模態(tài)屬性時,需要將其各個模態(tài)結(jié)合以實現(xiàn)對事物的研究。模態(tài)例如多模態(tài)多模態(tài)環(huán)境如:觀影過程多模態(tài)融合多模態(tài)融合看到的是視覺模態(tài)的視覺成像,聽到的是聽覺模態(tài)的聲音信號,聞到的是嗅覺模態(tài)的氣味。4.3.2多模態(tài)融合的方式融合方式前期準備基于特征提取或是數(shù)據(jù)提取的融合均被稱為前期融合。通常采用的幾何特征降維方式為主成分分析法、線性判別分析法。前期融合以其簡單的結(jié)構(gòu)和訓練過程,被更多地應用于多模態(tài)融合任務中,并且前期融合生成的預測結(jié)果也往往成為了多模態(tài)融合任務中的預期基準。后期融合后期融合是在各模態(tài)建模完成后進行的多模態(tài)融合,綜合各個模型的輸出結(jié)果以生成最終決策結(jié)果,也被稱為決策級融合。后期融合的錯誤可控性強且在缺失某些模態(tài)時也可以進行預測。但在模態(tài)融合的實現(xiàn)上,相比前期融合難度會更高?;旌先诤匣旌先诤戏绞绞菍⑻卣鬟M行特征級與決策級混合融合,使用前期融合和后期融合相結(jié)合的方式。目前將前期融合的特征捕捉與后期融合的處理過擬合優(yōu)勢相結(jié)合,設計出的混合融合方式有較高的預測準確率,成為目前多模態(tài)融合方式中最為精準的融合方式。4.3.2多模態(tài)融合的方式123前期融合后期融合混合融合4.3.3多模態(tài)融合的應用1多模態(tài)會議摘要2虛擬主播會議摘要僅僅使用會議文本信息總結(jié)是不充分的。使用多模態(tài)融合技術(shù),將文本,音頻甚至是會議視頻進行融合,語言,情緒甚至是面部表情都可以進行融合。綜合多模態(tài)信息完善會議的全面內(nèi)容,幫助人們更好的感受會議內(nèi)容。虛擬主播以其模擬真人的語言、動作甚至是說話形態(tài)在主播界“聲名遠揚”。虛擬主播的實現(xiàn)就是應用了多模態(tài)融合技術(shù),分別將3D模型、模擬人聲的播報以及唇形動畫等多個模態(tài)進行融合,最終實現(xiàn)了觀眾所看到的虛擬主播。感謝您的聆聽基于AI的虛擬主播設計第5章3D模型制作真人版3D模型制作基于單張照片的3D人臉重建目錄一二5.1.1FaceGen的安裝5.1.2FaceGen的使用5.1.3FaceGen實現(xiàn)3D人臉重建5.2.1DAZStudio的安裝5.2.2DAZStudio的使用5.2.3DAZStudio生成真人版3D模型基于單張照片的3D人臉重建一
FaceGen是一款集成自定義三維面部網(wǎng)格和UV布局,可通過一張或多張照片建立真實三維人臉的三維人臉構(gòu)建軟件。FaceGen生成的3D人臉不受年齡、種族或者是性別的約束與限制,可進行年齡、種族甚至是性別等多方面的修改,并且與多款軟件兼容。FaceGen已經(jīng)在3D游戲中的虛擬現(xiàn)實人物角色創(chuàng)建,個性化3D打印服務等多個領(lǐng)域被應用。FaceGenFaceGen的安裝1
2
4
3FaceGen可生成高質(zhì)量3D人臉FaceGen可以根據(jù)用戶輸入的照片生成3D人臉模型。FaceGen可生成隨機人臉FaceGen可根據(jù)用戶選擇生成隨機人臉。FaceGen使用簡便高效FaceGen只需用戶上傳一張或多張?zhí)囟ń嵌鹊恼掌?,一鍵式3D人臉生成,簡便的步驟,生成高質(zhì)量3D模型。FaceGen可對生成人臉參數(shù)化調(diào)節(jié)FaceGen可對生成的3D人臉進行年齡、種族、性別等進行參數(shù)化調(diào)節(jié),甚至還可以將3D人臉變成漫畫臉。使用FaceGen進行3D人臉重建優(yōu)勢FaceGen的安裝
界面介紹“Create”|“Photo”界面的功能是根據(jù)單張或多張人臉正側(cè)面圖片進行訓練,生成真人版三維人臉模型。如圖為進行人臉正側(cè)面圖片上傳的界面。
操作說明單擊“LoadImage”即可進行照片上傳,單擊“ClearImage”按鈕,清除上傳的圖片,單擊“Next”進入圖片訓練過程。1.Create”界面FaceGen的使用
界面介紹在“Create”|“Generate”界面中,可根據(jù)界面中的選擇生成隨機三維人臉。種族(RacialGroup)、性別(Gender)的選擇框可以對生成人臉的種族與性別進行選擇;“RandomVariance”調(diào)節(jié)框中可以進行人臉對稱性等特征選擇。
操作說明單擊“Random”按鈕,軟件根據(jù)所選種族、性別以及人臉對稱性等特征生成隨機三維人臉;單擊“Average”,根據(jù)種族和性別生成的平均對稱三維人臉,如圖所示。1.Create”界面FaceGen的使用2.“Modify”界面“Modify”|“Demographics”界面的功能是對訓練后對三維人臉特征信息進行調(diào)整和修改,是該軟件中使用頻次較多的界面,可對三維人臉模型的特征信息進行多方面調(diào)節(jié),包括年齡、性別、種族、面部不對稱性甚至可以將生成的三維人臉模型漫畫化,并且可以調(diào)節(jié)生成漫畫人臉的色彩。Modify”|“Texture”界面,為生成的三維人臉模型提供添加面部皮膚紋理的功能。FaceGen的使用
界面介紹“Undo”界面中,“Undo”按鈕可撤銷對三維人臉面部信息的修改編輯,但是不能對紋理或者表達式進行撤銷;
操作說明“Redo”按鈕則可重復上次撤銷指令,但使用條件是在上次撤銷操作后,不能對三維人臉模型面部進行任何修改操作。3.“Undo”界面FaceGen的使用
界面介紹“View”|“Camera”界面可對相機的遠近進行調(diào)節(jié),也就可以對三維人臉進行放大、縮小的操作?!癛esetCamera”按鈕可對相機位置進行復原,將相機位置恢復到默認狀態(tài)。View-Render是對背景的三原色進行調(diào)節(jié),View-Lighting是對面部的三原色進行調(diào)節(jié)。4.“View”界面FaceGen的使用5.“Modify”界面“File”|“Face”界面(圖5-20)中,“SaveAs”按鈕可對目前生成的三維人臉模型進行保存,“Open”按鈕可以對之前保存的三維人臉模型進行導入操作?!癋ile”|“Export”界面(圖5-21)可根據(jù)生成的三維人臉模型進行面部、手臂、腿等全身部位的貼圖導出,以及三維人臉形變模型的導出。導出的全身貼圖和三維人臉形變模型將應用于真人版3D模型的建立。FaceGen的使用選擇適宜的光線進行照片拍攝,如果環(huán)境較暗,可以使用閃光燈進行照片拍攝;盡量選擇白色墻面或者單一色調(diào)的環(huán)境進行拍攝,這樣可以減少周圍環(huán)境對模型訓練的影響;拍攝照片時,人臉位置應在正中央的位置上,并確保正面照片拍攝時是五官全部露出的狀態(tài),避免出現(xiàn)FaceGen中提示的錯誤照片形式,如反光、過于夸張的表情、戴眼鏡等非正常面部姿勢,側(cè)面拍照亦是如此。盡量根據(jù)FaceGen提示框中人物位置、姿勢去拍攝自己的正側(cè)面照片。1.人臉正側(cè)面圖片拍攝及處理FaceGen實現(xiàn)3D人臉重建2.人臉正側(cè)面圖片上傳及三維人臉模型訓練
下圖是進行上傳的人臉正側(cè)面圖片,如果想對拍攝的照片進行修飾與優(yōu)化,可以使用Photoshop對人臉照片進行編輯和完善。FaceGen實現(xiàn)3D人臉重建
選擇的人臉正、側(cè)面圖片組合為“正面-左側(cè)面”,單擊“LoadImage”按鈕進行面部圖片上傳,單擊“Next”按鈕,進入三維人臉模型訓練過程。
圖中右上方的人物面部提示對上傳的正側(cè)面人臉圖片進行特征點標記。如果上傳多張圖片,將對每張圖片中的人臉面部進行特征點標記。FaceGen實現(xiàn)3D人臉重建人臉正側(cè)面圖片上傳人臉正面圖片特征點選擇
單擊“Create”按鈕,進行三維人臉模型訓練;三維人臉模型訓練完成后,在界面左側(cè)框中顯示訓練結(jié)果,在“Modify”|“Demographics”界面可對訓練后的三維人臉模型進行調(diào)整。FaceGen實現(xiàn)3D人臉重建人臉側(cè)面圖片特征點選擇訓練3D人臉模型FaceGen實現(xiàn)3D人臉重建3D人臉模型特征調(diào)節(jié)
三維人臉模型訓練完成后,在界面左側(cè)框中顯示訓練結(jié)果,在“Modify”|“Demographics”界面可對訓練后的三維人臉模型進行調(diào)整。導出模型貼圖導出結(jié)果存儲路徑將三維人臉模型調(diào)節(jié)至與人臉照片相似時,可以將生成的三維人臉模型保存并導出三維人臉形變模型以及全身貼圖。導出后的結(jié)果為三維人臉形變模型的存儲路徑;為根據(jù)三維人臉模型生成的全身貼圖的存儲路徑。選擇“File”|“Export”|“Genesis8”|“Female/Male”,進入導出界面,將模型命名為“Demo”,單擊“Export”按鈕,導出并保存三維人臉形變模型以及全身貼圖。導出路徑導出路徑為DAZStudio的數(shù)據(jù)庫,需要結(jié)合DAZStudio的安裝與使用完成該操作,如果還未安裝DAZStudio,請先學習DAZStudio的安裝與使用。導出模型保存設置1模型貼圖2保存位置真人版3D模型制作二DAZStudio是DAZ3D公司出品的一款用于3D人物模型創(chuàng)建和渲染的軟件。起初,DAZ3D公司是為Poser開發(fā)大量可編輯三維人物造型庫,在逐漸積累造型庫開發(fā)的技術(shù)與經(jīng)驗后,DAZ3D公司推出了一款專業(yè)的三維人物動畫設計軟件DAZStudio,自此專注于3D內(nèi)容的發(fā)展,將內(nèi)容與3D開發(fā)愛好者關(guān)聯(lián)起來,創(chuàng)建了產(chǎn)銷合一的市場,逐漸擴大自己的3D軟件產(chǎn)品。DAZStudioDAZStudioDAZStudio包含從基本角色和姿勢到初學者的教程,入門容易,操作簡便。無需建模基礎,即使作為一名新手,也可以通過導入人物模型,輕松裝扮3D人物角色,創(chuàng)造出很有質(zhì)感的3D人物模型。無論您是初學者,還是精通3D的藝術(shù)家,亦或是3D動畫師,DAZStudio都能讓您輕松創(chuàng)造出令人驚嘆的3D藝術(shù)。DAZStudio不僅支持本身的DZ格式,還集成了FBX,OBJ,Dae多種導出格式,方便導入Maya,3DMax,C4D,Unity3D。這一優(yōu)勢使DAZStudio可以實現(xiàn)多軟件交互,開發(fā)更精準。入門容易使用簡便DAZStudio功能強大多軟件交互開發(fā)更精準軟件優(yōu)勢提供3D人物創(chuàng)建高級平臺及渲染效果DAZStudio所提供的3D人物模型創(chuàng)建平臺是全新的Genesis系列數(shù)字平臺。Genesis系統(tǒng)為用戶提供創(chuàng)建數(shù)字變化的“無限集合”。DAZStudio采用DNASOFT公司的渲染技術(shù),并支持業(yè)界著名的Renderman渲染器,從而提升渲染速度,增強渲染質(zhì)量。軟件功能可編輯的骨骼系統(tǒng)DAZStudio擁有可以編輯的骨骼系統(tǒng),大部分操作可以通過參數(shù)面板修改參數(shù)來控制人物模型的細節(jié)生成。如圖展示為3D人物模型的身材參數(shù)控制面板,用戶可以根據(jù)自己的需求,調(diào)節(jié)參數(shù)控制面板,將3D人物模型身材調(diào)節(jié)為理想模式。軟件功能服飾發(fā)型變化可改變的材質(zhì)屬性DAZStudio允許用戶改變材質(zhì)的屬性,可編輯的材質(zhì)屬性包括表面顏色,表面貼圖,凹凸貼圖,透明貼圖,位移貼圖等。軟件功能獨特的藝術(shù)和動畫設計工具DAZStudio中為用戶提供虛擬人物、動物、道具、車輛、配件、環(huán)境等元素,用戶可以根據(jù)需求選擇相應主題、設置以及配置元素。完成主題設置,元素選擇后,結(jié)合光線效果設置,就可以創(chuàng)造出美麗的藝術(shù)品。軟件功能多軟件交互DAZStudio的安裝首先安裝DAZInstallManagerDAZStudio的安裝
在桌面雙擊DAZInstallManager應用程序圖標,打開DAZInstallManager應用窗口。出現(xiàn)的是登錄界面,在界面中輸入相應郵箱號(如“AIrobot@”),并勾選“WorkOffline”(離線登錄),單擊“Start”按鈕,進入DAZInstallManager。1.DAZManager的配置及使用DAZInstallManager登錄界面DAZStudio的安裝DAZStudio存儲路徑第一路徑:下載的素材安裝包的存放路徑第二路徑:素材安裝包的安裝路徑文件名稱可以根據(jù)自己的風格進行設置。在D盤創(chuàng)建名為“Daz”的文件夾,在“Daz”文件夾中創(chuàng)建“ku”和“xiazai”兩個文件夾?!皒iazai”文件夾中存放的是素材安裝包,“ku”文件夾則作為素材安裝包的安裝路徑,也是DAZStudio的素材庫。DAZStudio的安裝
路徑設置完成后,需要對DAZInstallManager的文件路徑進行配置?!霸O置”|“Downloads”,將PackageArchive的路徑設置為“D:/Daz/xiazai”,也就是素材安裝包的存放路徑。DAZStudio的安裝“設置”|“Installation”,在下方的庫目錄路徑中,單擊“+”按鈕,增加“D:/Daz/ku”路徑,并將原始路徑刪除,僅留下我們建立的新路徑。單擊“Accept”,應用設置,完成路徑配置。FaceGen中的全身貼圖保存路徑也是“D:/Daz/ku”,通過FaceGen生成的3D模型全身貼圖和三維人臉形變模型都保存到DAZStudio的素材庫中,以便在DAZStudio中使用,生成真人版3D模型。完成DAZStudio的安裝后,可在FaceGen導出界面進行三維人臉形變模型以及全身貼圖的導出操作。素材安裝包安裝路徑設置DAZStudio的安裝本書提供“Materialpackage”文件夾中包含開發(fā)所需素材及安裝包,將其拷貝到“D:/Daz/xiazai”目錄文件夾中。刷新或重啟DAZInstallManager軟件后,界面將顯示載入的素材安裝包。選中“Products”選擇框,選擇所有的安裝包,單擊“StartQueue”按鈕進行DAZStudio4.12以及素材安裝包的安裝。DAZStudio的安裝2.DAZSTUDIO的配置及使用DAZStudio4.12以及素材包通過DAZInstallManager進行安裝。DAZInstallManager執(zhí)行完成所有安裝包安裝任務后,可在桌面看到DAZStudio4.12的圖標。DAZStudio4.12DAZStudio的安裝
在桌面雙擊DAZStudio應用程序圖標,打開DAZStudio應用窗口。出現(xiàn)“登錄”對話框。在登錄界面中,選擇離線模式(WorkOffline)。打開DAZStudio后,還會要求登錄,再次選擇離線模式(WorkOffline),單擊“Next”按鈕,可進行昵稱輸入。勾選“Donotshowthisagain”選擇框,下次進入軟件時,就不會再彈出登錄界面。DAZStudio4.12登錄界面DAZStudio的安裝修正庫路徑,選擇“Edit”|“Preferences”或直接按“F2”鍵,進入Preferences界面。選擇“Preferences”|“Content”,單擊“ContentDirectoryManager”按鈕。庫路徑修正界面DAZStudio的安裝進入ContentDirectoryManager界面,這里有四個目錄:第一個為系統(tǒng)默認目錄,無需修改;單擊側(cè)邊欄“Add”按鈕,在其中添加“D:/Daz/ku”路徑,此路徑與DAZInstallManager設置的庫目錄路徑一致即可。在修改路徑的三個目錄中,出現(xiàn)的其他路徑可以進行刪除操作也可以保留。單擊“Accept”按鈕,返回Preference界面,單擊“Apply”按鈕完成庫路徑修改設置。庫路徑配置界面DAZStudio的使用DAZStudio素材庫中包含基礎人物、服飾、姿態(tài)以及場景,使用部分主要對人物、服飾以及基礎操作進行介紹。(1)人物、服飾首先在界面左側(cè)邊框選擇“ContentLibrary”,這里展示的素材都是通過DAZInstallManager進行安裝的素材包,其中包含人物(People)、場景(Scenes)、環(huán)境(Environments)、燈光預設(LightPresets)等。DAZStudio界面DAZStudio的使用人物(People)中又包含了男性和女性的素材庫,最為常用的是“Genesis8Female/Male”素材庫。以Genesis8Female為例,該庫中包含了女性人物角色(Characters)、服裝(Clothing)、發(fā)型(Hair)以及動作(Poses)等。
人物素材庫Genesis8Female人物素材庫DazStudio的使用選擇“Genesis8Female”|“Characters”,展示人物角色,雙擊其中任一角色,可將3D人物角色載入“Viewport”。單擊人物,選擇“Clothing”|“BasicWear”,雙擊服飾就可為3D人物穿上這套服裝。為人物增加發(fā)型的操作與穿衣操作一直,我們選擇Hair-ToulouseHair,雙擊發(fā)型可為3D人物增加發(fā)型裝飾。增加發(fā)型裝飾DazStudio的使用更換人物發(fā)色的操作:首先進入界面右上方場景面板,選中的人物角色節(jié)點“VWEAsianCho”,雙擊打開。選擇“VWEAsianCho”|“ToulouseHair”,在“ToulouseHair”|“Materials”|“ToXic”|“Hair01”,雙擊選擇發(fā)色,完成人物發(fā)色的更換。服飾顏色及材質(zhì)的更換也是如此,首先需要在人物節(jié)點中選中需要進行顏色或材質(zhì)更換的服裝,再雙擊選擇更換的材質(zhì)顏色,進行服裝顏色更換。DazStudio的使用以Genesis8Female的人物角色更換Genesis3Female中的服飾作為示例進行詳細介紹。首先選擇人物角色節(jié)點“VWEAsianCho”,選擇“Genesis3Female”|“Clothing”|“DarkStorm”,雙擊服飾,出現(xiàn)“Auto-Fit”對話框。“Auto-Fit”對話框可以根據(jù)用戶回答,對不同的基礎模型進行素材的自動適配。不同角色服飾自動適配DazStudio的使用“Auto-Fit”對話框中,“Whatfigurewastheitemoriginallydesignedfor?”是詢問適配的基礎人物,選擇該素材的原本適配人物,這里選擇Genesis3Female;“Whattypeofitemisit?”是詢問該素材的類型,這里選擇“Full-Body”,單擊“Accept”按鈕進行應用。選擇不同基礎角色、不同類型的服飾都可以通過“Auto-Fit”自適應素材修正框中進行自動適配。服飾自動修正后的人物角色整體展示如圖。服裝適配后的人物角色展示DazStudio的使用快捷鍵實現(xiàn)功能Ctrl+Alt+鼠標左鍵旋轉(zhuǎn)視圖Ctrl+Alt+鼠標右鍵移動視圖鼠標滑輪縮放視圖Ctrl+↑/↓/←/→人物后視圖/前視圖/右視圖/左視Alt+↑/↓人物頂視圖/底視圖W/S/A/D前進/后退/左移/右移視圖I/K/J/L前進/后退/左移/右移攝像機Ctrl+1/2/3/4/5/6/7/8/9/0切換顯示模式Ctrl+F定位所選對象Ctrl+P默認透視視圖Ctrl+L開/關(guān)燈DAZStudio快捷鍵:DazStudio的使用PerspectiveView(圖左)可以進行視圖選?。伙@示模式(圖右),可進行顯示模式切換。面板圖標:顯示模式切換操作DazStudio的使用
3D人物模型的渲染、保存與導出:3D人物模型渲染操作,選擇“Render”|“Render”(Ctrl+R),進行渲染。因為沒有加入燈光,所以渲染結(jié)果展示圖中人物皮膚有些發(fā)黑。渲染圖片取名為“Demo”,單擊“Save”按鈕,即可保存渲染圖片。3D人物模型渲染操作
渲染結(jié)果展示DazStudio的使用制作好的模型保存步驟為:“Genesis8Female”|“Characters”,單擊Characters面板下方“+”按鈕,選擇“CharactersPreset…”,進行命名,單擊“保存”按鈕,在“CharactersPresetSaveOpti…”彈出框中單擊“Accept”按鈕,完成模型保存??稍贑haracters面板中看到保存模型的預覽圖,保存模型的目的是方便在DAZStudio直接取用制作好的模型,并可對該模型進行使用和修改。DazStudio的使用DAZStudio模型保存:DAZStudio所建立的3D模型可導出為FBX形式,具體操作為:選擇“File”|“Export”,對模型進行命名,單擊“保存”按鈕,導出FBX模型。FBX模型可以更好地應用于其他軟件中。DazStudio生成真人3D版模型選擇“Genesis8Female”|“Genesis8BasicFemale”,雙擊“Genesis8BasicFemale”導入Genesis8Female基礎人物角色,并選擇服裝和發(fā)型。服裝選擇路徑為“Genesis8Female”|“Clothing”|“Crocodile”|“Hanfu”,為基礎人物角色選擇漢服服裝,服裝可以更換顏色和材質(zhì),具體操作請見DAZStudio的使用。1.Genesis8Female基礎人物角色導入Genesis8Female基礎模型完成服飾與發(fā)型的選擇發(fā)型選擇“Genesis8Female”|“Hair”|“ToulouseHair”,選擇人物節(jié)點“Genesis8Female”|“ToulouseHair”,并在“Genesis8Female”|“Hair”|“Materials-ToXic”雙擊選擇“Hair01”,改變?nèi)宋锇l(fā)色。DazStudio生成真人3D版模型人物發(fā)色更換基礎人物模型展示2.導入FaceGen生成的三維人臉形變模型在場景面板中選擇人物節(jié)點“Genesis8Female”,右下方編輯控制界面中,側(cè)邊選擇“Shaping”,進入Shaping面板,在搜索框中搜索“Demo”,單擊“Head”,右側(cè)邊欄中“Demo”的展示條顯示為“0”,將其拉到“100%”,Genesis8Female基礎人物模型載入“Demo”三維人臉形變模型。DazStudio生成真人3D版模型三維人臉形變模型導入操作DAZStudio模型保存:載入“Demo”三維人臉形變模型后的3D人物模型展示,相比較照片人物的真實度略低,下一步將載入FaceGen生成的三維模型全身貼圖。DazStudio生成真人3D版模型導入三維人臉形變模型人物模型展示3.導入FaceGen生成的全身貼圖界面右下方編輯控制界面中,選擇“Surface面板”|“Genesis8Female”|“Surface”|“Face”|“BaseColor”,單擊貼圖框,出現(xiàn)選擇列表,單擊“Browse”進行面部貼圖選擇。FaceGen全身貼圖導出的位置為“D:\DAZ\ku\Runtime\Textures\FaceGen\Genesis8F\Demo\Demo_*”,根據(jù)貼圖存儲路徑進入“Demo”文件夾,選擇其中的臉部貼圖“Demo_face.jpg”,單擊“打開”按鈕,基礎角色的Face就被賦予通過FaceGen生成的面部貼圖。DazStudio生成真人3D版模型人物面部貼圖操作選擇面部貼圖除了Face(面部)以外,Lips(嘴唇)、Ears(耳朵)、EyeSocket(眼眶)也使用面部貼圖“Demo_face.jpg”,選擇貼圖的步驟與Face(面部)貼圖方式相同。對Face進行貼圖后,單擊“BaseColor”的貼圖框時,選擇列表中會出現(xiàn)“Demo_face.jpg”這個選項,直接單擊“Demo_face.jpg”,即可快速完成面部貼圖。面部貼圖完成,3D人物模型的臉部與人臉圖片的相似度提高。4.3D版真人模型微調(diào)DazStudio生成真人3D版模型3D人物模型展示下一步對基礎人物模型身體進行貼圖,操作步驟與面部貼圖方式一致。Torso(身體軀干)對應“Demo_torso.jpg”,Legs(腿)對應“Demo_legs.jpg”,Arms(手臂)對應“Demo_arms.jpg”。最后對眼睛進行貼圖,操作步驟與面部貼圖方式一致。Irises(虹膜)、Pupils(瞳孔)、Sclera(眼白)均使用眼部貼圖“Demo_eyes.jpg”。完成人物模型的全身貼圖后,3D模型的真實度進一步提升。DazStudio生成真人3D版模型3D人物模型展示編輯控制界面中,選擇“Shaping”,進入Shaping面板,單擊“Genesis8Female”,可根據(jù)真人圖像對Face、Eyes等身體部位進行微調(diào)。DazStudio生成真人3D版模型3D人物模型微調(diào)操作DAZStudio的人物模型都進行了骨骼綁定,關(guān)節(jié)十分靈活,模型可根據(jù)需要制作出相應姿態(tài)。因為制作的真人版3D模型是基于AI的虛擬主播,所以賦予真人版3D模型主播的基本姿態(tài)。保存該模型,并命名為“Demo_pose”。DazStudio生成真人3D版模型3D人物模型保存導出為FBX模型,該模型將用于后續(xù)的語音合成實現(xiàn)。選擇“File”|“Export”,進入FBX模型保存界面,命名為“Demopose”,單擊“保存”按鈕,彈出“FBXExportOption”FBX模型導出選擇框,進行導出選擇,單擊“Accept”按鈕,完成FBX模型的導出??梢栽诒4娴奈募A中看到完成導出的FBX模型。DazStudio生成真人3D版模型3D人物FBX模型導出命名界面FBX模型導出選擇界面FBX模型保存文件夾展示謝謝觀看基于AI的虛擬主播設計第6章語音合成口型動畫的實現(xiàn)TTS語音合成的實現(xiàn)目錄/說課流程TeachingProcess二一TTS語音合成的實現(xiàn)一引言本節(jié)進行TTS語音合成選用的平臺是阿里云智能語音交互平臺。首先,介紹阿里云智能語音交互平臺的使用,包括項目創(chuàng)建以及個性化人聲定制;在完成聲音定制后,輸入新聞稿件文本信息,實現(xiàn)真人版語音輸出。引言
阿里云智能語音交互平臺的使用首先輸入網(wǎng)址“/pttssetting”,進入阿里云智能語音交互平臺的個性化人聲定制界面。沒有登錄過阿里云智能語音交互平臺的同學需要進行注冊,或者使用支付寶、淘寶等賬號掃碼進行登錄。注冊完成后,在登錄界面進行登錄。進入個性化人聲定制界面。語音合成
個性化人聲定制項目創(chuàng)建在個性化人聲定制界面中單擊“定制聲音”按鈕,需在彈出框中選擇“定制聲音將應用于哪個項目中”,沒有可用項目,單擊“去創(chuàng)建項目”。語音合成
個性化人聲定制項目創(chuàng)建進入項目創(chuàng)建界面,單擊“創(chuàng)建項目”按鈕,進行項目創(chuàng)建。在項目創(chuàng)建界面輸入項目名稱“AIReport”,可以對項目場景簡單描述,單擊“確定”完成項目創(chuàng)建。完成創(chuàng)建后,對項目進行簡單配置即可。語音合成
個性化人聲定制項目創(chuàng)建單擊側(cè)邊欄“個性化人聲定制”,返回個性化人聲定制界面,選擇項目“AIReport”,單擊“確定”按鈕,顯示聲音與項目關(guān)聯(lián)成功,掃描二維碼或輸入網(wǎng)址進入個性化人聲定制。語音合成語音合成01在電腦端通過網(wǎng)址打開聲音定制界面。也可以在手機端掃描二維碼進行聲音定制。02選中“我已閱讀并同意《智能語音聲音模型定制服務協(xié)議》”,單擊“開始克隆”按鈕;進入聲音命名界面,輸入聲音ID“AIReport123456”,選擇性別“女”,選擇使用場景“故事”,單擊“開始錄制”,進入聲音錄制界面
實現(xiàn)真人版語音輸出使用自己的語音訓練聲音模型后,可進行各種文本的人聲朗讀,實現(xiàn)真人版的文本轉(zhuǎn)語音輸出。在個性化人聲定制界面,單擊“試聽”按鈕,進入TTS(文本轉(zhuǎn)語音)界面。語音合成口型動畫的實現(xiàn)二語音合成口型動畫的實現(xiàn)010203動畫角色的造型更加逼真提升特效的表達效果更加細致的刻畫角色形象
Maya2018的安裝雙擊AutodeskMaya2018安裝包(或者單擊右鍵“以管理員身份運行”),進入解壓界面選擇目標文件夾后,單擊“確認”按鈕,進行安裝包解壓。
Maya2018的安裝解壓完成后,進入AutodeskMaya2018安裝界面安裝說明選擇中文(簡體),單擊安裝,進入Maya2018的安裝過程。語音合成
Maya2018的安裝閱讀Autodesk的許可及服務協(xié)議,選擇“我接受”,單擊“下一步”按鈕。進入安裝配置界面,選擇全部選擇安裝,需要有3.32G的磁盤空間,可以根據(jù)存儲空間選擇安裝路徑,建議安裝在C盤。單擊“安裝”按鈕,進行Maya2018的安裝。
Maya2018的安裝進入Maya2018安裝完成界面,單擊“立即啟動”按鈕,完成Maya2018的安裝。語音合成
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度個人房屋裝修售后保修合同
- 2025年度某局數(shù)字化轉(zhuǎn)型勞務分包結(jié)算規(guī)范合同4篇
- 二零二五年度體育賽事贊助合同履行保證4篇
- 2025年度車輛擔保糾紛處理合同4篇
- 二零二五年度男方家暴女方離婚后個人隱私保護及信息保密協(xié)議3篇
- 2025年草花種植基地環(huán)境保護合作協(xié)議3篇
- 2025年預攪拌混凝土項目可行性研究報告
- 2025年度綠色生態(tài)奶牛飼養(yǎng)基地承包經(jīng)營權(quán)轉(zhuǎn)讓合同3篇
- 二零二五年版美術(shù)品投資管理合作協(xié)議4篇
- 2025年中國冷凝蒸發(fā)器行業(yè)市場發(fā)展監(jiān)測及投資前景展望報告
- 遼寧省撫順五十中學2024屆中考化學全真模擬試卷含解析
- 2024年湖南汽車工程職業(yè)學院單招職業(yè)技能測試題庫及答案解析
- 2024年中國科學技術(shù)大學少年創(chuàng)新班數(shù)學試題真題(答案詳解)
- 家長心理健康教育知識講座
- GB/T 292-2023滾動軸承角接觸球軸承外形尺寸
- 軍人結(jié)婚函調(diào)報告表
- 民用無人駕駛航空器實名制登記管理規(guī)定
- 北京地鐵6號線
- 航空油料計量統(tǒng)計員(初級)理論考試復習題庫大全-上(單選題匯總)
- 諒解書(標準樣本)
評論
0/150
提交評論