《深度學(xué)習(xí)技術(shù)應(yīng)用》課件全套 項(xiàng)目1-6 TensorFlow實(shí)現(xiàn)服裝圖像分類 - 使用VGG19遷移學(xué)習(xí)實(shí)現(xiàn)圖像風(fēng)格遷移_第1頁
《深度學(xué)習(xí)技術(shù)應(yīng)用》課件全套 項(xiàng)目1-6 TensorFlow實(shí)現(xiàn)服裝圖像分類 - 使用VGG19遷移學(xué)習(xí)實(shí)現(xiàn)圖像風(fēng)格遷移_第2頁
《深度學(xué)習(xí)技術(shù)應(yīng)用》課件全套 項(xiàng)目1-6 TensorFlow實(shí)現(xiàn)服裝圖像分類 - 使用VGG19遷移學(xué)習(xí)實(shí)現(xiàn)圖像風(fēng)格遷移_第3頁
《深度學(xué)習(xí)技術(shù)應(yīng)用》課件全套 項(xiàng)目1-6 TensorFlow實(shí)現(xiàn)服裝圖像分類 - 使用VGG19遷移學(xué)習(xí)實(shí)現(xiàn)圖像風(fēng)格遷移_第4頁
《深度學(xué)習(xí)技術(shù)應(yīng)用》課件全套 項(xiàng)目1-6 TensorFlow實(shí)現(xiàn)服裝圖像分類 - 使用VGG19遷移學(xué)習(xí)實(shí)現(xiàn)圖像風(fēng)格遷移_第5頁
已閱讀5頁,還剩823頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

項(xiàng)目一TensorFlow實(shí)現(xiàn)服裝圖像分類深度學(xué)習(xí)應(yīng)用技術(shù)項(xiàng)目引導(dǎo)案例

目前在國內(nèi)各大電商購物平臺,實(shí)質(zhì)是以文搜圖。該技術(shù)要求事先對服裝圖像進(jìn)行分類,打標(biāo)簽。隨著數(shù)量的爆發(fā)式增長,該方法的缺點(diǎn)越來越顯著。耗費(fèi)時(shí)間、精力、成本信息表達(dá)不全,檢索效果不佳

基于文本標(biāo)注的傳統(tǒng)方法漸顯疲態(tài),而基于圖像內(nèi)容的新方法方興未艾。通過對圖像進(jìn)行特征提取,獲得其特征表示,然后進(jìn)行相似性度量,并依據(jù)相似性進(jìn)行排序,從而得到檢索結(jié)果。

目前,圖像特征提取方法可分為基于傳統(tǒng)圖像處理和基于深度學(xué)習(xí)兩種方式。項(xiàng)目引導(dǎo)案例Tensorflow基礎(chǔ)操作01介紹Tensorflow以及一些深度學(xué)習(xí)的基本知識和代碼操作服裝圖像分類02基于服裝圖像數(shù)據(jù),進(jìn)行最基礎(chǔ)的分類模型的訓(xùn)練KerasTuner超參數(shù)調(diào)節(jié)03使用超參數(shù)調(diào)節(jié)的方法來進(jìn)行模型訓(xùn)練思考一下對于如此海量的服裝圖像數(shù)據(jù)該如何分類呢?項(xiàng)目引導(dǎo)案例TensorFlow基礎(chǔ)操作任務(wù)一職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作了解Tensorflow的內(nèi)涵、名字含義、框架;了解Tensorflow的核心概念,常量、變量、張量、計(jì)算圖和會話等;了解Tensorflow優(yōu)勢、缺點(diǎn)以及主流框架的對比。能夠了解開源框架TensorFlow;能夠掌握在TensorFlow中張量運(yùn)算的方法;能夠掌握TensorFlow中數(shù)據(jù)類型轉(zhuǎn)換方法。職業(yè)能力目標(biāo)01知識目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作

了解TensorFlow的基本知識,進(jìn)行代碼操作練習(xí)。任務(wù)描述任務(wù)要求安裝TensorFlow;創(chuàng)建TensorFlow中的常量與變量;實(shí)現(xiàn)TensorFlow中的數(shù)據(jù)類型轉(zhuǎn)換;完成包括加法、平方和壓縮求和在內(nèi)的張量運(yùn)算。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作任務(wù)分析如何實(shí)現(xiàn)Tensorflow的安裝、環(huán)境配置?Tensorflow如何進(jìn)行運(yùn)算操作,常見的有哪些?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱TensorFlow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱TensorFlow基礎(chǔ)操作計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號任務(wù)計(jì)劃1

2

3

4

5

6

7

8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作TensorFlow核心概念204知識儲備TensorFlow基本介紹1TensorFlow特點(diǎn)3TensorFlow的內(nèi)涵04①TensorFlow?是一個(gè)開放源代碼軟件庫,用于進(jìn)行高性能數(shù)值計(jì)算。借助其靈活的架構(gòu),用戶可以輕松地將計(jì)算工作部署到多種平臺(CPU、GPU、TPU)和設(shè)備(桌面設(shè)備、服務(wù)器集群、移動(dòng)設(shè)備、邊緣設(shè)備等)。②TensorFlow?最初是由GoogleBrain團(tuán)隊(duì)(隸屬于Google的AI部門)中的研究人員和工程師開發(fā)的,可為機(jī)器學(xué)習(xí)和深度學(xué)習(xí)提供強(qiáng)力支持。TensorFlowFlow為“流”,即張量之間通過計(jì)算而轉(zhuǎn)換的過程TensorFlowTensorFlow名字的含義04Tensor為“張量”,即多維組數(shù)的數(shù)據(jù)結(jié)構(gòu)TensorFlow是一個(gè)通過計(jì)算圖的形式表述計(jì)算的編程系統(tǒng),每一個(gè)計(jì)算都是計(jì)算圖上的一個(gè)節(jié)點(diǎn),節(jié)點(diǎn)之間的邊描述了計(jì)算之間的關(guān)系。+=TensorFlow基本架構(gòu)04分布式TensorFlow的核心組件分發(fā)中心(distributedmaster)執(zhí)行器(dataflowexecutor)內(nèi)核應(yīng)用(kernelimplementation)最底端的設(shè)備層(devicelayer)/網(wǎng)絡(luò)層(networkinglayer)TensorFlow基本架構(gòu)04分發(fā)中心從輸入的數(shù)據(jù)流圖中剪取子圖,將其劃分為操作片段并啟動(dòng)執(zhí)行器。執(zhí)行器負(fù)責(zé)圖操作在進(jìn)程和設(shè)備中的運(yùn)行、收發(fā)其它執(zhí)行器的結(jié)果。內(nèi)核應(yīng)用負(fù)責(zé)單一的圖操作,包括數(shù)學(xué)計(jì)算、數(shù)組操作、控制流和狀態(tài)管理操作。單進(jìn)程版本的TensorFlow沒有分發(fā)中心和執(zhí)行器,而是使用特殊的會話應(yīng)用聯(lián)系本地設(shè)備。TensorFlow的C語言API是核心組件和用戶代碼的分界,其它組件/API均通過C語言API與核心組件進(jìn)行交互。04知識儲備TensorFlow核心概念2TensorFlow基本介紹112Tensorflow特點(diǎn)3

常量概念04

常量指在運(yùn)行過程中不會改變的值,在TensorFlow中無需進(jìn)行初始化操作。

常量在TensorFlow中一般被用于設(shè)置訓(xùn)練步數(shù)、訓(xùn)練步長和訓(xùn)練輪數(shù)等超參數(shù),此類參數(shù)在程序執(zhí)行過程中一般不需要被改變,所以一般被設(shè)置為常量。

04

變量指在運(yùn)行過程中值可以被改變的單元。變量在創(chuàng)建時(shí)必須確定初始值,可以像定義常量一樣。

TensorFlow中的變量是可以被機(jī)器優(yōu)化過程中自動(dòng)改變值的張量,也可以理解為待優(yōu)化的張量。變量創(chuàng)建后,一般無需人工進(jìn)行賦值,系統(tǒng)會根據(jù)算法模型,在訓(xùn)練優(yōu)化過程中自動(dòng)調(diào)整變量的值。

變量概念

04變量概念

TensorFlow中的變量使用Variable類來保存,使用時(shí)用initial_value參數(shù)指定初始化函數(shù),name參數(shù)指定變量名。訓(xùn)練梯度變量:tf.GraphKeys.TRAINABLE_VARIABLES全局變量:tf.GraphKeys.GLOBAL_VARIABLES本地變量:tf.GraphKeys.LOCAL_VARIABLESTensorflow提供變量集合以儲存不同類型的變量,默認(rèn)的變量集合包括:

04

占位符的本質(zhì)就是先聲明數(shù)據(jù)類型,以便建立模型時(shí)申請內(nèi)存。

TensorFlow中的Variable變量類型,在定義時(shí)需要初始化,但有些變量定義時(shí)并不知道其數(shù)值,只有當(dāng)真正開始運(yùn)行程序時(shí),才由外部輸入,比如訓(xùn)練數(shù)據(jù),這時(shí)候需要用到占位符

。

占位符概念

張量是屬于線性代數(shù)里的知識點(diǎn),線性代數(shù)是用虛擬數(shù)字世界表示真實(shí)物理世界的工具。我們用點(diǎn)線面體的概念來比喻解釋會更加容易理解:·點(diǎn)——標(biāo)量(scalar)·線——向量(vector)·面——矩陣(matrix)·體——張量(tensor)張量概念04張量概念04張量的數(shù)據(jù)類型23種,數(shù)據(jù)類型之間可以互相轉(zhuǎn)換2個(gè)特殊類型4類浮點(diǎn)實(shí)數(shù)字符串2類浮點(diǎn)復(fù)數(shù)邏輯13類整數(shù)04TensorFlow中的張量

從功能的角度,張量可以簡單理解為多維數(shù)組,

需要注意的是,張量并沒有真正保存數(shù)字,它保存的是計(jì)算過程。零階張量表示標(biāo)量(scalar),也就是一個(gè)數(shù);一階張量為向量(vector),也就是一維數(shù)組;n階張量可以理解為一個(gè)n維數(shù)組。

04TensorFlow中的張量

一個(gè)張量就是一個(gè)可以容納N維數(shù)據(jù)及其線性操作的容器。

張量是一個(gè)多維數(shù)組。與NumPyndarray對象類似,tf.Tensor對象具有數(shù)據(jù)類型和形狀。此外,tf.Tensors可以駐留在加速器內(nèi)存中(如GPU)。

張量(tensor)類型與Python類型放一起做個(gè)比較:tensor類型Python類型描述DT_FLOATtf.float3232位浮點(diǎn)數(shù)DT_DOUBLEtf.float6464位浮點(diǎn)數(shù)DT_INT646464位有符號整型DT_ING323232位有符號整型DT_INT161616位有符號整型DT_INT888位有符號整型DT_UNIT8tf.unit88位無符號整型DT_STRINGtf.string可變長度的字節(jié)數(shù)組,每一個(gè)張量元素都是一個(gè)字節(jié)數(shù)組DT_BOOLtf.bool布爾型DT_COMPLEX64plex64由兩個(gè)32位浮點(diǎn)數(shù)組成的復(fù)數(shù):實(shí)數(shù)和虛數(shù)04TensorFlow中的張量張量張量可以由加速器內(nèi)存(如GPU、TPU)支持。張量是不可變的。NumPyNumPy兼容性在TensorFlowtf.Tensor和NumPy之間轉(zhuǎn)換ndarray很容易VS04張量操作

TensorFlow提供了豐富的張量操作如:

函數(shù)描述mod()返回除法的余數(shù)cross()返回兩個(gè)張量的點(diǎn)積abs()返回輸入?yún)?shù)張量的絕對值ceil()返回輸入?yún)?shù)張量向上取整的結(jié)果cos()返回輸入?yún)?shù)張量的余弦值exp()返回輸入?yún)?shù)張量的自然常數(shù)e的指數(shù)floor()返回輸入?yún)?shù)張量的向下取整結(jié)果inv()返回輸入?yún)?shù)張量的倒數(shù)log()返回輸入?yún)?shù)張量的自然對數(shù)maximum()返回兩個(gè)輸入?yún)?shù)張量中的最大值minimum()返回兩個(gè)輸入?yún)?shù)張量中的最小值neg()返回輸入?yún)?shù)張量的負(fù)值pow()返回輸入?yún)?shù)第一個(gè)張量的第二個(gè)張量次冪rsqrt()返回輸入?yún)?shù)張量的平方根的倒數(shù)sqrt()返回輸入?yún)?shù)張量的平方根square()返回輸入?yún)?shù)張量的平方04計(jì)算圖和會話計(jì)算圖和會話TensorFlow在數(shù)據(jù)流編程下運(yùn)行,具體地,使用數(shù)據(jù)流圖表示計(jì)算指令間的依賴關(guān)系,隨后依據(jù)圖創(chuàng)建會話并運(yùn)行圖的各個(gè)部分。計(jì)算圖由節(jié)點(diǎn)(nodes)和線(edges)組成。節(jié)點(diǎn)表示操作符Operator,或者稱之為算子,線表示計(jì)算間的依賴。實(shí)線表示有數(shù)據(jù)傳遞依賴,傳遞的數(shù)據(jù)即張量虛線通??梢员硎究刂埔蕾?,即執(zhí)行先后順序。04計(jì)算圖和會話動(dòng)態(tài)計(jì)算圖動(dòng)態(tài)計(jì)算圖已經(jīng)不區(qū)分計(jì)算圖的定義和執(zhí)行了,而是定義后立即執(zhí)行。因此稱之為EagerExcutionTensorFlow2.0懷舊版靜態(tài)計(jì)算圖為了確保對老版本tensorflow項(xiàng)目的兼容性,在pat.v1子模塊中保留了對TensorFlow1.0那種靜態(tài)計(jì)算圖構(gòu)建風(fēng)格的支持TensorFlow1.0靜態(tài)計(jì)算圖使用靜態(tài)計(jì)算圖分兩步,第一步定義計(jì)算圖,第二部在會話中執(zhí)行計(jì)算圖04計(jì)算圖和會話?使用計(jì)算圖(Graph)來表示計(jì)算任務(wù)?在被稱之為會話(Session)的上下文(context)中執(zhí)行計(jì)算圖?使用張量(tensor)表示數(shù)據(jù)?通過變量(Variable)維護(hù)狀態(tài)?使用feed和fetch可以為任意的操作復(fù)制或者從其中獲取數(shù)04知識儲備Tensorflow核心概念2TensorFlow基本介紹112Tensorflow特點(diǎn)3

Tensorflow優(yōu)勢04(1)可用性工作流程相對容易,API穩(wěn)定,兼容性好,并且TensorFlow與Numpy完美結(jié)合,很容易上手。(2)靈活性TensorFlow能夠在各種類型的機(jī)器上運(yùn)行,從超級計(jì)算機(jī)到嵌入式系統(tǒng)。(3)效率自TensorFlow第一次發(fā)布以來,效率不斷提高。(4)支持在TensorFlow周圍形成了一個(gè)強(qiáng)大的社區(qū)。谷歌已經(jīng)在TensorFlow上發(fā)布了多個(gè)預(yù)先訓(xùn)練好的機(jī)器學(xué)習(xí)模型,他們可以自由使用。

Tensorflow缺點(diǎn)04(1)缺少符號循環(huán):每個(gè)計(jì)算流必須構(gòu)建成圖,沒有符號循環(huán),這樣使得一些計(jì)算變得困難。(2)檔和接口混亂底層接口寫起來繁瑣,高層接口不靈活,且封裝混亂。(3)默認(rèn)占用所有GPU的所有內(nèi)存tf在GPU不可用時(shí)會自動(dòng)改在CPU上跑,這樣一方面會導(dǎo)致速度變慢,另一方面,在共用顯卡的情況下,你根本就不知道是在CPU上跑。(4)調(diào)試?yán)щyTensorFlow作為靜態(tài)圖框架,api經(jīng)常變,打印中間結(jié)果必須要借助Session運(yùn)行才能生效,或者學(xué)習(xí)額外的tfdbg工具。

主流框架對比04職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作05任務(wù)實(shí)施創(chuàng)建常量與變量2安裝TensorFlow1數(shù)據(jù)類型轉(zhuǎn)換3張量運(yùn)算4安裝TensorFlow05在JupyterLab中使用感嘆號“!”表示執(zhí)行來自操作系統(tǒng)的命令。1.安裝TensorFlow

-i

是指向下載源,默認(rèn)是國外源,但由于國外源下載速度慢,因此這里指向國內(nèi)源,以便于提高下載速度。

導(dǎo)入tensorflow并查看版本號05任務(wù)實(shí)施創(chuàng)建常量與變量2安裝TensorFlow1數(shù)據(jù)類型轉(zhuǎn)換3張量運(yùn)算4創(chuàng)建常量05創(chuàng)建常量方法如下:1.創(chuàng)建常量tf.constant(value,dtype=None,shape=None,name=’const’,verify_shape=False)在創(chuàng)建常量時(shí)只有value值是必填的,dtype等參數(shù)可以缺省,會根據(jù)具體的value值設(shè)置相應(yīng)的值。創(chuàng)建常量05參數(shù)名稱必選/可選參數(shù)類型含義value必選數(shù)值或者list輸出張量的值dtype可選dtype輸出張量元素類型shape可選一維張量或array輸出張量的維度name可選string張量名稱validate_shape可選bool檢測shape是否和value的shape一致,若為False,即不一致時(shí),會用最后一個(gè)元素將shape補(bǔ)全。創(chuàng)建常量參數(shù)說明05

在創(chuàng)建的同時(shí)指定數(shù)據(jù)類型,在數(shù)值兼容的情況下會自動(dòng)做數(shù)據(jù)類型轉(zhuǎn)換。2.創(chuàng)建指定數(shù)據(jù)類型的常量053.創(chuàng)建指定shape的常量如果shape參數(shù)值被設(shè)定,則會做相應(yīng)的reshape工作。05在變量的參數(shù)中,trainable參數(shù)用來表征當(dāng)前變量是否需要被自動(dòng)優(yōu)化,創(chuàng)建變量對象時(shí)默認(rèn)是啟用自動(dòng)優(yōu)化標(biāo)志。4.創(chuàng)建變量創(chuàng)建方法如下:tf.Variable(initial_value,dtype=None,validate_shape=None,trainable=True,name='Variable')創(chuàng)建變量創(chuàng)建變量05參數(shù)名稱必選/可選參數(shù)類型含義initial_value必選所有可以轉(zhuǎn)換為Tensor的類型變量的初始值dtype可選dtype輸出張量元素類型validate_shape可選bool如果為False,則不進(jìn)行類型和維度檢查trainable可選bool如果為True,需要被自動(dòng)優(yōu)化,創(chuàng)建變量對象時(shí)默認(rèn)是啟用自動(dòng)優(yōu)化標(biāo)志name可選string變量的名稱,如果沒有指定則系統(tǒng)會自動(dòng)分配一個(gè)唯一的值創(chuàng)建變量參數(shù)說明05任務(wù)實(shí)施創(chuàng)建常量與變量2安裝TensorFlow1數(shù)據(jù)類型轉(zhuǎn)換3張量運(yùn)算405通過tf.cast()進(jìn)行數(shù)據(jù)類型轉(zhuǎn)換。數(shù)據(jù)類型轉(zhuǎn)換

TensorFlow支持不同的數(shù)據(jù)類型:

實(shí)數(shù):tf.float32,tf.float64整數(shù):8,16,32,64,tf.unit8布爾:tf.bool復(fù)數(shù):plex64,plex128數(shù)據(jù)類型轉(zhuǎn)換05任務(wù)實(shí)施創(chuàng)建常量與變量2安裝TensorFlow1數(shù)據(jù)類型轉(zhuǎn)換3張量運(yùn)算4051.加減乘除運(yùn)算張量運(yùn)算052.冪指對數(shù)運(yùn)算張量運(yùn)算053.壓縮求和使用tf.reduce_sum()進(jìn)行張量壓縮求和運(yùn)算壓縮求和tf.reduce_sum(input_tensor,axis=None,keepdims=False,name=None)創(chuàng)建變量的參數(shù)說明如下:input_tensor:輸入張量。axis=None:求和軸,如果為None,所有元素都會被壓縮求和。keepdims=False:如果為True,壓縮后的維度會變成1。name:賦予的變量名。05node1=tf.constant([[1,2],[3,4],[5,6]],32)node2=tf.reduce_sum(node1,axis=1)node3=tf.reduce_sum(node1,axis=0)壓縮求和[[1,2],[3,4],[5,6]]的shape是3*2*1當(dāng)axis=1時(shí),留下索引0和2,得到的數(shù)據(jù)的shape為3*1,得到[3711]當(dāng)axis=0時(shí),留下索引1和2,得到的數(shù)據(jù)的shape為2*1,得到[46]05node4=tf.reduce_sum(node1,axis=0,keepdims=True)壓縮求和keepdims:是否保持原有張量的維度,設(shè)置為True,結(jié)果保持輸入tensor的形狀;設(shè)置為False,結(jié)果會降低維度,如果不傳入這個(gè)參數(shù),則系統(tǒng)默認(rèn)為False054.其他運(yùn)算張量運(yùn)算職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作任務(wù)檢查與評價(jià)061、請參照評價(jià)標(biāo)準(zhǔn)完成自評和對其他小組的互評。2、各組請代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱Tensorflow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱Tensorflow基礎(chǔ)操作評價(jià)方式可采用自評、互評、老師評價(jià)等方式說

明主要評價(jià)學(xué)生在項(xiàng)目學(xué)習(xí)過程中的操作技能、理論知識、學(xué)習(xí)態(tài)度、課堂表現(xiàn)、學(xué)習(xí)能力等

評價(jià)內(nèi)容與評價(jià)標(biāo)準(zhǔn)序號評價(jià)內(nèi)容評價(jià)標(biāo)準(zhǔn)分值得分1理論知識(20%)了解Tensorflow的基本概念、常量與變量的基本概念、Tensor張量的基本概念。(20分)20分

2專業(yè)技能(40%)安裝Tensorflow(5%)正確安裝Tensorflow,并查看版本(5分)5分

3創(chuàng)建常量與變量(15%)正確創(chuàng)建常量(指定數(shù)據(jù)類型、指定shpe)(10分)15分

正確創(chuàng)建變量(5分)4數(shù)據(jù)類型轉(zhuǎn)換(10%)正確轉(zhuǎn)換常量數(shù)據(jù)類型(5分)10分

正確轉(zhuǎn)換變量數(shù)據(jù)類型(5分)5張量運(yùn)算(10%)正確的做加法運(yùn)算(2分)10分正確的做平方運(yùn)算(3分)正確的做壓縮求和運(yùn)算(5分)6核心素養(yǎng)(20%)具有良好的自主學(xué)習(xí)能力、分析解決問題的能力、整個(gè)任務(wù)過程中有指導(dǎo)他人(20分)20分

具有較好的學(xué)習(xí)能力和分析解決問題的能力,任務(wù)過程中無指導(dǎo)他人(15分)能夠主動(dòng)學(xué)習(xí)并收集信息,有請教他人進(jìn)行解決問題的能力(10分)不主動(dòng)學(xué)習(xí)(0分)7課堂紀(jì)律(20%)設(shè)備無損壞、設(shè)備擺放整齊、工位區(qū)域內(nèi)保持整潔、無干擾課堂秩序(20分)20分

設(shè)備無損壞、無干擾課堂秩序(15分)無干擾課堂秩序(10分)干擾課堂秩序(0分)總得分職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作任務(wù)小結(jié)07職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一TensorFlow基礎(chǔ)操作任務(wù)拓展08除了書中提到的張量運(yùn)算操作之外,TensorFlow還提供哪些算數(shù)操作?常見的算數(shù)操作有哪些,TensorFlow提供的算術(shù)操作類似常量算數(shù)操作。解題

思路提示謝謝大家學(xué)習(xí)項(xiàng)目一TensorFlow實(shí)現(xiàn)服裝圖像分類深度學(xué)習(xí)應(yīng)用技術(shù)服裝圖像分類任務(wù)二職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類了解人工智能領(lǐng)域機(jī)器學(xué)習(xí)的概念、分類及應(yīng)用與深度學(xué)習(xí)的概念、訓(xùn)練過程了解神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)掌握激活函數(shù)、損失函數(shù)的意義及作用掌握過擬合、欠擬合的概念及避免策略能夠正確導(dǎo)入訓(xùn)練所需的FashinMNIST數(shù)據(jù)集并查看能夠使用matplotlib庫實(shí)現(xiàn)數(shù)據(jù)可視化并完成數(shù)據(jù)預(yù)處理能夠使用Keras構(gòu)建簡單的神經(jīng)網(wǎng)絡(luò)模型能夠完成模型的訓(xùn)練、評估并使用模型進(jìn)行預(yù)測職業(yè)能力目標(biāo)01知識目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類

對下載服裝圖像數(shù)據(jù)集進(jìn)行預(yù)處理,使用TensorFlow進(jìn)行模型構(gòu)建、模型訓(xùn)練以及評估。任務(wù)描述任務(wù)要求掌握FashionMNIST數(shù)據(jù)集的加載和處理;學(xué)習(xí)使用TensorFlow框架搭建神經(jīng)網(wǎng)絡(luò);掌握并實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程;掌握并實(shí)現(xiàn)模型評估及預(yù)測過程。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類任務(wù)分析如何添加神經(jīng)層?過擬合和欠擬合的區(qū)別是什么?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱TensorFlow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱服裝圖像分類計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號任務(wù)計(jì)劃1

2

3

4

5

6

7

8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類神經(jīng)網(wǎng)絡(luò)204知識儲備人工智能領(lǐng)域概念1過擬合、欠擬合3人工智能04人工智能(ArtificialIntelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。04人工智能(1)弱人工智能

弱人工智能(ArtificialNarrowIntelligence/ANI),只專注于完成某個(gè)特定的任務(wù),它們只是用于解決特定的具體類的任務(wù)問題而存在,大都是統(tǒng)計(jì)數(shù)據(jù),以此從中歸納出模型。人工智能目前分為弱人工智能、強(qiáng)人工智能和超人工智能。04人工智能

強(qiáng)人工智能(Artificial

Generallnteligence/AGI),屬于人類級別的人工智能,在各方面都能和人類比肩,它能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等操作,并且和人類一樣得心應(yīng)手。(2)強(qiáng)人工智能索菲亞04人工智能

超人工智能(ArtificialSuperintelligence/ASI),在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明許多,包括科學(xué)創(chuàng)新、通識和社交技能。在超人工智能階段,人工智能已經(jīng)跨過“奇點(diǎn)”,其計(jì)算和思維能力已經(jīng)遠(yuǎn)超人腦。(3)超人工智能人工智能發(fā)展史04

第一次發(fā)展高潮(1955年—1974年)。計(jì)算機(jī)可以解決代數(shù)應(yīng)用題、證明幾何定理、學(xué)習(xí)和使用英語。

第一次寒冬(1974年—1980年)。AI遭遇到瓶頸。第二次發(fā)展高潮(1980年—1987年)。在這期間目標(biāo)是造出能夠與人對話、翻譯語言、解釋圖像、能夠像人一樣推理的機(jī)器。第二次寒冬(1987年—1993年)。AI硬件的市場需求突然下跌。第三次發(fā)展高潮(1993年至今)。云計(jì)算、大數(shù)據(jù)、機(jī)器學(xué)習(xí)、自然語言和機(jī)器視覺等領(lǐng)域發(fā)展迅速人工智能機(jī)器學(xué)習(xí)(MachineLearning)住在二環(huán),是人工智能的核心區(qū)域,也是當(dāng)前發(fā)展最迅猛的一部分,子算法流派枝繁葉茂,但思想比較統(tǒng)一。深度學(xué)習(xí)人工智能04人工智能(ArtificialIntelligence)涵蓋范圍最廣,三環(huán)以內(nèi)都可以叫人工智能,它關(guān)注的問題和方法也最雜,包括知識推理、邏輯規(guī)劃以及機(jī)器人等方面。深度學(xué)習(xí)(DeepLearning)其實(shí)原本是從機(jī)器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)子算法分支發(fā)展出來的一系列成果,知識體系一脈相承。

機(jī)器學(xué)習(xí)——人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系04機(jī)器學(xué)習(xí)的概念

機(jī)器學(xué)習(xí)(MachineLearning,ML),是人工智能的核心,屬于人工智能的一個(gè)分支。

機(jī)器學(xué)習(xí)理論主要是設(shè)計(jì)和分析一些讓計(jì)算機(jī)可以自動(dòng)“學(xué)習(xí)”的算法。機(jī)器學(xué)習(xí)算法是一類從數(shù)據(jù)中自動(dòng)分析獲得規(guī)律,并利用規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測的算法。所以機(jī)器學(xué)習(xí)的核心就是數(shù)據(jù),算法(模型),算力(計(jì)算機(jī)運(yùn)算能力)。機(jī)器學(xué)習(xí)的分類04

監(jiān)督學(xué)習(xí)(有導(dǎo)師學(xué)習(xí)):輸入數(shù)據(jù)中有導(dǎo)師信號,以概率函數(shù)、代數(shù)函數(shù)或人工神經(jīng)網(wǎng)絡(luò)為基函數(shù)模型,采用迭代計(jì)算方法,學(xué)習(xí)結(jié)果為函數(shù)。

無監(jiān)督學(xué)習(xí)(無導(dǎo)師學(xué)習(xí)):輸入數(shù)據(jù)中無導(dǎo)師信號,采用聚類方法,學(xué)習(xí)結(jié)果為類別。典型的無導(dǎo)師學(xué)習(xí)有發(fā)現(xiàn)學(xué)習(xí)、聚類、競爭學(xué)習(xí)等。

強(qiáng)化學(xué)習(xí)(增強(qiáng)學(xué)習(xí)):以環(huán)境反饋(獎(jiǎng)/懲信號)作為輸入,以統(tǒng)計(jì)和動(dòng)態(tài)規(guī)劃技術(shù)為指導(dǎo)的一種學(xué)習(xí)方法。04

機(jī)器學(xué)習(xí)應(yīng)用領(lǐng)域十分廣泛,無論是在軍事領(lǐng)域還是民用領(lǐng)域,都有機(jī)器學(xué)習(xí)算法施展的機(jī)會。例如:數(shù)據(jù)挖掘、數(shù)據(jù)分類、計(jì)算機(jī)視覺、自然語言處理(NLP)、生物特征識別、搜索引擎、醫(yī)學(xué)診斷、檢測信用卡欺詐、機(jī)器翻譯、證券市場分析、DNA序列測序、語音和手寫識別、戰(zhàn)略游戲和機(jī)器人運(yùn)用等。機(jī)器學(xué)習(xí)的應(yīng)用

04

深度學(xué)習(xí)(DL,DeepLearning)是機(jī)器學(xué)習(xí)(ML,MachineLearning)領(lǐng)域中一個(gè)新的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能(AI,ArtificialIntelligence)。

深度學(xué)習(xí)在搜索技術(shù),數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),機(jī)器翻譯,自然語言處理,多媒體學(xué)習(xí),語音,推薦和個(gè)性化技術(shù),以及其他相關(guān)領(lǐng)域都取得了很多成果。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個(gè)隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。

深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。

深度學(xué)習(xí)深度學(xué)習(xí)的概念04深度學(xué)習(xí)的訓(xùn)練過程

(1)自下上升的非監(jiān)督學(xué)習(xí)

從底層開始,一層一層地往頂層訓(xùn)練。采用無標(biāo)定數(shù)據(jù)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無監(jiān)督訓(xùn)練過程,這也是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分,可以看作是特征學(xué)習(xí)過程。(2)自頂向下的監(jiān)督學(xué)習(xí)

通過帶標(biāo)簽的數(shù)據(jù)去訓(xùn)練,誤差自頂向下傳輸,對網(wǎng)絡(luò)進(jìn)行微調(diào)?;诘谝徊降玫降母鲗訁?shù)進(jìn)一步優(yōu)調(diào)整個(gè)多層模型的參數(shù),這一步是一個(gè)有監(jiān)督訓(xùn)練過程。04知識儲備神經(jīng)網(wǎng)絡(luò)2112過擬合、欠擬合3人工智能領(lǐng)域概念神經(jīng)網(wǎng)絡(luò)04

神經(jīng)網(wǎng)絡(luò)的算法目前最受追捧,因?yàn)閾魯±钍朗陌柗ü匪玫降乃惴▽?shí)際上就是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法。

神經(jīng)網(wǎng)絡(luò)簡單地說就是將多個(gè)神經(jīng)元連接起來、組成一個(gè)網(wǎng)絡(luò)。一個(gè)多層感知機(jī)的示意圖如右,網(wǎng)絡(luò)的最左邊一層被稱為輸入層,其中的神經(jīng)元被稱為輸入神經(jīng)元。

最右邊及輸出層包含輸出神經(jīng)元,在這個(gè)例子中,只有一個(gè)單一的輸出神經(jīng)元,但一般情況下輸出層也會有多個(gè)神經(jīng)元。中間層被稱為隱含層,因?yàn)槔锩娴纳窠?jīng)元既不是輸入也不是輸出。030102神經(jīng)元04

神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成,如果把它畫出來,大概就長成右圖這樣。

圖中神經(jīng)元左邊的x表示對神經(jīng)元的多個(gè)輸入,w表示每個(gè)輸入對應(yīng)的權(quán)重,神經(jīng)元右邊的箭頭表示它僅有一個(gè)輸出。04激活函數(shù)

激活函數(shù)(ActivationFunction)是一種添加到人工神經(jīng)網(wǎng)絡(luò)中的函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式。類似于人類大腦中基于神經(jīng)元的模型,激活函數(shù)最終決定了要發(fā)射給下一個(gè)神經(jīng)元的內(nèi)容。能使得神經(jīng)網(wǎng)絡(luò)輸出變?yōu)榉蔷€性映射,且能有效減輕梯度消失問題。04

①Sigmoid函數(shù)是一個(gè)在生物學(xué)中常見的S型函數(shù),也稱為S型生長曲線。在信息科學(xué)中,由于其單增以及反函數(shù)單增等性質(zhì),Sigmoid函數(shù)常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到0,1之間。②Sigmoid函數(shù)的缺點(diǎn):傾向于梯度消失;函數(shù)輸出不是以0為中心的,這會降低權(quán)重更新的效率;執(zhí)行指數(shù)運(yùn)算,計(jì)算機(jī)運(yùn)行得較慢。Sigmoid函數(shù)公式如下

激活函數(shù)04

①Tanh是雙曲函數(shù)中的一個(gè),Tanh()為雙曲正切。tanh函數(shù)和sigmoid函數(shù)的曲線相對相似。但是它比sigmoid函數(shù)更有一些優(yōu)勢。

②當(dāng)輸入較大或較小時(shí),Tanh函數(shù)輸出幾乎是平滑的并且梯度較小,這不利于權(quán)重更新。二者的區(qū)別在于輸出間隔,tanh的輸出間隔為1,并且整個(gè)函數(shù)以0為中心,比sigmoid函數(shù)更好;

③在tanh圖中,負(fù)輸入將被強(qiáng)映射為負(fù),而零輸入被映射為接近零。

④注意:在一般的二元分類問題中,tanh函數(shù)用于隱藏層,而sigmoid函數(shù)用于輸出層,但這并不是固定的,需要根據(jù)特定問題進(jìn)行調(diào)整。激活函數(shù)04Relu激活函數(shù)(TheRectifiedLinearUnit),用于隱層神經(jīng)元輸出,相比于sigmoid函數(shù)和tanh函數(shù),它具有如下優(yōu)點(diǎn):當(dāng)輸入為正時(shí),不存在梯度飽和問題。計(jì)算速度快得多。當(dāng)然,它也有缺點(diǎn):

當(dāng)輸入為負(fù)時(shí),ReLU完全失效,在正向傳播過程中,這不是問題。ReLU函數(shù)不是以0為中心的函數(shù)。激活函數(shù)04

①LeakyReLU函數(shù),一種專門設(shè)計(jì)用于解決DeadReLU(神經(jīng)元壞死)問題的激活函數(shù),為了徹底避免deadReLU現(xiàn)象。用一個(gè)類似0.01的小值來初始化神經(jīng)元,從而使得ReLU在負(fù)數(shù)區(qū)域更偏向于激活而不是死掉。LeakyReLU公式如下:激活函數(shù)04

①ELU函數(shù)是針對ReLU函數(shù)的一個(gè)改進(jìn)型,相比于ReLU函數(shù),在輸入為負(fù)數(shù)的情況下,是有一定的輸出的,而且這部分輸出還具有一定的抗干擾能力。

②與ReLU相比,ELU有負(fù)值,這會使激活的平均值接近零。

ELU具有ReLU的所有優(yōu)點(diǎn),輸出的平均值接近0,以0為中心。

ELU公式如下:激活函數(shù)04損失函數(shù)損失函數(shù)

損失函數(shù)用來評價(jià)模型的預(yù)測值和真實(shí)值不一樣的程度,給模型的優(yōu)化指引方向。損失函數(shù)選擇的越好,通常模型的性能越好。不同的模型用的損失函數(shù)一般也不一樣。優(yōu)化神經(jīng)網(wǎng)絡(luò)的基準(zhǔn),就是縮小損失函數(shù)的輸出值。04交叉熵?fù)p失(CrossEntropy):均方差損失與評價(jià)絕對誤差損失

均方差(MSE)損失是機(jī)器學(xué)習(xí)、深度學(xué)習(xí)回歸任務(wù)中最常用的一種損失函數(shù),也稱為L2Loss。平均絕對誤差(MAE)是另一類常用的損失函數(shù),也稱為L1Loss。MSE比MAE能夠更快收斂,MAE對異常點(diǎn)更加魯棒。MSE與MAE區(qū)別損失函數(shù)04

合頁損失函數(shù)是一種將MSE與MAE結(jié)合起來,取兩者優(yōu)點(diǎn)的損失函數(shù)。從圖中可以看到:1)0-1損失:當(dāng)樣本被正確分類時(shí),損失為0;當(dāng)樣本被錯(cuò)誤分類時(shí),損失為1。2)感知機(jī)損失函數(shù):當(dāng)樣本被正確分類時(shí),損失為0;當(dāng)樣本被錯(cuò)誤分類時(shí),損失為-y(wx+b)。3)合頁損失函數(shù):當(dāng)樣本被正確分類且函數(shù)間隔大于1時(shí),合頁損失才是0,否則損失是1-y(wx+b)。也就是說,合頁損失函數(shù)對學(xué)習(xí)有更高的要求。缺點(diǎn):合頁損失函數(shù)是對錯(cuò)誤越大的樣本施以更嚴(yán)重的懲罰。可這樣會導(dǎo)致?lián)p失函數(shù)對噪音敏感。損失函數(shù)04

①softmax函數(shù),又稱歸一化指數(shù)函數(shù)。

我們知道概率有兩個(gè)性質(zhì):預(yù)測的概率為非負(fù)數(shù);各種預(yù)測結(jié)果概率之和等于1。softmax就是將在負(fù)無窮到正無窮上的預(yù)測結(jié)果按照這兩步轉(zhuǎn)換為概率的。

②softmax第一步就是將模型的預(yù)測結(jié)果轉(zhuǎn)化到指數(shù)函數(shù)上。為了確保各個(gè)預(yù)測結(jié)果的概率之和等于1,只需要將轉(zhuǎn)換后的結(jié)果進(jìn)行歸一化處理。損失函數(shù)04

交叉熵?fù)p失函數(shù),也稱為對數(shù)損失或者logistic損失。交叉熵能夠衡量同一個(gè)隨機(jī)變量中的兩個(gè)不同概率分布的差異程度,在機(jī)器學(xué)習(xí)中就表示為真實(shí)概率分布與預(yù)測概率分布之間的差異。交叉熵的值越小,模型預(yù)測效果就越好。

損失函數(shù)神經(jīng)網(wǎng)絡(luò)204知識儲備人工智能領(lǐng)域概念1過擬合、欠擬合3104過擬合概念

訓(xùn)練準(zhǔn)確率和測試準(zhǔn)確率之間的差距代表過擬合。過擬合是指機(jī)器學(xué)習(xí)模型在新的、以前未曾見過的輸入上的表現(xiàn)不如在訓(xùn)練數(shù)據(jù)上的表現(xiàn)。簡言之,過擬合就是訓(xùn)練時(shí)的結(jié)果很好,但是在預(yù)測時(shí)結(jié)果不好的情況。避免過擬合的策略04

更多的數(shù)據(jù)能夠讓模型學(xué)習(xí)的更加全面。數(shù)據(jù)集擴(kuò)增就是要得到更多符合要求的數(shù)據(jù)。

結(jié)構(gòu)風(fēng)險(xiǎn)損失函數(shù)就是經(jīng)驗(yàn)損失函數(shù)+表示模型復(fù)雜度的正則化,正則項(xiàng)通常選擇L1或者L2正則化。結(jié)構(gòu)風(fēng)險(xiǎn)損失函數(shù)能夠有效地防止過擬合。

(1)數(shù)據(jù)集擴(kuò)增(2)正則化

在訓(xùn)練的過程中,記錄到目前為止最好的驗(yàn)證正確率,當(dāng)連續(xù)10次Epoch,驗(yàn)證正確率沒有達(dá)到最佳Accuracy,就可以停止迭代了。

數(shù)據(jù)較少時(shí),降低模型復(fù)雜度是比較有效的方法,適當(dāng)?shù)慕档湍P蛷?fù)雜度可以降低模型對噪聲的擬合度。(3)提前停止訓(xùn)練(4)降低模型復(fù)雜度欠擬合概念04

欠擬合就是模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)。模型不夠復(fù)雜或者訓(xùn)練數(shù)據(jù)過少時(shí),模型均無法捕捉訓(xùn)練數(shù)據(jù)的基本(或者內(nèi)在)關(guān)系,會出現(xiàn)偏差。這樣一來,模型一直會錯(cuò)誤地預(yù)測數(shù)據(jù),從而導(dǎo)致準(zhǔn)確率降低,這種現(xiàn)象稱之為模型欠擬合。04避免欠擬合策略增加新特征添加多項(xiàng)式特征減少正則化參數(shù),使用非線性模型調(diào)整模型的容量(capacity)集成學(xué)習(xí)方法。避免欠擬合策略職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評估3模型預(yù)測4模型任務(wù)準(zhǔn)備05本任務(wù)使用TensorFlow版本為2.5.01、安裝TensorFlow代碼如下:!sudopipinstalltensorflow==2.5.005本任務(wù)使用了tf.keras。2、導(dǎo)入依賴包tf.keras是TensorFlow中用來構(gòu)建和訓(xùn)練模型的高級API。模型任務(wù)準(zhǔn)備05加載數(shù)據(jù)集會返回四個(gè)NumPy數(shù)組:3、導(dǎo)入FashionMNIST數(shù)據(jù)集訓(xùn)練集:train_images和train_labels,模型使用它們的數(shù)據(jù)進(jìn)行學(xué)習(xí)。測試集:test_images和test_labels,它們的數(shù)據(jù)會被用來對模型進(jìn)行測試。模型任務(wù)準(zhǔn)備05標(biāo)簽與類對應(yīng)表圖像是28x28的NumPy數(shù)組,像素值介于0到255之間。模型任務(wù)準(zhǔn)備05Fashion_Mnist數(shù)據(jù)集訓(xùn)練集60,000個(gè)圖像來訓(xùn)練網(wǎng)絡(luò),使用10,000個(gè)圖像來評估網(wǎng)絡(luò)學(xué)習(xí)對圖像分類的準(zhǔn)確率。在訓(xùn)練模型之前,先瀏覽訓(xùn)練集的格式。4、瀏覽數(shù)據(jù)模型任務(wù)準(zhǔn)備05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評估3模型預(yù)測4051、添加神經(jīng)層神經(jīng)網(wǎng)絡(luò)的基本組成部分是層。層會從向其饋送的數(shù)據(jù)中提取表示形式。大多數(shù)深度學(xué)習(xí)都包括將簡單的層鏈接在一起。大多數(shù)層(如tf.keras.layers.Dense)都具有在訓(xùn)練期間才會學(xué)習(xí)的參數(shù)。模型參數(shù):模型搭建Flatten()展平層,將tensor展開,不做計(jì)算Dense()全連接層05在準(zhǔn)備對模型進(jìn)行訓(xùn)練之前,還需要再對其進(jìn)行一些設(shè)置。以下內(nèi)容是在模型的編譯步驟中添加的:2、編譯模型損失函數(shù)-用于測量模型在訓(xùn)練期間的準(zhǔn)確率。優(yōu)化器-決定模型如何根據(jù)其看到的數(shù)據(jù)和自身的損失函數(shù)進(jìn)行更新。指標(biāo)-用于監(jiān)控訓(xùn)練和測試步驟。模型搭建05#編譯模型tf.keras.Mpile(optimizer,loss,metrics)模型搭建

optimizer:模型訓(xùn)練使用的優(yōu)化器,可以從tf.keras.optimizers中選擇。loss:模型優(yōu)化時(shí)使用的損失值類型,可以從tf.keras.losses中選擇。metrics:訓(xùn)練過程中返回的矩陣評估指標(biāo),可以從tf.keras.metrics中選擇。05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評估3模型預(yù)測405開始訓(xùn)練,調(diào)用model.fit方法,這樣命名是因?yàn)樵摲椒〞⒛P团c訓(xùn)練數(shù)據(jù)進(jìn)行“擬合”:1、向模型饋送數(shù)據(jù)tf.keras.Model.fit(x,y,batch_size,epochs,validation_data)x:訓(xùn)練集數(shù)組。y:訓(xùn)練集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。(此次省略)epochs:迭代次數(shù)。validation_data:驗(yàn)證集的圖片和標(biāo)簽數(shù)組。(此次省略)模型訓(xùn)練與評估05比較模型在測試數(shù)據(jù)集上的表現(xiàn)2、評估準(zhǔn)確率模型訓(xùn)練與評估tf.keras.Model.evaluate(x,y,batch_size=None,verbose=1):x:測試集圖片數(shù)組。y:測試集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。verbose:模式選擇,0為靜音模式,1為正常模式,有處理進(jìn)度條。053、模型預(yù)測在模型經(jīng)過訓(xùn)練后,您可以使用它對一些圖像進(jìn)行預(yù)測。模型具有線性輸出,即logits。您可以附加一個(gè)softmax層,將logits轉(zhuǎn)換成更容易理解的概率。np.argmax():返回?cái)?shù)組中最大值的index。模型訓(xùn)練與評估054、驗(yàn)證預(yù)測結(jié)果正確的預(yù)測標(biāo)簽為藍(lán)色,錯(cuò)誤的預(yù)測標(biāo)簽為紅色。數(shù)字表示預(yù)測標(biāo)簽的百分比(總計(jì)為100)。模型訓(xùn)練與評估05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評估3模型預(yù)測405從測試數(shù)據(jù)集中抓取一個(gè)圖像進(jìn)行預(yù)測。1、模型預(yù)測模型預(yù)測tf.keras.Model.predict(x,batch_size=None,verbose=0)x:圖片數(shù)據(jù)數(shù)組batch_size:批處理數(shù)量。verbose:模式選擇,0為靜音模式,1為正常模式,有處理進(jìn)度條。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類任務(wù)檢查與評價(jià)061、請參照評價(jià)標(biāo)準(zhǔn)完成自評和對其他小組的互評。2、各組請代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱Tensorflow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱服裝圖像分類評價(jià)方式可采用自評、互評、老師評價(jià)等方式說

明主要評價(jià)學(xué)生在項(xiàng)目學(xué)習(xí)過程中的操作技能、理論知識、學(xué)習(xí)態(tài)度、課堂表現(xiàn)、學(xué)習(xí)能力等

評價(jià)內(nèi)容與評價(jià)標(biāo)準(zhǔn)序號評價(jià)內(nèi)容評價(jià)標(biāo)準(zhǔn)分值得分1理論知識(20%)了解人工智能領(lǐng)域概念、神經(jīng)網(wǎng)絡(luò)基本架構(gòu)、過擬合與欠擬合的基本概率及避免策略。(20分)20分

2專業(yè)技能(40%)模型任務(wù)準(zhǔn)備(10%)正確安裝Tensorflow,并導(dǎo)入依賴包、數(shù)據(jù)集(3分)10分

正確的瀏覽訓(xùn)練集的格式(2分)正確的對數(shù)據(jù)進(jìn)行預(yù)處理(5分)3模型搭建(10%)正確添加神經(jīng)層(5分)10分

正確編譯模型(5分)4模型訓(xùn)練與評估(15%)正確向模型饋送數(shù)據(jù)(5分)15分

正確評估準(zhǔn)確率5分)正確的預(yù)測模型并驗(yàn)證預(yù)測結(jié)果(5分)5模型預(yù)測(5%)正確的預(yù)測模型5分6核心素養(yǎng)(20%)具有良好的自主學(xué)習(xí)能力、分析解決問題的能力、整個(gè)任務(wù)過程中有指導(dǎo)他人(20分)20分

具有較好的學(xué)習(xí)能力和分析解決問題的能力,任務(wù)過程中無指導(dǎo)他人(15分)能夠主動(dòng)學(xué)習(xí)并收集信息,有請教他人進(jìn)行解決問題的能力(10分)不主動(dòng)學(xué)習(xí)(0分)7課堂紀(jì)律(20%)設(shè)備無損壞、設(shè)備擺放整齊、工位區(qū)域內(nèi)保持整潔、無干擾課堂秩序(20分)20分

設(shè)備無損壞、無干擾課堂秩序(15分)無干擾課堂秩序(10分)干擾課堂秩序(0分)總得分職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類任務(wù)小結(jié)07職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)二服裝圖像分類任務(wù)拓展08嘗試調(diào)整模型訓(xùn)練參數(shù),并觀察訓(xùn)練過程的變化。

模型訓(xùn)練的參數(shù)有:x:訓(xùn)練集數(shù)組。y:訓(xùn)練集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。epochs:迭代次數(shù)。validation_data:驗(yàn)證集的圖片和標(biāo)簽數(shù)組。解題

思路提示謝謝大家學(xué)習(xí)項(xiàng)目一TensorFlow實(shí)現(xiàn)服裝圖像分類深度學(xué)習(xí)應(yīng)用技術(shù)KerasTuner超參數(shù)調(diào)節(jié)任務(wù)三職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)理解KerasTuner庫的概念及作用了解模型超參數(shù)與算法超參數(shù)的定義了解超參數(shù)調(diào)節(jié)的常用搜索方法理解超模型的定義和作用了解Hyperband調(diào)節(jié)器使用的調(diào)節(jié)算法能夠搭建KerasTuner環(huán)境并完成數(shù)據(jù)集準(zhǔn)備能夠使用Keras構(gòu)建模型能夠?qū)嵗疕yperband調(diào)節(jié)器并執(zhí)行超調(diào)能夠使用最佳超參數(shù)構(gòu)建模型并完成模型訓(xùn)練、評估職業(yè)能力目標(biāo)01知識目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)

本任務(wù)將使用KerasTuner進(jìn)行超參數(shù)調(diào)節(jié),進(jìn)行調(diào)節(jié)后的模型訓(xùn)練并實(shí)現(xiàn)模型評估。任務(wù)描述任務(wù)要求實(shí)現(xiàn)數(shù)據(jù)集下載與處理;使用KerasTuner構(gòu)建模型;實(shí)現(xiàn)超參數(shù)調(diào)節(jié),并使用調(diào)節(jié)后的超參數(shù)進(jìn)行模型訓(xùn)練;實(shí)現(xiàn)模型評估。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)任務(wù)分析有哪些超參數(shù)調(diào)節(jié)方法?如何定義超參數(shù)搜索空間?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱TensorFlow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱KerasTuner超參數(shù)調(diào)節(jié)計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號任務(wù)計(jì)劃1

2

3

4

5

6

7

8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)KerasTuner簡介204知識儲備Keras概述1超參數(shù)介紹3Keras概述04Keras是一個(gè)由Python編寫的開源人工神經(jīng)網(wǎng)絡(luò)庫,可以作為Tensorflow、Microsoft-CNTK和Theano的高階應(yīng)用程序接口,進(jìn)行深度學(xué)習(xí)模型的設(shè)計(jì)、調(diào)試、評估、應(yīng)用和可視化。Keras工作流程04定義訓(xùn)練數(shù)據(jù):輸入張量和目標(biāo)張量。定義層組成的網(wǎng)絡(luò),將輸入映射到目標(biāo)。配置學(xué)習(xí)過程:選擇損失函數(shù)、優(yōu)化器和需要監(jiān)控的指標(biāo)。調(diào)用模型的fit方法在訓(xùn)練數(shù)據(jù)上進(jìn)行迭代,顯示準(zhǔn)確率。使用predict預(yù)測目標(biāo)結(jié)果。040504Keras特性相同的代碼可以在CPU或GPU上無縫切換運(yùn)行。具有用戶友好的API,便于快速開發(fā)深度學(xué)習(xí)模型的原型。內(nèi)置支持卷積網(wǎng)絡(luò)(用于計(jì)算機(jī)視覺)、循環(huán)網(wǎng)絡(luò)(用于序列處理)以及二者的任意組合。支持任意網(wǎng)絡(luò)架構(gòu):多輸入或多輸出模型、層共享、模型共享等。Keras特性04Keras模型Keras模型序貫?zāi)P秃瘮?shù)式模型

單輸入單輸出,一條路通到底,層與層之間只有相鄰關(guān)系,沒有跨層連接。這種模型編譯速度快,操作也比較簡單

多輸入多輸出,層與層之間任意連接。相比于序列化模型,函數(shù)化模型顯示定義了隱含層的張量,因此可以更容易地搭建非序列化的模型,具有更好的可擴(kuò)展性。KerasTuner簡介204知識儲備Keras概述1超參數(shù)介紹304KerasTuner概述

KerasTuner是一個(gè)分布式超參數(shù)優(yōu)化框架,能夠在定義的超參數(shù)空間里尋找最優(yōu)參數(shù)配置。內(nèi)置有貝葉斯優(yōu)化、Hyperband和隨機(jī)搜索算法等算法。04KerasTuner工作流程(1)定義一個(gè)調(diào)諧器;(2)庫搜索功能執(zhí)行迭代循環(huán);(3)通過在保持的驗(yàn)證集中計(jì)算訓(xùn)練模型的準(zhǔn)確性來執(zhí)行評估;(4)就驗(yàn)證精度而言,最好的超參數(shù)組合可以在暫留的測試集上進(jìn)行測試。KerasTuner簡介204知識儲備Keras概述1超參數(shù)介紹304超參數(shù)解釋

超參數(shù)是控制訓(xùn)練過程和ML模型拓?fù)涞淖兞?。這些變量在訓(xùn)練過程中保持不變,并會直接影響ML程序的性能。超參數(shù)有兩種類型:模型超參數(shù):影響模型的選擇。算法超參數(shù):影響學(xué)習(xí)算法的速度和質(zhì)量。超參數(shù)網(wǎng)格搜索指在目標(biāo)位置基本服從均勻分布的條件下,搜索軌跡隨機(jī)且均勻散布在目標(biāo)分布區(qū)域內(nèi)的一種搜索方式。貝葉斯搜索超參數(shù)調(diào)節(jié)04在所有候選的參數(shù)選擇中,通過循環(huán)遍歷,嘗試每一種可能性,表現(xiàn)最好的參數(shù)就是最終的結(jié)果。其原理就像是在數(shù)組里找最大值。黑盒優(yōu)化,根據(jù)輸出結(jié)果(損失函數(shù))找更合適的超參,在搜索中要探索和利用的結(jié)合(需要一個(gè)采集函數(shù)來衡量);由迭代次數(shù)等來停止探索。隨機(jī)搜索隨機(jī)搜索基于梯度的優(yōu)化對于特定的學(xué)習(xí)算法,可以計(jì)算相對于超參數(shù)的梯度,然后使用梯度下降優(yōu)化超參數(shù)。

超參數(shù)調(diào)節(jié)為機(jī)器學(xué)習(xí)(ML)應(yīng)用選擇正確的超參數(shù)集,這一過程稱為超參數(shù)調(diào)節(jié)或超調(diào)。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)05任務(wù)實(shí)施執(zhí)行超調(diào)2任務(wù)準(zhǔn)備與構(gòu)建模型1訓(xùn)練模型3評估模型4任務(wù)準(zhǔn)備與構(gòu)建模型05進(jìn)行環(huán)境配置,運(yùn)行該項(xiàng)目需要預(yù)裝的依賴庫1、環(huán)境配置05使用KerasTuner為FashionMNIST數(shù)據(jù)集內(nèi)的服裝圖像進(jìn)行分類的機(jī)器學(xué)習(xí)模型找到最佳超參數(shù)。2、導(dǎo)入FashionMNIST數(shù)據(jù)集并進(jìn)行數(shù)據(jù)集預(yù)處理任務(wù)準(zhǔn)備與構(gòu)建模型05為超調(diào)設(shè)置的模型稱為超模型??梢酝ㄟ^以下兩種方式定義超模型:3、構(gòu)建模型使用模型構(gòu)建工具函數(shù)將KerasTunerAPI的HyperModel類子類化

任務(wù)準(zhǔn)備與構(gòu)建模型05#模型構(gòu)建工具函數(shù)將返回已編譯的模型,并使用內(nèi)嵌方式定義的超參數(shù)對模型進(jìn)行超調(diào)。#KerasTunerAPI使用hp進(jìn)行參數(shù)遍歷,常用方法有:#(1)hp.Int:hp_units=hp.Int('units',min_value=1,max_value=100,step=5)name:Str.參數(shù)的名字,必須唯一min_value:Int.范圍的最小值max_value:Int.范圍的最大值step:步長任務(wù)準(zhǔn)備與構(gòu)建模型#(2)hp.Choice:hp_learning_rate=hp.Choice('learning_rate',values=[0.5,0.6,0.8])05任務(wù)準(zhǔn)備與構(gòu)建模型name:Str.參數(shù)的名字,必須唯一values:可能值的list.值的類型可以是int,float,str,orbool.所有的值必須是一個(gè)類型05任務(wù)實(shí)施執(zhí)行超調(diào)2任務(wù)準(zhǔn)備與構(gòu)建模型1訓(xùn)練模型3評估模型405實(shí)例化調(diào)節(jié)器以執(zhí)行超調(diào)。KerasTuner提供了四種調(diào)節(jié)器:1、實(shí)例化調(diào)節(jié)器執(zhí)行超調(diào)RandomSearchHyperbandBayesianOptimizationSklearn05#在本任務(wù)中,使用Hyperband調(diào)節(jié)器。keras_tuner.Hyperband(hypermodel,objective,max_epochs,factor=3):hypermodel:構(gòu)建的hypermodel模型實(shí)例。objective:優(yōu)化的參照標(biāo)準(zhǔn)。max_epoch:訓(xùn)練一個(gè)模型的最大迭代次數(shù)。factor:模型消減因子,默認(rèn)為3。director:調(diào)節(jié)日志輸出文件夾名。project_name:項(xiàng)目名稱。執(zhí)行超調(diào)052、創(chuàng)建回調(diào)創(chuàng)建回調(diào)以在驗(yàn)證損失達(dá)到特定值后提前停止訓(xùn)練。#patience=5:達(dá)到5次后停止stop_early=tf.keras.callbacks.EarlyStopping(monitor='val_loss',patience=5)執(zhí)行超調(diào)053、運(yùn)行超參數(shù)搜索。除了上面的回調(diào)外,搜索方法的參數(shù)也與tf.keras.model.fit所用參數(shù)相同。執(zhí)行超調(diào)05任務(wù)實(shí)施執(zhí)行超調(diào)2任務(wù)準(zhǔn)備與構(gòu)建模型1訓(xùn)練模型3評估模型405使用從搜索中獲得的超參數(shù)找到訓(xùn)練模型的最佳周期數(shù)。1、訓(xùn)練模型訓(xùn)練模型052、實(shí)例化超模型重新實(shí)例化超模型并使用上面的最佳周期數(shù)對其進(jìn)行訓(xùn)練。訓(xùn)練模型05任務(wù)實(shí)施執(zhí)行超調(diào)2任務(wù)準(zhǔn)備與構(gòu)建模型1訓(xùn)練模型3評估模型405代碼如下:評估模型評估模型tf.keras.Model.evaluate(x,y,batch_size=None,verbose=1):x:測試集圖片數(shù)組。y:測試集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。(此次省略)verbose:模式選擇,0為靜音模式,1為正常模式,有處理進(jìn)度條。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)任務(wù)檢查與評價(jià)061、請參照評價(jià)標(biāo)準(zhǔn)完成自評和對其他小組的互評。2、各組請代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱Tensorflow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱KerasTuner超參數(shù)調(diào)節(jié)評價(jià)方式可采用自評、互評、老師評價(jià)等方式說

明主要評價(jià)學(xué)生在項(xiàng)目學(xué)習(xí)過程中的操作技能、理論知識、學(xué)習(xí)態(tài)度、課堂表現(xiàn)、學(xué)習(xí)能力等

評價(jià)內(nèi)容與評價(jià)標(biāo)準(zhǔn)序號評價(jià)內(nèi)容評價(jià)標(biāo)準(zhǔn)分值得分1理論知識(20%)了解Keras的基本概念、KerasTuner的基本概念、超參數(shù)的基本概念。(20分)20分

2專業(yè)技能(40%)任務(wù)準(zhǔn)備(5%)正確的環(huán)境配置(1分)5分

正確的導(dǎo)入數(shù)據(jù)集并進(jìn)行數(shù)據(jù)集預(yù)處理(4分)3構(gòu)建模型(10%)正確的構(gòu)建模型(10分)10分

4執(zhí)行超調(diào)(10%)正確實(shí)例化調(diào)節(jié)器(5分)10分

正確的創(chuàng)建回調(diào)并運(yùn)行超參數(shù)搜索(5分)5訓(xùn)練模型(10%)正確的訓(xùn)練模型(5分)10分正確的實(shí)例化超模型(5分)6評估模型(5分)正確的評估模型(5分)5分7核心素養(yǎng)(20%)具有良好的自主學(xué)習(xí)能力、分析解決問題的能力、整個(gè)任務(wù)過程中有指導(dǎo)他人(20分)20分

具有較好的學(xué)習(xí)能力和分析解決問題的能力,任務(wù)過程中無指導(dǎo)他人(15分)能夠主動(dòng)學(xué)習(xí)并收集信息,有請教他人進(jìn)行解決問題的能力(10分)不主動(dòng)學(xué)習(xí)(0分)8課堂紀(jì)律(20%)設(shè)備無損壞、設(shè)備擺放整齊、工位區(qū)域內(nèi)保持整潔、無干擾課堂秩序(20分)20分

設(shè)備無損壞、無干擾課堂秩序(15分)無干擾課堂秩序(10分)干擾課堂秩序(0分)總得分職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)任務(wù)小結(jié)07職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)三KerasTuner超參數(shù)調(diào)節(jié)任務(wù)拓展08除了任務(wù)中的方法外,KerasTuner還提供2個(gè)內(nèi)置的可調(diào)模型:HyperResnet和HyperXception。請任選一個(gè)模型進(jìn)行調(diào)優(yōu)。使用HyperResnet模型進(jìn)行調(diào)優(yōu),代碼如下:tuner=kt.tuners.BayesianOptimization(kt.applications.HyperResNet(input_shape=(256,256,3),classes=10),objective='val_accuracy',max_trials=50)解題

思路提示謝謝大家學(xué)習(xí)項(xiàng)目二TensorFlow實(shí)現(xiàn)文本分類深度學(xué)習(xí)應(yīng)用技術(shù)項(xiàng)目引導(dǎo)案例

情感分析是種有趣的自然語言處理應(yīng)用,對文本數(shù)據(jù)中包含的情緒進(jìn)行解析和分類,衡量人們的觀點(diǎn)傾向。

例如被用來分析觀眾對電影的評論或由該電影引起的情緒狀態(tài),又例如將在線客戶對產(chǎn)品或服務(wù)的反饋按照正面或負(fù)面的體驗(yàn)進(jìn)行分類。項(xiàng)目引導(dǎo)案例自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類01使用評論文本將影評分為積極(positive)或消極(nagetive)兩類,也就是文本的情感分析使用Kears和TensorflowHub對電影評論進(jìn)行文本分類02使用Keras構(gòu)建模型進(jìn)行文本分類,TensorFlowHub模型訓(xùn)練過程,用評估模型準(zhǔn)確率的方法并進(jìn)行預(yù)測思考一下,大家知道自然語言處理還應(yīng)用在哪些方面嗎?項(xiàng)目引導(dǎo)案例自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類任務(wù)一職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類了解自然語言處理發(fā)展史,技術(shù),應(yīng)用研究;理解文本分類概念、分類輸入數(shù)據(jù)、文本分類過程相關(guān)知識;理解情感分析概念、層次及方法。能夠?qū)隝MDB數(shù)據(jù)集并瀏覽數(shù)據(jù)能夠?qū)ξ谋具M(jìn)行數(shù)據(jù)預(yù)處理能夠使用嵌入(Embedding)方法構(gòu)建簡單的文本分類模型能夠?qū)M(jìn)行文本分類模型訓(xùn)練并對模型進(jìn)行評估職業(yè)能力目標(biāo)01知識目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類

了解自然語言處理的相關(guān)知識,構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,利用下載的IMDB數(shù)據(jù)集進(jìn)行模型訓(xùn)練和模型評估。任務(wù)描述任務(wù)要求下載IMDB數(shù)據(jù)集并對其進(jìn)行預(yù)處理;構(gòu)建神經(jīng)網(wǎng)絡(luò)模型;完成模型訓(xùn)練;繪制損失值圖表和準(zhǔn)確率圖表。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類任務(wù)分析自然語言處理技術(shù)是怎么做情感分析?想一想如何自定義神經(jīng)網(wǎng)絡(luò)?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱TensorFlow實(shí)現(xiàn)文本分類任務(wù)名稱自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號任務(wù)計(jì)劃1

2

3

4

5

6

78職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識儲備04任務(wù)實(shí)施05任務(wù)檢查與評價(jià)06任務(wù)小結(jié)07任務(wù)拓展08任務(wù)一自定義神經(jīng)網(wǎng)絡(luò)對電影評論文本分類文本分類204知識儲備自然語言處理1情感分析3自然語言處理04自然語言處理(NaturalLanguageProcessing,NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域與人工智能領(lǐng)域中的一個(gè)重要方向。它研究能實(shí)現(xiàn)人與計(jì)算機(jī)之間用自然語言進(jìn)行有效通信的各種理論和方法。自然語言處理主要應(yīng)用于機(jī)器翻譯、輿情監(jiān)測、自動(dòng)摘要、觀點(diǎn)提取、文本分類、問題回答、文本語義對比、語音識別、中文OCR等方面。自然語言處理發(fā)展史04第一階段第二階段第三階段③統(tǒng)計(jì)自然語言處理(90年代開始):基于統(tǒng)計(jì)的機(jī)器學(xué)習(xí)開始流行,很多NLP開始用基于統(tǒng)計(jì)的方法來做。①早期自然語言處理(60~80年代):基于規(guī)則來建立詞匯、句法語義分析、問答、聊天和機(jī)器翻譯系統(tǒng)。②神經(jīng)網(wǎng)絡(luò)自然語言處理(2008年之后):深度學(xué)習(xí)開始在語音和圖像發(fā)揮威力?;趥鹘y(tǒng)機(jī)器學(xué)習(xí)的自然語言處理技術(shù)04

自然語言處理可將處理任務(wù)進(jìn)行分類,形成多個(gè)子任務(wù),傳統(tǒng)的機(jī)械學(xué)習(xí)方法可利用SVM(支持向量機(jī)模型)、Markov(馬爾科夫模型)、CRF(條件隨機(jī)場模型)等方法對自然語言中多個(gè)子任務(wù)進(jìn)行處理,進(jìn)一步提高處理結(jié)果的精度基于傳統(tǒng)機(jī)器學(xué)習(xí)的自然語言處理技術(shù)04模型的性能過于依賴訓(xùn)練集的質(zhì)量,需要人工標(biāo)注訓(xùn)練集,降低了訓(xùn)練效率不足1傳統(tǒng)機(jī)器學(xué)習(xí)模型中的訓(xùn)練集在不同領(lǐng)域應(yīng)用會出現(xiàn)差異較大的應(yīng)用效果,削弱了訓(xùn)練的適用性,暴露出學(xué)習(xí)方法單一的弊端不足2無法人工標(biāo)注出更抽象、更高階的自然語言特征,使得傳統(tǒng)機(jī)器學(xué)習(xí)只能學(xué)習(xí)預(yù)先制定的規(guī)則,而不能學(xué)規(guī)則之外的復(fù)雜語言特征不足3基于深度學(xué)習(xí)的自然語言處理技術(shù)04

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一大分支,在自然語言處理中需應(yīng)用深度學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等,通過對生成的詞向量進(jìn)行學(xué)習(xí),以完成自然語言分類、理解的過程。04能夠以詞或句子的向量化為前提,不斷學(xué)習(xí)語言特征,掌握更高層次、更加抽象的語言特征,滿足大量特征工程的自然語言處理要求優(yōu)勢1深度學(xué)習(xí)無需專家人工定義訓(xùn)練集,可通過神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)高層次特征。優(yōu)勢2基于深度學(xué)習(xí)的自然語言處理技術(shù)詞法分析基于大數(shù)據(jù)和用戶行為的分詞后,對詞性進(jìn)行標(biāo)注、命名實(shí)體識別,消除歧義。應(yīng)用場景:各大手機(jī)廠商語音助手。文本分類對文章按照內(nèi)容類型(體育、教育、財(cái)經(jīng)、社會、軍事等等)進(jìn)行自動(dòng)分類,為文章聚類、文本內(nèi)容分析等應(yīng)用提供基礎(chǔ)支持。應(yīng)用場景:垃圾過濾,新聞分類,詞性標(biāo)注等。文本糾錯(cuò)識別文本中有錯(cuò)誤的片段,進(jìn)行錯(cuò)誤提示并給出正確的建議文本內(nèi)容。應(yīng)用場景:寫作類平臺。

情感分析能夠?qū)ξ谋拘畔⑦M(jìn)行“情感”上的正向、負(fù)向及中性進(jìn)行評價(jià)。應(yīng)用場景:評論分析與決策。應(yīng)用研究0404知識儲備文本分類2自然語言處理112情感分析3文本分類(textclassification),指的是將一個(gè)文檔歸類到一個(gè)或多個(gè)類別中的自然語言處理任務(wù)。應(yīng)用場景非常廣泛,涵蓋垃圾郵件過濾、垃圾評論過濾、自動(dòng)標(biāo)簽、情感分析等任何需要自動(dòng)歸檔文本的場合。文本的類別有時(shí)又稱作標(biāo)簽,所有類別組成了標(biāo)注集,文本分類輸出結(jié)果一定屬于標(biāo)注集。文本分類是一個(gè)典型的監(jiān)督學(xué)習(xí)任務(wù),其流程離不開人工指導(dǎo):人工標(biāo)注文檔的類別,利用語料訓(xùn)練模型,利用模型預(yù)測文檔的類別。文本分類04分類輸入數(shù)據(jù)0401

02分類數(shù)據(jù)通過稀疏張量(sparsetensors)表示最有效,稀疏張量是具有非常少的非零元素的張量。分類數(shù)據(jù)是指表示來自有限選擇集的一個(gè)或多個(gè)離散項(xiàng)的輸入特征。例如,它可以是用戶觀看的電影集,文檔中的單詞集或人的職業(yè)。分類輸入數(shù)據(jù)04構(gòu)建電影推薦模型,可以為每個(gè)可能的電影分配一個(gè)唯一的ID,通過用戶觀看過的電影的稀疏張量來表示每個(gè)用戶。矩陣的每一行是捕獲用戶的電影觀看歷史的示例,被表示為稀疏張量,因?yàn)槊總€(gè)用戶僅觀看所有可能電影的一小部分。最后一行對應(yīng)于稀疏張量[1,3,999999],使用電影圖標(biāo)上方顯示的詞索引。04文本分類過程特征抽取語料預(yù)處理索引詞頻統(tǒng)計(jì)分類器訓(xùn)練

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論