深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第1章 深度學(xué)習(xí)緒論_第1頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第1章 深度學(xué)習(xí)緒論_第2頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第1章 深度學(xué)習(xí)緒論_第3頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第1章 深度學(xué)習(xí)緒論_第4頁(yè)
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第1章 深度學(xué)習(xí)緒論_第5頁(yè)
已閱讀5頁(yè),還剩113頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能的概念介紹01任務(wù)機(jī)器學(xué)習(xí)的概念介紹02任務(wù)目錄深度學(xué)習(xí)的概念介紹03任務(wù)人工智能與機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系04任務(wù)1人工智能的概念介紹1人工智能的概念介紹上世紀(jì)50年代,計(jì)算機(jī)科學(xué)家們就提出了“人工智能(ArtificialIntelligence,AI)”的概念,人工智能是一個(gè)廣泛的概念,人工智能的目的就是讓計(jì)算機(jī)能夠象人一樣思考?,F(xiàn)在,人工智能已經(jīng)發(fā)展為一門廣泛的交叉和前沿科學(xué),涉及到計(jì)算機(jī)科學(xué)、心理學(xué)、哲學(xué)和語(yǔ)言學(xué)等學(xué)科,也廣泛的應(yīng)用到語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域。人工智能是計(jì)算機(jī)科學(xué)的一個(gè)重要分支,是對(duì)人類認(rèn)知思維的抽象和模擬,用機(jī)器實(shí)現(xiàn)人類智能,做人類可以做的事情。人工智能通??煞譃槿跞斯ぶ悄芎蛷?qiáng)人工智能兩個(gè)階段。目前處于弱人工智能階段,具備一定觀察和感知力的機(jī)器,能做到有限的理解和推理,還遠(yuǎn)未到達(dá)能讓機(jī)器習(xí)得自適應(yīng)能力的強(qiáng)人工智能階段。伴隨著“人工智能”的崛起,出現(xiàn)了“機(jī)器學(xué)習(xí)”、“深度學(xué)習(xí)”等熱門領(lǐng)域。2機(jī)器學(xué)習(xí)的概念介紹2機(jī)器學(xué)習(xí)的概念介紹機(jī)器學(xué)習(xí)(MachineLearning,ML)是指用某些算法指導(dǎo)計(jì)算機(jī)利用已知數(shù)據(jù)得出適當(dāng)?shù)哪P停⒗么四P蛯?duì)新的情境給出判斷的過程。機(jī)器學(xué)習(xí)的思想是對(duì)人類生活中學(xué)習(xí)過程的一個(gè)模擬,而在這整個(gè)過程中,最關(guān)鍵的是數(shù)據(jù)。任何通過數(shù)據(jù)訓(xùn)練的學(xué)習(xí)算法的相關(guān)研究都屬于機(jī)器學(xué)習(xí),包括一些成熟的經(jīng)典技術(shù),比如線性回歸(LinearRegression)、K均值(K-means)、決策樹(DecisionTrees)、隨機(jī)森林(Random)、主成分分析(PrincipalComponentAnalysis,PCA)、支持向量機(jī)(SupportVectorMachine,SVM)以及人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks,ANN)。2機(jī)器學(xué)習(xí)的概念介紹機(jī)器學(xué)習(xí)包括以下類型的學(xué)習(xí)模式:(1) 監(jiān)督學(xué)習(xí)模式有監(jiān)督學(xué)習(xí)以訓(xùn)練集作為系統(tǒng)的輸入,其中每個(gè)樣本都有標(biāo)注信息,我們稱標(biāo)注信息為真實(shí)值(groundtruth)。模型的輸出值與真實(shí)值得差值用損失函數(shù)來衡量(loss),采用最小損失函數(shù)執(zhí)行訓(xùn)練過程。訓(xùn)練完成后,針對(duì)訓(xùn)練集(也稱為驗(yàn)證集)中不相交的示例,測(cè)量模型的準(zhǔn)確性。

監(jiān)督學(xué)習(xí)模式2機(jī)器學(xué)習(xí)的概念介紹(2) 無監(jiān)督學(xué)習(xí)模式無監(jiān)督學(xué)習(xí)中,訓(xùn)練樣本未按其所屬的系統(tǒng)進(jìn)行標(biāo)記。無監(jiān)督學(xué)習(xí)模型是識(shí)別無標(biāo)簽數(shù)據(jù)結(jié)構(gòu)的模型。該系統(tǒng)尋找具有共同特征的數(shù)據(jù),并根據(jù)數(shù)據(jù)內(nèi)部知識(shí)特征對(duì)其進(jìn)行聚類。這種學(xué)習(xí)算法適用于聚類問題。

無監(jiān)督學(xué)習(xí)模式3深度學(xué)習(xí)的概念介紹3深度學(xué)習(xí)的概念介紹深度學(xué)習(xí)(DeepLearning,DL)的概念源于對(duì)人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像、聲音和文本。深度學(xué)習(xí)的精髓在于通過監(jiān)督學(xué)習(xí)或從標(biāo)記的數(shù)據(jù)和算法中學(xué)習(xí)。深度學(xué)習(xí)中的每種算法都經(jīng)過相同的過程,深度學(xué)習(xí)過程的以下步驟:數(shù)據(jù)處理(數(shù)據(jù)預(yù)處理);模型設(shè)計(jì)(網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì));訓(xùn)練模型(優(yōu)化器,損失函數(shù)、計(jì)算資源);

保存并測(cè)試模型(保存并測(cè)試模型的性能,以備預(yù)測(cè)調(diào)用)4人工智能與機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系4人工智能與機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系嚴(yán)格意義上說,人工智能和機(jī)器學(xué)習(xí)沒有直接關(guān)系,只不過目前機(jī)器學(xué)習(xí)的方法被大量的應(yīng)用于解決人工智能的問題而已。目前機(jī)器學(xué)習(xí)是人工智能的一種實(shí)現(xiàn)方式,也是最重要的實(shí)現(xiàn)方式。早期的機(jī)器學(xué)習(xí)實(shí)際上是屬于統(tǒng)計(jì)學(xué),而二十世紀(jì)九十年代之前的經(jīng)典人工智能跟機(jī)器學(xué)習(xí)也沒有關(guān)系。所以今天的人工智能和機(jī)器學(xué)習(xí)有很大的重疊。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)現(xiàn)在比較火的一個(gè)方向,其本身是神經(jīng)網(wǎng)絡(luò)算法的衍生,在圖像、語(yǔ)音等富媒體的分類和識(shí)別上取得了非常好的效果。4人工智能與機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系如果把機(jī)器學(xué)習(xí)、深度學(xué)習(xí)當(dāng)成人工智能的一個(gè)子學(xué)科來看,三者關(guān)系如下圖所示:

ThankYOU!目錄1數(shù)據(jù)量大01任務(wù)計(jì)算力提升02任務(wù)網(wǎng)絡(luò)規(guī)模大03任務(wù)1數(shù)據(jù)量大1數(shù)據(jù)量大早期的機(jī)器學(xué)習(xí)算法比較簡(jiǎn)單,容易快速訓(xùn)練,需要的數(shù)據(jù)集規(guī)模也比較小,如1936年由英國(guó)統(tǒng)計(jì)學(xué)家RonaldFisher收集整理的鳶尾花卉數(shù)據(jù)集Iris共包含3個(gè)類別花卉,每個(gè)類別50個(gè)樣本。1998年由YannLeCun收集整理的MNIST手寫數(shù)字圖片數(shù)據(jù)集共包含0~9共10類數(shù)字,每個(gè)類別多達(dá)7000張圖片。1數(shù)據(jù)量大圖2數(shù)據(jù)集大小趨勢(shì)圖1

數(shù)據(jù)集樣本數(shù)趨勢(shì)2計(jì)算力提升2計(jì)算力提升計(jì)算能力的提升是第三次人工智能復(fù)興的一個(gè)重要因素;傳統(tǒng)的機(jī)器學(xué)習(xí)算法,對(duì)數(shù)據(jù)量和計(jì)算能力要求不高,通常在CPU上可訓(xùn)練完成;深度學(xué)習(xí)非常依賴并行加速計(jì)算設(shè)備,目前的大部分神經(jīng)網(wǎng)絡(luò)均使用NVIDIAGPU和GoogleTPU或其他神經(jīng)網(wǎng)絡(luò)并行加速芯片訓(xùn)練模型參數(shù);2012年基于2塊

GTX580GPU訓(xùn)練的AlexNet發(fā)布后,深度學(xué)習(xí)的真正潛力才得以發(fā)揮;圍棋程序AlphaGoZero在64塊GPU上從零開始訓(xùn)練了40天才得以超越所有的AlphaGo歷史版本;自動(dòng)網(wǎng)絡(luò)結(jié)構(gòu)搜索算法使用了800塊GPU同時(shí)訓(xùn)練才能優(yōu)化出較好的網(wǎng)絡(luò)結(jié)構(gòu)。2計(jì)算力提升GPU(GraphicsProcessingUnit),圖形處理器,又稱顯示核心、視覺處理器、顯示芯片,是一種專門在個(gè)人電腦、工作站、游戲機(jī)和一些移動(dòng)設(shè)備上做圖像和圖形相關(guān)運(yùn)算工作的微處理器;TPU(TensorProcessingUnits),是由Google設(shè)計(jì)的定制機(jī)器學(xué)習(xí)芯片,用于成功執(zhí)行其常規(guī)機(jī)器學(xué)習(xí)工作負(fù)載,專為Google的深度學(xué)習(xí)框架TensorFlow而設(shè)計(jì).

2計(jì)算力提升3網(wǎng)絡(luò)規(guī)模大3網(wǎng)絡(luò)規(guī)模大早期的感知機(jī)模型和多層神經(jīng)網(wǎng)絡(luò)層數(shù)只有1層或者2~4層,網(wǎng)絡(luò)參數(shù)量也在數(shù)萬左右;隨著深度學(xué)習(xí)的興起和計(jì)算能力的提升,AlexNet(8層),VGG16(16層),GoogLeNet(22層),ResNet50(50層),DenseNet121(121層)等模型相繼被提出;同時(shí)輸入圖片的大小也從28x28逐漸增大,變成224x224,299x299等,這些使得網(wǎng)絡(luò)的總參數(shù)量可達(dá)到千萬級(jí)別。3網(wǎng)絡(luò)規(guī)模大ThankYOU!目錄1深度學(xué)習(xí)的快速發(fā)展期01任務(wù)深度學(xué)習(xí)的爆發(fā)期02任務(wù)1深度學(xué)習(xí)的快速發(fā)展期1深度學(xué)習(xí)的快速發(fā)展期2006年,深度學(xué)習(xí)(DL)元年。是年,Hinton提出了深度置信網(wǎng)絡(luò)(DeepBeliefNet:DBN),在世界頂級(jí)學(xué)術(shù)期刊《Science》上提出觀點(diǎn):(1)多層人工神經(jīng)網(wǎng)絡(luò)模型有很強(qiáng)的特征學(xué)習(xí)能力,深度學(xué)習(xí)模型學(xué)習(xí)得到的特征數(shù)據(jù)對(duì)原始數(shù)據(jù)有更本質(zhì)的代表性,這將大大便于分類和可視化問題;(2)對(duì)于深度神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練達(dá)到最優(yōu)的問題,可以采用逐層訓(xùn)練方法解決。將上層訓(xùn)練好的結(jié)果作為下層訓(xùn)練過程中的初始化參數(shù)。1深度學(xué)習(xí)的快速發(fā)展期圖2DBN網(wǎng)絡(luò)架構(gòu)層疊的多個(gè)RBM網(wǎng)絡(luò)組成DBN結(jié)構(gòu),來提取需要處理對(duì)象的特征,然后再用分類器進(jìn)行分類。1深度學(xué)習(xí)的快速發(fā)展期2011年,ReLU激活函數(shù)被提出,該激活函數(shù)能夠有效的抑制梯度消失問題;

圖3ReLU激活函數(shù)微軟首次將DL應(yīng)用在語(yǔ)音識(shí)別上,構(gòu)建了深度神經(jīng)網(wǎng)絡(luò)模型,將語(yǔ)音識(shí)別錯(cuò)誤率降低了20%~30%,取得了重大突破。2深度學(xué)習(xí)的爆發(fā)期2深度學(xué)習(xí)的爆發(fā)期1998年LeCun大神提出卷積神經(jīng)網(wǎng)絡(luò)LeNet-5網(wǎng)絡(luò),用來解決手寫數(shù)字識(shí)別的問題。LeNet-5被譽(yù)為卷積神經(jīng)網(wǎng)絡(luò)的‘HelloWorld’圖4LeNet-5架構(gòu)圖2深度學(xué)習(xí)的爆發(fā)期2012年,Hinton團(tuán)隊(duì)為了證明深度學(xué)習(xí)的潛力,參加首屆ImageNet圖像識(shí)別大賽,構(gòu)建名為AlexNet的CNN網(wǎng)絡(luò),獲得冠軍。圖5AlexNet架構(gòu)圖2深度學(xué)習(xí)的爆發(fā)期AlexNet的創(chuàng)新點(diǎn);首次采用ReLU激活函數(shù),增加收斂速度;完全采用有監(jiān)督訓(xùn)練,DL方法開始向有監(jiān)督學(xué)習(xí)轉(zhuǎn)變;擴(kuò)展了LeNet-5,引入Dropout減小過擬合;首次采用GPU加速訓(xùn)練。2深度學(xué)習(xí)的爆發(fā)期2013~2017,通過ImageNet圖像識(shí)別競(jìng)賽,GPU硬件的不斷進(jìn)步,涌現(xiàn)了性能更好的CNN模型, CNN 在其他計(jì)算機(jī)視覺任務(wù)中也開始應(yīng)用開來。2017年至今,深度學(xué)習(xí)算法不斷進(jìn)步,在計(jì)算機(jī)視覺中的各個(gè)領(lǐng)域都有創(chuàng)新網(wǎng)絡(luò)的提出。ThankYOU!目錄計(jì)算機(jī)視覺01任務(wù)自然語(yǔ)言處理02任務(wù)強(qiáng)化學(xué)習(xí)03任務(wù)1計(jì)算機(jī)視覺1計(jì)算機(jī)視覺計(jì)算機(jī)視覺是深度學(xué)習(xí)應(yīng)用最為廣泛的一個(gè)領(lǐng)域,計(jì)算機(jī)視覺中包括:圖像識(shí)別(ImageClassification)目標(biāo)檢測(cè)(ObjectDetection)語(yǔ)義分割(SemanticSegmentation)視頻理解(VideoUnderstanding)圖片生成(ImageGeneration)1計(jì)算機(jī)視覺圖像識(shí)別(ImageClassification)圖像識(shí)別(ImageClassification),也叫圖像分類,是一種常見的分類問題。計(jì)算機(jī)視覺中圖像分類算法常采用神經(jīng)網(wǎng)絡(luò)作為核心,算法的輸入為圖像數(shù)據(jù),輸出值為當(dāng)前圖像樣本所屬類別的概率,通常選取輸出概率值最大的類別作為樣本的預(yù)測(cè)類別。1計(jì)算機(jī)視覺目標(biāo)檢測(cè)(ObjectDetection)目標(biāo)檢測(cè)(ObjectDetection),是指通過算法自動(dòng)檢測(cè)出圖片中目標(biāo)物體的類別及大致位置,然后用邊界框(BoundingBox)表示,并標(biāo)出邊界框中物體的類別信息。1計(jì)算機(jī)視覺語(yǔ)義分割(SemanticSegmentation)語(yǔ)義分割(SemanticSegmentation)是通過算法自動(dòng)分割并識(shí)別出圖片中的內(nèi)容,可以將語(yǔ)義分割理解為每個(gè)像素點(diǎn)的分類問題,分析每個(gè)像素點(diǎn)屬于物體的類別。1計(jì)算機(jī)視覺視頻理解(VideoUnderstanding)隨著深度學(xué)習(xí)在2D圖片的相關(guān)任務(wù)上取得較好的效果,具有時(shí)間維度信息的3D視頻理解任務(wù)受到越來越多的關(guān)注。常見的視頻理解任務(wù)有視頻分類,行為檢測(cè),視頻主體抽取等1計(jì)算機(jī)視覺圖片生成(ImageGeneration)圖片生成(ImageGeneration),通過學(xué)習(xí)真實(shí)圖片的分布,并從學(xué)習(xí)到的分布中采樣而獲得逼真度較高的生成圖片。圖像風(fēng)格遷移2自然語(yǔ)言處理2自然語(yǔ)言處理1、機(jī)器翻譯(MachineTranslation)過去的機(jī)器翻譯算法通常是基于統(tǒng)計(jì)機(jī)器翻譯模型,這也是2016年前Google翻譯系統(tǒng)采用的技術(shù)。2、2016年11月,Google基于Seq2Seq模型上線了Google神經(jīng)機(jī)器翻譯系統(tǒng)(GNMT),首次實(shí)現(xiàn)了源語(yǔ)言到目標(biāo)語(yǔ)言的直譯技術(shù),在多項(xiàng)任務(wù)上實(shí)現(xiàn)50~90%的效果提升。3、常用的機(jī)器翻譯模型有Seq2Seq,BERT,GPT,GPT-2等,其中OpenAI提出的GPT-2模型參數(shù)量高達(dá)15億個(gè),甚至發(fā)布之初以技術(shù)安全考慮為由拒絕開源GPT-2模型。機(jī)器翻譯(MachineTranslation)2自然語(yǔ)言處理1、聊天機(jī)器人(Chatbot)聊天機(jī)器人也是自然語(yǔ)言處理的一項(xiàng)主流任務(wù)。2、通過機(jī)器自動(dòng)與人類對(duì)話,對(duì)于人類的簡(jiǎn)單訴求提供滿意的自動(dòng)回復(fù),提高客戶的服務(wù)效率和服務(wù)質(zhì)量。3、常應(yīng)用在咨詢系統(tǒng)、娛樂系統(tǒng)、智能家居等中。聊天機(jī)器人(Chatbot)3強(qiáng)化學(xué)習(xí)3強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)(ReinforcementLearning,RL),又稱再勵(lì)學(xué)習(xí)、評(píng)價(jià)學(xué)習(xí)或增強(qiáng)學(xué)習(xí),是機(jī)器學(xué)習(xí)的范式和方法論之一,用于描述和解決智能體(agent)在與環(huán)境的交互過程中通過學(xué)習(xí)策略以達(dá)成回報(bào)最大化或?qū)崿F(xiàn)特定目標(biāo)的問題。強(qiáng)化學(xué)習(xí)技術(shù)常用語(yǔ)機(jī)器人(Robotics)和自動(dòng)駕駛(AutonomousDriving)領(lǐng)域中。3強(qiáng)化學(xué)習(xí)機(jī)器人(Robotics)在真實(shí)環(huán)境中,機(jī)器人的控制也取得了一定的進(jìn)展。如UCBerkeley在機(jī)器人的模仿學(xué)習(xí)(ImitationLearning)、少樣本學(xué)習(xí)(MetaLearning)、元學(xué)習(xí)(Few-shotLearning)等方向取得了不少進(jìn)展。波士頓動(dòng)力公司的機(jī)器人機(jī)器人(Robotics)3強(qiáng)化學(xué)習(xí)自動(dòng)駕駛(AutonomousDriving)被認(rèn)為是強(qiáng)化學(xué)習(xí)在短期內(nèi)能技術(shù)落地的一個(gè)應(yīng)用方向,很多公司投入大量資源在自動(dòng)駕駛上,如百度、Uber、Google無人車等。百度Apollo自動(dòng)駕駛汽車自動(dòng)駕駛(AutonomousDriving)ThankYOU!目錄深度學(xué)習(xí)框架概念01任務(wù)主流的深度學(xué)習(xí)框架02任務(wù)TensorFlow基礎(chǔ)框架03任務(wù)1深度學(xué)習(xí)框架概念1深度學(xué)習(xí)框架概念深度學(xué)習(xí)框架是一種為了降低深度學(xué)習(xí)開發(fā)門檻而開發(fā)的深度學(xué)習(xí)工具,框架包含庫(kù)、數(shù)據(jù)集和預(yù)訓(xùn)練模型等資源。深度學(xué)習(xí)框架可以簡(jiǎn)化模型的開發(fā)過程,復(fù)雜深度學(xué)習(xí)模型開發(fā)被大大簡(jiǎn)化,成為AI開發(fā)者的必用利器。開發(fā)者不需要從復(fù)雜的神經(jīng)網(wǎng)絡(luò)開始編代碼,可以依據(jù)需要調(diào)用框架內(nèi)置的模型,也可以在已有模型的基礎(chǔ)上增加layer,選擇分類器。目前,TensorFlow和PyTorch框架為主力深度學(xué)習(xí)框架,其中TensorFlow市場(chǎng)需求最多,且部署能力強(qiáng),在應(yīng)用部署中使用較多。PyTorch在學(xué)術(shù)界、學(xué)術(shù)論文中使用較多。2主流的深度學(xué)習(xí)框架介紹2深度學(xué)習(xí)框架介紹Theano

最早的深度學(xué)習(xí)框架之一,是一個(gè)基于Python語(yǔ)言、定位底層運(yùn)算的計(jì)算庫(kù),Theano同時(shí)支持GPU和CPU運(yùn)算。缺點(diǎn):Theano開發(fā)效率較低,模型編譯時(shí)間較長(zhǎng),同時(shí)開發(fā)人員轉(zhuǎn)投TensorFlow等原因,Theano目前已經(jīng)停止維護(hù)。2深度學(xué)習(xí)框架介紹Scikit-learn一個(gè)完整的面向機(jī)器學(xué)習(xí)算法的計(jì)算庫(kù),內(nèi)嵌了常見的傳統(tǒng)機(jī)器學(xué)習(xí)算法支持,文檔和案例也較為豐富。

缺點(diǎn):但是Scikit-learn并不是專門面向神經(jīng)網(wǎng)絡(luò)而設(shè)計(jì)的,不支持GPU加速,對(duì)神經(jīng)網(wǎng)絡(luò)相關(guān)層實(shí)現(xiàn)也較欠缺。2深度學(xué)習(xí)框架介紹Caffe由華人博士賈揚(yáng)清在2013年開發(fā),主要面向使用卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用場(chǎng)合,并不適合其他類型的神經(jīng)網(wǎng)絡(luò)的應(yīng)用。Caffe的主要開發(fā)語(yǔ)言是C++,也提供Python語(yǔ)言等接口,支持GPU和CPU。開發(fā)時(shí)間早,知名度高,2017年Facebook推出了Caffe的升級(jí)版本Cafffe2,且Caffe2目前已經(jīng)融入到PyTorch庫(kù)中。2深度學(xué)習(xí)框架介紹Torch

是一個(gè)非常優(yōu)秀的科學(xué)計(jì)算庫(kù),基于較冷門的編程語(yǔ)言Lua開發(fā)。Torch靈活性較高,容易實(shí)現(xiàn)自定義網(wǎng)絡(luò)層,這也是PyTorch繼承獲得的優(yōu)良基因。缺點(diǎn):但是由于Lua語(yǔ)言使用人群較小,Torch一直未能獲得廣泛應(yīng)用。2深度學(xué)習(xí)框架介紹MXNET由華人博士陳天奇和李沐等人開發(fā),MXNET是亞馬遜公司的官方深度學(xué)習(xí)框架,采用了命令式編程和符號(hào)式編程混合方式,靈活性高,運(yùn)行速度快,文檔和案例也較為豐富。PyTorch是Facebook基于原有的Torch框架推出的采用Python作為主要開發(fā)語(yǔ)言的深度學(xué)習(xí)框架。PyTorch借鑒了Chainer的設(shè)計(jì)風(fēng)格,采用命令式編程,使得搭建網(wǎng)絡(luò)和調(diào)試網(wǎng)絡(luò)非常方便。盡管PyTorch在2017年才發(fā)布,但是由于精良緊湊的接口設(shè)計(jì),PyTorch在學(xué)術(shù)界獲得了廣泛好評(píng)。在PyTorch1.0版本后,原來的PyTorch與Caffe2進(jìn)行了合并,彌補(bǔ)了PyTorch在工業(yè)部署方面的不足。總的來說,PyTorch是一個(gè)非常優(yōu)秀的深度學(xué)習(xí)框架。2深度學(xué)習(xí)框架介紹Keras

一個(gè)基于Theano和TensorFlow等框架提供的底層運(yùn)算而實(shí)現(xiàn)的高層框架,提供了大量方便快速訓(xùn)練,測(cè)試的高層接口,對(duì)于常見應(yīng)用來說,使用Keras開發(fā)效率非常高。缺點(diǎn):但是由于沒有底層實(shí)現(xiàn),需要對(duì)底層框架進(jìn)行抽象,運(yùn)行效率不高,靈活性一般。TensorFlow由Google于2015年發(fā)布。由于TensorFlow接口設(shè)計(jì)頻繁變動(dòng),功能設(shè)計(jì)重復(fù)冗余,符號(hào)式編程開發(fā)和調(diào)試非常困難等問題,TensorFlow1.x版本一度被業(yè)界詬病。2019年,Google推出TensorFlow2正式版本,能夠避免TensorFlow1.x版本的諸多缺陷。3TensorFlow基礎(chǔ)框架3TensorFlow基礎(chǔ)框架系統(tǒng)框架Tensorflow系統(tǒng)框架分為三層,由上而下依次是應(yīng)用層、接口層和Tensorflow核心層。TensorFlow系統(tǒng)框架3TensorFlow基礎(chǔ)框架系統(tǒng)框架的六大特性深度靈活性(DeepFlexibility)真正的可移植性(TruePortability)連接研究與產(chǎn)品(ConnectResearchandProduction)自動(dòng)微分(Auto-Differentiation)多語(yǔ)言選擇(LanguageOptions)最大化性能(MaximizePerformance)ThankYOU!目錄1Anaconda介紹01任務(wù)Anaconda安裝02任務(wù)1Anaconda介紹1Anaconda介紹Anaconda是專門為了方便使用Python進(jìn)行數(shù)據(jù)科學(xué)研究而建立的一組軟件包,涵蓋了數(shù)據(jù)科學(xué)領(lǐng)域常見的Python庫(kù);并且自帶了專門用來解決軟件環(huán)境依賴問題的conda包管理系統(tǒng)。主要是提供了包管理與環(huán)境管理的功能,可以很方便地解決多版本python并存、切換以及各種第三方包安裝問題;Anaconda利用命令conda來進(jìn)行包和環(huán)境的管理,并且已經(jīng)默認(rèn)安裝了Python和相關(guān)的配套工具。2Anaconda安裝1(1)進(jìn)入Anaconda官網(wǎng):/,點(diǎn)擊Download,下載安裝包,安裝包較大,下載需要耐心等待。1(3)為了解決官網(wǎng)下載安裝包較慢的問題,可以選擇如下鏡像源:/anaconda/archive/,這里選擇適用于Windows系統(tǒng)較新的Anaconda版本:1(4)安裝包下載好后,點(diǎn)擊安裝包,出現(xiàn)如下頁(yè)面,依次點(diǎn)擊Next、IAgree;1(5)選擇JustMe,點(diǎn)擊Next;1(6)選擇安裝目錄,系統(tǒng)默認(rèn)安裝在C盤,Anaconda軟件占用空間較大,可根據(jù)需要自定義安裝到空間較大的盤;1(7)AdvancedOptions中的兩個(gè)選項(xiàng),勾選第一個(gè),將Anaconda添加至環(huán)境變量;第二個(gè)是為系統(tǒng)選擇默認(rèn)的Python版本,這個(gè)不選,點(diǎn)擊Install;等待安裝完成后點(diǎn)擊Next。1(8)最后的兩個(gè)選項(xiàng)可以選,也可以不選,最后點(diǎn)擊Finish完成安裝。1(9)在Windows10的搜索框中輸入anaconda,打開AnacondaPrompt命令提示符;1(10)輸入python–V查看Python版本,我們發(fā)現(xiàn)Python版本為默認(rèn)的Python3.9,至此,Anaconda環(huán)境管理器安裝教程全部完成。ThankYOU!目錄1創(chuàng)建虛擬環(huán)境01任務(wù)安裝TensorFlow02任務(wù)Python第三方庫(kù)的安裝03任務(wù)1創(chuàng)建虛擬環(huán)境1創(chuàng)建虛擬環(huán)境Anaconda軟件安裝完成之后,使用軟件創(chuàng)建虛擬環(huán)境,創(chuàng)建虛擬環(huán)境的途徑有兩個(gè):通過Anaconda軟件圖形界面創(chuàng)建;通過命令在AnacondaPrompt中創(chuàng)建。1創(chuàng)建虛擬環(huán)境(1)搜索框輸入anaconda命令,點(diǎn)擊Anaconda圖標(biāo)打開軟件,點(diǎn)擊左下角Create;通過Anaconda軟件圖形界面創(chuàng)建:1創(chuàng)建虛擬環(huán)境(2)彈出創(chuàng)建新環(huán)境對(duì)話框;給新建的虛擬環(huán)境命名,這里將虛擬環(huán)境命名為tf,Python版本為3.6,點(diǎn)擊Create;1創(chuàng)建虛擬環(huán)境(3)稍等片刻,在Environments一欄,會(huì)多出一個(gè)名為tf的虛擬環(huán)境。1創(chuàng)建虛擬環(huán)境(4)打開AnacondaPrompt命令提示符,默認(rèn)打開base(root)環(huán)境,在命令提示符中輸入activatetf命令,激活創(chuàng)建的tf環(huán)境,如圖所示,表示tf虛擬環(huán)境創(chuàng)建成功。1創(chuàng)建虛擬環(huán)境創(chuàng)建一個(gè)名為tensorflow,Python版本為3.8的虛擬環(huán)境,打開AnacondaPrompt,輸入如下命令:condacreate-ntensorflowpython=3.8使用前述方法可以查看虛擬環(huán)境信息和Python版本。通過命令在AnacondaPrompt中創(chuàng)建2安裝tensorflow2這里我們給創(chuàng)建虛擬環(huán)境tensorflow配置安裝包和深度學(xué)習(xí)框架,深度學(xué)習(xí)框架選擇CPU版的TensorFlow2.0。步驟如下:(1)打開AnacondaPrompt,輸入activatetensorflow命令激活虛擬環(huán)境tensorflow后,輸入如下命令安裝TensorFlow包:pip/conda

install

tensorflow

(2)如果下載太慢,可以選擇從清華鏡像源網(wǎng)站下載,命令如下:pip

install

-i/simple

tensorflow2(3)輸入安裝命令后,系統(tǒng)搜集到要安裝的包,輸入y,確認(rèn)安裝;如圖所示:2(4)安裝完成后,可以輸入piplist命令查看虛擬環(huán)境中安裝的包列表,可以查看安裝的tensorflow包的版本信息,如圖所示:2(5)也可以輸入pipshowtensorflow命令查看tensorflow版本,如圖所示:2(6)接下來測(cè)試tensorflow是否安裝成功。輸入python,進(jìn)入python命令行模式;然后輸入命令:import

tensorflow

如果沒有顯示任何報(bào)錯(cuò)信息,則tensorflow安裝成功。如圖所示:3Python第三方庫(kù)的安裝3TensorFlow安裝完成之后,在開發(fā)具體的項(xiàng)目時(shí),還需要安裝一些Python的第三方庫(kù),這里以安裝Matplotlib、NumPy和Pandas為例,介紹第三方庫(kù)的安裝流程,按照此方法可以安裝其第三方包。3(1)MatplotlibMatplotlib是一個(gè)數(shù)據(jù)可視化工具,可以用來繪制各種圖表,例如折線圖、柱狀圖和三維圖。安裝命令如下:pipinstallmatplotlib3(2)NumpyNumpy是一個(gè)數(shù)學(xué)函數(shù)庫(kù),支持矩陣運(yùn)算和大量數(shù)學(xué)函數(shù)運(yùn)算,Numpy的數(shù)據(jù)類型支持在Matplotlib、OpenCV等多種第三方庫(kù)上使用。安裝命令如下:pipinstallnumpy3(3)PandasPandas是數(shù)據(jù)分析及可視化工具,支持?jǐn)?shù)據(jù)處

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論