![深度學(xué)習(xí)的實驗總結(jié)_第1頁](http://file4.renrendoc.com/view14/M05/2B/17/wKhkGWafi82Ae148AAKYu6E3Zcc519.jpg)
![深度學(xué)習(xí)的實驗總結(jié)_第2頁](http://file4.renrendoc.com/view14/M05/2B/17/wKhkGWafi82Ae148AAKYu6E3Zcc5192.jpg)
![深度學(xué)習(xí)的實驗總結(jié)_第3頁](http://file4.renrendoc.com/view14/M05/2B/17/wKhkGWafi82Ae148AAKYu6E3Zcc5193.jpg)
![深度學(xué)習(xí)的實驗總結(jié)_第4頁](http://file4.renrendoc.com/view14/M05/2B/17/wKhkGWafi82Ae148AAKYu6E3Zcc5194.jpg)
![深度學(xué)習(xí)的實驗總結(jié)_第5頁](http://file4.renrendoc.com/view14/M05/2B/17/wKhkGWafi82Ae148AAKYu6E3Zcc5195.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
深度學(xué)習(xí)的實驗總結(jié)第1篇深度學(xué)習(xí)的實驗總結(jié)第1篇深度學(xué)習(xí)和傳統(tǒng)機器學(xué)習(xí)都是機器學(xué)習(xí)領(lǐng)域的重要分支,但它們在方法和應(yīng)用上存在明顯的區(qū)別與獨特的優(yōu)勢。以下是它們之間的主要區(qū)別:
1.特征提取與學(xué)習(xí):-傳統(tǒng)機器學(xué)習(xí):通常依賴于特征工程(featureengineering),這意味著專家需要人為地對數(shù)據(jù)進行提煉和清洗,選擇或構(gòu)造最相關(guān)的特征來訓(xùn)練模型。-深度學(xué)習(xí):利用表示學(xué)習(xí)(representationlearning),機器學(xué)習(xí)模型自身能夠從原始數(shù)據(jù)中自動學(xué)習(xí)和提取有用的特征。這種方法不需要手動選擇特征、壓縮維度或轉(zhuǎn)換格式。
2.數(shù)據(jù)依賴性:-傳統(tǒng)機器學(xué)習(xí):通常需要大量的標記數(shù)據(jù)來訓(xùn)練模型,因為模型的性能很大程度上取決于輸入的數(shù)據(jù)質(zhì)量。-深度學(xué)習(xí):對于深度學(xué)習(xí),尤其是當使用無監(jiān)督學(xué)習(xí)方法時,可以處理大量未標記的數(shù)據(jù)。此外,深度網(wǎng)絡(luò)的多層結(jié)構(gòu)使其能夠?qū)W習(xí)數(shù)據(jù)的多層次表示。
3.計算資源:-傳統(tǒng)機器學(xué)習(xí):通常需要的計算資源較少,因為它們的模型結(jié)構(gòu)簡單。-深度學(xué)習(xí):由于其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和大量的參數(shù),深度學(xué)習(xí)模型通常需要更多的計算資源,如GPU加速。
4.模型解釋性:-傳統(tǒng)機器學(xué)習(xí):許多傳統(tǒng)的機器學(xué)習(xí)算法(如決策樹、支持向量機等)提供相對較高的模型解釋性,因為它們的決策過程往往是直觀的。-深度學(xué)習(xí):深度學(xué)習(xí)模型,尤其是深層神經(jīng)網(wǎng)絡(luò),通常被視為“黑箱”,因為它們的內(nèi)部工作機制很難解釋。
5.應(yīng)用領(lǐng)域:-傳統(tǒng)機器學(xué)習(xí):廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、零售等,其中特征的選擇和工程是關(guān)鍵步驟。-深度學(xué)習(xí):由于其強大的表示學(xué)習(xí)能力,尤其在圖像識別、語音識別和自然語言處理等領(lǐng)域表現(xiàn)出色。
深度學(xué)習(xí)的實驗總結(jié)第2篇反向傳播算法,全稱誤差反向傳播(Back-propagation,BP)算法,是神經(jīng)網(wǎng)絡(luò)發(fā)展的重大突破,也是現(xiàn)在眾多深度學(xué)習(xí)訓(xùn)練方法的基礎(chǔ)。它是一種與最優(yōu)化方法(如梯度下降法)結(jié)合使用的,用來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)的常見方法。
該算法的基本思想包括以下步驟:1.先計算每一層的狀態(tài)和激活值,直到最后一層(即信號是前向傳播的);2.計算每一層的誤差,誤差的計算過程是從最后一層向前推進的(即誤差是反向傳播的);3.計算每個神經(jīng)元連接權(quán)重的梯度;4.根據(jù)梯度下降法則更新參數(shù)(目標是誤差變?。?。迭代以上步驟,直到滿足停止準則(比如相鄰兩次迭代的誤差的差別很小)。
在具體實施過程中,首先進行前向傳播,輸入數(shù)據(jù)按照從輸入層到輸出層的順序,通過網(wǎng)絡(luò)的每一層進行傳遞,并計算每一層的輸出。然后在輸出層得到預(yù)測結(jié)果后,用一個損失函數(shù)來衡量預(yù)測結(jié)果與真實標簽的差異。最后開始反向傳播的過程,從輸出層開始,向輸入層方向進行。
深度學(xué)習(xí)的實驗總結(jié)第3篇摘要論文:[1]曹曉明,張永和,潘萌,朱姍,閆海亮.人工智能視域下的學(xué)習(xí)參與度識別方法研究——基于一項多模態(tài)數(shù)據(jù)融合的深度學(xué)習(xí)實驗分析[J].遠程教育雜志,2019,37(01):.
內(nèi)容概要圖
學(xué)習(xí)參與度識別是研究如何量化評估學(xué)生的學(xué)習(xí)參與情況,被一些研究者看作是在線學(xué)習(xí)的先決條件。此文試圖采用“文獻+實驗”的方法,在目前已有單模態(tài)識別方案的基礎(chǔ)上,設(shè)計學(xué)習(xí)參與度識別的多模態(tài)融合深度學(xué)習(xí)模型,并在實驗中進行擬合訓(xùn)練,審視該方法與單模態(tài)方法的性能比較,以期為相關(guān)研究與實踐提供借鑒。
從學(xué)習(xí)參與度及其典型的測量方法,人工智能在學(xué)習(xí)參與度識別中的應(yīng)用現(xiàn)狀與問題,基于多模態(tài)進行學(xué)習(xí)參與度識別的可行性分析三方面展開綜述。
基于未解決的關(guān)鍵問題,確定研究目的:(1)探討依托深度學(xué)習(xí)開展學(xué)習(xí)參與度識別的系統(tǒng)化的方案(2)通過實驗,檢驗提出的多模態(tài)學(xué)習(xí)參與度識別模型的有效性;(3)形成一個針對開放教育領(lǐng)域的學(xué)習(xí)參與度識別多模態(tài)數(shù)據(jù)集。
被試的組成與特征,實驗的步驟。
附著面部表情的圖片是第一模態(tài),腦電數(shù)據(jù)則作為學(xué)習(xí)參與度識別的第二模態(tài)。
多模態(tài)融合策略的選擇,深度學(xué)習(xí)模型設(shè)計
候選模型訓(xùn)練結(jié)果,最優(yōu)模型的選擇及測試集驗證結(jié)果,學(xué)習(xí)參與度與學(xué)習(xí)效果的關(guān)聯(lián)結(jié)果。
圖像模態(tài)的準確率可達80%;腦電模態(tài)的準確率為60%左右,將兩者融合可達到87%的多模態(tài)融合準確率。
通過協(xié)作機制建立更大規(guī)模的本土數(shù)據(jù)集,通過眾包的方法提高數(shù)據(jù)標記的質(zhì)量,擴展學(xué)習(xí)參與度識別的技術(shù)方法,從注重切片轉(zhuǎn)向注重時序。
上述文章面向?qū)W生學(xué)習(xí)參與度開展研究,數(shù)據(jù)來源為多模態(tài)數(shù)據(jù),包括被試臉部圖像、腦電波數(shù)據(jù),最終得到準確率為87%。
類似的實驗研究在遵循一定研究范式開展的基礎(chǔ)上,應(yīng)該注重評價指標的描述、選用,應(yīng)呈現(xiàn)多種測量指標(例如準確率,召回率,f1分數(shù)等),并規(guī)范化最終的測量數(shù)據(jù)呈現(xiàn)方式。
另外,由于深度學(xué)習(xí)實驗共同面臨的數(shù)據(jù)集限制,研究者可關(guān)注批量數(shù)據(jù)獲取、使用GAN促進虛擬數(shù)據(jù)生成等領(lǐng)域,實現(xiàn)數(shù)據(jù)集的擴充,使模型的效力得到進一步提升。
深度學(xué)習(xí)的實驗總結(jié)第4篇損失函數(shù),也叫損失準則,是用來度量模型預(yù)測值與真實值之間的差異程度的一種方法。損失函數(shù)是一個非負實值函數(shù),通常用符號L(Y,f(x))來表示,其中Y代表真實值,f(x)代表模型的預(yù)測值。損失函數(shù)越小,說明模型預(yù)測值與真實值越接近,模型的魯棒性就越好。
損失函數(shù)在模型訓(xùn)練階段發(fā)揮著重要的作用。每個批次的訓(xùn)練數(shù)據(jù)送入模型后,通過前向傳播輸出預(yù)測值,然后損失函數(shù)會計算出預(yù)測值和真實值之間的差異值,也就是損失值。得到損失值之后,模型通過反向傳播去更新各個參數(shù),以降低真實值與預(yù)測值之間的損失,使得模型生成的預(yù)測值更接近真實值,從而達到學(xué)習(xí)的目的。
關(guān)于如何選擇損失函數(shù),需要考慮以下因素:
選擇損失函數(shù)的基本要求是衡量模型輸出分布和樣本標簽分布之間的接近程度。此外,根據(jù)特定的預(yù)測建模問題(如分類或回歸),損失函數(shù)的選擇必須匹配問題的框架。例如,對于神經(jīng)網(wǎng)絡(luò)模型,輸出層的參數(shù)選擇也必須與所選的損失函數(shù)相適應(yīng)。因此,如何選擇合適的損失函數(shù)是問題抽象建模中的關(guān)鍵步驟。
深度學(xué)習(xí)的實驗總結(jié)第5篇深度學(xué)習(xí)是機器學(xué)習(xí)中的一種基于人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)方法,其關(guān)鍵在于通過多層神經(jīng)網(wǎng)絡(luò)對輸入數(shù)據(jù)進行逐深度學(xué)習(xí)是機器學(xué)習(xí)中的一種基于人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)方法,其關(guān)鍵在于通過多層神經(jīng)網(wǎng)絡(luò)對輸入數(shù)據(jù)進行逐層抽象和表示學(xué)習(xí),從而實現(xiàn)對復(fù)雜數(shù)據(jù)結(jié)構(gòu)和非線性關(guān)系的建模。深度學(xué)習(xí)模型通常包含多個隱藏層,每個隱藏層都有許多神經(jīng)元。這些神經(jīng)元通過權(quán)重連接,模擬了生物神經(jīng)元之間的信號傳遞過程。
深度學(xué)習(xí)的目標是學(xué)習(xí)樣本數(shù)據(jù)的內(nèi)在規(guī)律和表示層次,這些學(xué)習(xí)過程中獲得的信息對諸如文字、圖像和聲音等數(shù)據(jù)的解釋有很大的幫助。它的最終目標是讓機器能夠像人一樣具有分析學(xué)習(xí)能力,能夠識別文字、圖像和聲音等數(shù)據(jù)。
深度學(xué)習(xí)的實驗總結(jié)第6篇除了RNN、CNN和GAN,深度學(xué)習(xí)領(lǐng)域還有許多其他的模型和算法。例如:
1.DBN(DeepBeliefNetwork):它是一種生成式神經(jīng)網(wǎng)絡(luò),由多層隱藏層和可見層組成,并使用受限玻爾茲曼機(RestrictedBoltzmannMachine)作為其隱藏層單元。盡管DBN在理解深度學(xué)習(xí)的“哲學(xué)”和“思維模式”方面很有價值,但在實際應(yīng)用中,CNN和RNN等模型更為常用。
2.RNTN(RecurrentNeuralTuringMachine):它是一種結(jié)合了RNN和TuringMachine的模型,旨在處理序列數(shù)據(jù)和記憶任務(wù)。
3.自動編碼器(Autoencoder):這是一種無監(jiān)督的神經(jīng)網(wǎng)絡(luò)模型,用于學(xué)習(xí)數(shù)據(jù)的壓縮表示,并通過解碼器重構(gòu)輸入數(shù)據(jù)。
4.全連接神經(jīng)網(wǎng)絡(luò)(FCNN):與CNN不同,F(xiàn)CNN完全連接所有的輸入和輸出層。它通常用于較少的維度和簡單的結(jié)構(gòu)。
5.多層感知機(MLP):這是最簡單的深度學(xué)習(xí)模型之一,由一個或多個隱藏層和一個輸出層組成。它常用于監(jiān)督學(xué)習(xí)任務(wù)。
深度學(xué)習(xí)的實驗總結(jié)第7篇最近一兩年冒出了很多名詞
——比如“大概念”、“大單元”、“深度學(xué)習(xí)”……
其實,王玨老師并不太關(guān)注這些新概念
因為只要在教學(xué)領(lǐng)域,
無論多么新、多么高大上的概念
要想落地、取得成功,都必然要落到“學(xué)習(xí)科學(xué)/學(xué)習(xí)理論”上。
因此,王玨老師提倡的是:
就“深度學(xué)習(xí)”這個理念來說,
各種表述多如牛毛,
當然很多表述也很有道理,比如:
美國卓越教育聯(lián)盟對深度學(xué)習(xí)進行了如下界定:
深度學(xué)習(xí)與淺層學(xué)習(xí)的區(qū)別是深度學(xué)習(xí):
休利特基金會對深度學(xué)習(xí)做了如下界定:
——說什么的都有,都很有道理,就是感覺很亂,頭緒很多……
本文王玨老師就帶領(lǐng)大家追根溯源,
梳理一下在理論研究領(lǐng)域?qū)Α吧疃葘W(xué)習(xí)”的研究成果
大家不妨看看是否有助于理解“深度學(xué)習(xí)”的實質(zhì)。
深度學(xué)習(xí)來自于四方面的理論研究,有三種“深度”:
【一、深度學(xué)習(xí)方式】
這是來自于瑞典的學(xué)者F.Marton(馬飛龍)教授在1976年進行的一次實驗(他提出的“變易教學(xué)法”非常出名,也非常有效)。
該實驗要求學(xué)生閱讀一篇文章,并在開始閱讀前告知學(xué)生,在閱讀完成后將會針對文章進行提問。
于是,學(xué)生中明顯出現(xiàn)了兩種不同的學(xué)習(xí)方式,有的學(xué)生把關(guān)注焦點放在文章主題上,嘗試理解和反思;有的學(xué)生則把關(guān)注焦點放在有可能作為測試題目出現(xiàn)的碎片化信息上,嘗試記憶全文。
Marton把前者的學(xué)習(xí)方式稱為“深度學(xué)習(xí)方式”,把后者的學(xué)習(xí)方式稱為“表層學(xué)習(xí)方式”。
二者的核心特征是完全不同的:
(關(guān)于“高階知能”,可以理解為布魯姆教育目標分類法中的“分析”、“評價”、“創(chuàng)造”)
深度學(xué)習(xí)方式追求的是知識的“意義”(因此我將其稱為“意義學(xué)習(xí)”,他和奧蘇貝爾所提的“意義學(xué)習(xí)”相當接近,因此我將其稱為“意義學(xué)習(xí)”),表層學(xué)習(xí)方式追求的是知識的“事實”——也就是死記硬背、機械式學(xué)習(xí)。
無論是Marton、還是奧蘇貝爾,他們所提出的“意義學(xué)習(xí)”的內(nèi)容,都是:將知識與學(xué)習(xí)者原有經(jīng)驗建立關(guān)聯(lián)。但只有這一點還不夠,王玨老師認為至少還需要加上“知識之間的(全部)關(guān)聯(lián)性”,以及“大觀念/大概念”所提倡的:專家思維方式/學(xué)科思想方法。
【二、深度理解】
關(guān)于深度理解,有兩項理論研究。
“深度理解”的第一項理論來源,是美國課程研究者Wiggins(威金斯),在《UnderstandingbyDesign》一書中,所提出的“知識的構(gòu)造”:
在上圖中,位于最表層的是“事實知識與個別技能”,然后是“能夠遷移的概念”和“復(fù)雜過程”,最深層的是“原理與一般化”。后兩層構(gòu)成了“持久理解”。
“持久理解”是對“學(xué)生在忘記了具體知識細節(jié)后,還剩下什么”的回答,這種“持久理解”位于“學(xué)問的中心,能夠遷移到新情境中”(Wiggins)。
所以,第一項關(guān)于“深度理解”的理論研究,就告訴我們:
而一旦以“遷移”為目的,學(xué)習(xí)就會相當復(fù)雜。因為與知識相關(guān)的問題情境無窮無盡,而且有的與學(xué)生學(xué)習(xí)到的形態(tài)完全一樣,有的比較接近,有的看起來似乎完全不相干——這就是“近遷移”或“遠遷移”。
學(xué)生要想對知識建立“深度理解”,就必須要在不同的情境之下,運用知識解決問題——遷移的“距離”越遠,學(xué)生對知識的本質(zhì)理解就越深刻!
事實上,很多老師所反映的“一學(xué)就會、一用就慒”,在很大程度上,就是因為問題情境發(fā)生變化,導(dǎo)致學(xué)生無法將知識與情境建立起關(guān)聯(lián)性而導(dǎo)致的!——它直接反映了學(xué)生對知識實質(zhì)的理解深度不足!從這一點來看,“深度理解”的理論研究是非常有實踐指導(dǎo)價值的!
關(guān)于“深度理解”的第2項理論來源,是芬蘭的學(xué)者Engestrom(_托姆)提出的“學(xué)習(xí)環(huán)”(learningcycle)理論。
學(xué)習(xí)環(huán)理論是描述學(xué)習(xí)活動的過程的,由6個環(huán)節(jié)構(gòu)成:
其中,“動機”是學(xué)習(xí)者遇到的問題與既有知識經(jīng)驗產(chǎn)生的矛盾
“內(nèi)化”就是學(xué)習(xí)知識的過程(王玨老師稱為“輸入式學(xué)習(xí)”)
“外化”就是運用知識解決問題的過程(王玨老師稱為“輸出式學(xué)習(xí)”)。
外化既包括與他人的口頭交流,也包括解題、真實情境的問題解決,在外化過程中發(fā)現(xiàn)自己理解的不足之處、并對知識進行重構(gòu)(“批判”)。
由于問題情境的復(fù)雜度、以及語言對于思維的承載作用,顯然,“外化/輸出”對于知識理解的深度,要高于“內(nèi)化/輸入”的深度。
因此,在教學(xué)活動中,如果能多開展“外化/輸出”,顯然有助于達成“深度理解”。
——不過,在教學(xué)實踐中,排除“內(nèi)化”過程、直接開展“外化”,則是完全不成立的。
“內(nèi)化/輸入”與“外化/輸出”是緊密相合在一起的:沒有內(nèi)化,也談不上外化;沒有外化,內(nèi)化則很可能是淺薄的。
因此,在教學(xué)活動中,如何合理地設(shè)計和搭配“內(nèi)化/輸入”與“外化/輸出”活動——而非單一強調(diào)“外化”,就成為影響教學(xué)效果的關(guān)鍵。
內(nèi)化與外化的關(guān)系,也昭示著:
【三、深度參與】
關(guān)于學(xué)生的深度參與,有兩種描述角度:
其實,無論是“動機”、還是“主動性”,都不是新鮮事,一直是老師們在教學(xué)中關(guān)注的重點,各種方法、技巧也有很多。
顯然,動機+主動學(xué)習(xí)也都是“深度參與”的必要因素。而且,只有當二者同時發(fā)生、并能開展深度的交互作用時,才會制造出令人癡迷的、身心一體的巔峰體驗——“心流”狀態(tài)。
心流,指的是當人們沉浸在當下著手的某件事情或某個目標中時,全神貫注、全情投入并享受其中而體驗到的一種精神狀態(tài)。在心流狀態(tài)下,人們往往會感到精力充沛、不知疲倦、時間不知不覺地流逝……
心流是由美國學(xué)者、積極心理學(xué)的奠基人米哈里·契克森米哈賴(MihalyCsikszentmihalyi)提出的(他也因此被稱為“心流之父”)。
事實上,“心流”狀態(tài),就是人腦對于自我付出努力、應(yīng)對挑戰(zhàn)、取得成功的“自我獎賞機制”!——這種“自我獎賞機制”就對于大腦來說,就是最為深刻的“內(nèi)在動機”,這一點在我的《學(xué)習(xí)科學(xué)》課程中有充分地闡釋。
米哈里·契克森米哈賴的一大貢獻,是他深入地研究了“心流”的發(fā)生機制(如下圖):
在上圖中,我們可以看到,“心流通道”的發(fā)生條件是非常狹窄的,它只能發(fā)生在“一定的挑戰(zhàn)度”和“較高的技能水平”的動態(tài)匹配之中。
——挑戰(zhàn)度相較于技能水平太低,學(xué)習(xí)者會感到“無聊”,而感到心不在焉、沒有任何興致、最終放棄;
——挑戰(zhàn)度相較于技能水平太高,學(xué)習(xí)者會感到“焦慮”,而且會因無法完成挑戰(zhàn)、而情感受挫、逃離學(xué)習(xí)。
因此,想激發(fā)學(xué)生“深度參與”(尤其是激發(fā)大腦自我獎賞的“動機”),條件是相當苛刻的,可不僅僅只是學(xué)生具有“主動性”就能實現(xiàn)的……
教學(xué)內(nèi)容與教學(xué)方式、孩子的主動性、孩子的學(xué)習(xí)方法與學(xué)習(xí)能力、孩子對學(xué)科知識的理解方式與期待、老師布置任務(wù)的適切程度(針對每個個體)……影響因素實在太多了,有點“可遇而不可求”的意思。
這也是我家孩子在初二時跟我說,他經(jīng)常在學(xué)習(xí)時能體會到“心流狀態(tài)”,我感到狂喜、認為他能成為“學(xué)霸”的原因!
不過,心流說難也難,說易也易——我們每個人都應(yīng)該有過體會。比如,看一本優(yōu)秀的小說、或者一部優(yōu)秀電影、聽優(yōu)秀老師“講課”,往往就會產(chǎn)生“心流”狀態(tài)——這同樣是由于老師能夠在“知識的挑戰(zhàn)度”和“學(xué)生的原有知識經(jīng)驗水平”之間,能有效地搭建出一條“通途“!
誰說,教學(xué)不是一門藝術(shù)呢!
誰說,“深度學(xué)習(xí)”與老師的教學(xué)無關(guān)、能完全由學(xué)生個人實現(xiàn)呢!
(本文中對“深度學(xué)習(xí)”的理論解讀,主要參考了《深度主動學(xué)習(xí)》一書,特此鳴謝!)
深度學(xué)習(xí)的實驗總結(jié)第8篇激活函數(shù)是一種添加到人工神經(jīng)網(wǎng)絡(luò)中的函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式。在神經(jīng)元中,輸入的input經(jīng)過一系列加權(quán)求和后作用于另一個函數(shù),這個函數(shù)就是這里的激活函數(shù)。類似于人類大腦中基于神經(jīng)元的模型,激活函數(shù)最終決定了是否傳遞信號以及要發(fā)射給下一個神經(jīng)元的內(nèi)容。在人工神經(jīng)網(wǎng)絡(luò)中,一個節(jié)點的激活函數(shù)定義了該節(jié)點在給定的輸入或輸入集合下的輸出。標準的計算機芯片電路可以看作是根據(jù)輸入得到開(1)或關(guān)(0)輸出的數(shù)字電路激活函數(shù)。
激活函數(shù)可以分為線性激活函數(shù)(線性方程控制輸入到輸出的映射,如f(x)=x等)以及非線性激活函數(shù)(非線性方程控制輸入到輸出的映射,比如Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish等)。
深度學(xué)習(xí)的實驗總結(jié)第9篇神經(jīng)網(wǎng)絡(luò),又稱人工神經(jīng)網(wǎng)絡(luò)(ANN)或模擬神經(jīng)網(wǎng)絡(luò)(SNN),是機器學(xué)習(xí)的一個重要子領(lǐng)域,同時也是深度學(xué)習(xí)算法的核心。其名稱和結(jié)構(gòu)均受到人腦的啟發(fā),目的是模擬大腦的某些機理與機制,實現(xiàn)諸如圖像識別、語音識別等功能。
基本組成:-神經(jīng)元:這是神經(jīng)網(wǎng)絡(luò)的基本單位。每個神經(jīng)元接收一組輸入和一個偏置值,當信號(值)到達時會乘以一個權(quán)值。如果神經(jīng)元有4個輸入,那么就有4個權(quán)值,這些權(quán)重可以在訓(xùn)練時進行調(diào)整。-層:神經(jīng)網(wǎng)絡(luò)由相互連接的節(jié)點組成,也稱為人工神經(jīng)元,這些節(jié)點按層組織。例如,一
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030全球活塞連桿套件行業(yè)調(diào)研及趨勢分析報告
- 家電維修合同協(xié)議書正規(guī)范本
- 垃圾桶項目采購合同
- 出租車租賃合同模板
- 2025居間合同協(xié)議書范本
- 產(chǎn)品全國總代理合同范本年
- 宣傳欄制作安裝合同書
- 委托合同范文年
- 2025年中圖版八年級歷史上冊階段測試試卷
- 2024年高考政治(安徽卷)真題詳細解讀及評析
- 數(shù)字經(jīng)濟學(xué)導(dǎo)論-全套課件
- 動物檢疫技術(shù)-動物檢疫的對象(動物防疫與檢疫技術(shù))
- 中考記敘文閱讀
- 《計算機應(yīng)用基礎(chǔ)》-Excel-考試復(fù)習(xí)題庫(含答案)
- 產(chǎn)科溝通模板
- 2023-2024學(xué)年四川省成都市小學(xué)數(shù)學(xué)一年級下冊期末提升試題
- GB/T 7462-1994表面活性劑發(fā)泡力的測定改進Ross-Miles法
- GB/T 2934-2007聯(lián)運通用平托盤主要尺寸及公差
- GB/T 21709.13-2013針灸技術(shù)操作規(guī)范第13部分:芒針
- 2022年青島職業(yè)技術(shù)學(xué)院單招語文考試試題及答案解析
- 急診科進修匯報課件
評論
0/150
提交評論