最新神經(jīng)網(wǎng)絡(luò)試卷A卷含答案_第1頁(yè)
最新神經(jīng)網(wǎng)絡(luò)試卷A卷含答案_第2頁(yè)
最新神經(jīng)網(wǎng)絡(luò)試卷A卷含答案_第3頁(yè)
最新神經(jīng)網(wǎng)絡(luò)試卷A卷含答案_第4頁(yè)
最新神經(jīng)網(wǎng)絡(luò)試卷A卷含答案_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

20_08-2009學(xué)年第二學(xué)期 考試方式:開(kāi)卷[] 閉卷[甘課程名稱(chēng):神經(jīng)網(wǎng)絡(luò) 使用班級(jí):一計(jì)算機(jī)科學(xué)與技術(shù)(醫(yī)學(xué)智能方向) 06班級(jí):學(xué)號(hào):姓名:一、單項(xiàng)選擇題(每空2分,共30分)1.人工神經(jīng)網(wǎng)絡(luò)的激活函數(shù)主要有三種形式,下面(A)對(duì)應(yīng)的是非線性轉(zhuǎn)移函數(shù),(B)對(duì)應(yīng)的是對(duì)應(yīng)的是域值函數(shù),(C)分段線性函數(shù)?!感? 1vA0A)f(v)=-- B)f(v) -C)fv=v,Tv1D)fV=04A-v 10v<0廣1,v-1.根據(jù)神經(jīng)元的不同連接方式,可將神經(jīng)網(wǎng)絡(luò)分為兩大類(lèi):分層網(wǎng)絡(luò)和相互連接型網(wǎng)絡(luò)。分層網(wǎng)絡(luò)將一個(gè)神經(jīng)網(wǎng)絡(luò)模型中的所有神經(jīng)元按照功能分成若干層。一般有輸入層、隱含層(中間層)和輸出層,各層順次連接。下面圖形(D)對(duì)應(yīng)的是相互連接型網(wǎng)絡(luò),圖形(C)對(duì)應(yīng)的是層內(nèi)互聯(lián)的前向網(wǎng)絡(luò),圖形(B)對(duì)應(yīng)的是具有反饋的前向網(wǎng)絡(luò),圖形(A)對(duì)應(yīng)的是單純的前向網(wǎng)絡(luò)。C)C)d)精品文檔.在MATLAB中,下面的(。)命令可以使用得下次繪制的圖和已經(jīng)繪制的圖將不在同一張圖上。A)holdon(設(shè)置在同一張圖繪制多條曲線) B)figure(下次的圖和已繪制的不在同一張圖上) C)plotD)holdoff(取消在同一張圖繪制多條曲線).下面是一段有關(guān)向量運(yùn)算的MATLAB代碼:>>y=[37115];>>y(3)=2運(yùn)算后的輸出結(jié)果是(。8)A)32115B)3725C)27115D)37112.下面是一段有關(guān)矩陣運(yùn)算的MATLAB代碼:>>A=[1234;5678;9101112];>>B=人(2,1:3)取出矩陣A中第二行第一個(gè)到第三個(gè)構(gòu)成矩陣B若A(2,3)=5將矩陣第二行第三列的元素置為5A=[AB']WB轉(zhuǎn)置后,再以歹^向量并入AA(:,2)=口刪除第二列:代表刪除列A([1,4],:)=口刪除第一和第四行:代表刪除行A=[A;4,3,2,1]加入第四行那么運(yùn)算后的輸出結(jié)果是(。9)A)578B)568 C)567D)678.下面對(duì)MATLAB中的plot(x,y,s)函數(shù)敘說(shuō)正確的是(??贏)繪制以x、y為橫縱坐標(biāo)的連線圖(plot(x,y))B繪制多條不同色彩的連線圖(plot(x,y))C)默認(rèn)的繪圖顏色為藍(lán)色D)如果s=]r+],則表示由紅色的+號(hào)繪制圖形.如果現(xiàn)在要對(duì)一組數(shù)據(jù)進(jìn)行分類(lèi),我們不知道這些數(shù)據(jù)最終能分成幾類(lèi),那么應(yīng)該選擇(0,來(lái)處理這些數(shù)據(jù)最適合。A)BP神經(jīng)網(wǎng)絡(luò) B)RBF神經(jīng)網(wǎng)絡(luò)C)SOM神經(jīng)網(wǎng)絡(luò) D)ELMAN神經(jīng)網(wǎng)絡(luò)4.如果現(xiàn)在要對(duì)一組數(shù)據(jù)進(jìn)行分類(lèi),我們已經(jīng)知道這些數(shù)據(jù)最終能分成幾類(lèi),那么應(yīng)該選擇(G,)來(lái)處理這些數(shù)據(jù)最適合。A)RBF神經(jīng)網(wǎng)絡(luò) B)SOM神經(jīng)網(wǎng)絡(luò)C)BP神經(jīng)網(wǎng)絡(luò) D)ELMAN神經(jīng)網(wǎng)絡(luò)7.一個(gè)只有單權(quán)值的神經(jīng)網(wǎng)絡(luò),其誤差函數(shù)為

當(dāng)誤差函數(shù)對(duì)權(quán)值的偏導(dǎo)數(shù)如圖一所示,此時(shí)權(quán)值應(yīng)該向(。12)方向調(diào)整。A)增大B)減少可能增大也可能減少不變.單層感知器,它最大的缺點(diǎn)是只能解決線性可分的分類(lèi)模式問(wèn)題,要增強(qiáng)網(wǎng)絡(luò)的分類(lèi)能力唯一的方法是采用多層網(wǎng)絡(luò)結(jié)構(gòu),與單層感知器相比較,下面(O13)不是多層網(wǎng)絡(luò)所特有的特點(diǎn)。A神經(jīng)元的數(shù)目可以達(dá)到很大 B)含有一層或多層隱單元C)激活函數(shù)采用可微的函數(shù) D)具有獨(dú)特的學(xué)習(xí)算法.標(biāo))隹BP算法采用的是最速梯度下降法修正權(quán)值,該算法存在與輸入樣本的順序有關(guān)、收斂速度緩慢、易陷入局部極小等缺陷,為了克服算法中的不足,研究者們提出了許多改進(jìn)算法,其中(014)算法與其它三個(gè)算法的原理不一樣。A)附加動(dòng)量的改進(jìn)算法 B)使用擬牛頓法的改進(jìn)算法C)采用自適應(yīng)調(diào)整參數(shù)的改進(jìn)算法 D)使用彈性方法的改進(jìn)算法.標(biāo))隹BP算法采用的是最速梯度下降法修正權(quán)值,該算法存在與輸入樣本的順序有關(guān)、收斂速度緩慢、易陷入局部極小等缺陷,為了克服算法中的不足,研究者們提出了許多改進(jìn)算法,其中(O5)算法與其它三個(gè)算法的原理不一樣。A)基于共軛梯度法的改進(jìn)算法 B)附加動(dòng)量的改進(jìn)算法C)使用擬牛頓法的改進(jìn)算法 D)基于Levenberg-Marquardt法的改進(jìn)算法nnToolKit神經(jīng)網(wǎng)絡(luò)工具包中的函數(shù)可以在MATLAB環(huán)境下獨(dú)立運(yùn)行,也可打包成COM對(duì)象被其它語(yǔ)言調(diào)用,但是不能被(OCA)VisualBasicB)VisualC++C)C D)C++Builder、填空題(每空2分,共20分).人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks,ANNs),也簡(jiǎn)稱(chēng)為神經(jīng)網(wǎng)絡(luò)^^),是模擬生物神經(jīng)網(wǎng)絡(luò)進(jìn)行信息處理的一種數(shù)學(xué)模型,以對(duì)大腦的生理研究成果為基礎(chǔ),其目的在于模擬大腦的某些機(jī)理與機(jī)制,實(shí)現(xiàn)一些特定的功能。.人工神經(jīng)元模型可以看成是由3種基本元素組成一個(gè)連接,一個(gè)加法器,一個(gè)激活函.神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)也稱(chēng)為訓(xùn)練,指的是神經(jīng)網(wǎng)絡(luò)在受到外部環(huán)境的刺激下調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù),使神經(jīng)網(wǎng)絡(luò)以一種新的方式對(duì)外部環(huán)境做出反應(yīng)的一個(gè)過(guò)程。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式可分為有導(dǎo)師學(xué)習(xí),無(wú)導(dǎo)師學(xué)習(xí),再勵(lì)學(xué)習(xí).神經(jīng)網(wǎng)絡(luò)的基本屬性反映了神經(jīng)網(wǎng)絡(luò)特點(diǎn),它主要有并行分布式處理 、非線性處理和具有自學(xué)習(xí)功能等。.人工神經(jīng)網(wǎng)絡(luò)從生物神經(jīng)網(wǎng)絡(luò)發(fā)展而來(lái),一個(gè)神經(jīng)元就是一個(gè)神經(jīng)細(xì)胞,在人類(lèi)大腦皮層中大約有100億個(gè)神經(jīng)元。神經(jīng)元是基本的信息處理單元。生物神經(jīng)元主要由細(xì)胞體,樹(shù)突,軸突,突觸_組成。.學(xué)習(xí)算法是指針對(duì)學(xué)習(xí)問(wèn)題的明確規(guī)則,學(xué)習(xí)類(lèi)型是由參數(shù)變化發(fā)生的形式?jīng)Q定的,不同的學(xué)習(xí)算法對(duì)神經(jīng)元的權(quán)值調(diào)整的表達(dá)式是不同的。人工神經(jīng)網(wǎng)絡(luò)常用的算法有Hebb學(xué)習(xí)算法&學(xué)習(xí)算法,隨機(jī)學(xué)習(xí)算法,競(jìng)爭(zhēng)學(xué)習(xí)算法一等。三、綜合題(其中第1題20分,第2題20分,第三題10分,共50分)1、構(gòu)建一個(gè)有兩個(gè)輸入一個(gè)輸出的單層感知器,實(shí)現(xiàn)對(duì)表一中的數(shù)據(jù)進(jìn)行分類(lèi),設(shè)感知器的閾值為0.6,初始權(quán)值均為0.1,學(xué)習(xí)率為0.6,誤差值要求為0,感知器的激活函數(shù)為硬限幅函數(shù),計(jì)算權(quán)值w1與w2。表一0000101001112、構(gòu)建一個(gè)BP神經(jīng)網(wǎng)絡(luò)(網(wǎng)絡(luò)結(jié)構(gòu)見(jiàn)圖二)完成對(duì)表二中的數(shù)據(jù)分類(lèi),設(shè)初始連接權(quán)值全部為0.5,閾值為0,學(xué)習(xí)率為0.5,輸入層到隱含層,隱含層到輸出值的激活函數(shù)為單極SIGMOID函數(shù),要求誤差e為0.1,當(dāng)輸入樣本(1,1,0)時(shí),計(jì)算BP算法執(zhí)行第一輪后各連接權(quán)值對(duì)應(yīng)的值。表二XiX2d1101010112、本課程中學(xué)習(xí)了許多不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),請(qǐng)您就BP神經(jīng)網(wǎng)絡(luò)、RBF神經(jīng)網(wǎng)絡(luò)和SOM神經(jīng)網(wǎng)絡(luò)三種神經(jīng)網(wǎng)絡(luò)說(shuō)明它們各自的特點(diǎn),并就它們的特點(diǎn)各給出一個(gè)實(shí)際應(yīng)用中的例子。BP:1使用sigmoid()函數(shù)作為激活函

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論