人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)_第5頁
已閱讀5頁,還剩20頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷22)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.在繪圖時?-?表示那種風(fēng)格字符()。A)虛線B)實線C)點劃線D)點虛線[單選題]2.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率3.增經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率A)1B)1和3C)1和2D)2[單選題]3.如果從python一側(cè),想得到tf的節(jié)點S對應(yīng)的值,需要下列:A)A=tf.run(S)B)A=S.valueC)A=S.eval()D)tf.assign(A,S)[單選題]4.雙曲正切函數(shù)tanh是,它總體上()S型函數(shù)A)優(yōu)于B)劣于C)等于D)大于等于[單選題]5.從()、比較比對、逐漸逼近的循環(huán)過程就是建立數(shù)學(xué)模型A)測量B)校準(zhǔn)C)回歸D)監(jiān)督[單選題]6.pytorch保留整數(shù)部分,向0歸整的函數(shù)是A)roundB)floorC)ceilD)trunc[單選題]7.以下不是tensorflow2.0相對1.0的優(yōu)勢是:A)無需運行會話B)無序占位符C)不需要使用梯度優(yōu)化D)自動求微分[單選題]8.Keras的缺點是A)需要啟動會話B)入門簡單C)必須配合其他框架使用D)過度封裝導(dǎo)致喪失靈活性[單選題]9.判斷和之前信息是否有用的門是A)遺忘門B)輸入門C)輸出門D)更新門[單選題]10.對于神經(jīng)網(wǎng)絡(luò),AW=Y,其中A是訓(xùn)練集合,Y是標(biāo)簽集合,總體損失函數(shù)E一般表示為是:A)0.5乘(Y-AX)的范數(shù)平方B)(Y-AX)C)Y對X的偏導(dǎo)數(shù)D)(AX-Y)[單選題]11.Tf.reshape(tensor,shape,name=None)函數(shù)的作用是將tensor變換為參數(shù)shape形式,其中的shape為一個()形式。-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進(jìn)行計算A)矢量B)向量C)列表D)凸集[單選題]12.下面哪個方法是對于空間數(shù)據(jù)的最大池化()A)MaxPooling2DB)AveragePooling1DC)AveragePooling2DD)GlobalAveragePooling2D[單選題]13.如果拋一個硬幣,拋一次算一個事件結(jié)果;拋兩次算一個事件結(jié)果;他們是A)一個概率空間B)兩個概率空間C)一個樣本空間D)一個概率空間,兩個事件[單選題]14.下列關(guān)于運算符的說法正確的是()。A)算術(shù)運算符包括加、減、乘、除4種B)運算符?=?和運算符?==?是等效的C)邏輯表達(dá)式xD)指數(shù)運算符的優(yōu)先級最高[單選題]15.pytorch封裝類正向傳播的函數(shù)是:A)callB)forwardC)backD)research[單選題]16.為節(jié)省神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練時間,神經(jīng)網(wǎng)絡(luò)模型的權(quán)重和偏移參數(shù)一般初始化為A)0.5B)1C)隨機(jī)值D)0[單選題]17.實例的存儲類似普通云服務(wù)器,分為系統(tǒng)盤和()A)文檔盤B)數(shù)據(jù)盤C)軟件盤D)內(nèi)存盤[單選題]18.四維張量一般用來表示A)灰度圖B)彩色圖C)視頻D)時間[單選題]19.lstm中的門,使用哪個激活函數(shù)控制A)reluB)sigmoidC)tanhD)softmax[單選題]20.提升管道性能描述錯誤的是:A)使用prefetch方法讓數(shù)據(jù)準(zhǔn)備和參數(shù)迭代兩個過程相互并行。B)使用map時設(shè)置num_parallel_calls讓數(shù)據(jù)轉(zhuǎn)換過程多進(jìn)程執(zhí)行。C)使用cache方法讓數(shù)據(jù)在第一個epoch后緩存到內(nèi)存中,僅限于數(shù)據(jù)集不大情形。D)使用map轉(zhuǎn)換時,不用batch,采用向量化的轉(zhuǎn)換方法對每個batch進(jìn)行轉(zhuǎn)換。[單選題]21.帶有正則化處理的函數(shù)是A)reLuB)sigmoidC)softmaxD)dropout[單選題]22.關(guān)于TensorFlow的描述,以下選項中錯誤的是()。A)TensorFlow是Python語育的一套優(yōu)秀的CU圖形庫B)TensorFlow是谷歌公司基于DistBelief進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng)C)Tensor(張遜)指N維數(shù)組,Flow(流)指燕于數(shù)據(jù)流圖的計算D)TensorFlow描述張量從流圖的一端流動到另三端的計算過程[單選題]23.Anaconda是一款()軟件。A)開源的python版本,包含conda、python等180多個科學(xué)包以及其依賴項B)是一款深度學(xué)習(xí)開發(fā)軟件,集成了很多開發(fā)包C)是一款深度學(xué)習(xí)編譯環(huán)境,提供了生成的APID)是一款版本管理平臺,提供了不同版本的管理功能[單選題]24.keras中只保留模型的權(quán)重可以通過()方法實現(xiàn)A)model.save_weight()B)model.save_weights()C)model.save()D)model.json()[單選題]25.下列哪一項屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A)K近鄰算法B)隨機(jī)森林.C)神經(jīng)網(wǎng)絡(luò)D)都不屬于[單選題]26.計算數(shù)組中間值的命令正確的是()。A)min()B)max()C)mean()D)median()[單選題]27.能實現(xiàn)將一維數(shù)據(jù)寫入CSV文件中的是()A)foB)frC)foD)fname[單選題]28.RMSprop相比Momentum,可以選擇更大的()A)損失函數(shù)B)學(xué)習(xí)率C)激活函數(shù)D)樣本集[單選題]29.局部平均值又被稱為A)常規(guī)平均值B)柵格平均值C)移動平均值D)唯一平均值[單選題]30.經(jīng)典的網(wǎng)絡(luò)LeNet-5第七層是全連接層Output.這個層共有10個節(jié)點分別代表輸出數(shù)字范圍是()A)0和9B)0*9C)0到9D)0到10[單選題]31.pytorch中求梯度的方式是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()[單選題]32.Tf的全局變量初始化語句是A)tf.global_variables_initializer()B)tf.variables_initializerC)sess.run(w.initializer)D)tf.initializer()[單選題]33.一般來說,數(shù)學(xué)模型需要度量對比,則:A)需要滿足距離空間B)可以不滿足距離空間C)與距離無關(guān)D)以上全對[單選題]34.對于序列[1,2.1,1.9,1,3.1,2.9]可能是A)二項式分布B)高斯分布C)均勻分布D)0-1分布[單選題]35.矩陣A的Frobenius范數(shù)定義為矩陣A各項元素的絕對值平方的總()A)差B)點乘C)和D)商[單選題]36.可以處理梯度計算的參數(shù)是:A)requires_gradB)biasC)grad_outputD)ctx[單選題]37.對于概率空間,集合的劃分,與下列最有關(guān)系的是A)距離空間B)概率空間C)向量空間D)排序[單選題]38.將numpy轉(zhuǎn)成tensor的方式是:A)cloneB)tensorC)from_numpyD)view[單選題]39.哪個算法同一層使用不同的卷積核尺寸進(jìn)行計算A)LeNetB)AlexNetC)ResNetD)Inception[單選題]40.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A)除了最一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B)據(jù)重新訓(xùn)練模型C)只對最后幾層進(jìn)行調(diào)參(finetune)D)一進(jìn)行選數(shù)用[單選題]41.使用函數(shù)tf.nn.conv2d()主要的目的是()A)增強圖像B)簡化圖像C)特征提取D)圖像處理[單選題]42.當(dāng)使用conv2D層作為模型第一層時,需要提供()參數(shù)A)inputB)input_shapeC)input_dimD)output_dim[單選題]43.CNN傳遞數(shù)據(jù)處理時,數(shù)據(jù)應(yīng)該是()維度A)1B)2C)3D)4[單選題]44.Whatdoesaneuroncompute?DA)AneuroncomputesthemeanofallfeaturesbeforeapplyingtheoutputtoanactivationfunctionB)Aneuroncomputesafunctiongthatscalestheinputxlinearly(Wx+b)C)Aneuroncomputesanactivationfunctionfollowedbyalinearfunction(z=Wx+b)D)Aneuroncomputesalinearfunction(z=Wx+b)followedbyanactivationFunction[單選題]45.前向傳播過程+反向傳播過程,接下來只需要進(jìn)行(),不斷調(diào)整邊的權(quán)重A)求偏導(dǎo)B)求和C)四舍五入D)迭代[單選題]46.想要處理梯度消失,相對最好的激活函數(shù)是:A)sigmoidB)ReluC)tanhD)LeakyRelu[單選題]47.本學(xué)期的大作業(yè),手寫數(shù)字識別性能的最低要求是多少()。A)90%B)95%C)97%D)99%第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.卷積操作的主要目的就是對圖像進(jìn)行()A)增強B)降維C)理解D)特征提取[多選題]49.梯度下降法目前主要分為三種方法,區(qū)別在于每次參數(shù)更新時計算的樣本數(shù)據(jù)量不同:A)小批量梯度下降法B)批量梯度下降法C)隨機(jī)梯度下降法D)大量梯度下降法[多選題]50.數(shù)和矩陣相乘在函數(shù)和矩陣與矩陣相乘的函數(shù)分別是?A)tf.multiply(x2,y2)B)tf.matmul(x,y)C)tf.equalD)tf.cast[多選題]51.使用one-hot方法表示詞匯有什么缺點?A)每個單詞需要用高維向量來表示,而且只有一個數(shù)是零,其他都是1,表示冗余,存儲量大B)每個單詞表示的向量相乘都為零(正交),無法表示詞匯之間的聯(lián)系C)效率非常高D)能夠處理非連續(xù)型數(shù)值特征[多選題]52.如果是填充后求卷積,圖像尺寸不變化A)以0填充B)填充厚度為卷積核厚度減1的一半C)步長為1D)圖像尺寸變小[多選題]53.計算圖由()和()組成A)節(jié)點B)線C)張量D)變量[多選題]54.pytorch求導(dǎo)的方式可以是:A)backwardB)autograd.gradC)自動微分和優(yōu)化器D)梯度磁帶[多選題]55.Mini-batch比較好的取值有A)16B)32C)64D)128[多選題]56.關(guān)于連接主義,正確描述是A)基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B)深度學(xué)習(xí)屬于連接主義C)又稱仿生學(xué)派D)產(chǎn)生在20世紀(jì)50年代產(chǎn)生[多選題]57.引起欠擬合的原因有()A)數(shù)據(jù)量大大,無法進(jìn)行訓(xùn)練B)數(shù)據(jù)本身是非線性的但使用了線性模型C)模型本身過于簡單D)特征數(shù)太少無法正確的建立統(tǒng)計關(guān)系[多選題]58.不能實現(xiàn)總體求和、總體平均的函數(shù)是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm[多選題]59.Momentum算法可以使用()下降A(chǔ))batchB)mini-batchC)LassoD)Ridge[多選題]60.深度學(xué)習(xí)中三個主義分別是A)符號主義B)連接主義C)激活主義D)行為主義[多選題]61.以下屬于激活函數(shù)的有:A)ReluB)dropoutC)sigmoidD)softmax[多選題]62.語句中:tensorflow.truncated_normal(shape,mean,stddev)以下說法正確的是A)shape是張量形狀B)正態(tài)隨機(jī)數(shù)填充C)隨機(jī)數(shù)需截斷D)方差是stddev第3部分:判斷題,共19題,請判斷題目是否正確。[判斷題]63.計算圖只有在會話提供的環(huán)境中才能運行,分配計算資源。A)正確B)錯誤[判斷題]64.提升卷積核(convolutionalkernel)的大小會顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能。A)正確B)錯誤[判斷題]65.Batch歸一化增加了隱藏值分布變化的數(shù)量A)正確B)錯誤[判斷題]66.Linux,全稱GNU/Linux,是一種免費使用和自由傳播的類UNIX操作系統(tǒng)A)正確B)錯誤[判斷題]67.深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),才能展現(xiàn)出神奇的效果,但現(xiàn)實生活中往往會遇到小樣本問題,此時深度學(xué)習(xí)方法無法入手,傳統(tǒng)的機(jī)器學(xué)習(xí)方法就可以處理A)正確B)錯誤[判斷題]68.如果想獲取當(dāng)前場景背景的圖像,則可以通過圖像差分便可以提取出前景A)正確B)錯誤[判斷題]69.當(dāng)學(xué)習(xí)率設(shè)置的過大時,收斂過程將變得十分緩慢。而當(dāng)學(xué)習(xí)率設(shè)置的過小時,梯度可能會在最小值附近來回震蕩,甚至可能無法收斂A)正確B)錯誤[判斷題]70.人工智能的兩條技術(shù)發(fā)展路徑分別是以模型學(xué)習(xí)驅(qū)動的數(shù)據(jù)智能、以認(rèn)知仿生驅(qū)動的類腦智能。()A)正確B)錯誤[判斷題]71.在一個神經(jīng)網(wǎng)絡(luò)里,知道每一個神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實現(xiàn)這個最佳的辦法是隨機(jī)賦值。A)正確B)錯誤[判斷題]72.池化是降采樣的唯一手段A)正確B)錯誤[判斷題]73.風(fēng)格遷移的內(nèi)容可以被卷積神經(jīng)網(wǎng)絡(luò)更靠頂部的層激活所捕捉到。A)正確B)錯誤[判斷題]74.Padding(填充)屬性定義元素邊框與元素內(nèi)容之間的空間A)正確B)錯誤[判斷題]75.給定概率空間,信息熵是針對無限個概率事件的。A)正確B)錯誤[判斷題]76.BP網(wǎng)絡(luò)的輸入輸出關(guān)系實質(zhì)上是一種映射關(guān)系:一個n輸入m輸出的BP神經(jīng)網(wǎng)絡(luò)所完成的功能是從n維歐氏空間向m維歐氏空間中一有限域的連續(xù)映射,這一映射具有高度非線性。A)正確B)錯誤[判斷題]77.Dropout的比例增加,模型能力增加。A)正確B)錯誤[判斷題]78.卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會發(fā)生權(quán)重共享。A)正確B)錯誤[判斷題]79.常用來進(jìn)行數(shù)據(jù)類型轉(zhuǎn)換的函數(shù)是tf.fcast()A)正確B)錯誤[判斷題]80.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,而機(jī)器學(xué)習(xí)是實現(xiàn)人工智能的必經(jīng)路徑。A)正確B)錯誤[判斷題]81.每個神經(jīng)元可以有一個輸入和多個輸出。A)正確B)錯誤第4部分:問答題,共19題,請在空白處填寫正確答案。[問答題]82.聲明一個張量b=tf.constant([1,2,3],[4,5,6],dtype=32),則該張量的形狀為_______。[問答題]83.在計算圖節(jié)點間傳遞的數(shù)據(jù)都是______。[問答題]84.最大池化的具體操作是什么?[問答題]85.編程:實現(xiàn)下載并輸出MNIST數(shù)據(jù)集的相關(guān)屬性。[問答題]86.加深層的好處之一是可以_______網(wǎng)絡(luò)的參數(shù)數(shù)量[問答題]87.簡述tensorflow的構(gòu)建階段和執(zhí)行階段所做的操作。[問答題]88.寫出變量定義函數(shù)的語法格式。[問答題]89.寫出下圖的卷積運算的運算結(jié)果和運算過程[問答題]90.卷積神經(jīng)網(wǎng)絡(luò)池化層的結(jié)構(gòu)特點。[問答題]91.請你說說深度學(xué)習(xí)你都知道哪些框架?[問答題]92.什么是過擬合?什么是欠擬合?[問答題]93.循環(huán)神經(jīng)網(wǎng)絡(luò),為什么好?[問答題]94.編程:實現(xiàn)簡單回歸。注:x_data和y_data是偽造的訓(xùn)練數(shù)據(jù),默認(rèn)權(quán)重Weight與偏置bias。[問答題]95.dropout=tf.nn.dropout(result,0.5,noise_shape=[4,1]),該程序中,隱藏層節(jié)點以_____的概率丟棄。[問答題]96.編程:使用Tensorflow定義兩個矩陣,使用兩種會話方法輸出2個矩陣相乘的結(jié)果。[問答題]97.簡述BP神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)。[問答題]98.設(shè)置圖形標(biāo)題的方法_______[問答題]99.訓(xùn)練訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的步驟。[問答題]100.Dropunt是一種在學(xué)習(xí)的過程中_______神經(jīng)元的方法1.答案:B解析:難易程度:易題型:2.答案:A解析:3.答案:A解析:4.答案:A解析:5.答案:A解析:6.答案:D解析:7.答案:C解析:8.答案:D解析:9.答案:A解析:10.答案:A解析:11.答案:C解析:12.答案:A解析:13.答案:B解析:14.答案:D解析:難易程度:中題型:15.答案:B解析:16.答案:C解析:17.答案:B解析:18.答案:C解析:批量圖片,視頻都可以是四維的19.答案:B解析:20.答案:D解析:21.答案:D解析:22.答案:A解析:難易程度:易題型:23.答案:A解析:24.答案:B解析:25.答案:C解析:26.答案:D解析:難易程度:易題型:27.答案:A解析:難易程度:易題型:28.答案:B解析:29.答案:C解析:30.答案:C解析:31.答案:C解析:32.答案:A解析:33.答案:A解析:34.答案:C解析:35.答案:C解析:36.答案:A解析:37.答案:B解析:38.答案:C解析:39.答案:D解析:40.答案:C解析:41.答案:C解析:42.答案:B解析:43.答案:D解析:44.答案:D解析:45.答案:D解析:46.答案:D解析:47.答案:B解析:難易程度:易題型:48.答案:BD解析:49.答案:ABC解析:梯度下降法目前主要分為三種方法,區(qū)別在于每次參數(shù)更新時計算的樣本數(shù)據(jù)量不同:批量梯度下降法(BGD,BatchGradientDescent)隨機(jī)梯度下降法(SGD,StochasticGradientDescent)小批量梯度下降法(Mini-batchGradientDescent)50.答案:AB解析:51.答案:AB解析:52.答案:ABC解析:53.答案:AB解析:54.答案:ABC解析:55.答案:ABCD解析:56.答案:ABCD解析:57.答案:BCD解析:引起欠擬合的原因有:1、模型本身過于簡單,例如數(shù)據(jù)本身是非線性的但使用了線性模型;2、特征數(shù)太少無法正確的建立統(tǒng)計關(guān)系。58.答案:BD解析:59.答案:AB解析:60.答案:ABD解析:61.答案:ACD解析:62.答案:ABC解析:63.答案:對解析:64.答案:錯解析:65.答案:錯解析:66.答案:對解析:Linux,全稱GNU/Linux,是一種免費使用和自由傳播的類UNIX操作系統(tǒng)67.答案:對解析:深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),才能展現(xiàn)出神奇的效果,但現(xiàn)實生活中往往會遇到小樣本問題,此時深度學(xué)習(xí)方法無法入手,傳統(tǒng)的機(jī)器學(xué)習(xí)方法就可以處理68.答案:對解析:69.答案:錯解析:70.答案:對解析:71.答案:錯解析:72.答案:錯解析:73.答案:對解析:74.答案:對解析:75.答案:錯解析:76.答案:對解析:77.答案:錯解析:78.答案:對解析:79.答案:錯解析:80.答案:對解析:81.答案:對解析:82.答案:(2,3);解析:83.答案:張量;解析:84.答案:最大池化的具體操作是:整個圖片被不重疊的分割成若干個同樣大小的小塊(poolingsize)。每個小塊內(nèi)只取最大的數(shù)字,再舍棄其他節(jié)點后,保持原有的平面結(jié)構(gòu)得出結(jié)果。解析:85.答案:Fromtensorflow.examples.tutorials.mnistimportinput_dataMnist=input_data.read_data_sets("data/",one_hot=True)Print(mnist.train.images.shape)Print(mnist.train.labels.shape)Print(mnist.validation.images.shape)Print(mnist.validation.labels.shape)Print(mnist.test.images.shape)Print(mnist.test.labels.shape)解析:86.答案:減少解析:87.答案:TensorFlow程序通常被組織成計算圖的構(gòu)建階段和執(zhí)行階段。在構(gòu)建階段,節(jié)點的執(zhí)行過程被描述成一個圖,在執(zhí)行階段,使用會話執(zhí)行圖中的節(jié)點,產(chǎn)生結(jié)果。解析:88.答案:Tf.Variable(initial_value,trainable=True,collections=None,validate_shape=True,name=None)解析:89.答案:>解析:90.答案:池化層的主要作用是將一張高分辨率的圖片轉(zhuǎn)換為低分辨率的圖片,從而達(dá)到減少整個神經(jīng)網(wǎng)絡(luò)參數(shù)的目的。解析:91.答案:Tensorflow;caffe;pytorch;MXNet。解析:92.答案:①對某個數(shù)據(jù)集過度擬合的狀態(tài)稱為過擬合②模型在訓(xùn)練數(shù)據(jù)上沒有獲得充分小的誤差解析:93.答案:循環(huán)神經(jīng)網(wǎng)絡(luò)模型(RNN)是一種節(jié)點定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò),是一種反饋神經(jīng)網(wǎng)絡(luò),RNN利用內(nèi)部的記憶來處理任意時序的輸入序列,并且在其處理單元之間既有內(nèi)部的反饋連接又有前饋連接,這使得RNN可以更加容易處理不分段的文本等。解析:94.答案:#首先引進(jìn)需要的包ImporttensorflowastfImportnumpyasnpIf__name__=="__main__":#x_data和y_data是偽造的訓(xùn)練數(shù)據(jù)x_data=np.random.rand(100).astype(np.float32)y_data=0.1*x_data+0.3#默認(rèn)權(quán)重Weight與偏置bias#tf.random_uniform三個參數(shù)shape,minval,maxval#tf.Variable必要參數(shù)initial_value是一個tensorWeight=tf.Variable(t

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論