人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)_第1頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)_第2頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)_第3頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)_第4頁(yè)
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)_第5頁(yè)
已閱讀5頁(yè),還剩18頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷4)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共50題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.pytorch中構(gòu)建模型最常見的方式為:A)繼承nn.Module基類構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理答案:A解析:[單選題]2.關(guān)于iloc的說(shuō)法不正確的是()。A)既可以行索引,又可以列索引B)不能使用標(biāo)簽索引C)當(dāng)傳入的行索引位置或列索引位置為區(qū)間時(shí),其為前閉后開區(qū)間D)可以接收Series答案:D解析:難易程度:中題型:[單選題]3.輸入圖片大小為200x200,依次經(jīng)過(guò)一層卷積(kernelsize5x5,padding1,stride2),pooling(kernelsize3x3paddingostride1),又一層卷積(kernelsize3x3padding1,stride1)之后,輸出特征圖大小為CA)95B)96C)97D)98答案:C解析:[單選題]4.正態(tài)分布特點(diǎn)是()。A)一條直線B)中間高兩邊低C)中間低兩邊高D)拋物線答案:B解析:難易程度:易題型:[單選題]5.通常,一個(gè)實(shí)數(shù)或復(fù)數(shù)向量空間加上長(zhǎng)度和角度的概念,稱為()A)內(nèi)積空間B)賦范空間C)矢量空間D)希爾伯特空間答案:A解析:[單選題]6.pytorch四舍五入的函數(shù)是A)roundB)floorC)ceilD)trunc答案:A解析:[單選題]7.池化效果層沒有的屬性是A)步長(zhǎng)B)權(quán)重參數(shù)C)0填充D)池化核答案:B解析:[單選題]8.多分類模型,一般使用()函數(shù)A)reluB)tanhC)sigmoidD)softmax答案:D解析:[單選題]9.手寫字識(shí)別模型中,輸出層的節(jié)點(diǎn)個(gè)數(shù)為()A)1B)9C)10D)11答案:C解析:[單選題]10.神經(jīng)網(wǎng)絡(luò)的程序編寫使用了什么方法()A)類和函數(shù)B)只有類C)只有函數(shù)D)以上都不是答案:A解析:難易程度:易題型:[單選題]11.keras中Dropout函數(shù)包含在哪個(gè)庫(kù)中?A)layerB)layersC)DenseD)model答案:B解析:keras.layers.Dropout(rate,noise_shape=None,seed=None)[單選題]12.垂直翻轉(zhuǎn)的函數(shù)是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:B解析:[單選題]13.反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A)預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B)各個(gè)輸入樣本的平方差之和C)各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D)都不對(duì)答案:A解析:[單選題]14.()是一種實(shí)現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)A)深度學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)人工智能D)量子力學(xué)答案:A解析:[單選題]15.通常說(shuō)的范數(shù)它是具有()的概念的函數(shù)A)長(zhǎng)度B)刻度C)距離D)范數(shù)答案:A解析:[單選題]16.可以比較兩個(gè)單詞是否有關(guān)聯(lián),可以使用A)rnnB)lstmC)向量?jī)?nèi)積D)embedding答案:C解析:[單選題]17.下列關(guān)于def語(yǔ)句與lambda語(yǔ)句的說(shuō)法錯(cuò)誤的是()。A)def語(yǔ)句允許傳入多個(gè)參數(shù),輸出多個(gè)返回值B)無(wú)返回值的def語(yǔ)句也可能輸出信息C)lambda語(yǔ)句只能是單行的形式D)lambda語(yǔ)句不支持嵌入結(jié)構(gòu)體答案:D解析:難易程度:中題型:[單選題]18.損失函數(shù)的作用是()A)判斷預(yù)測(cè)值的真實(shí)性B)計(jì)算預(yù)測(cè)值與真實(shí)值的差距C)優(yōu)化預(yù)測(cè)值D)以上都不對(duì)答案:B解析:[單選題]19.從()到AlexNet。進(jìn)化之路一:網(wǎng)絡(luò)結(jié)構(gòu)加深;進(jìn)化之路二:加強(qiáng)卷積功能;進(jìn)化之路三:從分類到檢測(cè);進(jìn)化之路四:新增功能模塊。A)LeNetB)AlexNetC)VGGD)ResNet答案:A解析:[單選題]20.函數(shù)tf.log(),該函數(shù)返回的是一個(gè)()A)向量B)張量C)矢量D)范數(shù)答案:B解析:[單選題]21.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A)卷積神經(jīng)網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)全連接神經(jīng)網(wǎng)絡(luò)D)選項(xiàng)A和B答案:D解析:[單選題]22.下面對(duì)面向?qū)ο蠛兔嫦蜻^(guò)程描述正確的是:()。A)面向?qū)ο缶幊瘫让嫦蜻^(guò)程編程更為高級(jí)B)面向?qū)ο蠛兔嫦蜻^(guò)程是編程語(yǔ)言的分類依據(jù)C)面向?qū)ο蠛兔嫦蜻^(guò)程是編程語(yǔ)言的結(jié)構(gòu)不清晰D)所有面向?qū)ο缶幊棠軐?shí)現(xiàn)的功能采用面向過(guò)程同樣能完成答案:D解析:難易程度:易題型:[單選題]23.以下哪個(gè)關(guān)于梯度消失的描述是正確的?A)通過(guò)優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B)由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無(wú)法獲取梯度,從而不能獲得最優(yōu)解C)由于隱藏層數(shù)量過(guò)少,無(wú)法獲取梯度,從而不能獲得最優(yōu)解D)通過(guò)更多隱藏層,減少梯度迭代,從而更快的進(jìn)行計(jì)算,獲取最優(yōu)解答案:B解析:[單選題]24.對(duì)于tf函數(shù)tf.all_variables()。A)能夠打印所有變量B)能夠打印部分變量C)能定義所有變量D)能夠定義任意變量答案:A解析:[單選題]25.神經(jīng)網(wǎng)絡(luò)中參數(shù)的調(diào)試不包括A)學(xué)習(xí)率αB)動(dòng)量梯度下降的參數(shù)βC)mini-Batch的大小D)輸入圖片大小答案:D解析:[單選題]26.深度學(xué)習(xí)通過(guò)多層處理,初始的特征成為()A)低層特征B)高層特征C)中層特征D)淺層特征答案:B解析:[單選題]27.特征臉方法利用()進(jìn)行降維和提取特征A)次分量分析B)主分量分析C)主次分量分析D)矢量分析答案:B解析:[單選題]28.假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外-個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。我們應(yīng)該如何操作?()A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B)對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對(duì)答案:B解析:[單選題]29.Sequential模型方法中的compile函數(shù)中的參數(shù)optimizer是指()A)目標(biāo)函數(shù)B)定標(biāo)量系數(shù)C)優(yōu)化器D)模型評(píng)估標(biāo)準(zhǔn)答案:C解析:[單選題]30.計(jì)算機(jī)視覺,主要研究方法是A)機(jī)器學(xué)習(xí)B)數(shù)據(jù)挖掘C)卷積神經(jīng)網(wǎng)絡(luò)D)openCV答案:C解析:[單選題]31.BP算法首個(gè)應(yīng)用案例是?A)手寫數(shù)字識(shí)別(CNN:LeNet)B)CPUC)GPUD)不清楚答案:A解析:[單選題]32.下圖顯示,當(dāng)開始訓(xùn)練時(shí),誤差一直很高,這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)在往全局最小值前進(jìn)之前一直被卡在局部最小值里。為了避免這種情況,我們可以采取下面哪種策略?AA)改變學(xué)習(xí)速率,比如一開始的幾個(gè)訓(xùn)練周期不斷更改學(xué)習(xí)速率一開始將學(xué)習(xí)速率AB)一開始將學(xué)習(xí)速率減小10倍,然后用動(dòng)量項(xiàng)(momentum)C)增加參數(shù)數(shù)目,這樣神經(jīng)網(wǎng)絡(luò)就不會(huì)卡在局部最優(yōu)處D)其他都不對(duì)答案:A解析:[單選題]33.管道處理是用于()性能A)CPUB)GPUC)TPUD)編譯答案:B解析:[單選題]34.屬于百度飛槳的開發(fā)套件()。A)PaddleClasB)PaddleC)PaddleSlimD)Paddle.js答案:A解析:難易程度:易題型:[單選題]35.語(yǔ)句Y=eye([m,n])或Y=eye(m,n)的作用是?A)生成m×n的單位矩陣B)生成m維的1矩陣C)信息的增量刻度總是以線性函數(shù)的規(guī)模進(jìn)行的D)信息的增量刻度總是無(wú)法判定的答案:A解析:[單選題]36.假設(shè)測(cè)試集的分類標(biāo)簽為test_label,預(yù)測(cè)值為prediction,現(xiàn)在需要計(jì)算按類平均精準(zhǔn)率precision,應(yīng)該使用sklearn庫(kù)中的函數(shù)A)precision_score(test_label,prediction,average='micro')B)precision_score(test_label,prediction,average='macro')C)precision_score(prediction,test_label,average='micro')D)precision_score(prediction,test_label,average='macro')答案:B解析:[單選題]37.tf.get_variable的()機(jī)制會(huì)檢測(cè)已經(jīng)存在的變量是否設(shè)置為共享變量,如果遇到第2個(gè)擁有相同名字的變量的時(shí)候就會(huì)報(bào)錯(cuò)。A)變量檢測(cè)機(jī)制B)共享機(jī)制C)變量獲取機(jī)制D)以上都不對(duì)答案:A解析:[單選題]38.當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要的哪種型的尋址來(lái)完成?A)基于內(nèi)容的尋址B)基于位置的尋址C)都不行D)都可以答案:A解析:[單選題]39.Whichofthefollowingarereasonsforusingfeaturescaling?A)ItpreventsthematrixXTX(usedinthenormalequation)frombeingnon-invertable(singular/degenerate)B)Itspeedsupgradientdescentbymakingitrequirefeweriterationstogettoagoodsolution.C)ItspeedsupgradientdescentbymakingeachiterationofgradientdescentlessD)Itisnecessarytopreventthenormalequationfromgettingstuckinlocaloptima答案:B解析:[單選題]40.不是Python對(duì)文件的打開模式的是()。A)?r?B)?+?C)?w?D)?c?答案:D解析:難易程度:易題型:[單選題]41.手寫字識(shí)別模型中,隱藏層的節(jié)點(diǎn)個(gè)數(shù)為()A)500B)784C)576D)28答案:A解析:[單選題]42.所謂權(quán)重參數(shù),是指:A)輸入數(shù)據(jù)的變換矩陣B)輸出數(shù)據(jù)的變換矩陣C)是激活函數(shù)D)是將數(shù)據(jù)影射到概率空間答案:A解析:[單選題]43.根據(jù)垃圾分類條例,以下屬于可回收垃圾的是()。A)舊電腦、舊電視、舊冰箱B)油漆桶C)廢蓄電池D)廢X光片答案:A解析:[單選題]44.內(nèi)積空間由()抽象而來(lái)A)賦范空間B)矢量空間C)度量空間D)歐幾里得空間答案:D解析:[單選題]45.全連接層的作用是A)濾波B)One-hot處理C)用于特征提取D)用于分類答案:D解析:[單選題]46.在典型的Batch歸一化運(yùn)用中需要用什么來(lái)估算A)一個(gè)指數(shù)加權(quán)平均B)平均值C)方差D)最大值答案:A解析:[單選題]47.利用tf.GradientTape求微分的方法叫做Tensorflow的()機(jī)制A)梯度下降B)模型處理C)梯度處理D)自動(dòng)微分答案:D解析:第2部分:多項(xiàng)選擇題,共15題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]48.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意義:A)定義學(xué)習(xí)步長(zhǎng)B)優(yōu)化器C)交叉熵?fù)p失函數(shù)D)開始訓(xùn)練答案:ABC解析:[多選題]49.計(jì)算機(jī)的操作系統(tǒng)根據(jù)不同的用途分為不同的種類,從功能角度分析,分別有()等。A)實(shí)時(shí)系統(tǒng)B)批處理系統(tǒng)C)分時(shí)系統(tǒng)D)網(wǎng)絡(luò)操作系統(tǒng)答案:ABCD解析:計(jì)算機(jī)的操作系統(tǒng)根據(jù)不同的用途分為不同的種類,從功能角度分析,分別有實(shí)時(shí)系統(tǒng)、批處理系統(tǒng)、分時(shí)系統(tǒng)、網(wǎng)絡(luò)操作系統(tǒng)等。[多選題]50.做作為分類損失函數(shù)的有A)binary_crossentropyB)categorical_crossentropyC)sparse_categorical_crossentropyD)hinge答案:ABC解析:D為SVM中的合頁(yè)損失[多選題]51.模型的整體處理流程包含A)模型創(chuàng)建B)輸入數(shù)據(jù)尺寸C)模型編譯D)模型訓(xùn)練集預(yù)測(cè)答案:ABCD解析:[多選題]52.GRU中的門有A)遺忘門B)輸入門C)輸出門D)更新門答案:CD解析:[多選題]53.有訓(xùn)練集包含num個(gè)訓(xùn)練樣本,交叉熵在tf中的表述是:A)entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B)entropy=-tf.reduce_mean(y_actual*tf.log(y_predict))C)entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D)entropy=-tf.reduce_any(y_actual*tf.log(y_predict))答案:AB解析:[多選題]54.Tensorflow中,函數(shù)tensorflow.nn.softmax_cross_entropy_with_logits()的功能描述正確的是A)在卷積層B)進(jìn)行優(yōu)化C)用信息熵D)一定全連接層答案:BCD解析:[多選題]55.pytorch中用于向量計(jì)算的函數(shù)是A)sumB)meanC)minD)std答案:ABCD解析:[多選題]56.pytorch和維度處理相關(guān)的是A)sizeB)viewC)reshapeD)forward答案:ABC解析:[多選題]57.GRU神經(jīng)單元中擁有的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:CD解析:GRU將輸入門和遺忘門合二為一為更新門[多選題]58.使用到平均池化的cnn網(wǎng)絡(luò)的有A)lenetB)alexnetC)resnetD)Inception答案:CD解析:[多選題]59.圖像卷積常常用于()中。A)圖像濾波(平滑化)B)圖像梯度C)開運(yùn)算D)基于梯度運(yùn)算的邊緣提取答案:ABCD解析:[多選題]60.AlphaGo下圍棋的關(guān)鍵技術(shù)深度學(xué)習(xí)A)決策神經(jīng)網(wǎng)絡(luò)B)評(píng)估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗(yàn)D)線性代數(shù)答案:AB解析:[多選題]61.PyCharm使用()語(yǔ)言是提高開發(fā)效率的工具A)numpyB)PythonIDEC)PythonD)sklearn答案:BC解析:[多選題]62.深度學(xué)習(xí)會(huì)用到()的學(xué)習(xí)方法來(lái)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。A)有監(jiān)督B)無(wú)監(jiān)督C)行為主義D)機(jī)器學(xué)習(xí)答案:AB解析:第3部分:判斷題,共19題,請(qǐng)判斷題目是否正確。[判斷題]63.Tf.cast()函數(shù)的作用是執(zhí)行tensorflow中張量數(shù)據(jù)類型轉(zhuǎn)換,比如讀入的圖片如果是int8類型的,一般在要在訓(xùn)練前把圖像的數(shù)據(jù)格式轉(zhuǎn)換為float32A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]64.數(shù)據(jù)增強(qiáng)不能解決過(guò)擬合問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]65.torchvision是處理數(shù)據(jù)相關(guān)操作的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]66.在數(shù)字圖像處理領(lǐng)域,將圖像分為模擬圖像和數(shù)字圖像兩種,計(jì)算機(jī)處理的信號(hào)都是數(shù)字信號(hào),所以在計(jì)算機(jī)上處理的圖像均為模擬圖像。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]67.損失函數(shù)是經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)的核心部分,也是結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)重要組成部分A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]68.對(duì)于損失函數(shù),有多種函數(shù)形式可以表達(dá)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]69.GRU是LSTM網(wǎng)絡(luò)的一種效果很好的變體,它較LSTM網(wǎng)絡(luò)的結(jié)構(gòu)更加簡(jiǎn)單。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]70.在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是賦予一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]71.若batchsize過(guò)小,batchnormalization的效果會(huì)出現(xiàn)退化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]72.在使用SOFTMAX函數(shù)時(shí),是將運(yùn)算結(jié)果從向量空間轉(zhuǎn)化到概率空間。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]73.隨機(jī)梯度下降的學(xué)習(xí)率不會(huì)改變A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]74.多層感知器(Multi-LayerPerceptron,MLP)也叫人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,ANN),除了輸入輸出層,它中間只能有一個(gè)隱藏層。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]75.Pytorch通過(guò)反向自動(dòng)求導(dǎo)技術(shù)實(shí)現(xiàn)了神經(jīng)網(wǎng)絡(luò)的零延遲任意改變。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]76.可以利用卷積達(dá)到降采樣的目的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.pytorch無(wú)序調(diào)用,可以直接使用gpu處理代碼A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]78.自然界任何一個(gè)物理系統(tǒng)都存在固定振動(dòng)頻率,當(dāng)外界有相同頻率振動(dòng),就能使該物體產(chǎn)生共振。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.MNIST驗(yàn)證集數(shù)據(jù)樣本的形狀為(10000,784)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.BP傳播算法過(guò)程是經(jīng)過(guò)信號(hào)前向傳播與誤差反向傳播,W權(quán)值和閾值的調(diào)整反復(fù)進(jìn)行,一直進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)訓(xùn)練次數(shù),或輸出誤差減小到允許的程度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.激活函數(shù)可以使神經(jīng)網(wǎng)絡(luò)具有非線性變換的能力。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共16題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問(wèn)答題]82.大腦處理信息的基本單元是______。答案:神經(jīng)元;解析:[問(wèn)答題]83.簡(jiǎn)述激活函數(shù)的作用答案:使用激活函數(shù)的目的是為了向網(wǎng)絡(luò)中加入非線性因素;加強(qiáng)網(wǎng)絡(luò)的表示能力,解決線性模型無(wú)法解決的問(wèn)題解析:[問(wèn)答題]84.卷積中使用填充的目的是什么?答案:使用填充的目的有兩個(gè):1保留圖像的邊界信息;2使圖像的輸入尺寸與輸出尺寸一致。解析:[問(wèn)答題]85.對(duì)大小為(4,4)的輸入數(shù)據(jù)填充為2的幅度,數(shù)據(jù)大小變?yōu)開______答案:(8,8)解析:[問(wèn)答題]86.簡(jiǎn)述tf.variable_scope()函數(shù)的作用。答案:tf.variable_scope用來(lái)指定變量的作用域,可以讓不同作用域的變量有相同的命名,包括使用tf.get_variable得到的變量,以及tf.Variable創(chuàng)建的變量。解析:[問(wèn)答題]87.名詞解釋:競(jìng)價(jià)實(shí)例(Spot)答案:競(jìng)價(jià)實(shí)例(Spot)是云服務(wù)器CVM的一種新實(shí)例運(yùn)作模式,它最核心的特點(diǎn)是折扣售賣和系統(tǒng)中斷機(jī)制,即您可以以一定幅度的折扣購(gòu)買實(shí)例,但同時(shí)系統(tǒng)可能會(huì)自動(dòng)回收這些折扣售賣的實(shí)例。解析:[問(wèn)答題]88.感知機(jī)的信號(hào)只有_______和_______兩種取值答案:1|0解析:[問(wèn)答題]89.卷積層運(yùn)算以一定間隔滑動(dòng)_______窗口答案:濾波器解析:[問(wèn)答題]90.編程:構(gòu)造一些離散的點(diǎn),這些點(diǎn)我們暫且從y=0.1x+0.3(樣本函數(shù))這個(gè)曲線中拿得,根據(jù)這些點(diǎn)的特征,我們建立一個(gè)線性模型y=Wx+b。答案:ImporttensorflowastfImportnumpyasnp#構(gòu)造一些離散的點(diǎn)X_data=np.random.rand(1000).astype(np.float32)Y_data=x_data*0.1+0.3#tensorflow建模Weights=tf.Variable(tf.random_uniform([1],-1.0,1.0))#設(shè)置權(quán)重的初始值1以及變化范圍(-1,1)Biases=tf.Variable(tf.zeros([1]))#設(shè)置偏移量的初始值為0Y=Weights*x_data+biases#對(duì)以上離散的點(diǎn)建立一個(gè)一次函數(shù)的數(shù)學(xué)模型#實(shí)際值和預(yù)測(cè)值的差值平方再求平均值,訓(xùn)練的目的就是要讓這個(gè)loss越來(lái)越小Loss=tf.reduce_mean(tf.square(y-y_data))#優(yōu)化器,,目前選擇梯度下降法來(lái)優(yōu)化,步長(zhǎng)(學(xué)習(xí)效率)選擇0.5Optimizer=tf.train.GradientDescentOptimizer(0.5)#訓(xùn)練目的,減少lossTrain=optimizer.minimize(loss)#初始化所有的變量#init=tf.initialize_all_variables()#該函數(shù)已經(jīng)被棄用Init=tf.global_variables_initializer()Sess=tf.Session()Sess.run(init)#訓(xùn)練Forstepinrange(400):sess.run(train)ifstep%20==0:print(step,sess.run(Weights),sess.run(biases))Sess.close()解析:[問(wèn)答題]91.將Sigmoid激活函數(shù)改為ReLu,將有助于克服梯度消失問(wèn)題?A)對(duì)B)錯(cuò)答案:A解析:[問(wèn)答題]92.編程:使用tensorflow實(shí)現(xiàn)1+2+3+4+…+10。答案:ImporttensorflowastfVar=tf.Variable(0,name="var")Output=tf.Variable(0,name="output")

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論