人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷12)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共47題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.keras.layers.Dropout(rate,noise_shape=None,seed=None)中rate的取值區(qū)間在()A)[-1,1]B)[1,2]C)[0,100]D)[0,1]答案:D解析:[單選題]2.對(duì)一個(gè)概率空間,進(jìn)行多種劃分,其信息熵是A)一定相等B)一定不等C)不確定無關(guān)聯(lián)D)互有關(guān)聯(lián)答案:C解析:[單選題]3.對(duì)于神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法正確的是A)隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B)當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由精細(xì)到粗糙的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可答案:A解析:[單選題]4.Dataset數(shù)據(jù)結(jié)構(gòu)中,映射元素的函數(shù)是A)mapB)zipC)shuffleD)reduce答案:A解析:[單選題]5.在前向傳播反向傳播過程中,例如求導(dǎo)結(jié)果為f(z)'=f(z)(1?f(z))那么這個(gè)激活函數(shù)最有可能會(huì)是下面選項(xiàng)中的那一個(gè)?()A)RelU函數(shù)B)tanhC)coshD)sigmoid答案:D解析:[單選題]6.以下文件操作方法中,不能從train.csv格式文件中讀取數(shù)據(jù)的是()。A)readlineB)readlinesC)readD)seek答案:D解析:難易程度:易題型:[單選題]7.按以下步驟繪圖,會(huì)出現(xiàn)錯(cuò)誤的是()。A)創(chuàng)建畫布B)創(chuàng)建畫布C)創(chuàng)建畫布D)繪制圖形答案:A解析:難易程度:中題型:[單選題]8.X的定義是Variable或constant則print(X.get_shape())輸出:A)X張量描述B)X的數(shù)據(jù)值C)X的數(shù)軸數(shù)D)X的數(shù)據(jù)長度答案:A解析:[單選題]9.哪個(gè)選項(xiàng)不能作為二維數(shù)據(jù)的存儲(chǔ)方式?()。A)CSV格式B)數(shù)據(jù)庫存儲(chǔ)C)excel表格存儲(chǔ)D)數(shù)學(xué)運(yùn)算后存儲(chǔ)答案:D解析:難易程度:易題型:[單選題]10.在CNN圖像處理過程中,尺寸為32X32的一幅圖像,經(jīng)過strides步長為1,填充padding為1,然后經(jīng)3*3的卷積核filter卷積處理后,輸出的圖像尺寸大小為?()A)28X28B)14X14C)30X30D)32X32答案:D解析:[單選題]11.卷積中控制步長的參數(shù)是A)strideB)kerner_sizeC)in_channelsD)out_channels答案:A解析:[單選題]12.最大池化max_pool有幾個(gè)參數(shù),如value,ksize參數(shù),strides參數(shù),padding參數(shù),name=None參數(shù),用于池化窗口的參量是那一個(gè)?A)valueB)ksizeC)stridesD)padding答案:B解析:[單選題]13.我們可以通過下面哪種方法,將彩色圖像轉(zhuǎn)換為灰度圖像?()A)Gray=R*0.3+G*0.59+B*0.11B)Gray=R*0.59+G*0.3+B*0.11C)Gray=R*0.59+G*0.11+B*0.3D)Gray=R*0.3+G*0.11+B*0.59答案:A解析:[單選題]14.以下不是LSTM中包含的門A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]15.日常生活中,關(guān)于人工智能的應(yīng)用,我們接觸最多的是()。A)人臉識(shí)別B)電話騷擾C)無人駕駛D)導(dǎo)彈精準(zhǔn)打擊答案:B解析:難易程度:易題型:[單選題]16.局部響應(yīng)歸一化即(),LRN一般是在激活、池化后進(jìn)行的一中處理方法A)本區(qū)域B)localresponsenormalizationC)BP算法D)池化答案:B解析:[單選題]17.compile函數(shù)中沒有以下哪一個(gè)參數(shù)A)迭代次數(shù)B)優(yōu)化算法C)評(píng)估指標(biāo)D)損失值答案:A解析:[單選題]18.pytorch繼承nn.Module基類層一般在()定義A)__init__B)forwardC)backwardD)call答案:A解析:[單選題]19.控制是否循環(huán)神經(jīng)每次都輸出結(jié)果的參數(shù)是A)return_sequencesB)num_classesC)unrollD)training答案:A解析:[單選題]20.如需要定義tf的常量X=tf.constant(2.0,shape=[1,2])語句結(jié)果是A)2B)[2.0,2.0]C)[[2.0,2.0]]D)[[2.0],[2.0]]答案:C解析:[單選題]21.為何dropout有助于避免過擬合?A)因?yàn)猷従由窠?jīng)元的權(quán)重可能相似,因此可能會(huì)影響最終訓(xùn)練的準(zhǔn)確性B)減少神經(jīng)元可加快訓(xùn)練速度C)增加神經(jīng)元節(jié)點(diǎn)可以提高訓(xùn)練的準(zhǔn)確性D)上述均有誤答案:B解析:[單選題]22.假設(shè)一個(gè)具有3個(gè)神經(jīng)元和輸入為「1.2.3]的簡單MLP模型。輸入神經(jīng)元的權(quán)重分別為4,5和6。假設(shè)激活函數(shù)是一個(gè)線性常數(shù)值3(激活函數(shù)為:y=3x)。輸出是什么?CA)32B)643C)96D)48答案:C解析:[單選題]23.以下關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說法中錯(cuò)誤的是A)使用梯度裁剪(gradientclipping)有助于減緩梯度爆炸問題B)若batchsize過小,batchnormalization的效果會(huì)出現(xiàn)退化C)在使用SGD訓(xùn)練時(shí),若訓(xùn)練loss的變化逐漸平緩不再明顯下降時(shí),通??梢酝ㄟ^減小learningrate的方式使其再進(jìn)一步下降D)增大L2正則項(xiàng)的系數(shù)有助于減緩梯度消失問題答案:D解析:[單選題]24.使用Opencv庫中的函數(shù)讀取一副圖像,使用下面哪個(gè)函數(shù)?A)skimage.io.imread(path)B)imread(path)C)cv2.read(path)D)cv2.imread(path)答案:D解析:[單選題]25.激活函數(shù)Sigmoid的值域范圍是在()之間A)0~1B)0~2C)-1~0D)-1~1答案:A解析:[單選題]26.Hinton和Bengio、Yann.lecun等提成了一個(gè)實(shí)際可行的()框架A)MLB)deeplearningC)opencvD)TF答案:B解析:[單選題]27.比()好用的激活函數(shù)是tanh函數(shù)(雙曲正切函數(shù))A)cosh函數(shù)B)Sigmoid函數(shù)C)RELU函數(shù)D)cosx函數(shù)答案:B解析:[單選題]28.彩色圖片的通道數(shù)為()A)1B)2C)3D)4答案:C解析:[單選題]29.聲明1:可以通過將所有權(quán)重初始化為0來訓(xùn)練網(wǎng)絡(luò)。聲明2:可以通過將偏差初始化為0來很好地訓(xùn)練網(wǎng)絡(luò)以上哪些陳述是真實(shí)的?A)1對(duì)2錯(cuò)B)1錯(cuò)2對(duì)C)1和2都對(duì)D)1和2都錯(cuò)答案:B解析:[單選題]30.可以把維度中數(shù)值為1進(jìn)行壓縮的函數(shù)是:A)reshapeB)squeezeC)expand_dimsD)transpose答案:B解析:[單選題]31.以下四個(gè)mini-batch選取樣本數(shù)量,哪一個(gè)效果最好A)58B)60C)62D)64答案:D解析:[單選題]32.()是定義在單個(gè)樣本上的,是指一個(gè)樣本的誤差A(yù))損失函數(shù)(LossFunction)B)代價(jià)函數(shù)(CostFunction)C)目標(biāo)函數(shù)(ObjectFunction)D)范數(shù)答案:A解析:[單選題]33.()的建立通常是為解決實(shí)際問題和需要解決的問題而建立的模型A)架構(gòu)B)數(shù)學(xué)模型C)流程圖D)數(shù)據(jù)集答案:B解析:[單選題]34.常用的激活函數(shù)RELU,其常用調(diào)用語句為那一個(gè)()A)h_conv1=tf.nn.relu(conv_ret1)B)h_conv1=tf.nn.dropout(conv_ret1)C)h_conv1=tf.nn.lrn(conv_ret1)D)h_conv1=tf.nn.l2_loss(conv_ret1)答案:A解析:[單選題]35.當(dāng)神經(jīng)網(wǎng)絡(luò)的調(diào)參效果不好時(shí),需要從哪些角度考慮?1是否找到合適的損失函數(shù)2是否過擬合3是否選擇了和是的激活函數(shù)4是否選擇合適的學(xué)習(xí)率A)12B)234C)34D)1234答案:D解析:[單選題]36.安裝飛槳框架時(shí),確定python位置的命令()。A)whereB)pythonC)pythonD)python答案:A解析:難易程度:易題型:[單選題]37.關(guān)于嶺回歸,下列說法錯(cuò)誤的是()。A)屬于線性回歸B)使用L2正規(guī)項(xiàng)C)使用L1正規(guī)項(xiàng)D)基于最小二乘法答案:C解析:難易程度:中題型:[單選題]38.pytorch中啟動(dòng)tensorboard的指令是:A)notebook.start("--logdir./data/tensorboard")B)notebook.list()C)load_exttensorboardD)writer=SummaryWriter('./data/tensorboard')答案:A解析:[單選題]39.torch.nn.Conv2d中輸出通道的參數(shù)為A)strideB)kerner_sizeC)in_channelsD)out_channels答案:D解析:[單選題]40.圖片修復(fù)是需要人類專家來進(jìn)行修復(fù)的,這對(duì)于修復(fù)受損照片和視頻非常有幫助。下圖是一個(gè)終像修復(fù)的例子?,F(xiàn)在人們?cè)谘芯咳绾斡蒙疃葘W(xué)習(xí)來解決圖片修復(fù)的問題。對(duì)于這個(gè)問題,哪種損失函數(shù)適用于計(jì)算像素區(qū)域的修復(fù)?CA)負(fù)對(duì)數(shù)似然度損失函數(shù)(Negative-logLikelihoodloss)B)歐式距離損失函數(shù)(Euclideanloss)C)兩種方法皆可D)兩種法不可答案:C解析:[單選題]41.復(fù)合函數(shù)sin(sinx)的導(dǎo)數(shù)是A)cosx*(cos(sinx))B)cos(cosx)C)cos(sinx)D)sin(cosx)答案:A解析:[單選題]42.彩色圖片數(shù)據(jù)()維張量A)1B)2C)3D)4答案:C解析:[單選題]43.Python中可用于機(jī)器學(xué)習(xí)的庫文件是哪個(gè)()。A)learn-moreB)scikit-learnC)gekingD)auto答案:B解析:難易程度:易題型:[單選題]44.NeuralNetworks簡稱NN,它是A)卷積神經(jīng)網(wǎng)絡(luò)B)標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)RELU神經(jīng)網(wǎng)絡(luò)答案:B解析:[單選題]45.正常情況下卷積網(wǎng)絡(luò)在多少層以后就很難優(yōu)化A)11B)15C)22D)25答案:C解析:[單選題]46.面部識(shí)別系統(tǒng)的核心是局部特征分析算法,即()A)LFAB)SIFTC)OPENCVD)CNN+OPENCV答案:A解析:[單選題]47.相比于其它激活函數(shù)來說,ReLU有以下優(yōu)勢:對(duì)于線性函數(shù)而言,ReLU的表達(dá)能力更強(qiáng),尤其體現(xiàn)在深度網(wǎng)絡(luò)中;而對(duì)于非線性函數(shù)而言,ReLU由于非負(fù)區(qū)間的梯度為常數(shù),因此不存在()(VanishingGradientProblem),使得模型的收斂速度維持在一個(gè)穩(wěn)定狀態(tài)。A)梯度消失問題B)卷積C)池化D)全連接答案:A解析:第2部分:多項(xiàng)選擇題,共18題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]48.以下不具有激活功能的方式有A)reluB)dropoutC)LassoD)ridge答案:BCD解析:[多選題]49.能夠跳出局部最優(yōu)解的算法有:A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多選題]50.Batch歸一化步驟A)求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B)求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)尺度變換和偏移答案:ABCD解析:[多選題]51.卷積核K的四個(gè)重要參數(shù)是A)高度B)寬度C)輸入通道D)輸出通道答案:ABCD解析:[多選題]52.屬于卷積網(wǎng)絡(luò)相關(guān)的函數(shù)是:A)nn.Conv1dB)nn.MaxPool2dC)nn.AvgPool2dD)nn.Embedding答案:ABC解析:[多選題]53.屬于pytorch中常用的損失函數(shù)有:A)nn.MSELossB)nn.CrossEntropyLossC)nn.L1LossD)nn.BCEWithLogitsLoss答案:ABCD解析:[多選題]54.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過擬合?A)DropoutB)正則化C)批規(guī)范化D)激活函數(shù)答案:ABC解析:[多選題]55.隨著深度學(xué)習(xí)的興起,越來越多的人從事算法工程師這一崗位。有時(shí)候他們自嘲自己為?天橋調(diào)參師?。但是,算法工程師的工作內(nèi)容并沒有那么簡單,因?yàn)樵O(shè)置超參數(shù)的過程需要專業(yè)知識(shí)和廣泛的試驗(yàn)和試錯(cuò)過程。尤其是針對(duì)()這些超參數(shù)而言,沒有簡單易行的方法來設(shè)置。A)學(xué)習(xí)率(learningrate)B)批量大小(batchsize)C)動(dòng)量(momentum)D)權(quán)重衰減(weightdecay)答案:ABCD解析:[多選題]56.語句tf.transpose(x).eval()的意義是:A)對(duì)x進(jìn)行轉(zhuǎn)置B)從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境C)不對(duì)x轉(zhuǎn)置D)不能獲知x的內(nèi)容答案:AB解析:[多選題]57.字節(jié)邏輯運(yùn)算10110111和01010101的異或操作:A)結(jié)果是10110110B)結(jié)果是11100010C)規(guī)律是見同為0,見異為1D)結(jié)果是11100011答案:BC解析:[多選題]58.多分類可以使用的函數(shù)是A)reluB)softmaxC)sigmoidD)elu答案:BC解析:[多選題]59.關(guān)于梯度的問題,以下說法錯(cuò)誤的是:A)梯度下降會(huì)增加學(xué)習(xí)次數(shù)B)多使用梯度爆炸,增加計(jì)算效率提升模型準(zhǔn)確率C)梯度下降可以減少計(jì)算量,建議使用D)梯度爆炸會(huì)增大計(jì)算量,編寫代碼時(shí)避免梯度爆炸答案:BC解析:[多選題]60.如果用貝努力實(shí)驗(yàn)概率事件A,進(jìn)行參數(shù)估計(jì),參數(shù)是:P(A)=p(1)^m*p(0)^nA)讓A的可能概率最大B)參數(shù)就是p(1)或p(0)C)讓p(1)最大D)讓m最大答案:AB解析:[多選題]61.圖像識(shí)別常用的方案有那些?A)人臉檢測B)表情判斷C)動(dòng)作識(shí)別D)無人駕駛答案:ABCD解析:[多選題]62.人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的()的一門新的技術(shù)科學(xué)。A)理論B)方法C)技術(shù)D)應(yīng)用系統(tǒng)答案:ABCD解析:人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。第3部分:判斷題,共19題,請(qǐng)判斷題目是否正確。[判斷題]63.Dropout具有歸一化功能A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]64.在神經(jīng)網(wǎng)絡(luò)框架中,常使用如下函數(shù)tf.truncated_normal(shape,mean,stddev)這個(gè)函數(shù)產(chǎn)生正態(tài)分布,均值和標(biāo)準(zhǔn)差自己設(shè)定A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]65.torch.device('cpu')是使用cpu運(yùn)行代碼A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]66.增加網(wǎng)絡(luò)層數(shù),一定會(huì)增加訓(xùn)練集分類錯(cuò)誤率()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]67.如果模型的訓(xùn)練效果不好,可先考察是否選擇合適的損失函數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]68.古典概率通常又叫事前概率,是指當(dāng)隨機(jī)事件中各種可能發(fā)生的結(jié)果及其出現(xiàn)的次數(shù)都可以由演繹或外推法得知,而無需經(jīng)過任何統(tǒng)計(jì)試驗(yàn)即可計(jì)算各種可能發(fā)生結(jié)果的概率。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]69.pytorchLSTM初始階段必須傳狀態(tài)值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]70.虛擬化能使用戶在一臺(tái)服務(wù)器上同時(shí)運(yùn)行多個(gè)操作系統(tǒng)A)正確B)錯(cuò)誤答案:對(duì)解析:虛擬化能使用戶在一臺(tái)服務(wù)器上同時(shí)運(yùn)行多個(gè)操作系統(tǒng)[判斷題]71.Caffe發(fā)布的時(shí)間比Tensorflow時(shí)間早。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]72.RNN的LSTM可以防止梯度消失或者梯度爆炸A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]73.原始樣本數(shù)據(jù)集可以分為訓(xùn)練集、驗(yàn)證集和測試集()。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]74.DeanPomerleau在卡耐基梅隆大學(xué)于上世紀(jì)80年代末制造了一輛自動(dòng)駕駛汽車,其算法核心是基于神經(jīng)網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]75.動(dòng)量梯度下降法運(yùn)行速度幾乎總是快于標(biāo)準(zhǔn)的梯度下降算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]76.對(duì)于突發(fā)性業(yè)務(wù)高峰,推薦您選擇包年包月的計(jì)費(fèi)模式,購買時(shí)長越久越劃算;對(duì)于穩(wěn)定業(yè)務(wù),您可以選擇按量計(jì)費(fèi)的計(jì)費(fèi)模式,隨時(shí)開通/銷毀計(jì)算實(shí)例,按實(shí)例的實(shí)際使用量付費(fèi)。計(jì)費(fèi)精確到秒,最大程度降低成本。A)正確B)錯(cuò)誤答案:錯(cuò)解析:對(duì)于穩(wěn)定業(yè)務(wù),推薦您選擇包年包月的計(jì)費(fèi)模式,購買時(shí)長越久越劃算;對(duì)于突發(fā)性業(yè)務(wù)高峰,您可以選擇按量計(jì)費(fèi)的計(jì)費(fèi)模式,隨時(shí)開通/銷毀計(jì)算實(shí)例,按實(shí)例的實(shí)際使用量付費(fèi)。計(jì)費(fèi)精確到秒,最大程度降低成本。[判斷題]77.對(duì)于形如[[[],[]]]的張量,它的維度向量是[1,2,0]。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.小的卷積核可以計(jì)算計(jì)算量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.BP算法是通過梯度下降法對(duì)聯(lián)結(jié)權(quán)重進(jìn)行優(yōu)化,所以需要計(jì)算誤差函數(shù)對(duì)聯(lián)結(jié)權(quán)重的偏導(dǎo)數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]80.在其他條件不變的前提下,增加訓(xùn)練集量容易引起機(jī)器學(xué)習(xí)中的過擬合問題。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]81.卷積神經(jīng)網(wǎng)絡(luò)更靠后的一些層可檢測完整的物體、復(fù)雜的特征。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:問答題,共16題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問答題]82.簡述tensorflow中變量的含義。答案:TensorFlow中變量是特殊的張量,它的值可以是一個(gè)任何類型和形狀的張量。與其他張量不同,變量存在于會(huì)話調(diào)用的上下文之外,變量的主要作用是保存和更新模型的參數(shù)。解析:[問答題]83.在tensorflow中實(shí)現(xiàn)模型保存的函數(shù)是_______。答案:Tf.train.Saver();解析:[問答題]84.什么是多層卷積,多卷積核?答案:多層卷積,多卷積核:在卷積過程中往往使用多層卷積,然后再使用全連接層進(jìn)行訓(xùn)練,多層卷積的目的是一層卷積學(xué)到的特征往往是局部的,層數(shù)越高,學(xué)到的特征就越全局化,多卷積核可以學(xué)到多個(gè)特征。解析:[問答題]85.深度學(xué)習(xí)和過往的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有什么區(qū)別?答案:深度學(xué)習(xí)的訓(xùn)練方法需要的數(shù)據(jù)量非常地大,數(shù)據(jù)量越大,數(shù)據(jù)的質(zhì)量越高,模型的表現(xiàn)越好;深度學(xué)習(xí)可以采用一些策略;深度學(xué)習(xí)可以采用Dropout(隨機(jī)失活),對(duì)抗訓(xùn)練的方式防止網(wǎng)絡(luò)發(fā)生過擬合;深度學(xué)習(xí)可以通過采用不同的初始化方式。解析:[問答題]86.操作系統(tǒng)并不是與計(jì)算機(jī)硬件一起誕生的,它是在人們使用計(jì)算機(jī)的過程中,為了滿足兩大需求:(),()伴隨著計(jì)算機(jī)技術(shù)本身及其應(yīng)用的日益發(fā)展,而逐步地形成和完善起來的。答案:提高資源利用率|增強(qiáng)計(jì)算機(jī)系統(tǒng)性能解析:操作系統(tǒng)并不是與計(jì)算機(jī)硬件一起誕生的,它是在人們使用計(jì)算機(jī)的過程中,為了滿足兩大需求:提高資源利用率、增強(qiáng)計(jì)算機(jī)系統(tǒng)性能,伴隨著計(jì)算機(jī)技術(shù)本身及其應(yīng)用的日益發(fā)展,而逐步地形成和完善起來的。[問答題]87.簡述學(xué)習(xí)率設(shè)置過大或過小的影響。答案:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),需要設(shè)置學(xué)習(xí)率(learingrate)控制參數(shù)更新的速度,學(xué)習(xí)率決定了參數(shù)每次更新的幅度,如果幅度過大,則可能導(dǎo)致參數(shù)在極優(yōu)值的兩側(cè)來回移動(dòng);若幅度過小,又會(huì)大大降低優(yōu)化速度。解析:[問答題]88.神經(jīng)網(wǎng)絡(luò)一般包含三層:_______、_______、_______答案:輸入層|隱藏層|輸出層解析:[問答題]89.讀取單張灰度圖片,使用skimage.io.imread(fname,as_grey=True)函數(shù),第一個(gè)參數(shù)為圖片路徑,第二個(gè)參數(shù)為as_grey,bool型值,默認(rèn)為False,下面是讀取單張灰色圖像并顯示的代碼,請(qǐng)補(bǔ)充完整。fromskimageimportioimg=___________('d:/dog.jpg',as_grey=True)_________(img)答案:io.imread|io.imshow解析:讀取單張灰度圖片,使用skimage.io.imread(fname,as_grey=True)函數(shù),第一個(gè)參數(shù)為圖片路徑,第二個(gè)參數(shù)為as_grey,bool型值,默認(rèn)為False,下面是讀取單張灰色圖像并顯示的代碼,請(qǐng)補(bǔ)充完整。fromskimageimportioimg=io.imread('d:/dog.jpg',as_grey=True)io.imshow(img)[問答題]90.簡述BP神經(jīng)網(wǎng)絡(luò)模型的特點(diǎn)。答案:BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò),其主要的特點(diǎn)是:信號(hào)是前向傳播的,而誤差是反向傳播的。它模擬了人腦的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),而人大腦傳遞信息的基本單位是神經(jīng)元,人腦中有大量的神經(jīng)元,每個(gè)神經(jīng)元與多個(gè)神經(jīng)元相連接。解析:[問答題]91.分析為什么加深層可以使學(xué)習(xí)更加高效?答案:①減少網(wǎng)絡(luò)參數(shù)的數(shù)量②可以分層次分解學(xué)習(xí)的問題,減少學(xué)習(xí)數(shù)據(jù)解析:[問答題]92.在執(zhí)行期,如何為一個(gè)變量設(shè)置任意的值?答案:可以在構(gòu)造一個(gè)圖時(shí)指定變量的初始值,它會(huì)在后邊的執(zhí)行期運(yùn)行變量初始化器的時(shí)候被初始化。如果想在執(zhí)行期修改變量的值,那么最簡單的方式是使用tf.assign函數(shù)創(chuàng)建一個(gè)賦值節(jié)點(diǎn)(在圖的構(gòu)造期),將變量和一個(gè)占位符傳入作為參數(shù)。這樣,可以在執(zhí)行期運(yùn)行復(fù)制操作來為變量傳入新值。解析:[問答題]93.在卷積操作中設(shè)置了24個(gè)卷積核,則該操作提取了______個(gè)特征。答案:24;解析:[問答題]94.占位符實(shí)質(zhì)上也是一種_____。答案:變量;解析:[問答題]95.由全部變量的偏導(dǎo)數(shù)匯總而成的向量稱為_______答案:梯度解析:[問答題]96.________是構(gòu)成神經(jīng)網(wǎng)絡(luò)的基本單元。答案:神經(jīng)元;解析:[問答題]97.編程:使用tf.variable_scope來指定變量的作用域,可以讓不同作

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論