人工智能深度學習技術(shù)練習(習題卷4)_第1頁
人工智能深度學習技術(shù)練習(習題卷4)_第2頁
人工智能深度學習技術(shù)練習(習題卷4)_第3頁
人工智能深度學習技術(shù)練習(習題卷4)_第4頁
人工智能深度學習技術(shù)練習(習題卷4)_第5頁
已閱讀5頁,還剩54頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能深度學習技術(shù)練習人工智能深度學習技術(shù)練習(習題卷4)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學習技術(shù)練習第1部分:單項選擇題,共132題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.以下選項,請選出可以實現(xiàn)tf幫助查詢的編程語句?A)importtensorflowastfPrint(help(tf))B)importtensorflowastfPrint(tf.help(tf))C)importtensorflowastfPrint(tf)D)importtensorflowastfPrint(tf.help())答案:A解析:[單選題]2.函數(shù)tf.constant()不正確的用法是那一個選項?A)tensor=tf.constant(1)B)tensor=tf.constant([1,2])C)tensor=tf.constant(-1,shape=[2,3])D)a=tf.constant([1.0,2.0],name="a)答案:D解析:[單選題]3.動量梯度下降的特點是:A)β一般設(shè)置為0.1B)算法震蕩小C)學習率會改變D)記憶上一次的梯度,應(yīng)用到本次進行使用答案:D解析:[單選題]4.當你初始化一個預(yù)訓練模型時,會自動下載權(quán)重到()目錄下。A)~/models/B)~/.keras/models/C)~/.keras/D)~/keras/models/答案:B解析:[單選題]5.在Keras中有兩類主要的模型:Sequential順序模型和使用函數(shù)式API的Model類模型。這些模型有許多共同的方法和屬性,其中?返回模型中所有權(quán)重張量的列表,類型為Numpy數(shù)組?的方法是:A)model.get_config()B)model.get_weights()C)model.to_json()D)model.to_yaml()答案:B解析:[單選題]6.()就是在不同的訓練過程中隨機扔掉一部分神經(jīng)元。也就是讓某個神經(jīng)元的激活值以一定的概率p,讓其停止工作,這次訓練過程中不更新權(quán)值,也不參加神經(jīng)網(wǎng)絡(luò)的計算。但是它的權(quán)重得保留下來(只是暫時不更新而已)A)conv2dB)max_poolC)DropoutD)FC答案:C解析:[單選題]7.Tf.matmul(a,B,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函數(shù)返回值是一個跟張量a和張量b類型一樣的張量且最內(nèi)部矩陣是a和b中的相應(yīng)矩陣的()A)相與B)乘積C)相除D)相加答案:B解析:[單選題]8.Batch歸一化和神經(jīng)網(wǎng)絡(luò)中的什么功能類似A)reluB)dropoutC)sigmoidD)tanh答案:B解析:[單選題]9.關(guān)于Python程序格式框架的描述,以下選項中錯誤的是()。A)PythonB)PythonC)PythonD)判斷、循環(huán)、函數(shù)等語法形式能夠通過縮進包含一批答案:A解析:難易程度:易題型:[單選題]10.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò),哪個不是LSTM的門?A)輸入門B)遺忘門C)輸出門D)更新門答案:D解析:[單選題]11.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A)SoftmaxB)ReLuC)SigmoidD)Tanh答案:A解析:[單選題]12.()是定義在整個訓練集上的,是所有樣本誤差的平均,也就是所有損失函數(shù)值的平均。A)損失函數(shù)(LossFunction)B)代價函數(shù)(CostFunction)C)目標函數(shù)(ObjectFunction)D)范數(shù)答案:B解析:[單選題]13.以下關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)的說法中,哪個是正確的?A)循環(huán)神經(jīng)網(wǎng)絡(luò)可以和卷積神經(jīng)網(wǎng)絡(luò)混合使用B)循環(huán)神經(jīng)網(wǎng)絡(luò)的性能高于卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)可以代替卷積神經(jīng)網(wǎng)絡(luò)D)循環(huán)神經(jīng)網(wǎng)絡(luò)中沒有BP算法答案:A解析:[單選題]14.情感分析屬于下列哪一種分析方式A)多對一B)一對多C)多對多D)以上都不對答案:A解析:[單選題]15.若A,B都是2階方陣,且A=2,B=-3E,則ATB=()。A)16B)-16C)18D)-18答案:C解析:難易程度:難題型:[單選題]16.Jupyternotebook雙擊D是什么快捷方式()。A)cell切換到Code模式B)在當前cell的上面添加cellC)在當前cell的下面添加cellD)刪除當前cell答案:D解析:難易程度:易題型:[單選題]17.AlexNet網(wǎng)絡(luò)結(jié)構(gòu)有8層,其中有5個卷積層和()個全連接層A)3B)5C)16D)19答案:A解析:[單選題]18.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A)可以B)不好說C)不一定D)不能答案:D解析:[單選題]19.如果x的值是True,那么tf.cast(x,tf.float32)的值是什么?A)0.0B)1.0C)FalseD)True答案:B解析:[單選題]20.下列不屬于rc參數(shù)的是()。A)axes.titlesizeB)axes.linewidthC)boxplotD)axes.facecolor答案:C解析:難易程度:中題型:[單選題]21.Tanh函數(shù)會把輸入的數(shù)值映射到()區(qū)間內(nèi)。A)[-1,1]B)[-1,0]C)[0,1]D)以上都不對答案:A解析:[單選題]22.Python3.X版本的保留字總數(shù)是()。A)16B)29C)27D)33答案:D解析:難易程度:易題型:[單選題]23.執(zhí)行語句print(tf.__path__)后,結(jié)果是['C:\\ProgramFiles\\Anaconda3\\lib\\site-packages\\tensorflow'],則該語句實現(xiàn)的功能是?A)查詢tensorflow位置B)查看tensorflow安裝路徑C)查詢tensorflow版本D)測試tf模塊安裝是否正常答案:B解析:[單選題]24.根據(jù)實際問題來建立(),然后對它來進行求解A)架構(gòu)B)數(shù)學模型C)流程圖D)數(shù)據(jù)集答案:B解析:[單選題]25.?熊貓方式?和魚子醬方式的選擇主要是通過什么決定的A)計算機資源的充足與否B)測試集數(shù)量C)訓練集數(shù)量D)隱藏層數(shù)量答案:A解析:[單選題]26.關(guān)于pandas庫的文本操作,下列說法錯誤的是()。A)Replace方法用于替換字符串B)Slice方法不是通過截取字符實現(xiàn)文本索引操作的C)Upper方法可將Series各元素轉(zhuǎn)換為大寫D)存在一些特殊的方法是Python原生str類型所沒有的答案:B解析:難易程度:中題型:[單選題]27.常用的Sigmoid激活函數(shù)是一個在生物學中常見的()函數(shù)A)X型B)S型C)L型D)U型答案:B解析:[單選題]28.回調(diào)函數(shù)是用在哪個函數(shù)中?A)compile()B)fit()C)summary()D)Sequential()答案:B解析:[單選題]29.Whatdoesaneuroncompute?DA)AneuroncomputesthemeanofallfeaturesbeforeapplyingtheoutputtoanactivationfunctionB)Aneuroncomputesafunctiongthatscalestheinputxlinearly(Wx+b)C)Aneuroncomputesanactivationfunctionfollowedbyalinearfunction(z=Wx+b)D)Aneuroncomputesalinearfunction(z=Wx+b)followedbyanactivationFunction答案:D解析:[單選題]30.pytorch減少維度的函數(shù)是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:B解析:[單選題]31.激活函數(shù)把?()?保留并映射出來A)半激活的神經(jīng)元的特征B)未激活的神經(jīng)元的特征C)激活的神經(jīng)元的特征D)無所謂狀態(tài)的神經(jīng)元的特征答案:C解析:[單選題]32.下面有關(guān)模型擬合的說法,正確的是A)模型在訓練集上的表現(xiàn)好,在測試集上表現(xiàn)也好B)模型在訓練集上的表現(xiàn)不好,在測試集上表現(xiàn)也不好C)模型在訓練集上的表現(xiàn)好,在測試集上表現(xiàn)不好D)模型在訓練集上的表現(xiàn)不好,在測試集上表現(xiàn)好答案:C解析:模型在訓練集上的表現(xiàn)好,在測試集上表現(xiàn)不好[單選題]33.下列命令中對二維數(shù)組進行索引的是()。A)data[0,1]B)data[1:3]C)data[0:2,0]D)data[1:]答案:A解析:難易程度:易題型:[單選題]34.以下程序輸出結(jié)果是多少?ImporttensorflowastfA=tf.constant(1)B=tf.constant(1)C=tf.add(a,b)Print(c)Withtf.Session()assess:Print(sess.run(c))A)2B)[1,1]C)[2]D)[0,1]答案:A解析:[單選題]35.卷積層通過過濾器從高維數(shù)據(jù)中提取特征,增加了輸出的深度(特征數(shù)),那么,最大池化層的作用是()A)增加輸出維度(寬高)B)降低輸出維度(寬高)C)保持輸出維度(寬高)D)以上均不正確答案:B解析:[單選題]36.在keras.layers.Conv2D(filters,kernel_size,strides=(1,1),padding='valid',data_format=None,dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer='glorot_uniform',bias_initializer='zeros',kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None)方法中,指明卷積沿寬度和高度方向的步長是哪個參數(shù)?A)filtersB)stridesC)use_biasD)kernel_size答案:B解析:[單選題]37.()的建立通常是為解決實際問題和需要解決的問題而建立的模型A)架構(gòu)B)數(shù)學模型C)流程圖D)數(shù)據(jù)集答案:B解析:[單選題]38.pytorch的開發(fā)公司是A)googleB)facebookC)yamazoonD)baidu答案:B解析:[單選題]39.使用批量歸一化可以解決神經(jīng)網(wǎng)絡(luò)訓練中的哪些問題?()A)過擬合OverfittingB)將激活限制為過高或過低C)訓練過慢D)以上所有答案:D解析:[單選題]40.深度學習最早興起于()領(lǐng)域A)圖像識別B)語音識別C)數(shù)據(jù)挖掘D)自然語言處理答案:A解析:[單選題]41.考慮以下問題:假設(shè)我們有一個5層的神經(jīng)網(wǎng)絡(luò),這個神經(jīng)網(wǎng)絡(luò)在使用一個4GB顯存顯卡時需要花費3個小時來完成訓練。而在測試過程中,單個數(shù)據(jù)需要花費2秒的時間。如果我們現(xiàn)在把架構(gòu)變換一下,當評分是0.2和0.3時,分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時間會變?yōu)槎嗌?CA)少于2sB)大于2sC)是2sD)說不準答案:C解析:[單選題]42.call()函數(shù)中training代表的是A)梯度初始值的處理方式B)是否訓練C)函數(shù)是否調(diào)用D)是否循環(huán)處理答案:A解析:[單選題]43.你用手機拍攝的垃圾圖片是A)灰度圖B)紅色圖C)綠色圖D)彩色圖答案:D解析:[單選題]44.pytorch中可視化人工繪圖:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:D解析:[單選題]45.數(shù)據(jù)歸一化處理是指將每個特征的取值縮放到()。A)-1B)-1C)0D)1答案:C解析:難易程度:易題型:[單選題]46.復合函數(shù)sin(sinx)的導數(shù)是A)cosx*(cos(sinx))B)cos(cosx)C)cos(sinx)D)sin(cosx)答案:A解析:[單選題]47.通常,一個實數(shù)或復數(shù)向量空間加上長度和角度的概念,稱為()A)內(nèi)積空間B)賦范空間C)矢量空間D)希爾伯特空間答案:A解析:[單選題]48.關(guān)于嶺回歸,下列說法錯誤的是()。A)屬于線性回歸B)使用L2正規(guī)項C)使用L1正規(guī)項D)基于最小二乘法答案:C解析:難易程度:中題型:[單選題]49.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A)其他都不對B)沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓練C),但后都會別同樣的東西D)網(wǎng)絡(luò)不會開始訓練,因為沒有梯度改變答案:C解析:[單選題]50.在CNN中使用1x1卷積時,下列哪一項是正確的?DA)可以幫降維B)可以用于特征池C)于內(nèi),減少合D)所有上述答案:D解析:[單選題]51.在Keras中,fit函數(shù)的參數(shù):verbose:日志顯示,0為()A)輸出進度條記錄B)保存日志信息C)不在標準輸出流輸出日志信息D)每個epoch輸出一行記錄答案:C解析:在Keras中,fit函數(shù)的參數(shù):verbose:日志顯示,0為不在標準輸出流輸出日志信息,1為輸出進度條記錄,2為每個epoch輸出一行記錄[單選題]52.可以直觀地看到各層網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的工具的是?A)tfB)tf.nnC)TFD)TensorBoard答案:D解析:[單選題]53.YOLO是JosephRedmon和AliFarhadi等人于2015年提出的第一個基于單個神經(jīng)網(wǎng)絡(luò)的目標檢測系統(tǒng)。在今年CVPR上,JosephRedmon和AliFarhadi發(fā)表的YOLO2進一步提高了檢測的()和速度A)精度B)細度C)難度D)力度答案:A解析:[單選題]54.下圖顯示,當開始訓練時,誤差一直很高,這是因為神經(jīng)網(wǎng)絡(luò)在往全局最小值前進之前一直被卡在局部最小值里。為了避免這種情況,我們可以采取下面哪種策略?AA)改變學習速率,比如一開始的幾個訓練周期不斷更改學習速率一開始將學習速率AB)一開始將學習速率減小10倍,然后用動量項(momentum)C)增加參數(shù)數(shù)目,這樣神經(jīng)網(wǎng)絡(luò)就不會卡在局部最優(yōu)處D)其他都不對答案:A解析:[單選題]55.?()(FaceFeatureExtraction)?是將一張人臉圖像轉(zhuǎn)化為一串固定長度的數(shù)值的過程。這個數(shù)值串被稱為?人臉特征(FaceFeature)?,具有表征這個人臉特點的能力A)人臉提特征B)提特征C)特征D)特征擴展答案:A解析:[單選題]56.keras輸入20個特征,30個神經(jīng)元表達正確的是A)Dense(30,input_shape=(20)B)Dense(20,input_shape=(30)C)fit(data,labels,20,30)D)fit(data,labels,30,20)答案:A解析:[單選題]57.Matplotlib畫圖導入庫正確的命令是()。A)ImportB)ImportC)ImportD)Import答案:A解析:難易程度:易題型:[單選題]58.生成1的數(shù)組命令,正確的是()。A)np.one([4,6])B)np.zeros_like(ones)C)np.zeros([4,6])D)np.array([[1,2],[3,4]])答案:A解析:難易程度:易題型:[單選題]59.以下選項中不是Python數(shù)據(jù)分析的第三方庫的是()。A)requestsB)numpyC)scipyD)pandas答案:A解析:難易程度:易題型:[單選題]60.tf.get_variable的()機制會檢測已經(jīng)存在的變量是否設(shè)置為共享變量,如果遇到第2個擁有相同名字的變量的時候就會報錯。A)變量檢測機制B)共享機制C)變量獲取機制D)以上都不對答案:A解析:[單選題]61.以下選項中值為False的是()A)?abc?B)?C)?Hello?D)?abcd?答案:C解析:難易程度:易題型:[單選題]62.Tf中,第一層卷積核W_conv1=variable([5,5,1,32]),第二層卷積核是:A)variable([5,5,1,32])B)variable([3,3,1,32])C)variable([5,5,4,8])D)variable([5,5,32,6])答案:D解析:[單選題]63.是把訓練樣本分成k份,在驗證時,依次選取每一份樣本作為驗證集,每次實驗中,使用此過程在驗證集合上取得最佳性能的迭代次數(shù),并選擇恰當?shù)膮?shù)。A)K均值驗證B)K-flod交叉驗證C)K-means驗證D)K-折線驗證答案:B解析:K-flod交叉驗證是把訓練樣本分成k份,在驗證時,依次選取每一份樣本作為驗證集,每次實驗中,使用此過程在驗證集合上取得最佳性能的迭代次數(shù),并選擇恰當?shù)膮?shù)。[單選題]64.動量梯度算法,是通過學習率和()控制梯度下降的A)指數(shù)加權(quán)平均數(shù)B)局部平均值C)全局平局值D)方差答案:A解析:[單選題]65.什么是池化?A)隔離圖像特征的技術(shù)B)-種在保持特征的同時減少圖像信息的技術(shù)C)-種使圖像更清晰的技術(shù)D)組合圖片的技術(shù)答案:B解析:[單選題]66.卡耐基梅隆大學的DeanPomerleau在上世紀80年代末基于()制造了一輛自動駕駛汽車A)BP算法B)神經(jīng)網(wǎng)絡(luò)C)前向算法D)NFC答案:B解析:[單選題]67.()是指根據(jù)文本所表達的含義和情感信息將文本劃分成褒揚的或貶義的兩種或幾種類型,是對文本作者傾向性和觀點、態(tài)度的劃分,因此有時也稱傾向性分析。A)語音識別B)機器學習C)自然語言處理D)情感分類答案:D解析:[單選題]68.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A)ReLUB)tanhC)SIGMOIDD)以上都不是答案:B解析:[單選題]69.Sigmoid激活函數(shù)的導數(shù)范圍是()A)(0,0.1]B)(0,0.2]C)(0,0.25]D)(0,0.5]答案:C解析:[單選題]70.以下哪個是長短期記憶網(wǎng)絡(luò)的縮寫A)LSTMB)GRUC)CNND)RNN答案:A解析:[單選題]71.以下不是RNN的特點有:A)當前輸入值是上一次輸出值B)使用tanh激活C)使用時間步作為計算數(shù)據(jù)D)每個處理的時間步對應(yīng)的權(quán)重不同答案:D解析:[單選題]72.以下有關(guān)神經(jīng)網(wǎng)絡(luò)性能評估的描述,錯誤的是()A)能監(jiān)控函數(shù)可以作為Keras模型的compile方法的metrics的參數(shù)來輸入,也可以獨立使用。B)任何函數(shù)metricfn(ytrueypred)都可以作為metric傳遞給compile函數(shù)。C)回調(diào)(callbacks)是可以在fit函數(shù)執(zhí)行過程中的各個階段執(zhí)行動作的對象。D)TensorBoard可以將神經(jīng)網(wǎng)絡(luò)的計算圖可視化。答案:B解析:[單選題]73.神經(jīng)網(wǎng)絡(luò)中的每個節(jié)點稱為()。A)神經(jīng)元細胞B)神經(jīng)元C)神經(jīng)細胞D)細胞答案:B解析:難易程度:易題型:[單選題]74.關(guān)于交叉驗證與自動調(diào)參,下列說法錯誤的是()。A)交叉驗證將數(shù)據(jù)集分為多組訓練集與測試集對B)交叉驗證能有效降低測試準確率的差異C)GridSearchCV類會遍歷所有參數(shù)值的組合D)GridSearchCV類適用于數(shù)據(jù)量較大的數(shù)據(jù)集答案:D解析:難易程度:中題型:[單選題]75.以下數(shù)據(jù)集分配方式錯誤的是:A)2億條數(shù)據(jù),測試集數(shù)量可以少于4千萬條B)數(shù)據(jù)量較少時,訓練集和測試集可以按照7:3分配C)在一些情況下,可以將全部數(shù)據(jù)作為訓練集D)小數(shù)據(jù)量時,訓練,驗證,測試集比例可以按照6:2:2進行分配答案:C解析:[單選題]76.關(guān)于dropout描述正確的是:A)屬于正則處理B)一個激活函數(shù)C)用于分割數(shù)據(jù)集D)用于將數(shù)據(jù)樣本多樣化答案:A解析:[單選題]77.以下不是ALexNet的創(chuàng)建功能:A)dropoutB)GPUC)reluD)殘差處理答案:D解析:[單選題]78.手寫字識別模型中,隱藏層的節(jié)點個數(shù)為()A)500B)784C)576D)28答案:A解析:[單選題]79.前向傳播過程+反向傳播過程,接下來只需要進行(),不斷調(diào)整邊的權(quán)重A)求偏導B)求和C)四舍五入D)迭代答案:D解析:[單選題]80.關(guān)于索引對象,下列說法錯誤的是()。A)可通過Series接收索引參數(shù)并進行創(chuàng)建B)MultiIndex是層次化索引對象C)索引對象可以修改D)isin是索引對象的一種方法答案:C解析:難易程度:中題型:[單選題]81.CNN卷積神經(jīng)網(wǎng)絡(luò),RNN循環(huán)神經(jīng)網(wǎng)絡(luò),()這三個網(wǎng)絡(luò)都是TensorFlow中支持并常用的經(jīng)典網(wǎng)絡(luò)A)RNNB)XNNC)BNND)LSTM長短記憶算法答案:D解析:[單選題]82.已知:-大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學表達。-每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學習模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當這是一個圖形識別的問題時D)以上都不正確答案:A解析:[單選題]83.Print(tf.__version__)是可能正確被的語句,則這條程序語句實現(xiàn)的作用是?A)查詢tensorflow版本B)查詢tensorflow年代C)查詢tensorflow位置D)測試tf模塊安裝是否正常答案:A解析:[單選題]84.一個矩陣A的范數(shù)定義為:矩陣A內(nèi)各項元素的絕對值平方的()A)總和B)差C)內(nèi)積D)點積答案:A解析:[單選題]85.下列關(guān)于softmax函數(shù),說法正確的是A)不屬于激活函數(shù)B)輸出的結(jié)果為正類別的概率C)輸出的結(jié)果和為1D)需要先使用sigmoid激活答案:C解析:[單選題]86.Adam算法的核心是A)強化了RMSprop算法B)強化了動量梯度算法C)同時使用Momentum和RMSprop算法D)沒有核心答案:C解析:[單選題]87.不是python中文件寫操作方法的是()。A)writelinesB)writeC)writeD)writetext答案:D解析:難易程度:易題型:[單選題]88.為什么在較小的數(shù)據(jù)集上更容易出現(xiàn)過擬合現(xiàn)象?A)因為在較小的數(shù)據(jù)集中,您的驗證數(shù)據(jù)更有可能和訓練數(shù)據(jù)類似B)因為沒有足夠的數(shù)據(jù)來激活所有卷積或神經(jīng)元C)因為使用較少的數(shù)據(jù),訓練會更快地進行,并且某些功能可能會丟失D)因為在訓練過程中遇到所有可能特征的可能性較小答案:D解析:[單選題]89.所謂權(quán)重參數(shù),是指:A)輸入數(shù)據(jù)的變換矩陣B)輸出數(shù)據(jù)的變換矩陣C)是激活函數(shù)D)是將數(shù)據(jù)影射到概率空間答案:A解析:[單選題]90.手寫字識別模型中,輸出層的節(jié)點個數(shù)為()A)1B)9C)10D)11答案:C解析:[單選題]91.查看是否是gpu張量的函數(shù)是A)tensor_gpu.is_cudaB)torch.cuda.device_count()C)tensor_gpu.deviceD)torch.cuda.is_available()答案:A解析:[單選題]92.Hinton和Bengio、Yann.lecun等提成了一個實際可行的()框架A)MLB)deeplearningC)opencvD)TF答案:B解析:[單選題]93.下面哪個命令是Linux下?刪除非空目錄?命令?A)chmodu+xB)rm-frdirC)passwdD)cp-Rdir答案:B解析:rm-frdir:刪除非空目錄[單選題]94.常用的非監(jiān)督學習算法有A)聚類B)K-近鄰算法C)回歸算法D)決策樹答案:A解析:[單選題]95.在cnn模型中一般通道數(shù)呈()倍增長A)2B)4C)6D)8答案:A解析:[單選題]96.下面哪個選項可以直接讀取一副灰度圖像()A)cv2.imread(path)B)cv2.imread(path,0)C)cv2.imread(path,1)D)cv2.imread(path,-1)答案:B解析:cv2.imread(filename,flags)參數(shù):filepath:讀入imge的完整路徑flags:標志位,{cv2.IMREAD_COLOR,cv2.IMREAD_GRAYSCALE,cv2.IMREAD_UNCHANGED}cv2.IMREAD_COLOR:默認參數(shù),讀入一副彩色圖片,忽略alpha通道,可用1作為實參替代cv2.IMREAD_GRAYSCALE:讀入灰度圖片,可用0作為實參替代cv2.IMREAD_UNCHANGED:顧名思義,讀入完整圖片,包括alpha通道,可用-1作為實參替代PS:alpha通道,又稱A通道,是一個8位的灰度通道,該通道用256級灰度來記錄圖像中的透明度復信息,定義透明、不透明和半透明區(qū)域,其中黑表示全透明,白表示不透明,灰表示半透明[單選題]97.當需要一個變量,但是又沒有初值的時候,可以定義一個A)操作符B)占位符C)操作數(shù)D)以上都不是答案:B解析:[單選題]98.我們使用()完整地保存整個模型,將Keras模型和權(quán)重保存在一個HDF5文件中,該文件將包含:模型的結(jié)構(gòu)、模型的參數(shù)、優(yōu)化器參數(shù):用于繼續(xù)訓練過程A)model.save_weights()B)model.save_weight()C)model.save()D)model.save_config()答案:C解析:[單選題]99.在課堂中使用分類器將那兩種生物進行分類()A)毛蟲和螢火蟲B)臭蟲和瓢蟲C)毛蟲和瓢蟲D)螢火蟲和瓢蟲答案:C解析:難易程度:易題型:[單選題]100.實驗表明,訓練期間使用不同的學習率總體上是有益的,因此建議在一個取值范圍內(nèi)周期性地改變學習率,而不是將其設(shè)定為固定值。這種方法我們稱為()A)非周期性學習率B)固定學習率C)線性學習率D)周期性學習率答案:D解析:[單選題]101.張量Tensor通常是操作()維數(shù)組進行傳送,形象地描述為從流圖的一端流動到另一端,即TensorFlow的組成A)NB)1C)0D)3答案:A解析:[單選題]102.A=tf.constant(2)B=tf.constant(5)AddOp=tf.greater(a,B.程序語句執(zhí)行結(jié)果A)addOp=?FALSE?B)addOp=?TRUE?C)addOp=?00?D)addOp=?1?答案:A解析:[單選題]103.T=[[1,2,3],[4,5,6],[7,8,9]],張量t是幾階張量A)1B)2C)3D)9答案:B解析:[單選題]104.可以處理梯度計算的參數(shù)是:A)requires_gradB)biasC)grad_outputD)ctx答案:A解析:[單選題]105.Multiply這個函數(shù)實現(xiàn)的是元素級別的相乘,也就是兩個相乘的數(shù)元素各自()A)相與B)相乘C)相除D)相加答案:B解析:[單選題]106.深度學習典型應(yīng)用:人臉識別,指什么網(wǎng)絡(luò)架構(gòu)?A)LeNET5B)(CNN:AlexNet)C)VGGD)ResNet答案:B解析:[單選題]107.在梯度下降的課程中,PPT圖片中的小人下山的路徑是什么顏色的()。A)紅色B)藍色C)綠色D)橙色答案:C解析:難易程度:易題型:[單選題]108.針對步長說法正確的是A)卷積核在圖像上變化的速度B)每個圖像的維度C)步長越大,圖像細節(jié)處理越好D)步長對圖像無影響答案:A解析:[單選題]109.批量標準化層的api是A)DropoutB)BatchNormalizationC)DenseFeatureD)Flatten答案:B解析:[單選題]110.Tf.multiply(x,y,name=None),其中類型跟張量x相同的張量是A)yB)tfC)nameD)None答案:A解析:[單選題]111.VanishingGradientProblem問題是(),這個問題是在神經(jīng)網(wǎng)絡(luò)框架設(shè)計中經(jīng)常出現(xiàn)的問題,例如隱藏層設(shè)計過多而導致的。A)梯度消失問題B)卷積C)池化D)全連接答案:A解析:[單選題]112.語句Y=eye([m,n])或Y=eye(m,n)的作用是?A)生成m×n的單位矩陣B)生成m維的1矩陣C)信息的增量刻度總是以線性函數(shù)的規(guī)模進行的D)信息的增量刻度總是無法判定的答案:A解析:[單選題]113.CNN最后使用全連接的作用是:A)有更多的神經(jīng)元進行處理B)一種形式C)讓網(wǎng)絡(luò)使用softmax處理D)不做也可以答案:C解析:[單選題]114.tensorboard啟動命令是A)tensorflowopenboardB)opentensorboard路徑C)os.open路徑D)tensorboard--logdir路徑答案:D解析:[單選題]115.通常數(shù)據(jù)庫可以理解為是()的一種集合體現(xiàn)A)結(jié)構(gòu)化數(shù)據(jù)B)非結(jié)構(gòu)化數(shù)據(jù)C)離散數(shù)據(jù)D)無序數(shù)據(jù)答案:A解析:[單選題]116.當在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而不是標量,這里需要的哪種型的尋址來完成?A)基于內(nèi)容的尋址B)基于位置的尋址C)都不行D)都可以答案:A解析:[單選題]117.Whichofthefollowingarereasonsforusingfeaturescaling?A)ItpreventsthematrixXTX(usedinthenormalequation)frombeingnon-invertable(singular/degenerate)B)Itspeedsupgradientdescentbymakingitrequirefeweriterationstogettoagoodsolution.C)ItspeedsupgradientdescentbymakingeachiterationofgradientdescentlessD)Itisnecessarytopreventthenormalequationfromgettingstuckinlocaloptima答案:B解析:[單選題]118.判斷和之前信息是否有用的門是A)遺忘門B)輸入門C)輸出門D)更新門答案:A解析:[單選題]119.深度學習中,以下哪些方法不可以降低模型過擬合?A)增加更多的樣本B)DropoutC)增大模型復雜度,提高在訓練集上的效果D)增加參數(shù)懲罰答案:C解析:[單選題]120.馮-諾依曼的現(xiàn)代計算機的組成有:輸入、輸出,CPU,內(nèi)存,和()A)鍵盤B)磁盤C)顯示器D)二進制答案:D解析:[單選題]121.通常對一個事物下定義,首先要將它放入(),然后再通過層層限定,收縮該事物的外延。A)包含該事物的的集合。B)邊緣事物的集合C)它包含的更小的集合D)直接陳列它的屬性A答案:A解析:[單選題]122.如果詞匯量是10000,每個詞匯由300個特征表示,那么嵌入矩陣就是一個()的矩陣A)10000*10000B)300*300C)300*10000D)100*10000答案:C解析:[單選題]123.X的定義是Variable或constant則print(X.get_shape())輸出:A)X張量描述B)X的數(shù)據(jù)值C)X的數(shù)軸數(shù)D)X的數(shù)據(jù)長度答案:A解析:[單選題]124.keras中dataset中映射元素的參數(shù)是A)mapB)filterC)shuffleD)batch答案:A解析:[單選題]125.下列關(guān)于注釋的說法正確的是()。A)單行注釋只能使用<號創(chuàng)建B)多行注釋只能使用<號創(chuàng)建C)使用引號創(chuàng)建注釋時,須保證前后引號數(shù)目相同,類型不必一致D)注釋的主要目的在于使代碼美觀答案:A解析:難易程度:中題型:[單選題]126.RMSprop算法的特點是A)指數(shù)加權(quán)平均數(shù)求和B)指數(shù)加權(quán)平均數(shù)先平方再開方C)指數(shù)加權(quán)平均數(shù)求微分D)指數(shù)加權(quán)平均數(shù)求均方誤差答案:B解析:[單選題]127.對于二元分類問題,您會選擇以下哪種架構(gòu)?CA)1B)2C)任何一個D)都不用答案:C解析:[單選題]128.哪個選項不是數(shù)據(jù)維度的種類?()。A)二維數(shù)據(jù)B)高維數(shù)據(jù)C)多維數(shù)據(jù)D)正交數(shù)據(jù)答案:D解析:難易程度:易題型:[單選題]129.在卷積神經(jīng)網(wǎng)絡(luò)計算中,已知輸入特征層大小為32x32x64,使用標準卷積計算,帶偏置項,卷積核大小為3*3,輸出特征層數(shù)目為64,請問卷積層的參數(shù)個數(shù)為?()A)576B)36928C)640D)36864答案:B解析:[單選題]130.下列哪個函數(shù)不可以做激活函數(shù)?DA)y=tanh(x)B)y=sin(x)C)y=max(x,0)D)y=2x答案:D解析:[單選題]131.年Rumelhart等人發(fā)展了()理論A)BP算法B)求偏導C)激活函數(shù)D)前向算法答案:A解析:[單選題]132.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A)隨機梯度下降B)修正線性單元(ReLU)C)卷積函數(shù)D)以上都不正確E)DropoutF)正則化G)批規(guī)范化H)以上都可以答案:D解析:難易程度:易題型:在神經(jīng)網(wǎng)絡(luò)中,哪種技術(shù)可以解決過擬合()難易程度:易題型:哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中存在權(quán)重共享難易程度:易題型:第2部分:多項選擇題,共41題,每題至少兩個正確答案,多選或少選均不得分。[多選題]133.pytorch和維度處理相關(guān)的是A)sizeB)viewC)reshapeD)forward答案:ABC解析:[多選題]134.哪些是Tensorflow的RNN中關(guān)于cell的類A)BasicRNNCellB)BasicLSTMCellC)GRUCellD)MultiRNNCell答案:ABCD解析:[多選題]135.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過擬合?A)DropoutB)正則化C)批規(guī)范化D)激活函數(shù)答案:ABC解析:[多選題]136.Kpile中可以作為metrics的有A)mseB)accuracyC)sgdD)bgd答案:AB解析:[多選題]137.在tf.matrix_inverse(x).eval()語句中A)對x進行求逆B)x是矩陣C)從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境D)不能獲知x的內(nèi)容答案:ABC解析:[多選題]138.pytorch使用()()兩個工具類來構(gòu)建管道A)datasetB)filelistC)dataloderD)pipeline答案:AC解析:[多選題]139.人臉檢測的圖片通常有那幾種類型?A)LIVE表示生活照;B)IDCARD表示身份證芯片照;C)WATERMARK表示帶水印證件照;D)CERT表示證件照片;答案:ABCD解析:[多選題]140.信息熵是對概率空間的整個系統(tǒng)描述,這里的概率空間描述正確的是:A)包含全部樣本點B)可能有多種劃分C)是核函數(shù)D)解決線性分類問題答案:AB解析:[多選題]141.可回收物指適宜回收利用和資源化利用的生活廢棄物??苫厥瘴镏饕贩N包括()A)廢紙B)廢棄塑料瓶C)廢金屬D)廢電池答案:ABC解析:可回收物指適宜回收利用和資源化利用的生活廢棄物??苫厥瘴镏饕贩N包括:廢紙、廢棄塑料瓶、廢金屬、廢包裝物、廢舊紡織物、廢棄電器電子產(chǎn)品、廢玻璃、廢紙塑鋁復合包裝等。[多選題]142.卷積核K的四個重要參數(shù)是A)高度B)寬度C)輸入通道D)輸出通道答案:ABCD解析:[多選題]143.支持向量機SVM算法能夠解決非線性分類,是通過那些措施?A)核函數(shù)B)線性分類C)增加數(shù)據(jù)維度D)激活函數(shù)答案:ABC解析:[多選題]144.通常深度學習網(wǎng)絡(luò)的卷積層部分的組成有A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]145.通常,使用TensorFlow框架進行開發(fā),可以應(yīng)用在實際領(lǐng)域和應(yīng)用場景有那些?A)語音識別B)自然語言處理NLPC)計算機視覺D)風格遷移廣告答案:ABCD解析:[多選題]146.Keras中卷積相關(guān)的層有A)Conv1DB)Conv2DC)MaxPool2DD)GlobalAvgPool2D答案:ABCD解析:[多選題]147.可以運用循環(huán)網(wǎng)絡(luò)的類型有A)視頻B)音樂C)對話D)文章創(chuàng)作答案:ABCD解析:[多選題]148.程序語句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),這條語句的含意理解為()?A)步長在高度方向和寬度方向均為3B)填充圖像邊緣,使圖像尺寸不變C)input_d是待卷積的數(shù)據(jù)D)進行卷積操作答案:ABCD解析:[多選題]149.對于每一個參數(shù)都用相同的學習率進行更新的優(yōu)化器有A)sgdB)mbgdC)動量優(yōu)化器D)adam答案:ABC解析:[多選題]150.Tf中能實現(xiàn)兩個向量代數(shù)運算的語句是A)c=tf.greater(A,b)B)a=tf.subtract(A,b)C)b=tf.Equal(A,b)D)d=tf.matmul(A,b)答案:BD解析:[多選題]151.具有激活功能的函數(shù)有A)reluB)softmaxC)sigmoidD)tanh答案:ABCD解析:[多選題]152.LSTM中擁有的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:ABC解析:[多選題]153.使用one-hot方法表示詞匯有什么缺點?A)每個單詞需要用高維向量來表示,而且只有一個數(shù)是零,其他都是1,表示冗余,存儲量大B)每個單詞表示的向量相乘都為零(正交),無法表示詞匯之間的聯(lián)系C)效率非常高D)能夠處理非連續(xù)型數(shù)值特征答案:AB解析:[多選題]154.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意義:A)定義學習步長B)優(yōu)化器C)交叉熵損失函數(shù)D)開始訓練答案:ABC解析:[多選題]155.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2對應(yīng)單詞是:A)name1是strideB)name2是paddingC)name1是paddingD)name2是stride答案:AB解析:[多選題]156.人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的()的一門新的技術(shù)科學。A)理論B)方法C)技術(shù)D)應(yīng)用系統(tǒng)答案:ABCD解析:人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學。[多選題]157.騰訊云是騰訊公司旗下的產(chǎn)品,為開發(fā)者及企業(yè)提供云服務(wù)、云數(shù)據(jù)、云運營等整體一站式服務(wù)方案。具體包括()A)基礎(chǔ)云服務(wù)B)整體大數(shù)據(jù)能力C)體育建設(shè)D)云端鏈接社交體系答案:ABD解析:騰訊云是騰訊公司旗下的產(chǎn)品,為開發(fā)者及企業(yè)提供云服務(wù)、云數(shù)據(jù)、云運營等整體一站式服務(wù)方案。具體包括云服務(wù)器、云存儲、云數(shù)據(jù)庫和彈性web引擎等基礎(chǔ)云服務(wù);騰訊云分析(MTA)、騰訊云推送(信鴿)等騰訊整體大數(shù)據(jù)能力;以及QQ互聯(lián)、QQ空間、微云、微社區(qū)等云端鏈接社交體系。[多選題]158.在卷積神經(jīng)網(wǎng)絡(luò)中,隨機生成的卷積核后:A)個別一些卷積核對特征提取幾乎無貢獻B)每個卷積核對特定特征進行提取C)有信號共振的原理D)特征最后形成編碼,送入全連接網(wǎng)絡(luò)答案:ABCD解析:[多選題]159.獨熱編碼的特點有A)每一行只有一個1B)1所在的位置下標就是標簽C)標簽有幾種,每個向量的長度就是多少D)適用于多分類交叉熵計算答案:ABCD解析:[多選題]160.反向傳播算法的過程如下:A)初始化聯(lián)結(jié)權(quán)重Wij,對于輸入的訓練樣本,求取每個節(jié)點輸出和最終輸出層的輸出值B)對輸出層求取偏導數(shù)C)對于隱藏層求取偏導數(shù)D)求取輸出誤差對于每個權(quán)重的梯度,更新權(quán)重答案:ABCD解析:[多選題]161.可以作為激活函數(shù)的是A)reluB)tanhC)batchnormD)sigmoid答案:ABD解析:C為批量歸一化[多選題]162.性能優(yōu)于alexnet的網(wǎng)絡(luò)有:A)LeNetB)VGG16C)ResNetD)Inception答案:BCD解析:[多選題]163.在圖像處理中,在顏色RGB建立三維向量的距離空間,能A)實現(xiàn)顏色分類B)計算兩種顏色的差別C)計算兩個圖像差別D)與圖像內(nèi)容有關(guān)答案:ABC解析:[多選題]164.對于不規(guī)則的切片提取,可以使用A)torch.index_selectB)torch.masked_selecC)torch.takeD)torch.iloc答案:ABC解析:[多選題]165.GRU神經(jīng)單元中擁有的門是:A)遺忘門B)輸入門C)輸出門D)更新門答案:CD解析:GRU將輸入門和遺忘門合二為一為更新門[多選題]166.能進行正則化功能的處理有A)dropoutB)l1C)l2D)數(shù)據(jù)增強答案:ABCD解析:[多選題]167.AlphaGo下圍棋的關(guān)鍵技術(shù)深度學習A)決策神經(jīng)網(wǎng)絡(luò)B)評估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗D)線性代數(shù)答案:AB解析:[多選題]168.Tensorflow中,函數(shù)tensorflow.nn.softmax_cross_entropy_with_logits()的功能描述正確的是A)在卷積層B)進行優(yōu)化C)用信息熵D)一定全連接層答案:BCD解析:[多選題]169.pytorch中用于向量計算的函數(shù)是A)sumB)meanC)minD)std答案:ABCD解析:[多選題]170.以下不具有激活功能的方式有A)reluB)dropoutC)LassoD)ridge答案:BCD解析:[多選題]171.函數(shù)conv2d()有好幾個參數(shù)…,對其參數(shù)描述正確的下面選項有那些?A)步長在高度方向和寬度方向均為stridesB)填充圖像邊緣,使圖像尺寸不變C)input是待卷積的數(shù)據(jù)D)filter是卷積核答案:ABCD解析:[多選題]172.optimizer中包含的方式有A)rmspropB)adagradC)adamD)sgd答案:ABCD解析:[多選題]173.one-hot編碼的優(yōu)點包括?()A)解決了分類器不好處理離散數(shù)據(jù)的問題B)解決了特征是離散稀疏的C)在一定程度上也起到了擴充特征的作用D)把詞向量的維度變小答案:AC解析:one-hot編碼優(yōu)缺點?優(yōu)點:(1)解決了分類器不好處理離散數(shù)據(jù)的問題。a.歐式空間。在回歸,分類,聚類等機器學習算法中,特征之間距離計算或相似度計算是非常重要的,而我們常用的距離或相似度的計算都是在歐式空間的相似度計算,計算余弦相似性,基于的就是歐式空間。b.one-hot編碼。使用one-hot編碼,將離散特征的取值擴展到了歐式空間,離散特征的某個取值就對應(yīng)歐式空間的某個點。將離散型特征使用one-hot編碼,確實會讓特征之間的距離計算更加合理。(2)在一定程度上也起到了擴充特征的作用。第3部分:判斷題,共54題,請判斷題目是否正確。[判斷題]174.如果我們將matplotlib繪圖的結(jié)果再tensorboard中展示,可以使用add_figure.A)正確B)錯誤答案:對解析:[判斷題]175.pytorchLSTM初始階段必須傳狀態(tài)值A(chǔ))正確B)錯誤答案:錯解析:[判斷題]176.變量初始化有三種方式,個別,部分,全局變量初始化。A)正確B)錯誤答案:對解析:[判斷題]177.虛擬化能使用戶在一臺服務(wù)器上同時運行多個操作系統(tǒng)A)正確B)錯誤答案:對解析:虛擬化能使用戶在一臺服務(wù)器上同時運行多個操作系統(tǒng)[判斷題]178.歸一化指數(shù)函數(shù)Softmax函數(shù),是用來將運算結(jié)果映射到概率空間。A)正確B)錯誤答案:對解析:[判斷題]179.GPU的計算能力遠超CPU()。A)正確B)錯誤答案:對解析:[判斷題]180.深度學習的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學習結(jié)構(gòu)。深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示A)正確B)錯誤答案:對解析:[判斷題]181.cifar100和一個100小分類和10大分類A)正確B)錯誤答案:對解析:[判斷題]182.在2018年,Leslie在其經(jīng)典論文中提出了關(guān)于識別最佳超參數(shù)的各種方法的詳細報告[5]。其中最好的方法是基于通過檢查測試/驗證損失以尋找欠擬合和過擬合的曲線來找到二者之間的平衡,以便爭取最佳超參數(shù)集合。A)正確B)錯誤答案:對解析:[判斷題]183.句子向量只能通過無監(jiān)督學習獲得。A)正確B)錯誤答案:錯解析:[判斷題]184.在自然界信息傳播速度,是以指數(shù)函數(shù)的速度進行的。A)正確B)錯誤答案:對解析:[判斷題]185.X.assign(100)是條立即數(shù)賦值語句。A)正確B)錯誤答案:對解析:[判斷題]186.將數(shù)據(jù)分為訓練集和測試集的目的是用以前看不見的數(shù)據(jù)測試網(wǎng)絡(luò)。A)正確B)錯誤答案:對解析:[判斷題]187.Anaconda最主要的作用是科學包及其依賴進行管理。A)正確B)錯誤答案:對解析:[判斷題]188.啟動tensorboard的指令是:tensorboard--logdirA)正確B)錯誤答案:對解析:[判斷題]189.dropout的原理是讓神經(jīng)元永久失活A(yù))正確B)錯誤答案:錯解析:[判斷題]190.所謂積分運算,就是求和的極限A)正確B)錯誤答案:對解析:[判斷題]191.騰訊云提供兩種加密登錄方式:密碼登錄和SSH密鑰登錄。用戶可以自由選擇兩種方式安全的與云服務(wù)器進行連接。Windows系統(tǒng)實例不支持密鑰登錄。A)正確B)錯誤答案:錯解析:騰訊云提供兩種加密登錄方式:密碼登錄和SSH密鑰登錄。用戶可以自由選擇兩種方式安全的與云服務(wù)器進行連接。Windows系統(tǒng)實例不支持SSH密鑰登錄。[判斷題]192.損失函數(shù)反映的是,標簽集合與訓練集合變換后結(jié)果的總體差別。A)正確B)錯誤答案:對解析:[判斷題]193.在Tensorflow中,若聲明字符串類型,可以直接使用tf.string。A)正確B)錯誤答案:對解析:[判斷題]194.RMSprop優(yōu)化器很好的解決了Adagrad優(yōu)化器過早結(jié)束的問題,很合適處理非平穩(wěn)目標,對于RNN網(wǎng)絡(luò)效果很好。A)正確B)錯誤答案:對解析:[判斷題]195.風格遷移可以被卷積神經(jīng)網(wǎng)絡(luò)不同激活的內(nèi)部相互關(guān)系所捕捉到。A)正確B)錯誤答案:對解析:[判斷題]196.TrueNegatives代表的是真負例A)正確B)錯誤答案:對解析:[判斷題]197.embedding就是獨熱A)正確B)錯誤答案:錯解析:[判斷題]198.Tf.Variable(initializer,name),參數(shù)initializer是初始化參數(shù),name是可自定義的變量名稱A)正確B)錯誤答案:對解析:[判斷題]199.Tf.set_random_seed函數(shù)可以從兩個seed中獲得依賴隨機seed的操作,圖形級seed和操作級seedA)正確B)錯誤答案:對解析:[判斷題]200.正向傳播就是模型預(yù)測的過程A)正確B)錯誤答案:對解析:[判斷題]201.神經(jīng)風格遷移可以用任何預(yù)訓練卷積神經(jīng)網(wǎng)絡(luò)來實現(xiàn)A)正確B)錯誤答案:對解析:[判斷題]202.當圖像分類的準確率不高時,可以考慮以數(shù)據(jù)增強提高準確率。A)正確B)錯誤答案:對解析:[判斷題]203.人工智能是研究、開發(fā)用于模擬、延伸、擴展人的智能理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)學科。人工智能是計算機科學的一個分支。A)正確B)錯誤答案:對解析:[判斷題]204.概率系統(tǒng)中,單個事件的信息熵,是系統(tǒng)信息熵的一個組成部分。A)正確B)錯誤答案:對解析:[判斷題]205.信息量就是信息熵。A)正確B)錯誤答案:錯解析:[判斷題]206.反向傳播過程中權(quán)重是同時更新的A)正確B)錯誤答案:對解析:[判斷題]207.若沒有在超參數(shù)中作出正確的標尺決定,可以通過在均勻標出上選取多個數(shù)據(jù)進行彌補A)正確B)錯誤答案:對解析:[判斷題]208.函數(shù)tf.nn.softmax_cross_entropy_with_logits_v2是常用的最新版本的交叉熵函數(shù)A)正確B)錯誤答案:對解析:[判斷題]209.人工智能的目的是讓機器能夠完全代替人,以實現(xiàn)某些腦力勞動的機械化。()A)正確B)錯誤答案:對解析:[判斷題]210.BP算法是由學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。由于多層前饋網(wǎng)絡(luò)的訓練經(jīng)常采用誤差反向傳播算法,人們也常把將多層前饋網(wǎng)絡(luò)直接稱為BP網(wǎng)絡(luò)A)正確B)錯誤答案:對解析:[判斷題]211.BP算法是通過梯度下降法對聯(lián)結(jié)權(quán)重進行優(yōu)化,所以需要計算誤差函數(shù)對聯(lián)結(jié)權(quán)重的偏導數(shù)。A)正確B)錯誤答案:對解析:[判斷題]212.存在某種深度神經(jīng)網(wǎng)絡(luò)(至少一個隱藏層),使其每個局部最優(yōu)解都是全局最優(yōu)解。A)正確B)錯誤答案:對解析:[判斷題]213.給定概率空間,信息熵是針對有限個概率事件的。A)正確B)錯誤答案:對解析:[判斷題]214.drop_remainder是將沒有處理的數(shù)據(jù)丟掉A)正確B)錯誤答案:對解析:[判斷題]215.句子向量表示只能通過有監(jiān)督學習獲得A)正確B)錯誤答案:錯解析:[判斷題]216.pad_sequences就是序列0填充,幫助將時間步添補成統(tǒng)一數(shù)值A(chǔ))正確B)錯誤答案:對解析:[判斷題]217.CBOW(連續(xù)詞袋)模型的特點是輸入已知上下文,輸出對當前單詞的預(yù)測A)正確B)錯誤答案:對解析:[判斷題]218.一句話所言事物的實現(xiàn)概率大,信息熵越大。A)正確B)錯誤答案:錯解析:[判斷題]219.Tensorboard中,可以使用tf.summary.scalar記錄標量A)正確B)錯誤答案:對解析:[判斷題]220.Tf.summary.histogram()函數(shù)功能是輸出一個直方圖的SummaryprotocolbufferA)正確B)錯誤答案:對解析:[判斷題]221.Relu函數(shù)只能在全連接層的神經(jīng)網(wǎng)絡(luò)里面有意義,在卷積層沒有意義A)正確B)錯誤答案:錯解析:[判斷題]222.執(zhí)行完語句tf.assign(start,new_value)后可以將變量start的值傳遞給新的變量new_valueA)正確B)錯誤答案:錯解析:[判斷題]223.批量歸一化有輕微防止過擬合的能力A)正確B)錯誤答案:對解析:[判斷題]224.曼哈頓距離的正式意義為L1-距離或城市區(qū)塊距離,也就是在歐幾里德空間的固定直角坐標系上兩點所形成的線段對軸產(chǎn)生的投影的距離總和A)正確B)錯誤答案:對解析:[判斷題]225.有一個隱藏層網(wǎng)絡(luò),就是二層神經(jīng)網(wǎng)絡(luò)A)正確B)錯誤答案:對解析:[判斷題]226.VGG16模型格式簡單易懂A)正確B)錯誤答案:錯解析:[判斷題]227.神經(jīng)網(wǎng)絡(luò)隱藏層越多,只會讓模型效果越好A)正確B)錯誤答案:錯解析:第4部分:問答題,共33題,請在空白處填寫正確答案。[問答題]228.繪制折線圖的方法_______答案:plot()解析:[問答題]229.編程:定義matmul函數(shù),函數(shù)實現(xiàn)兩個矩陣相乘。答案:ImporttensorflowastfDefmatmul(a,b):a=tf.constant(a)b=tf.constant(b)c=tf.matmul(a,b)sess=tf.Session()result=sess.run(c)sess.close()returnresult解析:[問答題]230.編程:Tensorflow完成一次線性函數(shù)計算。注:使用Tensorflow將各個不同的計算模塊拼接成流程圖,完成一次線性函數(shù)的計算,并在一個隱式會話中執(zhí)行。答案:Matrix1=tf.constant([[3.,3.]])#聲明matrix1為TF的一個1*2的行向量Matrix2=tf.constant([[2.],[2.]])#聲明matrix2為TF的一個2*1的列向量Product=tf.matmul(matrix1,matrix2)#兩個算子相乘,作為新算例Linear=tf.add(product,tf.constant(2.0))#將product與一個標量2求和拼接.作為最終的linear算例#直接在會話中執(zhí)行l(wèi)inear算例,相當于將上面所有的單獨算例拼接成流程圖來執(zhí)行Withtf.Session()assess:result=sess.run(linear)print(result)解析:[問答題]231.神經(jīng)網(wǎng)絡(luò)將權(quán)重參數(shù)沿著_______方向進行更新答案:梯度解析:[問答題]232.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層數(shù)越高,學到的特征就越_______。答案:全局化;解析:[問答題]233.編程:tf.variable_scope里面還有一個resuse=True屬性,表示使用已經(jīng)定義過的變量,這時tf.get_variable都不會創(chuàng)建新的變量,而是直接獲取已經(jīng)創(chuàng)建的變量。聲明3個同名變量,使用該屬性使用已定義過的變量。答案:ImporttensorflowastfWithtf.variable_scope('V1?):a1=tf.get_variable(name='a1',shape=[1],initializer=tf.constant_initializer(1))Withtf.variable_scope('V2?):a2=tf.get_variable(name='a1',shape=[1],initializer=tf.constant_initializer(1))Withtf.variable_scope('V2',reuse=True):a3=tf.get_variable('a1?)Withtf.Session()assess:sess.run(tf.global_variables_initializer())print()print()print()解析:[問答題]234.tensorflow里面是在_______中運行計算圖。答案:會話;解析:[問答題]235.dropout=tf.nn.dropout(rt,0.3,noise_shape=[1,4]),該程序中,隱藏層節(jié)點按_____丟棄。答案:列;解析:[問答題]236.tf.random_uniform的作用是用于產(chǎn)生一個滿足_______分布的張量。答案:平均;解析:[問答題]237.寫出異或門的真值表答案:>解析:[問答題]238.要創(chuàng)建一個所有元素為零的張量,可以使用_______函數(shù)。答案:tf.zeros();解析:[問答題]239.池化操作和激活函數(shù)的作用分別是什么答案:池化操作的作用就是縮小特征圖的尺寸,減少計算量,同時使得同樣大小的區(qū)域可以概括更加全局的信息。激活函數(shù)的作用是:激活函數(shù)是用來加入非線性因素的,解決線性模型所不能解決的問題。解析:[問答題]240.簡述BP神經(jīng)網(wǎng)絡(luò)的工作過程。答案:BP神經(jīng)網(wǎng)絡(luò)的過程主要分為兩個階段,第一階段是信號的前向傳播,從輸入層經(jīng)過隱含層,最后到達輸出層;第二階段是誤差的反向傳播,從輸出層到隱含層,最后到輸入層,依次調(diào)節(jié)隱含層到輸出層的權(quán)重和偏置,輸入層到隱含層的權(quán)重和偏置。解析:[問答題]241.創(chuàng)建一個3階的單位矩陣:np.________答案:eye(3)解析:[問答題]242.將Sigmoid激活函數(shù)改為ReLu,將有助于克服梯度消失問題?A)對B)錯答案:A解析:[問答題]243.x=tf.placeholder(32)Y=tf.placeholder(32)Z=tf.add(x,y)Session=tf.Session()Withses

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論