深度學習案例教程 試題 3.4新平臺系統(tǒng):智慧樹考試題_第1頁
深度學習案例教程 試題 3.4新平臺系統(tǒng):智慧樹考試題_第2頁
深度學習案例教程 試題 3.4新平臺系統(tǒng):智慧樹考試題_第3頁
深度學習案例教程 試題 3.4新平臺系統(tǒng):智慧樹考試題_第4頁
深度學習案例教程 試題 3.4新平臺系統(tǒng):智慧樹考試題_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

[單選題][2分][難度3]對于信息抽取,以下哪類不屬于信息抽取。(D)A.命名實體識別B.關(guān)系抽取C.事件抽取D.類別抽取[單選題][2分][難度3]在非線性建模中,深度學習可以通過使用多層非線性變換。以下說法錯誤的是。(D)A.實現(xiàn)對數(shù)據(jù)的高階特征提取和建模B.能更準確的捕捉數(shù)據(jù)的復雜性C.可以通過神經(jīng)網(wǎng)絡(luò)層來自適應(yīng)的提取數(shù)據(jù)中的高階特征D.可以在處理大規(guī)模數(shù)據(jù)時實現(xiàn)高效的并行計算[單選題][2分][難度3]關(guān)于pytorch框架,以下說法錯誤的是。(C)A.pytorch可以看作是加入了GPU支持的一個numpy類B.pytorch的代碼簡潔直觀C.設(shè)計追求最少的封裝,但代碼比較難于閱讀D.可以讓用戶零延遲的任意改變神經(jīng)網(wǎng)絡(luò)[單選題][2分][難度3]下列關(guān)于深度學習發(fā)展階段描述錯誤的是。(C)A.在推理期,只要給機器賦予相關(guān)邏輯能力,機器便具有了智能。B.在知識期,人們將一些知識用形式化的語言進行編碼,使得計算機通過邏輯推理來理解知識C.爆發(fā)期,通過BP算法有效的解決了神經(jīng)網(wǎng)絡(luò)在處理非線性分類和學習中的瓶頸。D.在快速發(fā)展期,模型通過大量數(shù)據(jù)來進行自身的學習,在結(jié)構(gòu)上進行有監(jiān)督的訓練微調(diào)。[單選題][2分][難度3]下列不屬于一階目標檢測算法的是。(C)A.OverFeatB.SSDC.SPP-NetD.RetinaNet[單選題][2分][難度3]關(guān)于混合型深度結(jié)構(gòu),下列描述錯誤的是。(C)A.它是對數(shù)據(jù)類型進行判別、分類B.學習過程包含兩個部分:生成部分和區(qū)分部分C.屬于混合型深度結(jié)構(gòu)的深度學習模型有:自編碼器、受限玻爾茲曼機、深度置信網(wǎng)絡(luò)等D.可以結(jié)合判別型模型在預訓練階段對網(wǎng)絡(luò)的所有權(quán)值進行優(yōu)化[單選題][2分][難度3]對于卷積神經(jīng)網(wǎng)絡(luò),以下說法錯誤的是。(D)A.卷積神經(jīng)網(wǎng)絡(luò)的基本模塊是由輸入和輸出層以及多個隱藏層組成B.與其他圖像分類算法相比,卷積神經(jīng)網(wǎng)絡(luò)使用相對較少的預處理。C.可用于圖像和視頻識別,推薦系統(tǒng),圖像分類,醫(yī)學圖像分析和自然語言處理。D.其本質(zhì)是一個用于處理和預測序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型[單選題][2分][難度3]對于L2正則化,以下說法錯誤的是(B)A.計算方式是在損失函數(shù)中加入?yún)?shù)的平方和的一半B.傾向于使一些參數(shù)變?yōu)榱鉉.可以防止參數(shù)過大D.計算簡單且有平滑的解[單選題][2分][難度3]對于代碼搜索任務(wù)來說,從下面哪個網(wǎng)站獲取數(shù)據(jù)較好(C)A.B.C.D.[單選題][2分][難度3]用什么工具可以將GitHub上面的項目下載到本地(B)A.requestsB.gitC.pycharmD.bs4[單選題][2分][難度3]用什么方法將自然語言文本和代碼這兩種異構(gòu)數(shù)據(jù)進行匹配(A)A.將兩種數(shù)據(jù)嵌入到同一個向量空間B.用翻譯模型進行翻譯C.直接計算相似度D.通過長度匹配[單選題][2分][難度3]在代碼搜索任務(wù)重,如果函數(shù)名字為readFile,應(yīng)該處理成哪種形式(D)A.ReadFileB.readFileC.read_FileD.readfile[單選題][2分][難度5]有一層神經(jīng)網(wǎng)絡(luò),前一層80個神經(jīng)元,后一層60個神經(jīng)元,如果使用均勻分布的Xavier初始化,那么權(quán)重初始化的范圍為(C)A.[-0.253,0.253]B.[-1,1]C.[-0.153,0.153]D.無法確定[單選題][2分][難度2]以下哪個模型是傳統(tǒng)語音識別中關(guān)鍵的模型(B)A.CMMB.HMMC.CNND.LSTM[單選題][2分][難度3]關(guān)于張量的相關(guān)屬性,下面輸出張量形狀的是(A)。A.tensor.shapeB.tensor.dtypeC.tensor.deviceD.tensor.type[單選題][2分][難度3]如果計算輸入張量中每個元素的絕對值,可以采用哪種方法(C)。A.matmul()B.mul()C.torch.abs()D.torch.add()[單選題][2分][難度3]關(guān)于Pytorch中的張量,以下說法錯誤的是(B)。A.在CPU上的張量和NumPy數(shù)組共享它們的內(nèi)存位置,改變一個會導致另一個數(shù)據(jù)也變化。B.在CPU上的張量和NumPy數(shù)組不共享它們的內(nèi)存位置。C.PyTorch的運算單元叫作張量(tensor)。D.張量屬性包括形狀、數(shù)據(jù)類型和存儲設(shè)備[單選題][2分][難度3]在Pytorch中,將張量移動到GPU上可以使用哪種函數(shù)實現(xiàn)。(C)A.rand()B.zeros()C.to()D.tensor()[單選題][2分][難度3]在Pytorch中,可以使用哪種函數(shù)實現(xiàn)張量方差的求取。(A)A.var()B.nanmean()C.sum()D.add()[單選題][2分][難度3]在Pytorch中,可以使用哪種函數(shù)實現(xiàn)計算指定張量維度的元素的和。(C)A.min()B.max()C.sum()D.mean()[單選題][2分][難度3]在Pytorch中,可以使用哪種函數(shù)實現(xiàn)張量標準差的求取。(B)A.min()B.std()C.sum()D.add()[單選題][2分][難度3]對于文本翻譯任務(wù),以下哪種技術(shù)不會被用到。(D)A.批處理技術(shù)B.歸一化技術(shù)C.注意力機制D.金字塔卷積方法[單選題][2分][難度3]在批處理中,對1000個訓練樣本進行批處理,批大小為32,那么以下說法錯誤的是。(C)A.數(shù)據(jù)有32個批次B.有一個批次內(nèi)有8個樣本C.每個批都有32個樣本D.每個批的大小不一樣[單選題][2分][難度3]關(guān)于深度學習中的注意力機制,以下說法錯誤的是。(D)A.根據(jù)輸入序列的不同部分對目標序列進行加權(quán)關(guān)注B.解碼器可以確定在生成當前單詞時對輸入序列的哪些部分進行更重視C.注意力機制的作用是改善模型對長句子的處理能力D.注意力機制通過選取有效樣本達到減小數(shù)據(jù)量的目的[單選題][2分][難度3]在文本翻譯任務(wù)中,數(shù)據(jù)處理類classLang中的self.index2word的作用是。(A)A.給每個詞標序號B.記錄每個詞出現(xiàn)出現(xiàn)多少次C.記錄總的詞數(shù)D.給詞庫添加一次詞語[單選題][2分][難度3]在文本翻譯任務(wù)中,函數(shù)unicodeToAscii的作用是。(C)A.文本轉(zhuǎn)化為向量B.文本詞匯標序C.編碼格式轉(zhuǎn)換D.文本清洗[單選題][2分][難度3]在文本翻譯模型中,解碼器初始輸入是什么。(D)A.字典中的第一個tokenB.零向量C.<EOS>標志位D.<SOS>標志位[單選題][2分][難度3]對于隨機批處理和順序批處理方法,以下說法錯誤的是。(B)A.可以根據(jù)數(shù)據(jù)集的特點選擇B.隨機批處理比順序批處理的效果好C.可以交替使用D.如果數(shù)據(jù)集排列存在順序,那么隨機批處理效果較好[單選題][2分][難度3]均方誤差(MSE)損失函數(shù)通常用于解決哪種類型的問題(C)。A.分類問題B.目標檢測問題C.回歸問題D.圖像分割問題[單選題][2分][難度3]關(guān)于梯度下降算法的哪些描述是正確的(B)。A.梯度下降算法始終收斂到全局最小值B.學習率是一個超參數(shù),影響梯度下降的速度和穩(wěn)定性C.隨機梯度下降算法每次只處理一個樣本D.批量梯度下降算法每次處理整個數(shù)據(jù)集[單選題][2分][難度3]反向傳播是深度學習中用于什么目的的(B)。A.正向傳播神經(jīng)網(wǎng)絡(luò)的輸出B.計算損失函數(shù)相對于模型參數(shù)的梯度C.初始化神經(jīng)網(wǎng)絡(luò)權(quán)重D.前向傳遞數(shù)據(jù)到下一層神經(jīng)元[單選題][2分][難度3]為什么神經(jīng)網(wǎng)絡(luò)模型不能直接應(yīng)用梯度下降算法進行訓練(C)。A.梯度下降算法需要明確求導函數(shù)B.神經(jīng)網(wǎng)絡(luò)沒有明確的輸入和輸出C.隱藏層的誤差不能直接求導D.神經(jīng)網(wǎng)絡(luò)的參數(shù)無法更新[單選題][2分][難度3]目標檢測的主要任務(wù)是(C)。A.圖像分類B.物體定位C.識別感興趣的物體D.圖像分割[單選題][2分][難度3]目標檢測中,什么是目標定位(B)。A.確定物體的類別B.準確地定位物體的位置C.生成物體的分割掩碼D.對圖像進行特征提取[單選題][2分][難度3]目標檢測中的非極大值抑制(NMS)的作用是(A)。A.減少重疊的檢測框B.提高目標分類準確性C.加速模型訓練過程D.減小損失函數(shù)的值[單選題][2分][難度3]在目標檢測中,以下哪些是常用的優(yōu)化算法(A)。A.隨機梯度下降(SGD)B.卷積神經(jīng)網(wǎng)絡(luò)(CNN)C.牛頓法D.隨機森林[單選題][2分][難度3]分詞是自然語言處理中的哪一步驟(D)。A.語法分析B.詞干提取C.停用詞處理D.文本標記[單選題][2分][難度3]哪種訓練/測試數(shù)據(jù)分割方法將數(shù)據(jù)集劃分為k個互斥子集,然后使用其中k-1個子集作為訓練集,1個子集作為測試集(B)。A.自助法B.交叉驗證C.留出法D.隨機抽樣法[單選題][2分][難度3]交叉驗證的主要優(yōu)點是什么(B)。A.計算成本低B.減小模型性能估計的方差C.可以用于處理時間序列數(shù)據(jù)D.不需要多輪訓練和驗證[單選題][2分][難度3]下面哪種不是交叉驗證的一種類型(D)。A.K-折交叉驗證B.隨機劃分交叉驗證C.自助法D.梯度下降交叉驗證[單選題][2分][難度3]在Python中,哪個庫通常用于進行交叉驗證(A)。A.scikit-learnB.PyTorchC.TensorFlowD.Keras[單選題][2分][難度3]哪種情況是過擬合的明顯標志(C)。A.模型在驗證數(shù)據(jù)上的性能好于訓練數(shù)據(jù)B.模型在訓練數(shù)據(jù)上的損失和驗證數(shù)據(jù)上的損失同時下降C.模型在訓練數(shù)據(jù)上的損失下降而在驗證數(shù)據(jù)上的損失上升D.模型在訓練數(shù)據(jù)上的損失和驗證數(shù)據(jù)上的損失都上升[單選題][2分][難度3]文本分類模型中的哪個層通常用于計算所有詞向量的平均值(C)。A.邏輯回歸層B.卷積層C.nn.EmbeddingBag層D.LSTM層[單選題][2分][難度3]在文本分類任務(wù)中,什么是過擬合?(B)。A.模型在訓練數(shù)據(jù)上的表現(xiàn)差,而在驗證數(shù)據(jù)上的表現(xiàn)好B.模型在訓練數(shù)據(jù)上的表現(xiàn)好,而在驗證數(shù)據(jù)上的表現(xiàn)差C.模型在訓練數(shù)據(jù)和驗證數(shù)據(jù)上的表現(xiàn)相似D.模型無法在任何數(shù)據(jù)上表現(xiàn)良好[單選題][2分][難度3]下面哪種方法不是防止過擬合的策略(A)。A.使用更復雜的模型B.提供更多的訓練數(shù)據(jù)C.正則化D.早停法[單選題][2分][難度3]詞嵌入是一種將單詞或短語映射到什么類型的空間(B)。A.整數(shù)向量空間B.實數(shù)向量空間C.二進制向量空間D.字符串向量空間[單選題][2分][難度3]詞嵌入通過將單詞表示為什么類型的向量,使計算機更好地理解單詞之間的語義和關(guān)聯(lián)關(guān)系(C)。A.整數(shù)向量B.布爾向量C.實數(shù)向量D.字符串向量[單選題][2分][難度3]在手寫數(shù)字識別中,全連接網(wǎng)絡(luò)的輸入層應(yīng)該是(A)。A.手寫數(shù)字的像素值B.手寫數(shù)字的標簽C.手寫數(shù)字的特征向量D.手寫數(shù)字的灰度圖像[單選題][2分][難度3]在全連接網(wǎng)絡(luò)中,隱藏層的作用是(B)。A.提取手寫數(shù)字的特征B.幫助網(wǎng)絡(luò)學習輸入與輸出之間的映射關(guān)系C.調(diào)整網(wǎng)絡(luò)的權(quán)重和偏置D.輸出最終的分類結(jié)果[單選題][2分][難度3]在全連接網(wǎng)絡(luò)中,輸出層的激活函數(shù)常常選擇(D)。A.Sigmoid函數(shù)B.ReLU函數(shù)C.LeakyReLU函數(shù)D.Softmax函數(shù)[單選題][2分][難度3]在手寫數(shù)字識別中,交叉熵損失函數(shù)常用于(A)。A.衡量網(wǎng)絡(luò)輸出與真實標簽之間的差異B.正則化網(wǎng)絡(luò)的權(quán)重和偏置C.改善網(wǎng)絡(luò)的收斂性D.防止過擬合[單選題][2分][難度3]在訓練全連接網(wǎng)絡(luò)時,批量梯度下降的特點是(A)。A.使用全部訓練樣本計算梯度B.使用隨機選擇的一部分訓練樣本計算梯度C.使用單個訓練樣本計算梯度D.不使用梯度進行參數(shù)更新[單選題][2分][難度3]過擬合現(xiàn)象在全連接網(wǎng)絡(luò)中可能出現(xiàn)的原因是(B)。A.網(wǎng)絡(luò)層數(shù)過多B.訓練數(shù)據(jù)過少C.正則化項設(shè)置過大D.學習率設(shè)置過小[單選題][2分][難度3]為了提高全連接網(wǎng)絡(luò)的性能,可以嘗試的方法包括(A)。A.增加網(wǎng)絡(luò)的層數(shù)B.減小網(wǎng)絡(luò)的神經(jīng)元數(shù)量C.刪除正則化項D.減小訓練數(shù)據(jù)集的大小[單選題][2分][難度3]卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像分類任務(wù)中的優(yōu)勢是(C)。A.可以處理任意大小的輸入圖像B.具有較高的計算效率C.可以自動提取圖像的特征D.需要較少的訓練數(shù)據(jù)[單選題][2分][難度3]卷積層在卷積神經(jīng)網(wǎng)絡(luò)中的作用是(D)。A.提取圖像的全局特征B.縮小圖像的尺寸C.增加圖像的通道數(shù)D.提取圖像的局部特征[單選題][2分][難度3]池化層在卷積神經(jīng)網(wǎng)絡(luò)中的作用是(B)。A.提取圖像的全局特征B.縮小圖像的尺寸C.增加圖像的通道數(shù)D.提取圖像的局部特征[單選題][2分][難度3]在卷積神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)常用的選擇是(B)。A.Sigmoid函數(shù)B.ReLU函數(shù)C.Tanh函數(shù)D.Softmax函數(shù)[單選題][2分][難度3]在卷積神經(jīng)網(wǎng)絡(luò)中,全連接層的作用是(D)。A.提取圖像的全局特征B.縮小圖像的尺寸C.增加圖像的通道數(shù)D.進行分類或回歸任務(wù)[單選題][2分][難度3]激活函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)中的作用是什么?(C)。A.提高模型的魯棒性B.加速模型訓練速度C.引入非線性變換D.減少參數(shù)的數(shù)量[單選題][2分][難度3]在訓練卷積神經(jīng)網(wǎng)絡(luò)時,損失函數(shù)的選擇是根據(jù)什么來確定的(D)。A.訓練數(shù)據(jù)的類型B.網(wǎng)絡(luò)的深度C.優(yōu)化算法的選擇D.任務(wù)的具體要求[多選題][2分][難度3]屬于生成型深度結(jié)構(gòu)的深度學習模型有(ABC)。A.自編碼器B.受限玻爾茲曼機C.深度置信網(wǎng)絡(luò)D.遺傳算法[多選題][2分][難度3]詞法分析器的主要任務(wù)有(ABCD)。A.詞匯切分_B.詞性標注C.詞形還原D.去除停用詞[多選題][2分][難度3]在深度學習中,梯度下降算法基本思想包括(AB)。A.通過計算損失函數(shù)的梯度,沿著負梯度方向更新模型的參數(shù),逐步接近最優(yōu)解。B.通過多次迭代和參數(shù)更新,可以使模型逐漸收斂到損失函數(shù)的極值點,從而獲得最優(yōu)的參數(shù)值。C.通過反復調(diào)整模型參數(shù)、計算損失函數(shù)、使用優(yōu)化算法進行參數(shù)更新D.通過測試集的評估結(jié)果,可以判斷模型的泛化能力和對未知數(shù)據(jù)的預測能力[多選題][2分][難度3]在pytorch中初始化張量的方法有(ABCD)。A.torch.Tensor()B.torch.rand()C.torch.ones()D.torch.zeros()[多選題][2分][難度3]關(guān)于Pytorch中的函數(shù)作用,以下說法正確的是(ABCD)。A.正態(tài)分布函數(shù)是normal()B.伯努利分布函數(shù)是bernoulli()C.泊松分布是poisson()D.多元正態(tài)分布是multinomial()[多選題][2分][難度3]在Pytorch中,可以使用哪些函數(shù)實現(xiàn)張量最小值的求取。(ABCD)A.min()B.amin()C.argmin()D.minimum()[多選題][2分][難度3]在Pytorch中,可以使用哪些函數(shù)實現(xiàn)張量最大值的求取。(ABCD)A.max()B.amax()C.argmax()D.maximum()[多選題][2分][難度3]在Pytorch中,關(guān)于分位數(shù)函數(shù)quantile()參數(shù)解釋正確是(ABCD)。A.第一個參數(shù)是待處理的張量。B.第二個參數(shù)是[0,1]范圍內(nèi)的值,類型為標量或一維張量。C.第三個參數(shù)是要處理的維度,默認返回張量中所有元素的分位數(shù)。D.第四個參數(shù)是輸出張量是否保留了dim,默認值為false。[多選題][2分][難度3]在Pytorch中,可以使用哪些函數(shù)實現(xiàn)張量元素的和求取。(ABCD)A.msum()B.nansum()C.cumsum()D.minimum()[多選題][2分][難度3]如果想讓矩陣中相應(yīng)位置上的元素相乘,可以使用哪些方法來實現(xiàn)(AB)。A.符號:*B.函數(shù):mul()C.符號:@D.函數(shù):matmul()[多選題][2分][難度3]句子分析的主要任務(wù)包括(ABC)。A.依存句法分析B.短語結(jié)構(gòu)分析C.語法規(guī)則分析D.語義解析和邏輯推理[多選題][2分][難度3]下列屬于深度學習特點的是(ABCD)。A.自適應(yīng)性B.非線性建模C.分層抽象表示D.可擴展性[多選題][2分][難度3]在正式使用聲學模型進行語音識別之前,我們需要對音頻信號進行(AC)。A.預處理B.減小模型參數(shù)C.特征提取D.擬合音頻信號[多選題][2分][難度3]下列屬于超分辨率重建的方法有(ABCD)。A.最近鄰插值B.雙線性插值C.基于重建的方法D.基于深度學習的方法[多選題][2分][難度3]對于深度學習中的批歸一化,需要計算的數(shù)據(jù)有(BC)。A.總的批次數(shù)量B.均值C.方差D.網(wǎng)絡(luò)總參數(shù)量[多選題][2分][難度3]Seq2Seq模型的代碼實現(xiàn)中,Seq2Seq類包含哪些方法(AB)。A.__init__B.forwardC.updateD.Linear[多選題][2分][難度3]在Tatoeba數(shù)據(jù)集中,每個樣本包含哪些信息(BCD)。A.圖片B.中文C.英文D.版本號[多選題][2分][難度3]在文本翻譯模型中,解碼器輸入包含哪些內(nèi)容(BCD)。A.softmaxB.tokenC.上下文向量hiddenD.images[多選題][2分][難度3]隨機批處理的缺點包括(ABC)。A.樣本分布的不平衡B.有些類別的樣本可能會被頻繁選擇C.有些類別的樣本可能不會被選擇到D.改變樣本的值[多選題][2分][難度3]BatchNormalization的優(yōu)勢有(ACD)。A.加速收斂B.減小模型參數(shù)C.提高模型的穩(wěn)定性D.減少過擬合[多選題][2分][難度3]對于Seq2Seq網(wǎng)絡(luò),以下說法正確的有(ABCD)。A.一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型B.結(jié)構(gòu)中包含編碼器(Encoder)和解碼器(Decoder)C.可以將源語言句子編碼為一個上下文向量D.利用注意力機制提高模型性能[多選題][2分][難度3]傳統(tǒng)的目標檢測方法包括以下哪些方法(AB)。A.基于滑動窗口的方法B.基于特征的方法C.區(qū)域提議網(wǎng)絡(luò)(RPN)D.滑動窗口和區(qū)域池化[多選題][2分][難度3]FasterR-CNN相比于FastR-CNN的改進包括(AC)。A.引入了區(qū)域提議網(wǎng)絡(luò)(RPN)B.使用全連接層進行特征提取C.引入了區(qū)域池化層D.僅使用選擇性搜索生成候選區(qū)域[多選題][2分][難度3]交叉驗證的主要缺點是什么(ACD)。A.計算成本高B.難以實現(xiàn)C.可能不適用于時間序列數(shù)據(jù)D.可能引入數(shù)據(jù)分割的隨機性影響[多選題][2分][難度3]下面哪些方法可以用于防止過擬合(ACD)。A.獲取更多的訓練數(shù)據(jù)B.使用更復雜的模型C.正則化D.早停法[多選題][2分][難度3]在中文分詞中,哪些方法常用于解決切詞的歧義問題(ABC)。A.基于字符串匹配的方法B.基于統(tǒng)計的方法C.深度學習方法D.分層切分[多選題][2分][難度3]以下哪些任務(wù)可以使用詞嵌入來提高性能?(AB)。A.文本分類B.機器翻譯C.圖像識別D.語音識別[多選題][2分][難度3]對于CODEnn模型,關(guān)鍵有哪幾部分組成(ACD)。A.代碼嵌入網(wǎng)絡(luò)(CoNN)B.嵌入空間模塊C.描述嵌入網(wǎng)絡(luò)(DeNN)D.相似度比較模塊[多選題][2分][難度3]對于代碼搜索任務(wù)的數(shù)據(jù)處理任務(wù),需要整理代碼中的哪些內(nèi)容(BCD)。A.代碼量B.函數(shù)C.描述D.方法名[多選題][2分][難度3]對于早停法,以下說法正確的是(ABC)。A.在驗證集上監(jiān)控模型的性能B.在性能不再提升時停止訓練C.防止模型過擬合訓練數(shù)據(jù)D.不需要切分數(shù)據(jù)集[多選題][2分][難度3]對于Dropout方法,以下說法正確的是(ABCD)。A.使模型學習更加魯棒的特征B.隨機丟棄神經(jīng)網(wǎng)絡(luò)中的部分神經(jīng)元C.在訓練過程中以一定的概率將神經(jīng)元輸出置為零D.可以減少神經(jīng)元之間的共適應(yīng)性[多選題][2分][難度3]語音識別的基本單位包含(ABCD)。A.Phoneme(音位,音素)B.Grapheme(字位)C.Word(詞)D.Morpheme(詞素)[多選題][2分][難度3]經(jīng)典的聲學特征有哪些?(ABD)。A.梅爾頻率倒譜系數(shù)MFCCB.感知線性預測系數(shù)PLPC.尺度不變特征轉(zhuǎn)換SIFTD.線性預測倒譜系數(shù)LPCC[多選題][2分][難度3]深度學習的語音識別模型有哪些?(ABCD)。A.LASB.CTCC.RNN-TD.MoChA[多選題][2分][難度3]簡單全連接網(wǎng)絡(luò)中的激活函數(shù)常用的有(ABC)。A.ReLUB.SigmoidC.TanhD.Softmax[多選題][2分][難度3]簡單全連接網(wǎng)絡(luò)中,正則化技術(shù)用于防止過擬合。常見的正則化技術(shù)包括(ABCD)。A.L1正則化B.L2正則化C.DropoutD.批量歸一化(BatchNormalization)[多選題][2分][難度3]簡單全連接網(wǎng)絡(luò)中,常用的訓練技巧包括(ABCD)。A.學習率衰減B.參數(shù)初始化C.批量大小選擇D.數(shù)據(jù)增強[多選題][2分][難度3]在簡單全連接網(wǎng)絡(luò)中,訓練過程中的批量大?。╞atchsize)對模型的影響是(AB)。A.較大的批量大小會延長訓練過程B.較小的批量大小可以提高模型的泛化能力C.批量大小對模型沒有影響D.以上都不是[多選題][2分][難度3]在簡單全連接網(wǎng)絡(luò)中,為了防止過擬合,常常會使用的方法是(ABC)。A.正則化(Regularization)B.早停(EarlyStopping)C.dropoutD.梯度清空[多選題][2分][難度3]在簡單全連接網(wǎng)絡(luò)中,使用ReLU作為激活函數(shù)的優(yōu)點是(ABC)。A.可以避免梯度消失問題B.計算速度快C.可以處理非線性關(guān)系D.梯度穩(wěn)定[多選題][2分][難度3]全連接網(wǎng)絡(luò)的優(yōu)點是(BD)。A.可以處理任意大小的輸入數(shù)據(jù)B.對于復雜任務(wù)具有很高的靈活性C.訓練速度快D.需要較少的內(nèi)存和計算資源[多選題][2分][難度3]卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種適用于圖像分類任務(wù)的深度學習模型,其主要特點是(AB)。A.具有局部感知能力B.可以自動提取圖像特征C.可以處理序列數(shù)據(jù)D.可以處理非結(jié)構(gòu)化數(shù)據(jù)[多選題][2分][難度3]卷積層的參數(shù)包括(ABC)。A.卷積核的尺寸B.步長(stride)的大小C.填充(padding)的方式D.激活函數(shù)的選擇[多選題][2分][難度3]卷積神經(jīng)網(wǎng)絡(luò)(CNN)常用于哪些計算機視覺任務(wù)?(ABD)。A.圖像分類B.目標檢測C.圖像生成D.圖像分割[多選題][2分][難度3]在卷積神經(jīng)網(wǎng)絡(luò)中,哪些層可以幫助提取圖像的特征?(AB)。A.卷積層B.池化層C.全連接層D.遞歸層[多選題][2分][難度3]數(shù)據(jù)增強在卷積神經(jīng)網(wǎng)絡(luò)訓練中的作用是什么?(AB)。A.擴充訓練集大小B.減少模型的過擬合風險C.提高模型的準確性D.加速模型的訓練過程[多選題][2分][難度3]在卷積神經(jīng)網(wǎng)絡(luò)的訓練過程中,哪些優(yōu)化算法常被使用?(ABC)。A.隨機梯度下降(SGD)B.Adam優(yōu)化算法C.Momentum優(yōu)化算法D.反向傳播算法[多選題][2分][難度3]在卷積神經(jīng)網(wǎng)絡(luò)中,哪些技術(shù)可以用來解決梯度消失問題?(AD)。A.ResNet結(jié)構(gòu)B.卷積層C.池化層D.跳躍連接[判斷題][2分][難度3]Xavier初始化適用于具有Sigmoid激活函數(shù)的網(wǎng)絡(luò)層(對)[判斷題][2分][難度3]對于自然語言進行數(shù)據(jù)增強,可以通過空間變化得到更多樣本(錯)[判斷題][2分][難度3]Xavier初始化通過根據(jù)輸入和輸出的維度來縮放權(quán)重的隨機初始化范圍(對)[判斷題][2分][難度3]He初始化方法適用于使用ReLU或其變體的網(wǎng)絡(luò)(對)[判斷題][2分][難度3]torch.ones()返回一個全為1的張量。(對)[判斷題][2分][難度3]tensor.shape輸出張量的數(shù)據(jù)類型。(錯)[判斷題][2分][難度3]在程序中可以用torch.cat()或torch.stack()函數(shù)來拼接張量。(對)[判斷題][2分][難度3]關(guān)于乘法,矩陣相乘可以使用@符號。(對)[判斷題][2分][難度3]在深度學習中行人重識別是一種目標檢測方法。(對)[判斷題][2分][難度3]1989年,紐約大學教授Alexnet發(fā)明了CNN–LeNet網(wǎng)絡(luò),并將其用于數(shù)字識別,且取得了較好的成績。(錯)[判斷題][2分][難度3]判別型深度結(jié)構(gòu)主要提供了對模式的區(qū)分能力,通常描述數(shù)據(jù)的后驗分布。屬于判別型深度結(jié)構(gòu)的深度學習模型主要有卷積神經(jīng)網(wǎng)絡(luò)和深凸網(wǎng)絡(luò)等。(對)[判斷題][2分][難度3]在深度學習中目標檢測核心任務(wù)是篩選出給定圖像中所有感興趣的目標,確定其位置和大小。(對)[判斷題][2分][難度3]在深度學習中BatchNormalization是一種文本翻譯的模型。(錯)[判斷題][2分][難度3]在批處理中,每一批的所有數(shù)據(jù)都前向傳播并且反向傳播后,才會更新梯度。(對)[判斷題][2分][難度3]在文本翻譯模型中,編碼器得到的上下文向量是不固定長度的。(錯)[判斷題][2分][難度3]對于BatchNormalization,較小的批次大小可能會引入噪聲(對)[判斷題][2分][難度3]均方誤差(MSE)損失函數(shù)適用于解決分類問題。(錯)[判斷題][2分][難度3]動量梯度下降算法是一種改進的梯度下降算法,利用歷史梯度的加權(quán)平均進行參數(shù)更新。(對)[判斷題][2分][難度3]反向傳播算法涉及計算梯度并使用梯度下降來更新神經(jīng)網(wǎng)絡(luò)的參數(shù)。(對)[判斷題][2分][難度3]R-CNN中,每個候選區(qū)域都需要單獨進行特征提取和分類。(對)[判斷題][2分][難度3]MaskR-CNN具有目標檢測和像素級分割的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論