深度學(xué)習(xí)案例教程 試題 3.1新平臺(tái)系統(tǒng):智慧樹彈題導(dǎo)_第1頁
深度學(xué)習(xí)案例教程 試題 3.1新平臺(tái)系統(tǒng):智慧樹彈題導(dǎo)_第2頁
深度學(xué)習(xí)案例教程 試題 3.1新平臺(tái)系統(tǒng):智慧樹彈題導(dǎo)_第3頁
深度學(xué)習(xí)案例教程 試題 3.1新平臺(tái)系統(tǒng):智慧樹彈題導(dǎo)_第4頁
深度學(xué)習(xí)案例教程 試題 3.1新平臺(tái)系統(tǒng):智慧樹彈題導(dǎo)_第5頁
已閱讀5頁,還剩2頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

[判斷題][00:07:22][1.1]1、深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法。(對(duì))[單選題][00:05:32][1.2]2、深度學(xué)習(xí)中的“深度”是指(B)。A.計(jì)算機(jī)理解深度B.中間神經(jīng)元網(wǎng)絡(luò)層次很多C.計(jì)算機(jī)求解更加精確D.計(jì)算機(jī)對(duì)問題的處理更加靈活[多選題][00:04:52][1.3]3、深度學(xué)習(xí)的發(fā)展一共經(jīng)歷哪幾個(gè)階段(ABCDE)。A.推理期B.知識(shí)期C.學(xué)習(xí)期D.快速發(fā)展期E.爆發(fā)期[判斷題][00:03:42][1.4]4、LPCC特征是基于人的聽覺特征提取出來的特征參數(shù),是對(duì)人耳聽覺的特征表征。(錯(cuò))[單選題][00:05:02][1.5]5、下列不屬于兩階段目標(biāo)檢測算法的是(B)。A.R-CNNB.RetinaNetC.SPP-NetD.FastR-CNN[多選題][00:04:12][1.6]6、句子分析的主要任務(wù)包括(ABC)。A.依存句法分析B.短語結(jié)構(gòu)分析C.語法規(guī)則分析D.語義解析和邏輯推理[判斷題][00:03:22][1.7]7、深度學(xué)習(xí)可以通過大量的數(shù)據(jù),來自適應(yīng)的調(diào)整模型參數(shù),以便更好的處理各類型的數(shù)據(jù)。(對(duì))[多選題][00:04:12][1.8]8、以下屬于Python語言下深度學(xué)習(xí)框架的是(ABC)。A.TensorFlowB.PyTorchC.KerasD.Caffe[判斷題][00:07:02][2.1]9、計(jì)算圖是一個(gè)由節(jié)點(diǎn)和邊組成的有向無環(huán)圖(DAG)。(對(duì))[判斷題][00:05:22][2.2]10、對(duì)于虛擬環(huán)境pytorch,我們可以輸入命令“condaactivatepytorch”來激活此環(huán)境。(對(duì))[多選題][00:08:32][2.3.1]11、通過Pytorch下的函數(shù),創(chuàng)建一個(gè)4×3的張量,代碼正確的是。(ABCD)A.torch.Tensor(4,3)B.torch.rand((4,3))C.torch.ones((4,3))D.torch.zeros((4,3))[判斷題][00:04:32][2.3.2]12、在CPU上的張量和NumPy數(shù)組共享它們的內(nèi)存位置,改變一個(gè)會(huì)導(dǎo)致另一個(gè)數(shù)據(jù)也變化。(對(duì))[單選題][00:08:12][2.3.3]13、在pytorch中可以使用哪種函數(shù)實(shí)現(xiàn)中位數(shù)的求取。(C)。A.maximum()B.mean()C.median()D.min()[單選題][00:06:22][2.3.4]14、在pytorch中可以使用哪種函數(shù)實(shí)現(xiàn)方差的求取。(D)。A.sum()B.cumsum()C.std()D.var()[單選題][00:05:02][2.3.5]15、如果需要返回隨機(jī)數(shù)種子,可以使用哪種函數(shù)。(A)A.initial_seed()B.manual_seed()C.multinomial()D.poisson()[判斷題][00:06:32][2.4.1]16、訓(xùn)練集是指訓(xùn)練一個(gè)模型的所有數(shù)據(jù),測試集則是指用于檢驗(yàn)這個(gè)訓(xùn)練好的模型的所有數(shù)據(jù)。在訓(xùn)練過程中,模型不會(huì)接觸到測試集的數(shù)據(jù)。(對(duì))[判斷題][00:07:42][2.4.2]17、在PyTorch中,如果某個(gè)函數(shù)后面加上了“_”,就表明要用這個(gè)函數(shù)的計(jì)算結(jié)果更新當(dāng)前的變量。(對(duì))[單選題][00:05:52][3.1]1、手寫數(shù)字識(shí)別屬于哪種類型的任務(wù)(A)。A.圖像分類任務(wù)B.圖像聚類任務(wù)C.圖像匹配任務(wù)D.圖像分析任務(wù)[多選題][00:03:42][3.2]2、神經(jīng)網(wǎng)絡(luò)包括以下哪些層次結(jié)構(gòu)(ABD)。A.輸入層B.隱藏層C.傳播層D.輸出層[判斷題][00:04:52][3.3]3、ReLU激活函數(shù)可以增強(qiáng)神經(jīng)網(wǎng)絡(luò)的非線性。(對(duì))[判斷題][00:08:42][3.4.1]4、在導(dǎo)入MNIST數(shù)據(jù)集時(shí)可以通過設(shè)置batchsize參數(shù)控制批次的數(shù)據(jù)量。(對(duì))[判斷題][00:09:32][3.4.2]5、損失函數(shù)的主要作用是評(píng)估模型輸出結(jié)果與目標(biāo)結(jié)果之間的差距。(對(duì))[判斷題][00:07:22][3.4.3]6、在進(jìn)行模型訓(xùn)練前要定義好損失函數(shù)和優(yōu)化器。(對(duì))[多選題][00:07:02][3.4.4]7、分類任務(wù)模型常見的評(píng)價(jià)指標(biāo)有哪些?(ABCD)。A.準(zhǔn)確率B.召回率C.精確率D.F1值[判斷題][00:07:32][3.5]8、感知機(jī)只能解決線性問題。(對(duì))[判斷題][00:07:12][4.1]9、FashionMNIST圖像分類任務(wù)可以視為一個(gè)10分類任務(wù)。(對(duì))[判斷題][00:07:22][4.2]10、對(duì)于同一塊區(qū)域,最大值池化和平均值池化的結(jié)果可能相同。(對(duì))[判斷題][00:05:02][4.3]11、im2col函數(shù)的主要作用是將圖片數(shù)據(jù)進(jìn)行展開。(對(duì))[多選題][00:02:42][4.4]12、在實(shí)現(xiàn)卷積層時(shí)需要設(shè)置哪些卷積參數(shù)?(ABCD)。A.卷積核數(shù)量B.卷積核大小C.填充值D.步長[判斷題][00:07:32][4.5.1]13、torch.device()的主要作用是設(shè)置計(jì)算設(shè)備。(對(duì))[判斷題][00:06:22][4.5.2]14、nn.Conv2d()的主要作用是設(shè)置池化層。(錯(cuò))[判斷題][00:07:12][4.5.3]15、使用nn模塊下交叉熵?fù)p失函數(shù)前需要手動(dòng)將數(shù)據(jù)的label轉(zhuǎn)為one-hot型。(錯(cuò))[判斷題][00:07:02][4.5.4]16、在模型測試之前,需要對(duì)輸入數(shù)據(jù)進(jìn)行與訓(xùn)練時(shí)相同的預(yù)處理操作,例如歸一化、縮放、裁剪等。(對(duì))[判斷題][00:05:32][5.1]18、梯度下降算法是指沿著函數(shù)值下降變化最快的方向,改變?chǔ)榷@得更小的f(θ)的技術(shù)。(對(duì))[多選題][00:04:52][5.2]19、以下屬于反向傳播的計(jì)算過程的是(ABC)。A.計(jì)算總誤差B.隱藏層到輸出層的權(quán)值更新C.輸入層到隱藏層的權(quán)值更新D.計(jì)算預(yù)測值[多選題][00:04:32][5.3]20、R-CNN原理包含(ABCD)。A.候選區(qū)域提取B.特征提取C.目標(biāo)分類和邊界框回歸D.候選區(qū)域的合并和非極大值抑制[判斷題][00:08:02][5.4]在區(qū)域池化時(shí),所有候選區(qū)域都可以使用不同大小的特征表示,方便后續(xù)的分類和邊界框回歸。(錯(cuò))[單選題][00:05:42][5.5]在實(shí)現(xiàn)行人目標(biāo)檢測與實(shí)例分割案例時(shí),模型改造階段需要代碼實(shí)現(xiàn)以下哪個(gè)方法(D)A.__init__(self,root,transforms)B.__getitem__(self,idx)C.__len__(self)D.get_model_instance_segmentation(num_classes)[判斷題][00:04:12][5.6]Adam結(jié)合了Momentum和RMSProp的思想,考慮了過去的梯度的指數(shù)衰減平均值,但未考慮過去的平方梯度的指數(shù)衰減平均值。(錯(cuò))[單選題][00:05:22][6.1]對(duì)于中文分詞,為什么分詞技術(shù)尤其重要?(C)A.中文分詞可以加速計(jì)算機(jī)的運(yùn)算速度。B.中文分詞對(duì)文本的可讀性沒有影響。C.中文是一種字符連續(xù)的語言,沒有明顯的詞語分隔符。D.中文分詞不會(huì)產(chǎn)生歧義。[單選題][00:04:02][6.2]在Python中,我們通常使用什么庫來計(jì)算TF-IDF值?(C)A.PandasB.TensorFlowC.Scikit-learnD.Matplotlib[多選題][00:04:52][6.3]3、哪些方法用于訓(xùn)練/測試數(shù)據(jù)的分割(ABC)。A.自助法B.交叉驗(yàn)證C.留出法D.偏差法[判斷題][00:04:32][6.4]留一交叉驗(yàn)證是一種非常高效的交叉驗(yàn)證方法,適用于所有數(shù)據(jù)集。(錯(cuò))[單選題][00:05:42][6.5]過擬合通常是由于什么原因?qū)е碌??(C)A.訓(xùn)練數(shù)據(jù)不足B.模型太簡單C.模型過于復(fù)雜D.沒有使用正則化技術(shù)[判斷題][00:08:02][6.6]文本分類模型是由PyTorch庫中的nn.EmbeddingBag層和一個(gè)用于分類的線性連接層組成,nn.EmbeddingBag在默認(rèn)狀態(tài)下計(jì)算所有詞向量的平均值。(對(duì))[判斷題][00:04:22][6.7]中文分詞的目標(biāo)是將一個(gè)漢字序列切分成一系列獨(dú)立的字。(錯(cuò))[多選題][00:04:32][6.8]以下哪些是Word2Vec模型的兩種主要結(jié)構(gòu)(BC)。A.Bag-of-Words模型B.CBOW模型C.Skip-gram模型D.LSTM模型[判斷題][00:07:02][7.1]1、sequencetosequence網(wǎng)絡(luò)是一個(gè)用來做圖像分類的網(wǎng)絡(luò)。(錯(cuò))[單選題][00:08:12][7.2]2、以下不屬于批處理的實(shí)現(xiàn)步驟的是(C)。A.數(shù)據(jù)準(zhǔn)備B.批處理迭代C.數(shù)據(jù)增強(qiáng)D.訓(xùn)練迭代[多選題][00:08:52][7.3]3、sequencetosequence網(wǎng)絡(luò)中包含如下哪些結(jié)構(gòu)(ACD)。A.編碼器EncoderB.卷積網(wǎng)絡(luò)CNNC.解碼器DecoderD.注意力機(jī)制Attention[判斷題][00:04:42][7.4]4、注意力機(jī)制能夠根據(jù)輸入序列的不同部分對(duì)目標(biāo)序列進(jìn)行加權(quán)關(guān)注。(對(duì))[單選題][00:09:32][7.5]5、在文本模型數(shù)據(jù)準(zhǔn)備中,EOS_token表示(B)。A.開始B.結(jié)束C.中間D.換行[多選題][00:08:12][7.6]6、文本翻譯模型中,需要代碼實(shí)現(xiàn)以下哪些類(ABC)。A.編碼器EncoderRNN類B.解碼器DecoderRNN類C.注意力機(jī)制的解碼器AttnDecoderRNN類D.循環(huán)編碼器RNNEncoder類[判斷題][00:07:22][7.7]7、在文本翻譯模型中,teacher_forcing_ratio能夠調(diào)節(jié)TeacharForcing的比率。(對(duì))[多選題][00:06:02][7.8]8、在深度學(xué)習(xí)中,歸一化的方法包括(ABC)。A.層內(nèi)歸一化B.批內(nèi)歸一化C.組內(nèi)歸一化D.網(wǎng)內(nèi)歸一化[判斷題][00:05:22][8.1]9、對(duì)于不同的代碼,需要通過衡量指標(biāo)來計(jì)算不同代碼之間的相似度。(對(duì))[多選題][00:11:32][8.2]10、以下哪些是權(quán)重初始化的方法。(ABCD)。A.零初始化B.隨機(jī)初始化C.Xavier初始化D.He初始化[單選題][00:07:42][8.3]11、正則化最主要的目的是為了(B)。A.防止欠擬合B.防止過擬合C.防止數(shù)據(jù)過多D.提高樣本隨機(jī)性[單選題][00:06:42][8.4]12、本案例使用的代碼搜索網(wǎng)絡(luò)是(D)。A.LSTMB.CODEsearchC.SEARCHnnD.CODEnn[單選題][00:10:52][8.5]13、用以下哪個(gè)模塊可以向網(wǎng)頁發(fā)送請(qǐng)求爬取內(nèi)容(A)。A.requestsB.osC.PytorchD.numpy[單選題][00:08:02][8.6]14、通過哪個(gè)模塊可以進(jìn)行模型訓(xùn)練可視化(B)。A.PytorchB.TensorBoardC.requestsD.Tensorflow[判斷題][00:07:22][8.7]15、Xavier初始化每一層權(quán)重初始化范圍都可能不一樣。(對(duì))[判斷題][00:14:32][8.8]16、EarlyStopping不是一種正則化方法。(錯(cuò))[判斷題][00:07:42][9.1]人說話的聲音存在多種頻率疊加。(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論