深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學_第1頁
深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學_第2頁
深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學_第3頁
深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學_第4頁
深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

深度學習之瑞士軍刀-pytorch入門智慧樹知到課后章節(jié)答案2023年下內(nèi)蒙古科技大學內(nèi)蒙古科技大學

第一章測試

已知某函數(shù)的參數(shù)為35.8,執(zhí)行后結果為35,可能是以下函數(shù)中的()。

A:floorB:roundC:intD:abs

答案:floor;int

以下表達式中,()的運算結果是False。

A:3<4and7<5or9>10

B:(10is11)==0C:24!=32

D:’abc’<’ABC’

答案:’abc’<’ABC’

在以下Python循環(huán)中,foriinrange(1,3):

foriinrange(2,5):

print(i*j)語句print(i*j)共執(zhí)行了()次。

A:3B:5

C:6D:2

答案:6

在Python中,對于函數(shù)中return語句的理解,錯誤的是()。

A:return可以不帶返回參數(shù)B:return可以帶返回參數(shù)

C:一定要有return語句D:可以有多條return語句,但只執(zhí)行一條

答案:一定要有return語句

一個直接或間接地調(diào)用自身的算法稱為遞歸,它有兩個條件,一個是要直接或間接地調(diào)用自身,另一個是必須有出口。

A:對B:錯

答案:對

關于遞歸函數(shù)的描述,以下選項中正確的是(

)。

A:包含一個循環(huán)結構

B:函數(shù)名稱作為返回值

C:函數(shù)內(nèi)部包含對本函數(shù)的再次調(diào)用

D:函數(shù)比較復雜

答案:函數(shù)內(nèi)部包含對本函數(shù)的再次調(diào)用

關于形參和實參的描述,以下選項中正確的是()。

A:程序在調(diào)用時,將形參復制給函數(shù)的實參

B:參數(shù)列表中給出要傳入函數(shù)內(nèi)部的參數(shù),這類參數(shù)稱為形式參數(shù),簡稱形參

C:程序在調(diào)用時,將實參復制給函數(shù)的形參

D:函數(shù)定義中參數(shù)列表里面的參數(shù)是實際參數(shù),簡稱實參

答案:程序在調(diào)用時,將實參復制給函數(shù)的形參

關于return語句,以下選項中描述正確的是(

)。

A:return只能返回一個值

B:函數(shù)可以沒有return語句

C:函數(shù)必須有一個return語句

D:函數(shù)中最多只有一個return語句

答案:函數(shù)可以沒有return語句

下面代碼的運行結果是(

)。deffunc(num):

num+=1a=10func(a)print(a)

A:11

B:出錯

C:int

D:10

答案:10

下面代碼的輸出結果是(

)。

deffunc(a,b):

a*=breturnas=func(5,2)print(s)

A:10

B:1

C:12

D:20

答案:10

第二章測試

ndarray.shape返回一個元祖,表示數(shù)組在各個方向上的長度

A:對B:錯

答案:對

empty()函數(shù)生成的數(shù)組完全是隨機的

A:對B:錯

答案:對

b[1][1]是指數(shù)組中第一行第一列的元素值

A:錯B:對

答案:錯

numpy提供了rand()函數(shù)用于生成元素()區(qū)間上均勻分布的數(shù)組

A:以上都不是B:[0,1)C:[0,1]D:(0,1)

答案:[0,1)

Python中的數(shù)據(jù)類型包括

A:整型B:浮點型C:字符型D:布爾型

答案:整型;浮點型;字符型;布爾型

列表用(

)標識。

A:對B:錯

答案:錯

python2、python3都默認支持默認支持中文。

A:錯B:對

答案:錯

b=np.arange(0,20,2)查找索引號為2的數(shù)據(jù),取出數(shù)組中元素4。

A:對B:錯

答案:對

b[1:8:2]=1,數(shù)組輸出0,1,4,1,8,1,12,1,16,18

A:錯B:對

答案:對

flatten()方法就把X轉換成一維數(shù)組返回一個一維的數(shù)組,作用的對象可以是列表。

A:錯B:對

答案:對

第三章測試

Series支持向量化操作。

A:錯B:對

答案:對

一個DataFrame中可以包含若干個Series。

A:對B:錯

答案:對

在DataFrame數(shù)據(jù)結構中,使用drop刪除指定行或列,drop默認刪除行。

A:對B:錯

答案:對

sort_index方法默認是按照索引進行倒序排的。

A:對B:錯

答案:錯

在使用Pandas離散化功能時,cut是根據(jù)每個值出現(xiàn)的次數(shù)來進行離散化的,qcut是根據(jù)每個值的大小來進行離散化的。

A:對B:錯

答案:錯

以下選項中,不是Python中用于進行數(shù)據(jù)分析及可視化處理的第三方庫是(

)。

A:numpy

B:mxnet

C:mayavi2

D:pandas

答案:mxnet

數(shù)據(jù)分析方向的第三方庫是(

)。

A:timeB:pdfminerC:beautifulsoup4D:numpy

答案:numpy

以下選項中,Python數(shù)據(jù)分析方向的第三方庫是(

)。

A:PILB:DjangoC:flaskD:pandas

答案:pandas

PythonWeb開發(fā)方向的第三方庫是(

)。

A:requestsB:DjangoC:pandasD:scipy

答案:Django

IDLE菜單中將選中區(qū)域取消縮進的快捷鍵是(

)。

A:Ctrl+[B:Ctrl+OC:Ctrl+VD:Alt+C

答案:Ctrl+[

第四章測試

一個figure(圖)可以包含多個axes(坐標系),但是一個axes只能屬于一個figure。

A:錯B:對

答案:對

一個axes(坐標系)可以包含多個axis(坐標軸),包含兩個即為2d坐標系,3個即為3d坐標系。

A:對B:錯

答案:對

調(diào)用plt.bar函數(shù),繪制柱狀圖。

A:錯B:對

答案:對

plt.subplot(2,1,1)表示將圖像窗口分為了2行1列,當前活躍區(qū)為1。

A:對B:錯

答案:對

通過plt.text標注數(shù)值,設置參數(shù)ha='center'縱向居中對齊,設置va='bottom'橫向底部(頂部)對齊。

A:對B:錯

答案:錯

axes是一個數(shù)軸區(qū)域,通常一個axes包含兩個axis對象。

A:錯B:對

答案:對

subplot是按網(wǎng)格分割figure后的子畫布。

A:對B:錯

答案:對

axes包含legend(圖例)、title(子圖標題)等屬性。

A:對B:錯

答案:對

在繪制之前,需要設置內(nèi)容,尺寸size、顏色color以及style,來決定圖形如何渲染。

A:錯B:對

答案:對

axis實例包含了刻度標簽ticklabel、軸的名字label、有刻度tick,以及軸對應的橫向空間grid等。

A:錯B:對

答案:對

第五章測試

人工神經(jīng)網(wǎng)絡的模型按照學習方法來分成下面的哪幾個?

A:無監(jiān)督的學習網(wǎng)絡B:一階線性關聯(lián)網(wǎng)絡C:高階非線性關聯(lián)網(wǎng)絡D:有監(jiān)督的學習網(wǎng)絡

答案:無監(jiān)督的學習網(wǎng)絡;有監(jiān)督的學習網(wǎng)絡

感知機模型是誰提出的?

A:羅森勃拉特B:赫布C:麥克洛奇D:皮茲

答案:羅森勃拉特

關于tensor的類型轉換的問題,我們想要將該tensor投射為short類型,應該選擇哪一種方法?

A:torch.byte()B:torch.char()C:t.float()D:torch.short()

答案:torch.short()

在神經(jīng)網(wǎng)絡中,不包含那一層?

A:輸出層B:輸入層C:激勵函數(shù)層D:隱藏層

答案:激勵函數(shù)層

adam梯度下降的方法是momentum和adagrad兩種方法的融合。

A:錯B:對

答案:對

activationfunction指的是什么(

A:損失函數(shù)

B:激勵函數(shù)

C:自適應函數(shù)

D:活動函數(shù)

答案:激勵函數(shù)

深度學習本質(zhì)上是構建含有多隱層的機器學習架構模型,通過大規(guī)模數(shù)據(jù)進行訓練,得到大量更具代表性的特征信息。

A:錯B:對

答案:對

tensor的形狀是一經(jīng)定義就不能改變。

A:錯B:對

答案:錯

深度學習從業(yè)工作者又被稱為調(diào)參工程師。

A:對B:錯

答案:對

Hebb或者赫布法則為構造有學習功能的神經(jīng)網(wǎng)絡模型奠定了基礎。

A:錯B:對

答案:對

第六章測試

LeCun確立了CNN的現(xiàn)代結構。

A:對B:錯

答案:對

卷積層常用的激活函數(shù)是relu。

A:錯B:對

答案:對

池化層常用到的3種循環(huán)方法是LP池化,混合池化,隨機池化。

A:對B:錯

答案:對

CPU和GPU集群能夠加速神經(jīng)網(wǎng)絡的訓練進程。

A:對B:錯

答案:對

當序列很長的時候RNN會出現(xiàn)梯度消失問題。

A:錯B:對

答案:對

Fullconnectedlayer指的是()。

A:全連接層

B:激勵層

C:卷積層

D:池化層

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論