人工智能考試試題及答案_第1頁(yè)
人工智能考試試題及答案_第2頁(yè)
人工智能考試試題及答案_第3頁(yè)
人工智能考試試題及答案_第4頁(yè)
人工智能考試試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩14頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能考試試題及答案

1、GOOgle認(rèn)為,響應(yīng)時(shí)間每延遲0.5s,查詢數(shù)將會(huì)減少()

A、0.05

B、0.1

C、0.15

D、$0.20

答案:D

2、在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入

端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)

A、輸入數(shù)據(jù)大小

B、神經(jīng)元和神經(jīng)元之間連接有無(wú)

C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重

D、同一層神經(jīng)元之間的連接權(quán)重

答案:C

3、如果將數(shù)據(jù)科學(xué)比喻成“鷹”,那么,理論基礎(chǔ)、數(shù)據(jù)加工、數(shù)據(jù)計(jì)算、

數(shù)據(jù)管理、數(shù)據(jù)分析、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)相當(dāng)于“鷹”的O

A、翅膀

B、腳

C、軀體

D、頭腦

答案:C

4、以下關(guān)于回歸算法描述中不正確的是

A、最小二乘法可以求解線性回歸問(wèn)題

B、梯度下降法可以求解線性回歸問(wèn)題

C、利用最小二乘法求解線性回歸問(wèn)題可能會(huì)出現(xiàn)局部最優(yōu)解

D、學(xué)習(xí)率是梯度下降法的重要參數(shù)

答案:C

5、添加用戶時(shí)使用參數(shù)()可以指定用戶目錄。

A、-d

B、-p

C、-U

D、-C

答案:A

6、下屬模型是一階段網(wǎng)絡(luò)的是O

A、Y0L0v2

B、rcnn

C、fast-rcnn

D、faster-rcnn

答案:A

7、一條規(guī)則形如:,其中“一”右邊的部分稱為(一)

A、規(guī)則長(zhǎng)度

B、規(guī)則頭

C、布爾表達(dá)式

D、規(guī)則體

答案:D

8、下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是O

A、隨機(jī)森林只能用于解決分類問(wèn)題

B、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法

集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率

C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成

D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的

答案:B

9、關(guān)于Python中的復(fù)數(shù),下列說(shuō)法錯(cuò)誤的是()

A、表是復(fù)數(shù)的語(yǔ)法是real+imagej

B、實(shí)部和虛部都是浮點(diǎn)數(shù)

C、虛部必須后綴j,且必須小寫(xiě)

D、方法Ce)njugate返回復(fù)數(shù)的共枕復(fù)數(shù)

答案:C

10、對(duì)于k折交叉驗(yàn)證,以下對(duì)k的說(shuō)法正確的是?

A、k越大,不一定越好,選擇大的k會(huì)加大評(píng)估時(shí)間

B、選擇更大的k,就會(huì)有更小的bias(因?yàn)橛?xùn)練集更加接近總數(shù)據(jù)集)

C、在選擇k時(shí),要最小化數(shù)據(jù)集之間的方差

D、以上所有

答案:D

11、frompandasimportDataFranle這個(gè)語(yǔ)句的含義是。

A、從DataFrame類導(dǎo)入pandas類

B、從pandas庫(kù)導(dǎo)入DataFrame類

C、從PandaS庫(kù)導(dǎo)入DataFrame庫(kù)

D、從DataFrame庫(kù)導(dǎo)入pandas類

答案:B

12、以下關(guān)于最大似然估計(jì)MLE的說(shuō)法正確的是

A、MLE中加入了模型參數(shù)本身的概率分布

B、MLE認(rèn)為模型參數(shù)本身概率是不均勻的

C、MLE體現(xiàn)了貝葉斯認(rèn)為參數(shù)也是隨機(jī)變量的觀點(diǎn)

D、MLE是指找出一組參數(shù),使得模型產(chǎn)生出觀測(cè)數(shù)據(jù)的概率最大

答案:D

13、第三次工業(yè)革命的地點(diǎn)是

A、英國(guó)倫敦

B、美國(guó)硅谷

C、德國(guó)漢諾威

D、美國(guó)辛辛那提農(nóng)場(chǎng)

答案:B

14、下述字符串格式化語(yǔ)法正確的是?

A、GNU,sNot%d%%,%'UNIX'

B、GNU?,sNot%d%%"%'UNIX"

C、GNU,sNot%s%%,%,UNIX,

D、GNU?,sNot%s%%,%,UNIX'

答案:D

15、下列哪項(xiàng)不屬于集成學(xué)習(xí)

A、隨機(jī)森林

B、Adaboost

C、kNN

D、XGBoost

答案:C

16、LSTM是一種什么網(wǎng)絡(luò)?

A、卷積神經(jīng)網(wǎng)

B、前饋神經(jīng)網(wǎng)

C、循環(huán)神經(jīng)網(wǎng)

D、李生網(wǎng)絡(luò)

答案:C

17、在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是0

A、k-means

B、線性回歸

C、神經(jīng)網(wǎng)絡(luò)

D、決策樹(shù)

答案:A

18、()是人以自然語(yǔ)言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語(yǔ)言學(xué)、

心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。

A、語(yǔ)音交互

B、情感交互

C、體感交互

D、腦機(jī)交互

答案:A

19、數(shù)據(jù)挖掘技術(shù)主要有分類、估計(jì)、()、關(guān)聯(lián)分析和預(yù)報(bào)。

A、回歸

B、統(tǒng)計(jì)

C、聚類

D、假設(shè)

答案:C

20、下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是(_)

A、采用屬性條件獨(dú)立性假設(shè);

B、假設(shè)屬性之間相互獨(dú)立;

C、為了避免條件概率是所以屬性上的聯(lián)合概率;

D、假設(shè)屬性之間是相關(guān)的;

答案:D

21、半監(jiān)督學(xué)習(xí)不包括

A、直推學(xué)習(xí)

B、純半監(jiān)督學(xué)習(xí)

C、主動(dòng)學(xué)習(xí)

D、圖半監(jiān)督學(xué)習(xí)

答案:C

22、下列關(guān)于深度學(xué)習(xí)說(shuō)法錯(cuò)誤的是

A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問(wèn)題

B、CNN相比于全連接的優(yōu)勢(shì)之一是模型復(fù)雜度低,緩解過(guò)擬合

C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法

D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過(guò)程中陷入鞍點(diǎn)的問(wèn)題

答案:C

23、fasterRCNN用于生成候選框ProPOSal的模塊名稱。

A、RPN

B、CNN

C、ResNet

D>RoIpooling

答案:A

24、以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是

A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層

B、數(shù)據(jù)處理一般都是在應(yīng)用層完成

C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合

D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源

答案:B

25、當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)

A、全批量梯度下降

B、隨機(jī)梯度下降

答案:B

26、使用()關(guān)鍵字來(lái)創(chuàng)建PylhOn自定義函數(shù)。

A、function

B、func

C、procedure

D、def

答案:D

27、下列代碼執(zhí)行結(jié)果是什么?x=ldefchange(a):x+=lprintx

change(x)

A、1

B、2

C、3

D、報(bào)錯(cuò)

答案:D

28、PythOn字體切片時(shí)(S[0,10])下標(biāo)的取值范圍為()。

A、0,10]

B、(0,10)

C、0,10)

D、(0,10]

答案:C

29、下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享

A、卷積神經(jīng)網(wǎng)絡(luò)&

B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&

c、&全連接神經(jīng)網(wǎng)絡(luò)&

D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)

答案:D

30、如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的

丟失,所以在標(biāo)準(zhǔn)化之后,BatChNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和O

A、平移

B、刪除

C、移動(dòng)

D、收斂

答案:A

31、以下程序的輸出是。?array=np.array

([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,shape)

A、(4,3)

B、(3,4)

C、3

D、$4

答案:A

32、迄今為止,最成功的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法是O

A、感知機(jī)

B、BB算法

C、BP算法

D、阿黛爾算法

答案:C

33、昇騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?

A、DVPP

B、GPU

C、Al計(jì)算引擎

D、芯片系統(tǒng)控制CPU

答案:B

34、聚類分析屬于典型的。。

A、監(jiān)督學(xué)習(xí)

B、無(wú)監(jiān)督學(xué)習(xí)

C、半監(jiān)督學(xué)習(xí)

D、強(qiáng)化學(xué)習(xí)

答案:B

35、a=np.arange(2),b=np.arange(3,5),print(np.Iexsort([a,b]))fr?

輸出結(jié)果是0。

A、a,b]

B、0,1]

C、O,1,3,4]

D、O,1,2,3]

答案:B

36、在Python中,運(yùn)行以下程序,結(jié)果應(yīng)為()a=5b=7b+=3a=b*20

a+=2a=a%bprint(a,b)

A,57

B、2010

C、227

D、210

答案:D

37、回歸算法預(yù)測(cè)的標(biāo)簽是?

A、自變型

B、離散型

C、應(yīng)變型

D、連續(xù)型

答案:D

38、檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)

域重要的研究方向

A、公平性

B、真實(shí)性

C、快速性

D、準(zhǔn)確性

答案:A

39、下列關(guān)于線性回歸分析中的殘差(ReSidUalS)說(shuō)法正確的是?

A、殘差均值總是為零

B、殘差均值總是小于零

C、殘差均值總是大于零

D、以上說(shuō)法都不對(duì)

答案:A

40、跳出所處的最近層循環(huán)的是()

A、break

B、continues

C、continue

D、pass

答案:A

41、下列哪項(xiàng)不屬于聚類算法O

A、K-means

B、BIRCH

C、SVM

D、DBSCAN

答案:C

42、關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說(shuō)法正確的是()。

A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好

地處理。

B、混合模型比K均值或模糊均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。

C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。

D、混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題。

答案:B

43、簡(jiǎn)單遺傳算法的遺傳操作主要有三種:選擇操作,交叉操作,O操

A、連接

B、復(fù)制

C、變異

D、結(jié)合

答案:C

44、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬

件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:

A、主板

B、內(nèi)存條

C、GPU

D、CPU

答案:C

45、()是一類用圖來(lái)表達(dá)變量相關(guān)關(guān)系的概率模型。

A、概率圖模型

B、隱馬爾可夫模型

C、變量圖模型

D、以上都不對(duì)

答案:A

46、為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問(wèn)題:

A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長(zhǎng),有的序列短

B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)

C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問(wèn)題

D、命名實(shí)體識(shí)別問(wèn)題是一個(gè)無(wú)法解決的問(wèn)題,全連接網(wǎng)絡(luò)也不能解決這個(gè)

問(wèn)題

答案:A

47、不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()

A、重復(fù)數(shù)據(jù)

B、虛假數(shù)據(jù)

C、錯(cuò)誤數(shù)據(jù)

D、異常數(shù)據(jù)

答案:A

48、后剪枝是先從訓(xùn)練集生成一顆完整的決策樹(shù),然后(—)對(duì)非葉結(jié)點(diǎn)進(jìn)

行考察。

A、自上而下

B、在劃分前

C、禁止分支展開(kāi)

D、自底向上

答案:D

49、LARS屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

答案:C

50、云計(jì)算提供的支撐技術(shù),有效解決虛擬化技術(shù)、()、海量存儲(chǔ)和海

量管理等問(wèn)題

A、并行計(jì)算

B、實(shí)際操作

C、數(shù)據(jù)分析

D、數(shù)據(jù)研發(fā)

答案:A

51、YOLOV3在COC。數(shù)據(jù)集上聚類了。個(gè)矛框?

A、3

B、9

C、80

D、nan

答案:B

52、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派

A、符號(hào)主義

B、連接主義

C、行為主義

D、其他選項(xiàng)均不對(duì)

答案:B

53、以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?

A、召回率

B、混淆矩陣

C、均方誤差

D、準(zhǔn)確率

答案:C

54、多層前饋神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是

A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的

神經(jīng)元

B、神經(jīng)元之間存在這同層連接以及跨層連接

C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理

D、每層神經(jīng)元上一層與下一層全互連

答案:B

55、Python標(biāo)記語(yǔ)句塊使用()

A、花括號(hào)

B、小括號(hào)

C、引號(hào)

D、縮進(jìn)

答案:D

56、DSSM經(jīng)典模型的優(yōu)點(diǎn);L解決了字典爆炸問(wèn)題,降低了計(jì)算復(fù)雜度;2.

中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個(gè)字表達(dá)的詞義,減少分詞的

依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有

較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語(yǔ)義embedding的映射問(wèn)題;5.省

去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。

A、1.2.3.4

B、1.3.4.6

C、1.2.3.4.5.6

D、3.4.6

答案:C

57、衡量模型預(yù)測(cè)值和真實(shí)值差距的評(píng)價(jià)函數(shù)被稱為O

A、損失函數(shù)

B、無(wú)參數(shù)函數(shù)

C、激活函數(shù)

D、矩陣拼接函數(shù)

答案:A

58、智能體的性能度量用來(lái)()

A、進(jìn)行正確感知

B、評(píng)價(jià)智能體在環(huán)境中的行為表現(xiàn)

C、財(cái)務(wù)分析

D、進(jìn)行自我學(xué)習(xí)與自我優(yōu)化

答案:D

59、()是一種基于貝葉斯法則為基礎(chǔ)的,通過(guò)概率手段進(jìn)行學(xué)習(xí)的方法。

A、遺傳算法

B、分析學(xué)習(xí)

C、歸納學(xué)習(xí)

D、貝葉斯學(xué)習(xí)

答案:D

60、在TenSOrFIOW中,TenSOrBOard運(yùn)行時(shí)的默認(rèn)訪問(wèn)端口是以下哪個(gè)端

口號(hào)?

A、4004

B、8080

C、8008

D、$6,006

答案:D

61、下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是。

A、Hopfield網(wǎng)

B、BP網(wǎng)絡(luò)

C、多層感知器

D、LVQ網(wǎng)絡(luò)

答案:A

62、PyTorCh框架算法模型配置文件應(yīng)為。格式。

A、prototxt

B、py

C、config

D、params

答案:B

63、關(guān)于用4V來(lái)表示大數(shù)據(jù)的主要特征,描述錯(cuò)誤的是

A、大數(shù)據(jù)的時(shí)間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高

B、“如何從海量數(shù)據(jù)中洞見(jiàn)(洞察)出有價(jià)值的數(shù)據(jù)”是數(shù)據(jù)科學(xué)的重要

課題之一

C、數(shù)據(jù)類型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,

對(duì)數(shù)據(jù)處理能力提出了更高要求

D、數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間存在線性關(guān)系

答案:D

64、關(guān)系云的一個(gè)重要功能是提供0。

A、數(shù)據(jù)庫(kù)即服務(wù)

B、虛擬服務(wù)

C、彈性計(jì)算

D、按需服務(wù)

答案:A

65、在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?O

A、卷積層

B、全連接層

C、池化層

D、以上都不是

答案:B

66、機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()

A、參數(shù)預(yù)估

B、機(jī)器翻譯

C、圖像識(shí)別

D、參數(shù)估計(jì)

答案:D

67、在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)

的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測(cè)值和輸出不一致,則調(diào)整

權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值

A、1,2,3,4

B、4,3,2,1

C、3,1,2,4

D、1,4,3,2

答案:D

68、以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?

A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支

B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系

C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系

D、以上都不對(duì)

答案:A

69、中心極限定理告訴我們,當(dāng)樣本量足夠大時(shí),樣本均值的分布圍繞總

體均值呈現(xiàn)O0

A、泊松分布

B、正態(tài)分布

C、伯努利分布

D、幾何分布

答案:B

70、關(guān)于MNlST,下列說(shuō)法錯(cuò)誤的是。。

A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集

B、有訓(xùn)練集和測(cè)試集兩部分

C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷

D、測(cè)試集大約包含IOOOO個(gè)樣本和標(biāo)簽

答案:C

71、在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概

率就越大,這一性質(zhì)稱為()

A、無(wú)偏性

B、有效性

C、及時(shí)性

D、一致性

答案:D

72、LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其

他時(shí)序信號(hào)進(jìn)行建模,是一種Oo

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、卷積神經(jīng)網(wǎng)絡(luò)

C、樸素貝葉斯

D、深度殘差網(wǎng)絡(luò)

答案:A

73、CPU主要通過(guò)增加指令,增加核數(shù)等方式來(lái)提升Al性能。

A、TRUE

B、FALSE

答案:A

74、在多通道卷積過(guò)程中,要生成n個(gè)featuremaps,需要()個(gè)卷積核

立方體。

A、n-2

B、n^2

C、n∕2]注x]表示對(duì)X取整

D、n

答案:D

75、C4.5決策樹(shù)算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。

A、二分法

B、最小二乘法

C、均值法

D、投票法

答案:A

76、C5.O和QUEST決策樹(shù)只能處理()目標(biāo)值的問(wèn)題。

A、隨機(jī)型

B、連續(xù)型

C、離散型

D、分類型

答案:D

77、循環(huán)神經(jīng)網(wǎng)最常常遇到的問(wèn)題是:①.梯度消失②.詞語(yǔ)依賴位置較遠(yuǎn)

③.梯度爆炸④.維數(shù)災(zāi)難

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

78、表達(dá)式3or5的值為。

A、TRUE

B、3

C、5

D、$2

答案:B

79、下列哪部分不是專家系統(tǒng)的組成部分

A、用戶

B、綜合數(shù)據(jù)庫(kù)

C、推理機(jī)

D、知識(shí)庫(kù)

答案:A

80、歸結(jié)原理的特點(diǎn)是(_)

A、發(fā)明新的概念和關(guān)系

B、發(fā)現(xiàn)更多的規(guī)則

C、緩解過(guò)擬合的風(fēng)險(xiǎn)

D、將復(fù)雜的邏輯規(guī)則與背景知識(shí)聯(lián)系起來(lái)化繁為簡(jiǎn)

答案:D

81、一個(gè)盒子內(nèi)裝有大小、形狀相同的四個(gè)球,其中紅球1個(gè)、綠球1個(gè)、

白球2個(gè),小明摸出一個(gè)球不放回,再摸出一個(gè)球,則兩次都摸到白球的概率

是()

A、1212122022年1月2日

B、1212122022年1月4日

C、1212122022年1月6日

D、1212122022年1月12日

答案:C

82、在£-greedy策略當(dāng)中,?的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率

越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越。。

A、大

B、小

C、大

D、大

E、小

F、小

答案:A

83、下列說(shuō)法中對(duì)專用人工智能理解正確的是OO

A、在某一個(gè)特定領(lǐng)域應(yīng)用的人工智能。

B、不是真正在這次人工智能浪潮中起到影響的主角。

C、充分利用已掌握的技能來(lái)解決新問(wèn)題、達(dá)到甚至超過(guò)人類智慧的人工智

能。

D、是眾多科幻作品中顛覆人類社會(huì)的人工智能形象。

答案:A

84、對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)

A、最大一般泛化

B、最小一般泛化

C、最大一般特化

D、最小一般特化

答案:B

85、。是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分

A、極值

B、標(biāo)準(zhǔn)值

C、平均值

D、殘值

答案:D

86、下列不是知識(shí)表示法的是()

A、計(jì)算機(jī)表示法

B、“與/或”圖表示法

C、狀態(tài)空間表示法

D、產(chǎn)生式規(guī)則表示法

答案:A

87、()的人工神經(jīng)網(wǎng)絡(luò)適合學(xué)習(xí)、分類等應(yīng)用。

A、反饋型

B、隨機(jī)型網(wǎng)絡(luò)

C、自組織競(jìng)爭(zhēng)型

D、前向型

答案:D

88、機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?

A、Boosting

B、Stacking

C、Bagging

D、Marking

答案:D

89、在PythOn程序中,已知x=2,y=l,當(dāng)執(zhí)行語(yǔ)句y+=x*2,y的值是()

A、3

B、4

C、5

D、$6

答案:C

90、輸入圖片大小為200X200,依次經(jīng)過(guò)一層卷積(kernelsize5×5,

paddingl,stride2),pooling(kernelsize3×3,paddingθ,Stridel),又

一層卷積(kernelsize3×3,paddin

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論