![全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能知識(shí)競(jìng)賽題庫(kù)(含答案)_第1頁(yè)](http://file4.renrendoc.com/view6/M03/35/11/wKhkGWd98DWAQfCFAAD4q2m7B3U806.jpg)
![全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能知識(shí)競(jìng)賽題庫(kù)(含答案)_第2頁(yè)](http://file4.renrendoc.com/view6/M03/35/11/wKhkGWd98DWAQfCFAAD4q2m7B3U8062.jpg)
![全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能知識(shí)競(jìng)賽題庫(kù)(含答案)_第3頁(yè)](http://file4.renrendoc.com/view6/M03/35/11/wKhkGWd98DWAQfCFAAD4q2m7B3U8063.jpg)
![全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能知識(shí)競(jìng)賽題庫(kù)(含答案)_第4頁(yè)](http://file4.renrendoc.com/view6/M03/35/11/wKhkGWd98DWAQfCFAAD4q2m7B3U8064.jpg)
![全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能知識(shí)競(jìng)賽題庫(kù)(含答案)_第5頁(yè)](http://file4.renrendoc.com/view6/M03/35/11/wKhkGWd98DWAQfCFAAD4q2m7B3U8065.jpg)
版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
新版全國(guó)青少年人工智能創(chuàng)新挑戰(zhàn)賽技能
知識(shí)競(jìng)賽題庫(kù)(含答案)
一、單選題
1.給定三個(gè)點(diǎn)(1,4)、(2,3)、(2,4),它們歐氏距離最小值是
A、1
B、1.4
C、0
D、2
答案:A
2.()年夏季,一批有遠(yuǎn)見(jiàn)卓識(shí)的年輕科學(xué)家在達(dá)特茅斯會(huì)議上,共同研究和探討
用機(jī)器模擬智能的一系列有關(guān)問(wèn)題,首次提出了“人工智能(AI)”這一術(shù)語(yǔ),
它標(biāo)志著“人工智能”這門(mén)新興學(xué)科的正式誕生
A、1946
B、1956
C、1966
D、1976
答案:C
3.計(jì)算機(jī)的運(yùn)算是計(jì)算機(jī)的主要性能指標(biāo)之一,與主要性能無(wú)關(guān)的是
A、字長(zhǎng)
B、主頻
C、互聯(lián)網(wǎng)的寬帶
D、內(nèi)存和硬盤(pán)的工作速度
答案:C
4.邏輯回歸的以下模型:P(y=l|x,w)=g(wO+w1x)其中g(shù)(z)是邏輯函數(shù)。
在上述等式中,通過(guò)改變參數(shù)w可以得到的P(y=l|x;w)被視為x的函數(shù)。在
上面的問(wèn)題中,你認(rèn)為哪個(gè)函數(shù)會(huì)產(chǎn)生(0,1)之間的P?
A、邏輯函數(shù)
B、對(duì)數(shù)似然函數(shù)
C、兩者的復(fù)合函數(shù)
D、都不會(huì)
答案:A
5.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者的
說(shuō)法正確的是:
A、L1正則化可以做特征選擇
B、L1和L2正則化均可做特征選擇
C、L2正則化可以做特征選擇
D、L1和L2正則化均不可做特征選擇
答案:A
6.以下對(duì)象之間,從包含關(guān)系上說(shuō),總屬于被包含的是
A、生成器
B、迭代器
C、可迭代對(duì)象
D、以上無(wú)包含關(guān)系
答案:A
7.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?
A、K近鄰算法
B、隨機(jī)森林
C、神經(jīng)網(wǎng)絡(luò)
D、都不屬于
答案:C
8.下列哪些屬于集成學(xué)習(xí):
AxAdaboost
B、決策樹(shù)
C、隨機(jī)森林
D、XGBoost
答案:D
9.人工智能處在感知智能階段的表現(xiàn)是什么?
A、機(jī)器開(kāi)始像人類(lèi)一樣能理解、思考與決策
B、機(jī)器開(kāi)始像人類(lèi)一樣會(huì)計(jì)算,傳遞信息
C、機(jī)器開(kāi)始看懂和聽(tīng)懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)
答案:C
10.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù)可能會(huì)增加測(cè)試
數(shù)據(jù)集的分類(lèi)錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤
率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率
A、1
B、1和3
C、1和2
D、2
答案:A
11.以下哪個(gè)不是MindSpore常用的Operation?
Axsignal
B、math
C\array
D、nn
答案:A
12.下面哪個(gè)不是人工智能的主要研究流派?
A、符號(hào)主義
B、經(jīng)驗(yàn)主義
C、連接主義
D、模擬主義
答案:D
13.人工智能發(fā)展的第三次熱潮,是從以下哪個(gè)時(shí)間段開(kāi)始的?
A、2000年后
B、2006年后
C、2012年后
D、2015年后
答案:B
14.目前虛擬主播中唇形變化與語(yǔ)音可實(shí)現(xiàn)對(duì)齊,這屬于計(jì)算機(jī)視覺(jué)中哪種技術(shù)
0
A、圖像合成
B、圖像識(shí)別
C、圖像檢測(cè)
D、圖像去噪
答案:A
15.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。
A、TRUE
B、FALSE
答案:A
16.下列哪些網(wǎng)用到了殘差連接
A、FastText
B、BERT
C、GoogLeNet
D、ResNet
答案:D
17.以下是目標(biāo)變量在訓(xùn)練集上的8個(gè)實(shí)際值[0,0,0,1,1,1,1,1],目標(biāo)變量的爆
是所少?
A、-(5/8Iog(5/8)+3/81og(3/8))
B、5/81og(5/8)+3/81og(3/8)
C、3/8log(5/8)+5/8log(3/8)
D、5/81og(3/8)-3/81og(5/8)
答案:A
18.知識(shí)圖譜中的節(jié)點(diǎn)稱(chēng)為?
Ax頂點(diǎn)
B\關(guān)系點(diǎn)
C、連接點(diǎn)
D、實(shí)體
答案:D
19.若按照一定的順序依次訪問(wèn)樹(shù)中的每一個(gè)結(jié)點(diǎn),而且每個(gè)結(jié)點(diǎn)只被訪問(wèn)一次,
則稱(chēng)這樣的操作為()
A、排序
B、查找
C、遍歷
D、建立
答案:C
20.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過(guò)程中,
通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)參數(shù)不是通過(guò)誤差后向傳
播來(lái)優(yōu)化的
A、卷積濾波矩陣中的參數(shù)
B、全連接層的鏈接權(quán)重
C、激活函數(shù)中的參數(shù)
D、模型的隱藏層數(shù)目
答案:D
21.深度學(xué)習(xí)近年來(lái)發(fā)展迅速,以下哪個(gè)領(lǐng)域一般不屬于深度學(xué)習(xí)的應(yīng)用領(lǐng)域?
A、圖像識(shí)別
B、語(yǔ)音識(shí)別
C、數(shù)值分析
D、文本分析
答案:C
22.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)
B、LSTM無(wú)法解決梯度消失的問(wèn)題
C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)
D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNN
答案:B
23.當(dāng)前大數(shù)據(jù)技術(shù)的基礎(chǔ)是由()首先提出的。
A、微軟
B、百度
C、谷歌
D、阿里巴巴
答案:C
24.假設(shè)對(duì)給定數(shù)據(jù)應(yīng)用了Logistic回歸模型,并獲得了訓(xùn)練精度X和測(cè)試精度
Y。現(xiàn)在要在同一數(shù)據(jù)中添加一些新特征,以下哪些是錯(cuò)誤的選項(xiàng)。注:假設(shè)剩
余參數(shù)相同。
A、訓(xùn)練精度提高
B、訓(xùn)練準(zhǔn)確度提高或保持不變
C、測(cè)試精度提高或保持不變
答案:B
25.如果你想設(shè)計(jì)人工智能系統(tǒng),那就要學(xué)習(xí)并分析這個(gè)星球上最自然的智能系
統(tǒng)之一,即()。
A、人腦和神經(jīng)系統(tǒng)
B、人腦和五官系統(tǒng)
C、肌肉和血管系統(tǒng)
D、思維和學(xué)習(xí)系統(tǒng)
答案:A
26.人臉識(shí)別系統(tǒng)是容易受到外部攻擊的,因而需要增加類(lèi)似活體檢測(cè)的技術(shù),
但還是不能解決。
A、照片攻擊
B、視頻回放攻擊
C、照片面具攻擊
D、黑客網(wǎng)絡(luò)攻擊
答案:D
27.GPU擅長(zhǎng)計(jì)算密集和易于并行的程序。
A、TRUE
B、FALSE
答案:A
28.知識(shí)圖譜中的實(shí)體統(tǒng)一主要的目的是?
A、從文本中提取實(shí)體
B、從實(shí)體間提取關(guān)系
C、不同寫(xiě)法的實(shí)體統(tǒng)一為一個(gè)實(shí)體
D、明確代詞指向哪個(gè)實(shí)體
答案:C
29.Pytorch是有哪一個(gè)公司首先推出的?
A、百度
B、GoogIe
CxFacebook
D、Huawei
答案:C
30.下面不屬于有監(jiān)督學(xué)習(xí)的算法的是
A、決策樹(shù)
B、隨機(jī)森林
C、線性回歸
D、K-Means
答案:D
31.以下關(guān)于人工智能、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)三者間關(guān)系的描述,哪一項(xiàng)是正確
的?
A、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支
B、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)是人工智能里面并列的兩類(lèi)技術(shù)
C、神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的一種技術(shù)
D、人工智能是神經(jīng)網(wǎng)絡(luò)的一個(gè)分支
答案:C
32.設(shè)P(A)=0.4,P(A|C)=0.2,P(C|A)=0.15o則P(C)=?
A、0.1
B、0.2
C、0.3
D、0.5
答案:C
33.在圖像智能處理中,下列關(guān)于語(yǔ)義分割的說(shuō)法不正確的是?
A、語(yǔ)義分割需要分割出圖片中的不同對(duì)象
B、語(yǔ)義分割需要對(duì)圖像中的對(duì)象定位
C、語(yǔ)義分割采用的是全卷積神經(jīng)網(wǎng)絡(luò)技術(shù)
D、語(yǔ)義分制的應(yīng)用場(chǎng)景包括醫(yī)療影像分析
答案:B
34.人工智能領(lǐng)域通常所指的模式識(shí)別主要是對(duì)語(yǔ)音波形、地震波、心電圖、腦
電圖、圖片、照片、文字、符號(hào)、生物傳感器等對(duì)象的具體模式進(jìn)行。
A、分類(lèi)和計(jì)算
B、清洗和處理
C、辨識(shí)和分類(lèi)
D、存儲(chǔ)和利用
答案:C
35.下列關(guān)于聚類(lèi)挖掘技術(shù)的說(shuō)法中,錯(cuò)誤的是。
A、不預(yù)先設(shè)定數(shù)據(jù)歸類(lèi)類(lèi)目,完全根據(jù)數(shù)據(jù)本身性質(zhì)將數(shù)據(jù)聚合成不同類(lèi)別
B、要求同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小
C、要求不同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小
D、與分類(lèi)挖掘技術(shù)相似的是,都是要對(duì)數(shù)據(jù)進(jìn)行分類(lèi)處理
答案:B
36.HUAWEIHiAIEngine能夠輕松將多種Al能力與App集成。
AxTRUE
B、FALSE
答案:A
37.以下關(guān)于聲紋識(shí)別說(shuō)法錯(cuò)誤的是
A、聲紋識(shí)別是生物識(shí)別技術(shù)的一種,也稱(chēng)為說(shuō)話(huà)人識(shí)別,聲紋識(shí)別中蘊(yùn)含聲紋
特征的語(yǔ)音獲取方便、自然,聲紋提取可在不知不覺(jué)中完成,因此使用者的接受
程度也高;
B、聲紋識(shí)別按照任務(wù)分為兩類(lèi),即說(shuō)話(huà)人辨認(rèn)和說(shuō)話(huà)人確認(rèn);
C、每個(gè)人的語(yǔ)音聲學(xué)特征相對(duì)穩(wěn)定性,沒(méi)有變異性,是絕對(duì)一成不變的;
D、每個(gè)人的語(yǔ)音聲學(xué)特征并不是一成不變的,這種變異可來(lái)自生理、病理、心
理、模擬、偽裝,也與環(huán)境干擾有關(guān)
答案:C
38.二進(jìn)制的最小單位是
A、位
B、字節(jié)
C、字
D、塊
答案:A
39.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),
假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)
(XNORfunction)嗎?
A、可以
B、不好說(shuō)
C、不一定
D、不能
答案:D
40.Logit函數(shù)(給定為I(x))是幾率函數(shù)的對(duì)數(shù)。域x=[0,1]中l(wèi)ogit函數(shù)
的范圍是多少?
A、(-8,8)
B、(0,1)
C、(0,8)
D、(-OO,0)
答案:A
41.神經(jīng)網(wǎng)絡(luò)圖像識(shí)別技術(shù)是在。的圖像識(shí)別方法和基礎(chǔ)上融合神經(jīng)網(wǎng)絡(luò)算法的
一種圖像識(shí)別方法。
A、現(xiàn)代
B、傳統(tǒng)
C、智能
D、先進(jìn)
答案:B
42.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研
究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門(mén)研究分
支學(xué)科叫
A、專(zhuān)家系統(tǒng)
B、機(jī)器學(xué)習(xí)
C、神經(jīng)網(wǎng)絡(luò)
D、模式識(shí)別
答案:A
43.fx=maxO,x是以下哪個(gè)激活函數(shù)的定義?
A、ReLU
B、Leaky
C、ReLU
D\Tanh
答案:A
44.以下哪個(gè)不是語(yǔ)音識(shí)別技術(shù)的應(yīng)用場(chǎng)景()
A、入侵檢測(cè)
B、語(yǔ)音合成
C、語(yǔ)音翻譯
D、智能客服
答案:A
45.下面對(duì)強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)描述正確的是
A、都是人工智能的學(xué)習(xí)算法
B、都是深度學(xué)習(xí)的學(xué)習(xí)算法
C、都需要標(biāo)注數(shù)據(jù)
D、都不需要標(biāo)注信息
答案:A
46.激活函數(shù)的目的是什么
A、加入額外的計(jì)算單元
B、非線性變換
C、加快計(jì)算速度
D、方便反向傳播計(jì)算
答案:B
47.“從有標(biāo)簽的歷史數(shù)據(jù)中來(lái)預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在20-30萬(wàn)還是30-40
萬(wàn)”,這是一個(gè)什么問(wèn)題?
Av回歸問(wèn)題
B、規(guī)則問(wèn)題
C、分類(lèi)問(wèn)題
D、聚類(lèi)問(wèn)題
答案:C
48.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣
泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是:
A、具備計(jì)算能力的神經(jīng)元與上下兩層相連
B、其輸入節(jié)點(diǎn)具備計(jì)算能力
C、同一層神經(jīng)元相互連接
D、層間信息只沿一個(gè)方向傳遞
答案:D
49.以下哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性操作?
A、隨機(jī)梯度下降
B、ReLU函數(shù)
C、卷積函數(shù)
D、損失函數(shù)
答案:B
50.近些年深度學(xué)習(xí)火爆的原因不包括()
A、計(jì)算能力更快
B、可解釋性更好
C、特征表達(dá)能力更強(qiáng)
D、數(shù)據(jù)利用程度更高
答案:B
51.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過(guò)程的主要目的是讓損失函數(shù)取得如下哪種結(jié)果?
A、損失函數(shù)值盡可能大
B、損失函數(shù)值盡可能小
C、損失函數(shù)方差值盡可能大
D、損失函數(shù)方差值盡可能小
答案:B
52.下列哪項(xiàng)不屬于集成學(xué)習(xí)
A、隨機(jī)森林
B、Adaboost
C、kNN
D、XGBoost
答案:C
53.表達(dá)式sum(range(5))的值為
A、9
B、10
C、11
D、12
答案:B
54.在C語(yǔ)言中,字符串常量的定界符是()。
Av空格
B、單引號(hào)
G雙引號(hào)
D、方括號(hào)
答案:C
55.1956年達(dá)特茅斯會(huì)議上,學(xué)者們首次提出“artificialintelIigence(人工
智能)”這個(gè)概念時(shí),所確定的人工智能研究方向不包括:
A、研究如何用計(jì)算機(jī)表示人類(lèi)知識(shí)
B、研究智能學(xué)習(xí)的機(jī)制
C、研究人類(lèi)大腦結(jié)構(gòu)和智能起源
D、研究如何用計(jì)算機(jī)來(lái)模擬人類(lèi)智能
答案:C
56.關(guān)于不確定性知識(shí)描述錯(cuò)誤的是()
A、不確定性知識(shí)是不可以精確表示的
B、專(zhuān)家知識(shí)通常屬于不確定性知識(shí)
C、不確定性知識(shí)是經(jīng)過(guò)處理過(guò)的知識(shí)
D、不確定性知識(shí)的事實(shí)和結(jié)論的關(guān)系不是簡(jiǎn)單的“是”或“不是”
答案:C
57.人工智能的含義最早由一位科學(xué)家于1950年提出,并且同時(shí)提出一個(gè)機(jī)器智
能的測(cè)試模型,請(qǐng)問(wèn)這個(gè)科學(xué)家是
A、明斯基
B、扎德
G圖靈
D、馮?諾依曼
答案:C
58.為了方便識(shí)別,通常在數(shù)字后加一個(gè)字母來(lái)標(biāo)示數(shù)制,十進(jìn)制數(shù)使用字母
A、“D”
B、“B”
C、“0”
D、“H”
答案:A
59.關(guān)于Python變量,下列說(shuō)法錯(cuò)誤的是
A、變量不必事先聲明類(lèi)型但區(qū)分大小寫(xiě)
B、變量無(wú)須先創(chuàng)建和賦值而直接使用
C、變量無(wú)須指定類(lèi)型
D、可以使用del關(guān)鍵字釋放變量
答案:B
60.下列那種模型可以被用于文本相似度(documentsimilarity)問(wèn)題?。
Ax在語(yǔ)料中訓(xùn)練一個(gè)由詞到向量(word2vector)的模型來(lái)對(duì)文本中呈現(xiàn)的上下
文語(yǔ)境進(jìn)行學(xué)習(xí)
B、訓(xùn)練一個(gè)詞包模型(abagofwordsmodeI)來(lái)對(duì)文本中的詞的發(fā)生率(occurr
ence)進(jìn)行學(xué)習(xí)
C、創(chuàng)建一個(gè)文獻(xiàn)檢索詞矩陣(document-termmatrix)并且對(duì)每一個(gè)文本應(yīng)用余
弦相似性
D、上述所有方法均可
答案:D
61.機(jī)器學(xué)習(xí)訓(xùn)練的模型對(duì)新的、未知數(shù)據(jù)的預(yù)測(cè)能力,稱(chēng)為()。
A、過(guò)擬合
B、欠擬合
C、正則化
D、泛化能力
答案:D
62.在深度優(yōu)先搜索策略中,open表的數(shù)據(jù)結(jié)構(gòu)是
A、先進(jìn)先出
B、先進(jìn)后出
C、根據(jù)估價(jià)函數(shù)值重排
D、后進(jìn)后出
答案:B
63.人臉?biāo)阉鞣?wù)中,如果想刪除某個(gè)人臉集,我們可以使用這樣的代碼:Firs_
cliet.get_v2().get_face_set_service().deIete_face_set("**"),其中"**”
是填入實(shí)際的人臉集名稱(chēng)。------
A、TRUE
B、FALSE
答案:A
64.下面哪個(gè)/些對(duì)「類(lèi)型1(Type-1)」和「類(lèi)型2(Type-2)J錯(cuò)誤的描述是
正確的?類(lèi)型1通常稱(chēng)之為假正類(lèi),類(lèi)型2通常稱(chēng)之為假負(fù)類(lèi)。類(lèi)型2通常稱(chēng)之
為假正類(lèi),類(lèi)型1通常稱(chēng)之為假負(fù)類(lèi)。類(lèi)型1錯(cuò)誤通常在其是正確的情況下拒絕
假設(shè)而出現(xiàn)。
A、只有1
B、只有2
C、只有3
D、1和3
答案:D
65.在計(jì)算機(jī)的多種技術(shù)指標(biāo)中,決定計(jì)算機(jī)的計(jì)算精度的是
A、運(yùn)算速度
B、字長(zhǎng)
C、存儲(chǔ)容量
D、進(jìn)位數(shù)制
答案:B
66.自然語(yǔ)言處理是指理解給定文本的哪方面內(nèi)容?
A、字?jǐn)?shù)
B、關(guān)鍵詞
C、敏感詞
D、含義
答案:D
67.所謂神經(jīng)網(wǎng)絡(luò),是指以人腦和神經(jīng)系統(tǒng)為模型的。算法。
A、倒檔追溯
B、直接搜索
C、機(jī)器學(xué)習(xí)
D、深度優(yōu)先
答案:C
68.如果一個(gè)問(wèn)題或者任務(wù)不可計(jì)算,那么對(duì)這個(gè)問(wèn)題或任務(wù)的描述哪一句是正
確的?
A、無(wú)法將該問(wèn)題或任務(wù)所需數(shù)據(jù)一次性裝入內(nèi)存進(jìn)行計(jì)算
B、該問(wèn)題或任務(wù)所需計(jì)算時(shí)間是線性增加的
C、圖靈機(jī)不可停機(jī)
D、該問(wèn)題或任務(wù)所需計(jì)算時(shí)間是非線性增加的
答案:C
69.不屬于深度學(xué)習(xí)模型的選項(xiàng)是?
A、樸素貝葉斯
B、深度殘差網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)CNN
D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN
答案:A
70.所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,
正面朝上的幾率(odds)為多少?
A、0.5
B、1
C、都不是
答案:B
71.對(duì)于計(jì)算機(jī)視覺(jué)系統(tǒng)的應(yīng)用,不鼓勵(lì)采用以下哪種手段保障應(yīng)用效果。
A、嘗試控制環(huán)境干擾,把不確定的內(nèi)容都去除,比如保證光照
B、嘗試增加使用者的配合程度,產(chǎn)品設(shè)計(jì)最好有引導(dǎo)用戶(hù)的部分
C、嘗試線上數(shù)據(jù)回收迭代優(yōu)化,并建立獨(dú)立的業(yè)務(wù)側(cè)的測(cè)試集合
D、研究院的核心技術(shù)提供什么就用什么,不用關(guān)心用戶(hù)的具體需求和產(chǎn)品的場(chǎng)
景設(shè)計(jì)
答案:D
72.深度學(xué)習(xí)中的“深度”是指。
A、計(jì)算機(jī)理解的深度
B、中間神經(jīng)元網(wǎng)絡(luò)的層次很多
C、計(jì)算機(jī)的求解更加精準(zhǔn)
D、計(jì)算機(jī)對(duì)問(wèn)題的處理更加靈活
答案:B
73.N-gram被定義為N個(gè)關(guān)鍵詞組合在一起。給定下述短語(yǔ)「AnaIyticsVidhyai
sagreatsourcetolearndatascience」其中可以產(chǎn)生多少個(gè)二元組短語(yǔ)(Bigram)
呢?。
A、7
B、8
C、9
D、10
答案:C
74.測(cè)試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠(chéng)小。
AvTRUE
B、FALSE
答案:B
75.自然語(yǔ)言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的。不是它要實(shí)現(xiàn)
的目標(biāo)。
A、理解別人講的話(huà)
B、對(duì)自然語(yǔ)言表示的信息進(jìn)行分析概括或編輯
C、欣賞音樂(lè)
D、機(jī)器翻譯
答案:C
76.人工智能的目的是讓機(jī)器能夠(),以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化
A、具有完全的智能
B、模擬、延申和擴(kuò)展人的智能
C、完全代替人
D、和人腦一樣考慮問(wèn)題
答案:B
77.將高級(jí)語(yǔ)言源程序翻譯成目標(biāo)程序的翻譯程序稱(chēng)為()。
A、編譯程序
B、匯編程序
C、應(yīng)用程序
D、可執(zhí)行程序
答案:A
78..混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程
中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?
A、混沌度沒(méi)什么影響
B、混沌度越低越好
C、混沌度越高越好
D、混沌度對(duì)于結(jié)果的影響不一定
答案:B
79.R0C曲線的縱軸是()
A、真正例率
B、假正例率
C、查準(zhǔn)率
D、查全率
答案:A
80.現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些
A、多分枝結(jié)構(gòu)
B、殘差連接
C、BatchNormaIization
D、Sigmoid激活函數(shù)
答案:C
81.邏輯域構(gòu)建了協(xié)議、()、數(shù)據(jù)等組成的信息活動(dòng)域。
A、附件
B、網(wǎng)絡(luò)
C、軟件
D、硬件
答案:C
82.下列算法哪些屬于K-means的變種?
A、kNN
B\Meanshift
C、k-means++
D、以上都不是
答案:C
83.下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是
Axpow
B、@
C「
D、//
答案:C
84.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述
警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的
標(biāo)準(zhǔn)。
AxPrecision,RecII
B、RecaII,Precision
C、Preision,RO
D、RecaII,ROC
答案:A
85.下列哪個(gè)不是專(zhuān)門(mén)用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)
A\等高線圖
B、餅圖
C、曲面圖
D、矢量場(chǎng)圖
答案:B
86.可以在自然語(yǔ)言處理中用于語(yǔ)義關(guān)系提取的神經(jīng)網(wǎng)絡(luò)技術(shù)是以下哪種?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、遞歸神經(jīng)網(wǎng)絡(luò)
D、殘差神經(jīng)網(wǎng)絡(luò)
答案:A
87.人工智能經(jīng)過(guò)60多年的螺旋上升式發(fā)展,在移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、傳感網(wǎng)絡(luò)、
半導(dǎo)體技術(shù)等技術(shù)飛速發(fā)展的引領(lǐng)下,新一代人工智能呈現(xiàn)出“深度學(xué)習(xí)、跨界
融合、人機(jī)協(xié)同、群智開(kāi)放和自主智能的新特點(diǎn)”,請(qǐng)問(wèn)新一代人工智能主要是
基于什么的?
A、大數(shù)據(jù)基礎(chǔ)
B、運(yùn)算效率
C、設(shè)備降價(jià)
D、人員廣泛
答案:A
88.語(yǔ)音識(shí)別的技術(shù)框架階段順序是?
A、訓(xùn)練、編碼、解碼
B、編碼、訓(xùn)練、解碼
C、解碼、訓(xùn)練、編碼
D、訓(xùn)練、解碼、編碼
答案:B
89.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研
究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門(mén)研究分
支學(xué)科叫。。
A、專(zhuān)家系統(tǒng)
B、機(jī)器學(xué)習(xí)
C、神經(jīng)網(wǎng)絡(luò)
D、模式識(shí)別
答案:B
90.關(guān)于圖像的說(shuō)法,正確的是
A、灰度圖只有一個(gè)通道
B、彩色圖一定是RGB三通道
C、不同的開(kāi)發(fā)包,對(duì)讀取圖片的通道順序必須相同
D、以上說(shuō)法都正確
答案:A
91.ModelArts服務(wù)與0服務(wù)相結(jié)合可以輕松將模型部署到“端”?
A、0BS
B、OCR
C、ECS
D、HiLens
答案:D
92.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣
相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別
為m*n,n*p,p*q,且用。”《,以下計(jì)算順序效率最高的是。
A、(AB)C
B、AC(B)
C、A(BC)
D、所以效率都相同
答案:A
93.對(duì)于圖像數(shù)據(jù),通常使用的模型是
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、word2vec
D、bert
答案:B
94.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?
A、梯度大小
B、梯度方向
C、學(xué)習(xí)率
D、使用樣本數(shù)
答案:D
95.TensorFlow2.0支持GPU加速主要表現(xiàn)在對(duì)矩陣的加減乘除有一個(gè)并行運(yùn)算
的加速。
A、TRUE
B、FALSE
答案:A
96.tf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集。
A、TRUE
B、FALSE
答案:A
97.下列哪一個(gè)是圖像標(biāo)簽服務(wù)的URI?
A、/v1.0/image/recognition
B、/v1.0/image/ceIebrity-recognition
C、/v1.0/image/recapture-detect
D、/v1.0/image/tagging
答案:D
98.樸素貝葉斯算法屬于
A、無(wú)監(jiān)督學(xué)習(xí)
B、半監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、有監(jiān)督學(xué)習(xí)
答案:D
99.以下不屬于TensorFIow2.0的特點(diǎn)是?
A、多核CPU加速
B、分布式
C、多語(yǔ)言
D、多平臺(tái)
答案:A
100.下列關(guān)于K-Means聚類(lèi)說(shuō)法錯(cuò)誤的是()
A、聚類(lèi)的簇個(gè)數(shù)會(huì)由模型自動(dòng)給出
B、可以使用多組隨機(jī)的初始中心點(diǎn)進(jìn)行計(jì)算
C、聚類(lèi)前應(yīng)當(dāng)進(jìn)行維度分析
D、聚類(lèi)前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化
答案:A
101.下列哪項(xiàng)不是構(gòu)建知識(shí)圖譜用到的主要技術(shù)
A、詞性標(biāo)注
B、實(shí)體鏈接
C、關(guān)系抽取
D、命名實(shí)體識(shí)別
答案:A
102.自動(dòng)識(shí)別系統(tǒng)屬于人工智能哪個(gè)應(yīng)用領(lǐng)域?
A、自然語(yǔ)言系統(tǒng)
B、機(jī)器學(xué)習(xí)
C、專(zhuān)家系統(tǒng)
D、人類(lèi)感官模擬
答案:D
103.關(guān)于線性回歸的描述,以下說(shuō)法正確的有:
A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布
B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布
C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小
D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)
答案:B
104.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用
的損失函數(shù)是:
A、指數(shù)損失函數(shù)
B、均方損失函數(shù)
C、對(duì)數(shù)損失函數(shù)
D、Hinge損失函數(shù)
答案:B
105.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平
衡的能力
A、貪心策略
B、蒙特卡洛采樣
C、動(dòng)態(tài)規(guī)劃
D、BeIIman方程
答案:A
106.人工智能游戲用到的主要技術(shù)錯(cuò)誤的是
A、決策樹(shù)
B、有限狀態(tài)機(jī)
C、神經(jīng)網(wǎng)絡(luò)
D、區(qū)塊鏈
答案:D
107.關(guān)于正態(tài)分布,下列說(shuō)法錯(cuò)誤的是
A、正態(tài)分布具有集中性和對(duì)稱(chēng)性
B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)
C、正態(tài)分布的偏度為0,峰度為1
D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1
答案:C
108.現(xiàn)在有某個(gè)軟件需要在特定場(chǎng)景下的門(mén)禁系統(tǒng)進(jìn)行識(shí)別照片來(lái)判斷照片中
人物的男女性別,目前通過(guò)各種渠道和方法采集了10w張人臉圖片。那么()是
更為合理的
A、采集的照片訓(xùn)練集用7w張,測(cè)試集3w張
B、全都用來(lái)訓(xùn)識(shí)別模型最好
C、采集的照片訓(xùn)練集用7w張,驗(yàn)證集1w張,測(cè)試集2w張
D、不需要訓(xùn)練啊,收集這么多數(shù)據(jù)是多余和浪費(fèi)的
答案:C
109.假設(shè)屬性ine的最大最小值分別是12000元和98000元°利用最大最小規(guī)范
化的方法將屬性的值映射到。至1的范圍內(nèi)。對(duì)屬性ine的73600元將被轉(zhuǎn)化為
A、0.821
B、1.224
C、1.458
D、0.716
答案:D
110.深度學(xué)習(xí)與傳統(tǒng)的機(jī)器學(xué)習(xí)最主要的區(qū)別在于。,即隨著數(shù)據(jù)規(guī)模的增加其
性能也不斷增長(zhǎng)。當(dāng)數(shù)據(jù)很少時(shí),深度學(xué)習(xí)算法的性能并不好。
A、特征處理
B、特征處理
C、數(shù)據(jù)依賴(lài)性
D、問(wèn)題解決方式
答案:C
111.對(duì)于圖像分類(lèi)問(wèn)題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問(wèn)題?
A、感知器
B、循環(huán)神經(jīng)網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、全連接神經(jīng)網(wǎng)絡(luò)
答案:C
112.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?
A、卷積層
B、全連接層
C、池化層
D、以上都不是
答案:B
113.以下哪些算法是分類(lèi)算法()
AxADBSCAN
B、BC4.5
C\K-Mean
D、EM
答案:B
114.以下哪一項(xiàng)是HUAWEIHiAIFoundation模塊的功能?
AvApp集成
B、讓服務(wù)主動(dòng)找到用戶(hù)
C、快速轉(zhuǎn)化和遷移已有模型
D、根據(jù)用戶(hù)所需,適時(shí)適地推送服務(wù)
答案:C
115.訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小。
A、TRUE
B、FALSE
答案:A
116.下列不屬于數(shù)據(jù)預(yù)處理和特征工程的流程的是
A、數(shù)據(jù)獲取
B、數(shù)據(jù)清洗
C、模型解釋
D、數(shù)據(jù)標(biāo)準(zhǔn)化
答案:C
117.具有智能圖像處理功能的(),相當(dāng)于人們?cè)谫x予機(jī)器智能的同時(shí)為機(jī)器安上
了眼睛。
A、機(jī)器視覺(jué)
B、圖像識(shí)別
C、圖像處理
D、信息視頻
答案:A
118.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果
知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的
權(quán)重和偏移呢?
A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機(jī)賦值,聽(tīng)天由命
D、以上都不正確的
答案:B
119.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是
A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類(lèi)所有對(duì)象。
B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。
C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不
同形狀的簇。
D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN
會(huì)合并有重疊的簇。
答案:A
120,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種
方法最小化損失函數(shù)?
A、梯度下降
B、Dropout
C、交叉驗(yàn)證
D、正則化
答案:A
121.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在
一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該
次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過(guò)程。在下一次循環(huán)中,我們又將隱藏另外一些
神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中
將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?
A、仿射層
B、卷積層
C、RNN層
D、均不對(duì)
答案:C
122.下列的哪種方法可以用來(lái)降低深度學(xué)習(xí)模型的過(guò)擬合問(wèn)題?1增加更多的
數(shù)據(jù)2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化
數(shù)據(jù)5降低架構(gòu)的復(fù)雜度
A、145
B、123
C、1345
D、所有項(xiàng)目都有用
答案:D
123.假設(shè)我們有一個(gè)數(shù)據(jù)集,在一個(gè)深度為6的決策樹(shù)的幫助下,它可以使用1
00%的精確度被訓(xùn)練?,F(xiàn)在考慮一下兩點(diǎn),并基于這兩點(diǎn)選擇正確的選項(xiàng)。注意:
所有其他超參數(shù)是相同的,所有其他因子不受影響。1深度為4時(shí)將有高偏差和
低方差2深度為4時(shí)將有低偏差和低方差
A、只有1
B、只有2
C、1和2
D、沒(méi)有一個(gè)
答案:A
124.現(xiàn)有一個(gè)輸入像素的矩陣[[-1,2,—1],[0,0,0],[1,2,1]],
現(xiàn)采用非零原始的卷積核對(duì)其進(jìn)行卷積計(jì)算,則該卷積計(jì)算過(guò)程中共有幾項(xiàng)元素
求和?
A、5
B、6
C、7
D、8
答案:B
125.下面哪個(gè)敘述是對(duì)的?Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconne
ct對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重
A、1是對(duì)的,2是錯(cuò)的
B、都是對(duì)的
C、1是錯(cuò)的,2是對(duì)的
D、都是錯(cuò)的
答案:D
126.0是指直接通過(guò)肢體動(dòng)作與周邊數(shù)字設(shè)備和環(huán)境進(jìn)行交互。
Ax體感交互
B、指紋識(shí)別
C、人臉識(shí)別
D、虹膜識(shí)別
答案:A
127.在數(shù)據(jù)生命周期管理實(shí)踐中,。是執(zhí)行方法
A、數(shù)據(jù)存儲(chǔ)和備份規(guī)范
B、數(shù)據(jù)管理和維護(hù)
C、數(shù)據(jù)價(jià)值發(fā)覺(jué)和利用
D、數(shù)據(jù)應(yīng)用開(kāi)發(fā)和管理
答案:B
128.對(duì)于線性回歸,下面哪些說(shuō)法是正確的?()1.找到離群點(diǎn)很重要,因?yàn)榫€性
回歸對(duì)離群點(diǎn)很敏感2.線性回歸要求所有變量必須符合正態(tài)分布3.線性回歸假
設(shè)數(shù)據(jù)沒(méi)有多重線性相關(guān)性
A、1和2
B、2和3
C、1,2和5
D、以上都不對(duì)
答案:D
129.()是圖像處理中的一項(xiàng)關(guān)鍵技術(shù),一直都受到人們的高度重視。
A、數(shù)據(jù)離散
B、圖像聚合
C、圖像解析
D、圖像分割
答案:D
130.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說(shuō)明該模型?
A、過(guò)擬合
B、可能過(guò)擬合可能欠擬合
C、剛好擬合
D、欠擬合
答案:D
131.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個(gè)像素在空間上存在什么鄰接關(guān)系?
A、不存在鄰接關(guān)系
B、對(duì)角鄰接
C、8-鄰接
D、4-鄰接
答案:B
132.圖像的三原色,不包括
A、紅色
B、綠色
C、藍(lán)色
D、白色
答案:D
133.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中()必然可以得到最優(yōu)解
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
134.一般我們建議將卷積生成對(duì)抗網(wǎng)絡(luò)(convoIutionaIgenerativeadversaria
Inets)中生成部分的池化層替換成什么?
A\跨距卷積層(StridedconvoIutionaIlayer)
B、ReLU層
C\局部跨距卷積層(FractionaIstridedconvoIutionaIIayer)
D、仿射層(AffineIayer)
答案:C
135.利用計(jì)算機(jī)來(lái)模擬人類(lèi)的某些思維活動(dòng),如醫(yī)療診斷、定理證明等,這些應(yīng)
用屬于
A、數(shù)值計(jì)算
B、自動(dòng)控制
C、人工智能
D、模擬仿真
答案:C
136.下列哪些是卷積操作的優(yōu)點(diǎn)?
A、具有局部感受野
B、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享
C、可有效捕捉序列化數(shù)據(jù)的特征
D、操作復(fù)雜度與輸入尺寸無(wú)關(guān)
答案:B
137.假設(shè)你訓(xùn)練SVM后,得到一個(gè)線性決策邊界,你認(rèn)為該模型欠擬合。在下次
迭代訓(xùn)練模型時(shí),應(yīng)該考慮:。
A、增加訓(xùn)練數(shù)據(jù)
B、減少訓(xùn)練數(shù)據(jù)
C、計(jì)算更多變量
D、減少特征
答案:C
138.在機(jī)器學(xué)習(xí)中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測(cè)能力,所選模型的復(fù)雜度往
往會(huì)很高,這種現(xiàn)象稱(chēng)為過(guò)擬合。對(duì)于產(chǎn)生這種現(xiàn)象以下說(shuō)法正確的是()
A、樣本數(shù)量太少
B、樣本數(shù)量過(guò)多
C、模型太復(fù)雜
D、模型太簡(jiǎn)單
答案:C
139.下列度量不具有反演性的是()
A、系數(shù)
B、幾率
C、ohen度量
D、興趣因子
答案:D
140.批規(guī)范化(BatchNormaIization)的好處都有啥?
A、讓每一層的輸入的范圍都大致固定
B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
答案:A
141.標(biāo)準(zhǔn)生成對(duì)抗網(wǎng)絡(luò)的主要提出者是?
AxGeotrey
B\Hinton等
C、Ian
D、Goftellw等
答案:B
142.以下說(shuō)法正確的是()
A、一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說(shuō)明這個(gè)分類(lèi)器是好的
B、如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低
C、不可以使用聚類(lèi)“類(lèi)別id”作為一個(gè)新的特征項(xiàng),用監(jiān)督學(xué)習(xí)進(jìn)行學(xué)習(xí)
D、ABC全錯(cuò)
答案:D
143.人工智能誕生在1955年,50年代末第一款神經(jīng)網(wǎng)絡(luò)-。將人工智能推向
了第一個(gè)高潮。
Av因特網(wǎng)
B、感知機(jī)
C、無(wú)人機(jī)
D、機(jī)器人
答案:B
144.下列哪項(xiàng)不是目前深度學(xué)習(xí)的必備技術(shù)?
A、卷積可視化解釋
B、反向傳播算法
C、非線性激活函數(shù)
D、深度神經(jīng)網(wǎng)絡(luò)
答案:A
145.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有
反饋連接?
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、限制玻爾茲曼機(jī)
D、都不是
答案:A
146.()反映數(shù)據(jù)的精細(xì)化程度,越細(xì)化的數(shù)據(jù),價(jià)值越高。
A、規(guī)模
B、活性
C、關(guān)聯(lián)度
D、顆粒度
答案:D
147.圖像識(shí)別的主要方法有三種,但下列。識(shí)別不屬于其中之一。
A、統(tǒng)計(jì)模式
B、結(jié)構(gòu)模式
C、像素模式
D、模糊模式
答案:C
148.一副照片在存放過(guò)程中出現(xiàn)了很多小的噪點(diǎn),對(duì)其掃描件進(jìn)行
A、操作去噪效果最好。
B、中值濾波
C、圖斯濾波
D、均值濾波
答案:A
149.協(xié)同過(guò)濾和基于內(nèi)容的模型是兩種流行的推薦引擎,在建立這樣的算法中N
LP扮演什么角色?
A、從文本中提取特征
B、測(cè)量特征相似度
C、為學(xué)習(xí)模型的向量空間編程特征
D、以上都是
答案:D
150.Python被廣泛用于人工智能程序的開(kāi)發(fā),以下哪個(gè)庫(kù)實(shí)現(xiàn)了機(jī)器學(xué)習(xí)的經(jīng)
典算法?
A、numpy
B、scIpy
C、matpIotiib
D、skleam
答案:D
151.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)
習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類(lèi)型,稱(chēng)為分類(lèi),標(biāo)簽為連續(xù)的
數(shù)字,又稱(chēng)為什么呢?
A、給定標(biāo)簽
B、離散
C、分類(lèi)
D、回歸
答案:B
152.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算
法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是
0
A、單個(gè)模型之間有高相關(guān)性
B、單個(gè)模型之間有低相關(guān)性
C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好
D、單個(gè)模型都是用的一個(gè)算法
答案:B
153.下面的Python開(kāi)發(fā)包中,屬于深度學(xué)習(xí)框架的有
Axflask
B、TensorfIow
C\Keras
D、Mxnet
答案:D
154.()由于產(chǎn)品全球化市場(chǎng)競(jìng)爭(zhēng)加劇和信息技術(shù)革命的推動(dòng),圍繞提高制造業(yè)水
平的新概念和新技術(shù)不斷涌現(xiàn),在此背景下,將新興的人工智能技術(shù)應(yīng)用于制造
領(lǐng)域使“智能制造”的概念孕育而生,并促進(jìn)了智能制造技術(shù)和智能制造系統(tǒng)的
研究。
A、20世紀(jì)70年代
B、20世紀(jì)80年代
C、20世紀(jì)90年代
D、21世紀(jì)初
答案:C
155.下面哪句話(huà)正確描述了馬爾科夫鏈中定義的馬爾可夫性
A、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)
B、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)
C、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)
D、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立
答案:A
156.燧是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的燧是
Av1比特
B、2.6比特
C、3.2比特
D、3.8比特
答案:B
157.下面算法中哪個(gè)不是回歸算法
A、線性回歸
B、邏輯回歸
C、嶺回歸
D、隨機(jī)森林
答案:B
158.大數(shù)據(jù)的最顯著特征是0
A、數(shù)據(jù)規(guī)模大
B、數(shù)據(jù)類(lèi)型多樣
C、數(shù)據(jù)處理速度快
D、數(shù)據(jù)價(jià)值密度高
答案:A
159.人工智能是知識(shí)與智力的綜合,其中下列不是智能的特征的是
A、具有自我推理能力
B、具有感知能力
C、具有記憶與思維的能力D
D、具有學(xué)習(xí)能力以及自適應(yīng)能力
答案:A
160.常用的機(jī)器學(xué)習(xí)算法,可使用哪些開(kāi)發(fā)包
Axsklearn
B、xgboost
C、Iightgbm
D、numpy
答案:C
161.神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問(wèn)題,對(duì)于梯度消失問(wèn)題,我們可以通過(guò)選
擇使用以下哪種函數(shù)減輕該問(wèn)題?
A、ReIu函數(shù)
B、Sigmoid函數(shù)
Cxtanh函數(shù)
D、Softsign函數(shù)
答案:A
162.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?
AxDropout
B、分批歸一化(BatchNormaIization)
C\正則化(regularization)
D、都可以
答案:D
163.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有()
A、線性回歸
B、卷積神經(jīng)網(wǎng)絡(luò)
C、循環(huán)神經(jīng)網(wǎng)絡(luò)
D、LSTM
答案:D
164.下列哪些包是圖像處理時(shí)常用的?
Avnumpy
B、opencv
C\gensim
D、matpIotIib
答案:D
165.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)
步突破數(shù)據(jù)的瓶頸。
A、TRUE
B、FALSE
答案:A
166.下列選項(xiàng)中,不是人工智能的算法中的學(xué)習(xí)方法的是?
A、重復(fù)學(xué)習(xí)
B、深度學(xué)習(xí)
C、遷移學(xué)習(xí)
D、對(duì)抗學(xué)習(xí)
答案:A
167.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法?
A、TF-IDF
B、TextRank
C、SSA
D、LDA
答案:C
168.頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:
A、頻繁項(xiàng)集頻繁閉項(xiàng)集二最大頻繁項(xiàng)集
B、頻繁項(xiàng)集二頻繁閉項(xiàng)集最大頻繁項(xiàng)集
C、頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集
D、頻繁項(xiàng)集二頻繁閉項(xiàng)集二最大頻繁項(xiàng)集
答案:C
169,梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?
A、SGD
B、BGD
C、MGD
D、MBGD
答案:A
170.智能語(yǔ)音應(yīng)用中具備辨別聲音來(lái)源方向的硬件設(shè)備/技術(shù)是。
A、語(yǔ)音識(shí)別
B、語(yǔ)種識(shí)別
C、說(shuō)話(huà)人識(shí)別
D、麥克風(fēng)陣列
答案:D
171.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。
A、TRUE
B、FALSE
答案:B
172.下列哪項(xiàng)可以評(píng)價(jià)回歸模型?1.R方RSquared2.調(diào)整R方3.F統(tǒng)計(jì)量4.RMS
E/MSE/MAE
A、2和4
B、1和2
C、2,3和4
D、以上所有
答案:D
173.TensorFlow是下列哪個(gè)公司首先開(kāi)發(fā)的?
A、甲骨文
B、Facebook
C、英偉達(dá)
D、GoogIe
答案:D
174.Cell提供了定義執(zhí)行計(jì)算的基本模塊,Cell的對(duì)象可以直接執(zhí)行,以下說(shuō)
法有誤的是?
A、—init—,初始化參數(shù)(Parameter),子模塊(Cell),算子(Primitive)等組件,
進(jìn)行初始化的校驗(yàn)
B、Construct,定義執(zhí)行的過(guò)程。圖模式時(shí),會(huì)被編譯成圖來(lái)執(zhí)行,沒(méi)有語(yǔ)法限
制
C、還有一些。ptim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定義Cell
D、bprop(可選),自定義模塊的反向
答案:B
175.華為的芯片支持HUAWEIHiAI的哪一個(gè)模塊?
AvHiAlEngine
B、HiAIFoundation
C、HiAlFramework
D、HiAlService
答案:B
176.對(duì)于非連續(xù)目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過(guò)程中,下面哪和梯度下降方法是最
好的?
A、SGD
B、AdaGrad
C、l-BFGS
D、拉格朗日松弛Subgradientmethod
答案:D
177.下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表
A、卷積神經(jīng)網(wǎng)絡(luò)
B、遞歸神經(jīng)網(wǎng)絡(luò)
C、殘差網(wǎng)絡(luò)
D、xgboost算法
答案:D
178.以下哪個(gè)選項(xiàng)是目前利用大數(shù)據(jù)分析技術(shù)無(wú)法進(jìn)行有效支持的?
A、新型病毒的分析判斷
B、精確預(yù)測(cè)股票價(jià)格
C、個(gè)人消費(fèi)習(xí)慣分析及預(yù)測(cè)
D、天氣情況預(yù)測(cè)
答案:B
179.用numpy創(chuàng)建單位矩陣使用
Axnp.identity
B、np.ones
C、np.random,rand
D、np.arange
答案:A
180.HDFS中的block默認(rèn)保存幾份?()
A、3份
B、2份
C、1份
D、不確定
答案:A
181.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括
A、采樣
B、裁剪
C、量化
D、旋轉(zhuǎn)
答案:C
182.下面屬于目標(biāo)檢測(cè)常用指標(biāo)的是
A、置信度
B、對(duì)比度
C、mAP
D、分辨率
答案:C
183.人工智能的含義最早由0于1950年提出,并且同時(shí)提出一個(gè)機(jī)器智能的
測(cè)試模型。
A、明斯基
B、扎德
C、圖靈
D、馮?諾依曼
答案:C
184.某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率乜會(huì)購(gòu)買(mǎi)尿布,這種
屬于數(shù)據(jù)挖掘的哪類(lèi)問(wèn)題?
A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B、聚類(lèi)
C、分類(lèi)
D、自然語(yǔ)言處理
答案:A
185.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?
A、召回率
B、混淆矩陣
C、均方誤差
D、準(zhǔn)確率
答案:C
186.在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是()
Axk-means
B、線性回歸
C、神經(jīng)網(wǎng)絡(luò)
D、決策樹(shù)
答案:A
187.給定三個(gè)點(diǎn)(1,4)、(2,3)、(2,5),它們的歐氏距離最小值是
A、1
B、1.4
C、0
D、2
答案:B
188.以下不屬于人工智能軟件的是()。
A、語(yǔ)音漢字輸入軟件
B、翻譯APP
C、在聯(lián)眾網(wǎng)與網(wǎng)友下棋
D、使用OCR漢字識(shí)別軟件
答案:C
189.下列對(duì)人工智能芯片的表述,不正確的是()。
A、一種專(zhuān)門(mén)用于處理人工智能應(yīng)用中大量計(jì)算任務(wù)的芯片
B、能夠更好地適應(yīng)人工智能中大量矩陣運(yùn)算
C、目前處于成熟高速發(fā)展階段
D、相對(duì)于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計(jì)算性能
答案:C
190.下列哪項(xiàng)不屬于集成學(xué)習(xí)范疇
A、隨機(jī)森林
B、Adaboost
C、kNN
D\XGBoost
答案:C
191.下列哪些包不是圖像處理時(shí)常用的
A、time
B、sklearn
C、os
Dxopencv
答案:C
192.下面哪一項(xiàng)對(duì)梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?1
在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD
中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,
每一次迭代需要使用整個(gè)訓(xùn)練集或子訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。
A、只有1
B、只有2
C、只有3
D、都正確
答案:A
193.有監(jiān)督學(xué)習(xí)中,”近朱者赤近墨者黑”是用來(lái)形容下列哪個(gè)模型?
A、K-Means
B、SVM
C、KNN
D、神經(jīng)網(wǎng)絡(luò)
答案:C
194.下列關(guān)于建模流程描述中,錯(cuò)誤的是
A、業(yè)務(wù)需求邊界的確認(rèn)十分關(guān)鍵
B、特征工程階段結(jié)束后就不需要再進(jìn)行數(shù)據(jù)處理了
C、應(yīng)該根據(jù)實(shí)際情況選擇合適的算法
D、模型效果不好需要從多個(gè)環(huán)節(jié)進(jìn)行綜合考察迭代
答案:B
195.在人臉檢測(cè)算法中,不屬于該算法難點(diǎn)的是
A、出現(xiàn)人臉遮擋
B、人臉角度變化大
C、需要檢測(cè)分辨率很小的人臉
D、需要檢測(cè)不同性別的人臉
答案:D
196.下列哪些屬于集成學(xué)習(xí)
A、Adaboost
B、決策樹(shù)
C、隨機(jī)森林
D、XGBoost
答案:D
197.進(jìn)行順序查找的條件是0
A、數(shù)據(jù)有序且采用順序存儲(chǔ)方式
B、數(shù)據(jù)不需要有序,但需要順序存儲(chǔ)
C、數(shù)據(jù)有序且采用鏈?zhǔn)酱鎯?chǔ)方式
D、數(shù)據(jù)不需要有序,也不限制存儲(chǔ)方式
答案:D
198.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()
A、Hopfield網(wǎng)
B、BP網(wǎng)絡(luò)
C、多層感知器
D、LVQ網(wǎng)絡(luò)
答案:A
199.谷歌發(fā)展人工智能的途徑二為:積累底層人工智能技術(shù),研發(fā)更高級(jí)的深度
學(xué)習(xí)算法,增強(qiáng)圖形識(shí)別和語(yǔ)音識(shí)別能力,對(duì)信息進(jìn)行。、處理。
A、識(shí)別
B、分析
C、收集
D、深層加工
答案:D
200,下列哪個(gè)模型結(jié)構(gòu)中沒(méi)有出現(xiàn)循環(huán)連接的結(jié)構(gòu)
A、LSTM
B、GRU
C、Transformer
D、text-convolution
答案:D
多選題(總共100題)
1.下列關(guān)于人工智能的說(shuō)法正確的是。
A、人工智能是關(guān)于知識(shí)的學(xué)科一怎樣表示知識(shí)以及怎樣獲得知識(shí)并使用知識(shí)
的科學(xué)
B、人工智能是關(guān)于知識(shí)的學(xué)科——怎樣表示知識(shí)以及怎樣獲得知識(shí)并使用知識(shí)
的科學(xué)
C、自1946年以來(lái),人工智能學(xué)科經(jīng)過(guò)多年的發(fā)展,已經(jīng)趨于成熟,得到充分應(yīng)
用
D、人工智能不是人的智能,但能像人那樣思考,甚至也可能超過(guò)人的智能
答案:ABD
2.以下合法的十六進(jìn)制數(shù)是0
A、Oxff
B、OXabc
C、0x01
D、0X9X
答案:BC
3.一般算法描述的工具可以用()
A、餅圖
B、流程圖
C、數(shù)據(jù)流圖
D、N-S圖
答案:BD
4.以下哪幾個(gè)方面屬于華為的全棧Al解決方案?
AxAscend
B、CANN
GModeIArts
D、MindSpore
答案:ABCD
5.人工智能應(yīng)用類(lèi)企業(yè)的切入領(lǐng)域有()。
A、機(jī)器人
B、教育培訓(xùn)
C、醫(yī)療設(shè)備
D、智能家居
答案:ABCD
6.華為云ModelArts是面向AI開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些功能在ModelA
rts上可以具備?
A、數(shù)據(jù)治理
B、AI市場(chǎng)
C、可視化工作流
D、自動(dòng)學(xué)習(xí)
答案:ABCD
7.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?
A、自然語(yǔ)言處理
B、控制系統(tǒng)
C、計(jì)算機(jī)視覺(jué)
D、語(yǔ)音識(shí)別
答案:ACD
8.下列何者可以有效識(shí)別視頻中的行為()。
A、利用較低取樣率對(duì)原始視頻進(jìn)行取樣
B、利用較高取樣率對(duì)原始視頻進(jìn)行取樣
C、增加深度學(xué)習(xí)的隱藏層數(shù)目
D、參考高取樣率的動(dòng)作估測(cè)結(jié)果
答案:AD
9.以下關(guān)于KNN算法當(dāng)中k值描述正確的是?
A、K值越大,模型越容易過(guò)擬合
B、K值越大,分類(lèi)的分割面越平滑
C、K值是超參數(shù)
D、可以將k值設(shè)為0
答案:BC
10.高效能的人工智能系統(tǒng)需要問(wèn)題領(lǐng)域的知識(shí),通常可把這些知識(shí)細(xì)分為以下
幾種基本類(lèi)別。
A、陳述性知識(shí)是關(guān)于表示綜合數(shù)據(jù)庫(kù)的知識(shí)。
B、過(guò)程性知識(shí)是關(guān)于表示規(guī)則部分的知識(shí)。
C、控制知識(shí)是關(guān)于表示控制策略方面的知識(shí)。
D、規(guī)則表達(dá)的可以是與待求解的問(wèn)題有關(guān)的客觀規(guī)律方面的知識(shí),也可以是對(duì)
求解問(wèn)題有幫助的策略方面的知識(shí)。
答案:ABC
11.人工智能的研究領(lǐng)域有哪些?
A、機(jī)器證明
B、模式識(shí)別
C、人工生命
D、編譯原理
答案:ABC
12.使用裝有Atlas300(3000)加速卡的服務(wù)器編譯運(yùn)行程序時(shí)需要檢查哪些條
件?
A、完成Atlas驅(qū)動(dòng)安裝
B、已安裝CUDA軟件包
C、已安裝Cmake編譯工具
D、完成環(huán)境配置
答案:ACD
13.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?
A、準(zhǔn)確性
B、不確定性
C、可信賴(lài)度
D、雜亂性
答案:AC
14.下列關(guān)于護(hù)照識(shí)別服務(wù)的說(shuō)法正確的是?
A、country_code代表護(hù)照簽發(fā)國(guó)家的國(guó)家碼
B、nationality代表持有人國(guó)籍
C、passport_number代表護(hù)照號(hào)碼
D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識(shí)別的對(duì)應(yīng)字段
的可靠性越高,在統(tǒng)計(jì)意義上,置信度越大,準(zhǔn)確率越高
答案:ABCD
15.采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱(chēng)為0
A、連接主義
B、邏輯學(xué)派
C、生理學(xué)派
D、符號(hào)主義
答案:AC
16.梯度為0的點(diǎn)可以是()
A、局部最優(yōu)解
B、全局最優(yōu)解
C、鞍點(diǎn)
D、轉(zhuǎn)折點(diǎn)
答案:ABC
17.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維.選擇以下適合的方案?
A、使用前向特征選擇方法
B、使用后向特征排除方法
c、我們先把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn).然后我們?nèi)?/p>
掉一個(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn).如果表現(xiàn)比原來(lái)還要好,
我們可以去除這個(gè)特征.
D、查看相關(guān)性表,去除相關(guān)性最高的一些特征
答案:ABCD
18.人工智能在處理視頻內(nèi)容時(shí)有著天然的優(yōu)勢(shì),請(qǐng)問(wèn)是哪些方面的天然優(yōu)勢(shì)?
A、特征提取
B、內(nèi)容理解
C、計(jì)算大小
D、計(jì)算分辨率
答案:AB
19.以下哪些是屬于人工智能研究領(lǐng)域()
A、機(jī)器人
B、語(yǔ)言識(shí)別
C、圖像識(shí)別
D、專(zhuān)家系統(tǒng)
答案:ABCD
20.從能力角度來(lái)講,人工智能是智能機(jī)器所執(zhí)行的通常與人類(lèi)智能有關(guān)的智能
行為,如()、感知、理解、通信、設(shè)計(jì)、思考、規(guī)劃、學(xué)習(xí)和問(wèn)題求解等思維
活動(dòng)。
A、判斷
B、推理
C、證明
D、識(shí)別
答案:ABCD
21.計(jì)算智能的主要研究領(lǐng)域包括。。
A、神經(jīng)計(jì)算
B、進(jìn)化計(jì)算
C、模糊計(jì)算
D、數(shù)字計(jì)算
答案:ABC
22.屬于Python語(yǔ)言特征的是0
A、解釋型
B、面向過(guò)程
C、面向?qū)ο?/p>
D、動(dòng)態(tài)數(shù)據(jù)類(lèi)型
答案:ACD
23.下列關(guān)于測(cè)試集,正確的是。。
A、不管數(shù)據(jù)大小,始終保持30%作為測(cè)試集
B、測(cè)試集和驗(yàn)證集不能共存
C、在數(shù)據(jù)規(guī)模較小時(shí),可以保留30%測(cè)試集
D、測(cè)試集不必占用數(shù)據(jù)集的30%,能夠保證對(duì)模型的考核即可
答案:CD
24.以下哪些是計(jì)算機(jī)視覺(jué)技術(shù)的應(yīng)用()
A、智能汽車(chē)
B、人臉識(shí)別
C、掃地機(jī)器人
D、表情識(shí)別
答案:ABD
25.以下哪些服務(wù)屬于華為EI服務(wù)家族?
A、對(duì)話(huà)機(jī)器人
BvEl基礎(chǔ)服務(wù)
C、自然語(yǔ)言處理
DxEl大數(shù)據(jù)服務(wù)
答案:ABCD
26.圖像處理技術(shù)的主要內(nèi)容包括三個(gè)部分,包括()
Ax圖像壓縮
B、數(shù)據(jù)排序
C、增強(qiáng)和復(fù)原
D、匹配、描述和識(shí)別
答案:ACD
27.自然語(yǔ)言理解不僅包括計(jì)算機(jī)能正確理解人們用自然語(yǔ)言輸入的信息,能正
確回答輸入信息中的有關(guān)問(wèn)題,而且還包括哪些?
A、語(yǔ)言分析
B、語(yǔ)法分析
C、語(yǔ)用分析
D、語(yǔ)句分析
答案:BCD
28.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有:
Av最小地化層
B、乘積池化層
C、最大池化層
D、平均池化層
答案:CD
29.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問(wèn)題時(shí),我們可以用以下哪些方法進(jìn)行
解訣?
A、批量刪除
B、隨機(jī)過(guò)采樣
C、合成采樣
D、隨機(jī)欠采樣
答案:BCD
30.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,。必然可以得到該最優(yōu)解,
()可以認(rèn)為是“智能程度相對(duì)比較高”的算法。
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:AD
31.程序的基本構(gòu)成包括()
A、數(shù)組描述
B、數(shù)據(jù)描述
C、算法描述
D、存儲(chǔ)空間描述
答案:BC
32.哪些是人工智能的應(yīng)用性領(lǐng)域?
A、難題求解
B、定理證明
C、智能控制
D、機(jī)器翻譯
答案:ABCD
33.圖像識(shí)別的發(fā)展經(jīng)歷了()三個(gè)階段
A、文字識(shí)別
B、像素識(shí)別
C、物體識(shí)別
D、數(shù)字圖像處理與識(shí)別
答案:ACD
34.下列哪些屬于知識(shí)圖譜的分布式表示方法
Axword2vec
B、TransD
C\TransH
D、TransE
答案:BCD
35.哪些應(yīng)用適合使用RNN來(lái)處理()
A、語(yǔ)音識(shí)別
B、圖片識(shí)別
C、對(duì)話(huà)機(jī)器人
D、情感分析
答案:ACD
36.現(xiàn)代神經(jīng)網(wǎng)絡(luò)是一種非線性統(tǒng)計(jì)性數(shù)據(jù)建模工具。典型的神經(jīng)網(wǎng)絡(luò)具有三個(gè)
部分,包括()。
A、結(jié)構(gòu)
B、尺寸
C、激勵(lì)函數(shù)
D、學(xué)習(xí)規(guī)則
答案:ACD
37.對(duì)于PCA說(shuō)法正確的是:0
A、.我們必須在使用PCA前規(guī)范化數(shù)據(jù)
B、我們應(yīng)該選擇使得模型有最大variance的主成分
C、我們應(yīng)該選擇使得模型有最小variance的主成分
D、.我們可以使用PCA在低維度上做數(shù)據(jù)可視化
答案:ABD
38.在形成期和知識(shí)應(yīng)用期之間,交疊地存在一個(gè)人工智能的暗淡期。究其原因,
當(dāng)時(shí)的人工智能主要存在以下局限性()。
A、知識(shí)局限性
B、思想局限性
C、解法局限性
D、結(jié)構(gòu)局限性
答案:ACD
39.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDev
eIopmentKit)之前需要安裝的?
Axdecorator
Bxsetuptools
C\numpy
D、tensorflow
答案:ABC
40.對(duì)現(xiàn)階段人工智能成功的關(guān)鍵要素漣漪效應(yīng)描述正確的是。
A、為了達(dá)成漣漪效應(yīng),必須盡可能的獲取產(chǎn)品中的各種數(shù)據(jù);
B、漣漪效應(yīng)通過(guò)記錄產(chǎn)品中生成各類(lèi)數(shù)據(jù),并將這些數(shù)據(jù)用于優(yōu)化機(jī)器模型;
C、必須將收集到的原始數(shù)據(jù)全部進(jìn)行高成本的精細(xì)標(biāo)注,加入到模型訓(xùn)練中去,
才能實(shí)現(xiàn)漣漪效應(yīng);
D、搜索引擎中的用戶(hù)點(diǎn)擊記錄也是實(shí)現(xiàn)漣漪效應(yīng)的一種方式;
答案:ABD
41.神經(jīng)網(wǎng)絡(luò)解決非線性分類(lèi),是通過(guò)()
A、構(gòu)造神經(jīng)網(wǎng)絡(luò)
B、用激活函數(shù)
C、訓(xùn)練權(quán)重矩陣
D、讓損失最大化
答案:ABC
42.常用的盲目搜索方法是什么?
A、隨機(jī)碰撞式搜索
B、精確碰撞式搜索
C、不完全式搜索
D、完全式搜索
答案:AD
43.下列選項(xiàng)中屬于機(jī)器學(xué)習(xí)策略的是()o
A、機(jī)械學(xué)習(xí)
B、觀察學(xué)習(xí)
C、示教學(xué)習(xí)
D、示例學(xué)習(xí)
答案:ABD
44.Python是完全面向?qū)ο蟮恼Z(yǔ)言。下列選項(xiàng)屬于Python的對(duì)象的是()。
A、函數(shù)
B、模塊
C、數(shù)字
D、字符串
答案:ABCD
45.以下哪些是目前機(jī)器翻譯系統(tǒng)的弱點(diǎn)()
A、對(duì)需要結(jié)合篇章上下文信息的句子翻譯結(jié)果不夠準(zhǔn)確
B、在某些特定領(lǐng)域?qū)?zhuān)業(yè)詞匯/短語(yǔ)等表達(dá)可能不準(zhǔn)確、不一致
C、在句式結(jié)構(gòu)復(fù)雜的句子上準(zhǔn)確率有所下降
D、對(duì)部分俚語(yǔ)、網(wǎng)絡(luò)新詞等的語(yǔ)義表達(dá)可能還不夠精準(zhǔn)
答案:ABCD
46.人工智能包括哪些要素?多選
A、算法
B、場(chǎng)景
C、算力
D、數(shù)據(jù)
答案:ABCD
47.以下關(guān)于數(shù)組描述錯(cuò)誤的是()。
A、數(shù)組的大小是固定的,但可以有不同的類(lèi)型的數(shù)組元素
B、數(shù)組的大小是可變的,但所有數(shù)組元素的類(lèi)型必須相同
C、數(shù)組的大小是固定的,所有數(shù)組元素的類(lèi)型必須相同
D、數(shù)組的大小是可變的,可以有不同的類(lèi)型的數(shù)組元素
答案:ABD
48.基于海量數(shù)據(jù),對(duì)用戶(hù)需求進(jìn)行深層次、知識(shí)化理解,并結(jié)合知識(shí)查詢(xún)、推
理、計(jì)算等多種技術(shù),精準(zhǔn)滿(mǎn)足用戶(hù)需求。以下屬于知識(shí)問(wèn)答的是。。
A、精準(zhǔn)問(wèn)答
B、推理運(yùn)算
C、通用問(wèn)答
D、搜索引擎
答案:ABC
49.按照詞匯量大小,可以將語(yǔ)音識(shí)別技術(shù)分為。。
A、小詞匯量
B、中詞匯量
G大詞匯量
D、超大詞匯量
答案:ABC
50.人工智能是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)
及應(yīng)用系統(tǒng)一門(mén)交叉科學(xué),它涉及。
A、A自然科學(xué)
B、社會(huì)科學(xué)
C、技術(shù)科學(xué)
D、環(huán)境科學(xué)
答案:ABC
51.廣義不確定性可分為。。
A、粗糙性
B、模糊性
C、不完全性
D、時(shí)變性
答案:BC
52.在機(jī)器學(xué)習(xí)的具體應(yīng)用中,()決定了學(xué)習(xí)系統(tǒng)基本結(jié)構(gòu)的工作內(nèi)容,確定了
學(xué)習(xí)部分所需要解決的問(wèn)題。
A、環(huán)境
B、知識(shí)庫(kù)
C、執(zhí)行部分
D、訓(xùn)練
答案:ABC
53.開(kāi)發(fā)專(zhuān)家系統(tǒng)所要解決的基本問(wèn)題有哪幾個(gè)?
A、知識(shí)的表示
B、知識(shí)的運(yùn)用
C、知識(shí)的篩選
D、知識(shí)的獲取
答案:ABD
54.在概率空間,概率事件AI和概率樣本點(diǎn)AI不同點(diǎn)在于()o
A、樣本點(diǎn)不能再劃分
B、事件可以再劃分
C、事件可能有多個(gè)樣本
D、事件的概率肯定大于等于樣本點(diǎn)概率
答案:ABCD
55.人工智能按照發(fā)展層級(jí)劃分可以分為哪幾層?
A、計(jì)算智能
B、感知智能
G認(rèn)知智能
D、人工智能
答案:ABC
56.統(tǒng)計(jì)模式分類(lèi)問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()
A、最小最大損失準(zhǔn)則
B、最小誤判概率準(zhǔn)則
C、最小損失準(zhǔn)則
D、N-P判決
答案:AD
57.下列選項(xiàng)中屬于keras下estimator封裝的方法有?
A、評(píng)估
B、訓(xùn)練
C、預(yù)測(cè)
D、輸出模型
答案:ABC
58.常見(jiàn)的聚類(lèi)算法有哪些?-
A、密度聚類(lèi)
B、層次聚類(lèi)
C、譜聚類(lèi)
D、Kmeans
答案:ABCD
59.下列哪個(gè)屬于常用的文本分類(lèi)的特征選擇算法?
A、卡方檢驗(yàn)值
B、互信息
C、信息增益
D、主成分分析
答案:ABC
60.以下說(shuō)法正確的是()。
A、C語(yǔ)言里有字符串變量
B、C語(yǔ)言里沒(méi)有字符串變量
C、C語(yǔ)言里有字符變量
D、C語(yǔ)言里沒(méi)字符變量
答案:BC
61.現(xiàn)階段,作為AI技術(shù)和應(yīng)用服務(wù)的推行者,我們需要具備()
A、對(duì)AI技術(shù)的鑒賞力,對(duì)于技術(shù)描述有清晰的判斷和辨析,不人云亦云斷章取
義
B、對(duì)AI技術(shù)的理解力,主要判斷在各個(gè)應(yīng)用場(chǎng)景下技術(shù)的可行性,‘能做到‘
還是‘不能做到‘,或是說(shuō)需要如何結(jié)合人工才能形成人機(jī)協(xié)作解決問(wèn)題的結(jié)果
C、對(duì)AI技術(shù)的應(yīng)用力,踐行去追求:讓AI的應(yīng)用有看得見(jiàn)摸得著的真實(shí)應(yīng)用
案例、有能夠規(guī)?;涂赏茝V的對(duì)應(yīng)產(chǎn)品、可以通過(guò)統(tǒng)計(jì)數(shù)據(jù)去說(shuō)明應(yīng)用成效
D、對(duì)AI技術(shù)的夸張力,不管用戶(hù)要求的任何場(chǎng)景任何問(wèn)題,不用特別分析和定
制,我們的AI系統(tǒng)都是最好的,用戶(hù)的問(wèn)題都是可以解決的
答案:ABC
62.HUAWEIHiAI支持的機(jī)型有哪些?
AxP30
B、Mate20
C、榮耀V20
D、iPhonelO
答案:ABC
63.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?
Av累加制
B、求平均數(shù)
C、投票制
D、累乘制
答案:BC
64.Yarn架構(gòu)在Hadoop生態(tài)圈中有哪些作用?
A、資源分配
B、調(diào)度
C、隔離
D、計(jì)算
答案:ABC
65.下列何者是聚類(lèi)的應(yīng)用。
A、市場(chǎng)營(yíng)銷(xiāo)
B、人員配置優(yōu)化
C、犯罪分析
D、社群網(wǎng)絡(luò)分析
答案:ABCD
66.人工智能是解決機(jī)器。的學(xué)科
A、感知
B、理解
C、決策
D、證明
答案:ABC
67.關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法正確?
A、支持向量機(jī)可以用于處理二分類(lèi)及多分類(lèi)問(wèn)題
B、支持向量機(jī)只能用于線性可分的分類(lèi)問(wèn)題
C、支持向量機(jī)可用于回歸問(wèn)題
D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大
答案:ACD
68.產(chǎn)生式系統(tǒng)的推理包括哪些?
A、正向推理
B、逆向推理
C、雙向推理
D、簡(jiǎn)單推理
答案:ABC
69.華為云El讓更多的企業(yè)邊界的使用Al和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福
社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?
A、行業(yè)數(shù)據(jù)
B、行業(yè)智慧
C、算法
D、算力
答案:ABCD
70.經(jīng)典邏輯推理有哪些?
A、自然演繹推理
B、歸結(jié)演繹推理
C、不確定與非單調(diào)推理
D、與、或形演繹推理
答案:ABD
71.知識(shí)表示必須兼顧()。
A、表達(dá)能力強(qiáng)
B、易于推理
C、易于擴(kuò)展
D、容易修改知識(shí)庫(kù)
答案:ABCD
72.神
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 鐵床架的安裝施工方案
- 浙教版數(shù)學(xué)七年級(jí)下冊(cè)《4.1 因式分解》聽(tīng)評(píng)課記錄3
- 閘門(mén)主輪軸套更換施工方案
- 市場(chǎng)營(yíng)銷(xiāo)策劃演示
- 陜教版道德與法治九年級(jí)下冊(cè)10.2《積極參與公共事務(wù)》聽(tīng)課評(píng)課記錄
- 廣東省建設(shè)工程標(biāo)準(zhǔn)施工合同(2009年版)
- 健康生活與人際處理
- 《中華民族一家親》說(shuō)課稿(共計(jì)2課時(shí))【道德與法治五年級(jí)上冊(cè)】
- 北師大版道德與法治八年級(jí)上冊(cè)第5課第2站《相互信任》聽(tīng)課評(píng)課記錄
- 五年級(jí)上冊(cè)數(shù)學(xué)聽(tīng)評(píng)課記錄 《 組合圖形的面積》人教版
- 普外腹腔鏡手術(shù)護(hù)理常規(guī)
- 監(jiān)控系統(tǒng)調(diào)試檢驗(yàn)批質(zhì)量驗(yàn)收記錄(新表)
- 浙江共同富裕哪些值得關(guān)注
- 高考古詩(shī)文情景默寫(xiě)練習(xí)108道有答案資料全
- 元宵節(jié)猜燈謎PPT
- 錦州市主要環(huán)境問(wèn)題論文
- 黃桃種植示范基地可行性研究報(bào)告
- 東風(fēng)4型內(nèi)燃機(jī)車(chē)檢修規(guī)程
- 藥品經(jīng)營(yíng)企業(yè)GSP計(jì)算機(jī)系統(tǒng)培訓(xùn)PPT課件
- 建筑工程冬期施工規(guī)程JGJT1042011
- 畢業(yè)論文市場(chǎng)營(yíng)銷(xiāo)畢業(yè)論文
評(píng)論
0/150
提交評(píng)論