版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能考試試題及答案
1、GOOgle認(rèn)為,響應(yīng)時(shí)間每延遲0.5s,查詢數(shù)將會(huì)減少()
A、0.05
B、0.1
C、0.15
D、$0.20
答案:D
2、在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入
端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)
A、輸入數(shù)據(jù)大小
B、神經(jīng)元和神經(jīng)元之間連接有無(wú)
C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重
D、同一層神經(jīng)元之間的連接權(quán)重
答案:C
3、如果將數(shù)據(jù)科學(xué)比喻成“鷹”,那么,理論基礎(chǔ)、數(shù)據(jù)加工、數(shù)據(jù)計(jì)算、
數(shù)據(jù)管理、數(shù)據(jù)分析、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)相當(dāng)于“鷹”的O
A、翅膀
B、腳
C、軀體
D、頭腦
答案:C
4、以下關(guān)于回歸算法描述中不正確的是
A、最小二乘法可以求解線性回歸問(wèn)題
B、梯度下降法可以求解線性回歸問(wèn)題
C、利用最小二乘法求解線性回歸問(wèn)題可能會(huì)出現(xiàn)局部最優(yōu)解
D、學(xué)習(xí)率是梯度下降法的重要參數(shù)
答案:C
5、添加用戶時(shí)使用參數(shù)()可以指定用戶目錄。
A、-d
B、-p
C、-U
D、-C
答案:A
6、下屬模型是一階段網(wǎng)絡(luò)的是O
A、Y0L0v2
B、rcnn
C、fast-rcnn
D、faster-rcnn
答案:A
7、一條規(guī)則形如:,其中“一”右邊的部分稱為(一)
A、規(guī)則長(zhǎng)度
B、規(guī)則頭
C、布爾表達(dá)式
D、規(guī)則體
答案:D
8、下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說(shuō)法,正確的是O
A、隨機(jī)森林只能用于解決分類問(wèn)題
B、集成學(xué)習(xí)通過(guò)構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法
集成起來(lái),作為最終的預(yù)測(cè)結(jié)果,提高分類問(wèn)題的準(zhǔn)確率
C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹(shù)組成
D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的
答案:B
9、關(guān)于Python中的復(fù)數(shù),下列說(shuō)法錯(cuò)誤的是()
A、表是復(fù)數(shù)的語(yǔ)法是real+imagej
B、實(shí)部和虛部都是浮點(diǎn)數(shù)
C、虛部必須后綴j,且必須小寫(xiě)
D、方法Ce)njugate返回復(fù)數(shù)的共枕復(fù)數(shù)
答案:C
10、對(duì)于k折交叉驗(yàn)證,以下對(duì)k的說(shuō)法正確的是?
A、k越大,不一定越好,選擇大的k會(huì)加大評(píng)估時(shí)間
B、選擇更大的k,就會(huì)有更小的bias(因?yàn)橛?xùn)練集更加接近總數(shù)據(jù)集)
C、在選擇k時(shí),要最小化數(shù)據(jù)集之間的方差
D、以上所有
答案:D
11、frompandasimportDataFranle這個(gè)語(yǔ)句的含義是。
A、從DataFrame類導(dǎo)入pandas類
B、從pandas庫(kù)導(dǎo)入DataFrame類
C、從PandaS庫(kù)導(dǎo)入DataFrame庫(kù)
D、從DataFrame庫(kù)導(dǎo)入pandas類
答案:B
12、以下關(guān)于最大似然估計(jì)MLE的說(shuō)法正確的是
A、MLE中加入了模型參數(shù)本身的概率分布
B、MLE認(rèn)為模型參數(shù)本身概率是不均勻的
C、MLE體現(xiàn)了貝葉斯認(rèn)為參數(shù)也是隨機(jī)變量的觀點(diǎn)
D、MLE是指找出一組參數(shù),使得模型產(chǎn)生出觀測(cè)數(shù)據(jù)的概率最大
答案:D
13、第三次工業(yè)革命的地點(diǎn)是
A、英國(guó)倫敦
B、美國(guó)硅谷
C、德國(guó)漢諾威
D、美國(guó)辛辛那提農(nóng)場(chǎng)
答案:B
14、下述字符串格式化語(yǔ)法正確的是?
A、GNU,sNot%d%%,%'UNIX'
B、GNU?,sNot%d%%"%'UNIX"
C、GNU,sNot%s%%,%,UNIX,
D、GNU?,sNot%s%%,%,UNIX'
答案:D
15、下列哪項(xiàng)不屬于集成學(xué)習(xí)
A、隨機(jī)森林
B、Adaboost
C、kNN
D、XGBoost
答案:C
16、LSTM是一種什么網(wǎng)絡(luò)?
A、卷積神經(jīng)網(wǎng)
B、前饋神經(jīng)網(wǎng)
C、循環(huán)神經(jīng)網(wǎng)
D、李生網(wǎng)絡(luò)
答案:C
17、在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是0
A、k-means
B、線性回歸
C、神經(jīng)網(wǎng)絡(luò)
D、決策樹(shù)
答案:A
18、()是人以自然語(yǔ)言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語(yǔ)言學(xué)、
心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。
A、語(yǔ)音交互
B、情感交互
C、體感交互
D、腦機(jī)交互
答案:A
19、數(shù)據(jù)挖掘技術(shù)主要有分類、估計(jì)、()、關(guān)聯(lián)分析和預(yù)報(bào)。
A、回歸
B、統(tǒng)計(jì)
C、聚類
D、假設(shè)
答案:C
20、下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是(_)
A、采用屬性條件獨(dú)立性假設(shè);
B、假設(shè)屬性之間相互獨(dú)立;
C、為了避免條件概率是所以屬性上的聯(lián)合概率;
D、假設(shè)屬性之間是相關(guān)的;
答案:D
21、半監(jiān)督學(xué)習(xí)不包括
A、直推學(xué)習(xí)
B、純半監(jiān)督學(xué)習(xí)
C、主動(dòng)學(xué)習(xí)
D、圖半監(jiān)督學(xué)習(xí)
答案:C
22、下列關(guān)于深度學(xué)習(xí)說(shuō)法錯(cuò)誤的是
A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問(wèn)題
B、CNN相比于全連接的優(yōu)勢(shì)之一是模型復(fù)雜度低,緩解過(guò)擬合
C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法
D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過(guò)程中陷入鞍點(diǎn)的問(wèn)題
答案:C
23、fasterRCNN用于生成候選框ProPOSal的模塊名稱。
A、RPN
B、CNN
C、ResNet
D>RoIpooling
答案:A
24、以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是
A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層
B、數(shù)據(jù)處理一般都是在應(yīng)用層完成
C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合
D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源
答案:B
25、當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)
A、全批量梯度下降
B、隨機(jī)梯度下降
答案:B
26、使用()關(guān)鍵字來(lái)創(chuàng)建PylhOn自定義函數(shù)。
A、function
B、func
C、procedure
D、def
答案:D
27、下列代碼執(zhí)行結(jié)果是什么?x=ldefchange(a):x+=lprintx
change(x)
A、1
B、2
C、3
D、報(bào)錯(cuò)
答案:D
28、PythOn字體切片時(shí)(S[0,10])下標(biāo)的取值范圍為()。
A、0,10]
B、(0,10)
C、0,10)
D、(0,10]
答案:C
29、下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享
A、卷積神經(jīng)網(wǎng)絡(luò)&
B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&
c、&全連接神經(jīng)網(wǎng)絡(luò)&
D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:D
30、如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會(huì)導(dǎo)致某些特征模式的
丟失,所以在標(biāo)準(zhǔn)化之后,BatChNorm會(huì)緊接著對(duì)數(shù)據(jù)做縮放和O
A、平移
B、刪除
C、移動(dòng)
D、收斂
答案:A
31、以下程序的輸出是。?array=np.array
([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,shape)
A、(4,3)
B、(3,4)
C、3
D、$4
答案:A
32、迄今為止,最成功的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法是O
A、感知機(jī)
B、BB算法
C、BP算法
D、阿黛爾算法
答案:C
33、昇騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?
A、DVPP
B、GPU
C、Al計(jì)算引擎
D、芯片系統(tǒng)控制CPU
答案:B
34、聚類分析屬于典型的。。
A、監(jiān)督學(xué)習(xí)
B、無(wú)監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、強(qiáng)化學(xué)習(xí)
答案:B
35、a=np.arange(2),b=np.arange(3,5),print(np.Iexsort([a,b]))fr?
輸出結(jié)果是0。
A、a,b]
B、0,1]
C、O,1,3,4]
D、O,1,2,3]
答案:B
36、在Python中,運(yùn)行以下程序,結(jié)果應(yīng)為()a=5b=7b+=3a=b*20
a+=2a=a%bprint(a,b)
A,57
B、2010
C、227
D、210
答案:D
37、回歸算法預(yù)測(cè)的標(biāo)簽是?
A、自變型
B、離散型
C、應(yīng)變型
D、連續(xù)型
答案:D
38、檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)
域重要的研究方向
A、公平性
B、真實(shí)性
C、快速性
D、準(zhǔn)確性
答案:A
39、下列關(guān)于線性回歸分析中的殘差(ReSidUalS)說(shuō)法正確的是?
A、殘差均值總是為零
B、殘差均值總是小于零
C、殘差均值總是大于零
D、以上說(shuō)法都不對(duì)
答案:A
40、跳出所處的最近層循環(huán)的是()
A、break
B、continues
C、continue
D、pass
答案:A
41、下列哪項(xiàng)不屬于聚類算法O
A、K-means
B、BIRCH
C、SVM
D、DBSCAN
答案:C
42、關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說(shuō)法正確的是()。
A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好
地處理。
B、混合模型比K均值或模糊均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。
C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。
D、混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題。
答案:B
43、簡(jiǎn)單遺傳算法的遺傳操作主要有三種:選擇操作,交叉操作,O操
作
A、連接
B、復(fù)制
C、變異
D、結(jié)合
答案:C
44、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬
件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:
A、主板
B、內(nèi)存條
C、GPU
D、CPU
答案:C
45、()是一類用圖來(lái)表達(dá)變量相關(guān)關(guān)系的概率模型。
A、概率圖模型
B、隱馬爾可夫模型
C、變量圖模型
D、以上都不對(duì)
答案:A
46、為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問(wèn)題:
A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長(zhǎng),有的序列短
B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)
C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問(wèn)題
D、命名實(shí)體識(shí)別問(wèn)題是一個(gè)無(wú)法解決的問(wèn)題,全連接網(wǎng)絡(luò)也不能解決這個(gè)
問(wèn)題
答案:A
47、不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()
A、重復(fù)數(shù)據(jù)
B、虛假數(shù)據(jù)
C、錯(cuò)誤數(shù)據(jù)
D、異常數(shù)據(jù)
答案:A
48、后剪枝是先從訓(xùn)練集生成一顆完整的決策樹(shù),然后(—)對(duì)非葉結(jié)點(diǎn)進(jìn)
行考察。
A、自上而下
B、在劃分前
C、禁止分支展開(kāi)
D、自底向上
答案:D
49、LARS屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
答案:C
50、云計(jì)算提供的支撐技術(shù),有效解決虛擬化技術(shù)、()、海量存儲(chǔ)和海
量管理等問(wèn)題
A、并行計(jì)算
B、實(shí)際操作
C、數(shù)據(jù)分析
D、數(shù)據(jù)研發(fā)
答案:A
51、YOLOV3在COC。數(shù)據(jù)集上聚類了。個(gè)矛框?
A、3
B、9
C、80
D、nan
答案:B
52、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派
A、符號(hào)主義
B、連接主義
C、行為主義
D、其他選項(xiàng)均不對(duì)
答案:B
53、以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?
A、召回率
B、混淆矩陣
C、均方誤差
D、準(zhǔn)確率
答案:C
54、多層前饋神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是
A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的
神經(jīng)元
B、神經(jīng)元之間存在這同層連接以及跨層連接
C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理
D、每層神經(jīng)元上一層與下一層全互連
答案:B
55、Python標(biāo)記語(yǔ)句塊使用()
A、花括號(hào)
B、小括號(hào)
C、引號(hào)
D、縮進(jìn)
答案:D
56、DSSM經(jīng)典模型的優(yōu)點(diǎn);L解決了字典爆炸問(wèn)題,降低了計(jì)算復(fù)雜度;2.
中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個(gè)字表達(dá)的詞義,減少分詞的
依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有
較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語(yǔ)義embedding的映射問(wèn)題;5.省
去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。
A、1.2.3.4
B、1.3.4.6
C、1.2.3.4.5.6
D、3.4.6
答案:C
57、衡量模型預(yù)測(cè)值和真實(shí)值差距的評(píng)價(jià)函數(shù)被稱為O
A、損失函數(shù)
B、無(wú)參數(shù)函數(shù)
C、激活函數(shù)
D、矩陣拼接函數(shù)
答案:A
58、智能體的性能度量用來(lái)()
A、進(jìn)行正確感知
B、評(píng)價(jià)智能體在環(huán)境中的行為表現(xiàn)
C、財(cái)務(wù)分析
D、進(jìn)行自我學(xué)習(xí)與自我優(yōu)化
答案:D
59、()是一種基于貝葉斯法則為基礎(chǔ)的,通過(guò)概率手段進(jìn)行學(xué)習(xí)的方法。
A、遺傳算法
B、分析學(xué)習(xí)
C、歸納學(xué)習(xí)
D、貝葉斯學(xué)習(xí)
答案:D
60、在TenSOrFIOW中,TenSOrBOard運(yùn)行時(shí)的默認(rèn)訪問(wèn)端口是以下哪個(gè)端
口號(hào)?
A、4004
B、8080
C、8008
D、$6,006
答案:D
61、下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是。
A、Hopfield網(wǎng)
B、BP網(wǎng)絡(luò)
C、多層感知器
D、LVQ網(wǎng)絡(luò)
答案:A
62、PyTorCh框架算法模型配置文件應(yīng)為。格式。
A、prototxt
B、py
C、config
D、params
答案:B
63、關(guān)于用4V來(lái)表示大數(shù)據(jù)的主要特征,描述錯(cuò)誤的是
A、大數(shù)據(jù)的時(shí)間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高
B、“如何從海量數(shù)據(jù)中洞見(jiàn)(洞察)出有價(jià)值的數(shù)據(jù)”是數(shù)據(jù)科學(xué)的重要
課題之一
C、數(shù)據(jù)類型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,
對(duì)數(shù)據(jù)處理能力提出了更高要求
D、數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間存在線性關(guān)系
答案:D
64、關(guān)系云的一個(gè)重要功能是提供0。
A、數(shù)據(jù)庫(kù)即服務(wù)
B、虛擬服務(wù)
C、彈性計(jì)算
D、按需服務(wù)
答案:A
65、在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?O
A、卷積層
B、全連接層
C、池化層
D、以上都不是
答案:B
66、機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()
A、參數(shù)預(yù)估
B、機(jī)器翻譯
C、圖像識(shí)別
D、參數(shù)估計(jì)
答案:D
67、在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)
的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測(cè)值和輸出不一致,則調(diào)整
權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值
A、1,2,3,4
B、4,3,2,1
C、3,1,2,4
D、1,4,3,2
答案:D
68、以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?
A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支
B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系
C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系
D、以上都不對(duì)
答案:A
69、中心極限定理告訴我們,當(dāng)樣本量足夠大時(shí),樣本均值的分布圍繞總
體均值呈現(xiàn)O0
A、泊松分布
B、正態(tài)分布
C、伯努利分布
D、幾何分布
答案:B
70、關(guān)于MNlST,下列說(shuō)法錯(cuò)誤的是。。
A、是著名的手寫(xiě)體數(shù)字識(shí)別數(shù)據(jù)集
B、有訓(xùn)練集和測(cè)試集兩部分
C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷
D、測(cè)試集大約包含IOOOO個(gè)樣本和標(biāo)簽
答案:C
71、在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概
率就越大,這一性質(zhì)稱為()
A、無(wú)偏性
B、有效性
C、及時(shí)性
D、一致性
答案:D
72、LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其
他時(shí)序信號(hào)進(jìn)行建模,是一種Oo
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、樸素貝葉斯
D、深度殘差網(wǎng)絡(luò)
答案:A
73、CPU主要通過(guò)增加指令,增加核數(shù)等方式來(lái)提升Al性能。
A、TRUE
B、FALSE
答案:A
74、在多通道卷積過(guò)程中,要生成n個(gè)featuremaps,需要()個(gè)卷積核
立方體。
A、n-2
B、n^2
C、n∕2]注x]表示對(duì)X取整
D、n
答案:D
75、C4.5決策樹(shù)算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。
A、二分法
B、最小二乘法
C、均值法
D、投票法
答案:A
76、C5.O和QUEST決策樹(shù)只能處理()目標(biāo)值的問(wèn)題。
A、隨機(jī)型
B、連續(xù)型
C、離散型
D、分類型
答案:D
77、循環(huán)神經(jīng)網(wǎng)最常常遇到的問(wèn)題是:①.梯度消失②.詞語(yǔ)依賴位置較遠(yuǎn)
③.梯度爆炸④.維數(shù)災(zāi)難
A、①③④
B、①②③
C、①③④
D、①②④
答案:B
78、表達(dá)式3or5的值為。
A、TRUE
B、3
C、5
D、$2
答案:B
79、下列哪部分不是專家系統(tǒng)的組成部分
A、用戶
B、綜合數(shù)據(jù)庫(kù)
C、推理機(jī)
D、知識(shí)庫(kù)
答案:A
80、歸結(jié)原理的特點(diǎn)是(_)
A、發(fā)明新的概念和關(guān)系
B、發(fā)現(xiàn)更多的規(guī)則
C、緩解過(guò)擬合的風(fēng)險(xiǎn)
D、將復(fù)雜的邏輯規(guī)則與背景知識(shí)聯(lián)系起來(lái)化繁為簡(jiǎn)
答案:D
81、一個(gè)盒子內(nèi)裝有大小、形狀相同的四個(gè)球,其中紅球1個(gè)、綠球1個(gè)、
白球2個(gè),小明摸出一個(gè)球不放回,再摸出一個(gè)球,則兩次都摸到白球的概率
是()
A、1212122022年1月2日
B、1212122022年1月4日
C、1212122022年1月6日
D、1212122022年1月12日
答案:C
82、在£-greedy策略當(dāng)中,?的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率
越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越。。
A、大
B、小
C、大
D、大
E、小
F、小
答案:A
83、下列說(shuō)法中對(duì)專用人工智能理解正確的是OO
A、在某一個(gè)特定領(lǐng)域應(yīng)用的人工智能。
B、不是真正在這次人工智能浪潮中起到影響的主角。
C、充分利用已掌握的技能來(lái)解決新問(wèn)題、達(dá)到甚至超過(guò)人類智慧的人工智
能。
D、是眾多科幻作品中顛覆人類社會(huì)的人工智能形象。
答案:A
84、對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)
A、最大一般泛化
B、最小一般泛化
C、最大一般特化
D、最小一般特化
答案:B
85、。是指數(shù)據(jù)減去一個(gè)總括統(tǒng)計(jì)量或模型擬合值時(shí)的殘余部分
A、極值
B、標(biāo)準(zhǔn)值
C、平均值
D、殘值
答案:D
86、下列不是知識(shí)表示法的是()
A、計(jì)算機(jī)表示法
B、“與/或”圖表示法
C、狀態(tài)空間表示法
D、產(chǎn)生式規(guī)則表示法
答案:A
87、()的人工神經(jīng)網(wǎng)絡(luò)適合學(xué)習(xí)、分類等應(yīng)用。
A、反饋型
B、隨機(jī)型網(wǎng)絡(luò)
C、自組織競(jìng)爭(zhēng)型
D、前向型
答案:D
88、機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?
A、Boosting
B、Stacking
C、Bagging
D、Marking
答案:D
89、在PythOn程序中,已知x=2,y=l,當(dāng)執(zhí)行語(yǔ)句y+=x*2,y的值是()
A、3
B、4
C、5
D、$6
答案:C
90、輸入圖片大小為200X200,依次經(jīng)過(guò)一層卷積(kernelsize5×5,
paddingl,stride2),pooling(kernelsize3×3,paddingθ,Stridel),又
一層卷積(kernelsize3×3,paddin
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 債券發(fā)行協(xié)議書(shū)三篇
- 企業(yè)級(jí)IT系統(tǒng)信息安全優(yōu)化合同
- 企業(yè)級(jí)IT數(shù)據(jù)架構(gòu)服務(wù)合同
- 教師培訓(xùn)與專家引導(dǎo)計(jì)劃
- 幫助學(xué)生樹(shù)立正確的生命觀計(jì)劃
- 企業(yè)級(jí)IT業(yè)務(wù)系統(tǒng)改進(jìn)服務(wù)合同
- 成本控制實(shí)操指導(dǎo)培訓(xùn)
- 學(xué)業(yè)輔導(dǎo)與心理疏導(dǎo)結(jié)合計(jì)劃
- 信息技術(shù)支持方案計(jì)劃
- 企業(yè)客戶投訴處理與改進(jìn)合同
- 網(wǎng)約車聯(lián)合經(jīng)營(yíng)協(xié)議書(shū)范本
- 2024至2030年中國(guó)燕麥片市場(chǎng)零售規(guī)模與投資策略研究報(bào)告
- 全民國(guó)防教育日踔厲奮發(fā)防控警報(bào)國(guó)防教育知識(shí)培訓(xùn)課件
- 人教版(2024)七年級(jí)地理上冊(cè)3.2《世界的地形》精美課件
- 2025屆安徽省部分學(xué)校高三摸底考試(一模)語(yǔ)文試題(解析版)
- 2024年銀行會(huì)計(jì)主管個(gè)人述職報(bào)告(二篇)
- 6~10的認(rèn)識(shí)和加減法(教學(xué)設(shè)計(jì))-2023-2024學(xué)年一年級(jí)上冊(cè)數(shù)學(xué)人教版
- 2024年云南新華書(shū)店圖書(shū)限公司招聘工作人員歷年(高頻重點(diǎn)復(fù)習(xí)提升訓(xùn)練)共500題附帶答案詳解
- 八年級(jí)物理上冊(cè) 第二章 聲現(xiàn)象 第2節(jié) 聲音的特性說(shuō)課稿 (新版)新人教版
- (初級(jí))航空油料儲(chǔ)運(yùn)員技能鑒定理論考試題庫(kù)(含答案)
- 2024~2025學(xué)年中考數(shù)學(xué)時(shí)事熱點(diǎn)搶分練 國(guó)際大型體育賽事含答案
評(píng)論
0/150
提交評(píng)論