人工智能基礎(chǔ)(習(xí)題卷29)_第1頁(yè)
人工智能基礎(chǔ)(習(xí)題卷29)_第2頁(yè)
人工智能基礎(chǔ)(習(xí)題卷29)_第3頁(yè)
人工智能基礎(chǔ)(習(xí)題卷29)_第4頁(yè)
人工智能基礎(chǔ)(習(xí)題卷29)_第5頁(yè)
已閱讀5頁(yè),還剩53頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷29)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共131題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.a=10,b=20,那么b!=a運(yùn)算的結(jié)果是()A)2B)TRUEC)FALSE答案:B解析:[單選題]2.以下哪個(gè)函數(shù)可以生成一個(gè)指定范圍的隨機(jī)數(shù)組?A)randint()B)rand()C)random()答案:A解析:[單選題]3.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指A)基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息B)基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息C)基本元數(shù)據(jù)包括日志文件和簡(jiǎn)歷執(zhí)行處理的時(shí)序調(diào)度信息D)基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息答案:D解析:[單選題]4.數(shù)據(jù)科學(xué)中,人們開(kāi)始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的?信息丟失?現(xiàn)象,進(jìn)而數(shù)據(jù)處理范式從()轉(zhuǎn)向()。A)產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無(wú)模式B)模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無(wú)模式C)數(shù)據(jù)在先,模式在后范式或無(wú)模式;模式在先,數(shù)據(jù)在后范式D)模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無(wú)模式答案:D解析:傳統(tǒng)關(guān)系數(shù)據(jù)庫(kù)中,先定義模式,然后嚴(yán)格按照模式要求存儲(chǔ)數(shù)據(jù);當(dāng)需要調(diào)整模式時(shí),不僅需要數(shù)據(jù)結(jié)構(gòu),而且還需要修改上層應(yīng)用程序。然而,N。SQL技術(shù)則采用了非常簡(jiǎn)單的Key-Value等模式在后(SchemaLater)和無(wú)模式(Schemaless)的方式提升了數(shù)據(jù)管理系統(tǒng)的自適應(yīng)能力。當(dāng)然,模式在后(SchemaLater)和無(wú)模式(Schemaless)也會(huì)帶來(lái)新問(wèn)題,如降低了數(shù)據(jù)管理系統(tǒng)的數(shù)據(jù)處理能力。[單選題]5.連接模型是一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征的數(shù)學(xué)模型,又稱為()A)人工神經(jīng)網(wǎng)絡(luò)B)神經(jīng)元C)神經(jīng)識(shí)別D)機(jī)器模擬答案:A解析:[單選題]6.如果將時(shí)間序列繪制成圖,時(shí)間序列通常會(huì)表現(xiàn)出以下特征中的一種多多種,()、離群值、季節(jié)性周期變化。A)聚合B)趨勢(shì)C)連續(xù)D)回歸答案:B解析:[單選題]7.圖靈獎(jiǎng)獲得者JudeaPearl將推理按照由易到難程度分為三個(gè)層次:()A)介入、關(guān)聯(lián)、反事實(shí)B)關(guān)聯(lián)、介入、反事實(shí)C)反事實(shí)、介入、關(guān)聯(lián)D)關(guān)聯(lián)、反事實(shí)、介入答案:B解析:[單選題]8.若將計(jì)算機(jī)比喻成人的大腦,那么傳感器則可以比喻為()。A)眼睛B)感覺(jué)器官C)手D)皮膚答案:B解析:[單選題]9.當(dāng)希望機(jī)器人進(jìn)行快速運(yùn)動(dòng)而選定電動(dòng)機(jī)時(shí),選擇()的電動(dòng)機(jī)比較好。A)轉(zhuǎn)動(dòng)慣量大且轉(zhuǎn)矩系數(shù)大B)轉(zhuǎn)動(dòng)慣量大且轉(zhuǎn)矩系數(shù)小C)轉(zhuǎn)動(dòng)慣量小且轉(zhuǎn)矩系數(shù)大D)轉(zhuǎn)動(dòng)慣量小且轉(zhuǎn)矩系數(shù)小答案:C解析:[單選題]10.現(xiàn)在普遍在海底采用的探測(cè)系統(tǒng)是()。A)紅外線探測(cè)系統(tǒng)B)無(wú)線電系統(tǒng)C)生物電系統(tǒng)D)聲吶系統(tǒng)答案:D解析:[單選題]11.在目標(biāo)檢測(cè)中,以下能產(chǎn)生候選框的算法是()a)SelectiveSearchb)ROIpoolingc)RegionproposallayerA)b)、c)B)a)、b)C)a)D)a)、c)答案:D解析:SelectiveSearch、Regionproposallayer能產(chǎn)生候選框[單選題]12.下面關(guān)于專家系統(tǒng)與傳統(tǒng)程序的比較,正確的是()A)從編程思想上來(lái)說(shuō),傳統(tǒng)程序由數(shù)據(jù)結(jié)構(gòu)和算法組成,專家系統(tǒng)則是由知識(shí)和推理組成的。B)傳統(tǒng)程序中關(guān)于問(wèn)題求解的知識(shí)隱含于程序中,而專家系統(tǒng)中知識(shí)單獨(dú)組成知識(shí)庫(kù),與推理機(jī)分離。C)從處理對(duì)象來(lái)說(shuō),傳統(tǒng)程序通過(guò)數(shù)值計(jì)算和數(shù)據(jù)處理來(lái)進(jìn)行計(jì)算,專家系統(tǒng)主要通過(guò)符號(hào)處理信息。D)傳統(tǒng)程序具有解釋功能。專家系統(tǒng)不具有解釋功能。答案:B解析:組成的。與推理機(jī)分離。符號(hào)處理信息。[單選題]13.下列哪個(gè)不屬于深度學(xué)習(xí)框架A)PaddlePaddleB)PytorchC)TensorflowD)BAFA答案:D解析:[單選題]14.OCR圖文識(shí)別無(wú)法實(shí)現(xiàn)以下哪些場(chǎng)景?A)手寫(xiě)工作票識(shí)別B)變壓器聲紋C)設(shè)備銘牌識(shí)別D)合同審核答案:B解析:[單選題]15.下列哪個(gè)模型屬于監(jiān)督學(xué)習(xí)的方法A)K-meansB)SVRC)DBSCAND)以上都是答案:B解析:SVR屬于監(jiān)督學(xué)習(xí)的方法[單選題]16.下列哪種情況不需要進(jìn)行機(jī)器人零點(diǎn)校準(zhǔn)()。A)新購(gòu)買的機(jī)器人B)本體電池沒(méi)電C)轉(zhuǎn)數(shù)計(jì)數(shù)器丟失D)斷電重啟答案:D解析:[單選題]17.電調(diào)()電壓不能超過(guò)電動(dòng)機(jī)能夠承受的最大電壓。A)最大B)平均C)最小D)額定答案:A解析:[單選題]18.KQML語(yǔ)言的核心是()A)內(nèi)容層B)消息層C)通信層D)控制層答案:B解析:[單選題]19.()是離散型隨機(jī)變量的分布A)正態(tài)分布B)指數(shù)分布C)均勻分布D)二項(xiàng)分布答案:D解析:[單選題]20.關(guān)于Ll、L2正則化,下列說(shuō)法正確的是()。A)L2正則化能防止過(guò)擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B)L2正則化技術(shù)又稱為L(zhǎng)assoC)L1正則化得到的解更加稀疏D)L2正則化得到的解更加稀疏答案:C解析:L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇;L2正則化可以防止模型過(guò)擬合,一定程度上L1也可以防止過(guò)擬合,L1正則化又稱LassoRegression。[單選題]21.在某一裝置的同一工作空間內(nèi),會(huì)有多個(gè)機(jī)械臂同時(shí)運(yùn)作。此時(shí),要用()啟用機(jī)械臂程序,以便與其他機(jī)械臂保持聯(lián)系。A)基坐標(biāo)系B)世界坐標(biāo)系C)工具坐標(biāo)系D)工件坐標(biāo)系答案:A解析:[單選題]22.一個(gè)段代碼定義如下,下列調(diào)用結(jié)果正確的是?Adefbar(multiple):deffoo(n):returnmultiple**nreturnfooA)bar(2)(3)==8B)bar(2)(3)==6C)bar(3)(2)==8D)bar(3)(2)==6答案:A解析:[單選題]23.隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A)基本事件B)樣本C)全部事件D)樣本空間答案:D解析:[單選題]24.Tensorflow框架默認(rèn)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)進(jìn)行可視化的工具是A)VisdomB)FlaskC)VueD)以上選項(xiàng)均不正確答案:D解析:[單選題]25.植保無(wú)人機(jī)植保作業(yè)的時(shí)候,以下哪項(xiàng)是不需要事前確認(rèn)的()。A)勘察地形B)作業(yè)結(jié)束點(diǎn)C)天氣情況D)農(nóng)作物類型答案:D解析:[單選題]26.計(jì)算numpy中元素個(gè)數(shù)的方法A)np.sqrt()B)np.size()C)np.identity()D)np.len()答案:B解析:[單選題]27.以下那種CNN結(jié)構(gòu)中不包含殘差結(jié)構(gòu)?A)ResNetB)DarkNetC)Inception-ResNetv2D)VGG答案:D解析:[單選題]28.哪項(xiàng)詞向量模型支持一詞多義?()A)word2vecB)fasttextC)gloveD)elmo答案:D解析:elmo支持一詞多義[單選題]29.在碼頭載運(yùn)應(yīng)用場(chǎng)景中,橋吊可以通過(guò)()將集裝箱準(zhǔn)確地放置于移動(dòng)底盤(pán)上。A)視覺(jué)引導(dǎo)B)定點(diǎn)示教C)機(jī)械導(dǎo)向D)人工輔助答案:A解析:[單選題]30.如果聚類分割后的點(diǎn)云中存在小于或大于目標(biāo)點(diǎn)云的點(diǎn)數(shù)量,則是因?yàn)?)。A)感興趣區(qū)域設(shè)置B)聚類分割存在誤分割點(diǎn)云C)聚類分割的點(diǎn)云D)匹配模板答案:B解析:[單選題]31.在支持向量機(jī)中,核函數(shù)的主要作用是()。A)將低維空間中線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分B)將高維空間中線性不可分的數(shù)據(jù)映射到低維空間,使其線性可分C)將高維空間中線性可分的數(shù)據(jù)映射到低維空間,使其線性不可分D)將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分答案:A解析:[單選題]32.機(jī)器人的三大定律中第一條是:A)機(jī)器人不得傷害人類或者目睹人類受傷害時(shí)袖手不管B)機(jī)器人必須服從人給予它的命令C)機(jī)器人要盡可能保護(hù)自己的生存D)機(jī)器人必須保護(hù)人類的整體利益不受傷害答案:A解析:[單選題]33.霍爾式壓力傳感器利用霍爾元件將壓力所引起的彈性元件()轉(zhuǎn)換為霍爾電勢(shì)實(shí)現(xiàn)壓力測(cè)量。A)變形B)彈力C)電勢(shì)D)位移答案:D解析:[單選題]34.x=[11,22,33],sum(list1)的計(jì)算結(jié)果是?A)11,22,33B)出錯(cuò)C)66D)3答案:C解析:[單選題]35.以下()為MapReduce計(jì)算框架執(zhí)行流程的第二步驟。A)輸入文件B)Map階段C)中間處理D)Reduce階段答案:B解析:[單選題]36.在長(zhǎng)度為n的順序表中查找一個(gè)元素,假設(shè)需要查找的元素有一半的機(jī)會(huì)在表中,并且如果元素在表中,則出現(xiàn)在表中每個(gè)位置上的可能性是相同的。則在平均情況下需要比較的次數(shù)大約為A)3n/4B)nC)n/2D)n/4答案:A解析:[單選題]37.修改HSV彩色空間的H分量,會(huì)改變圖像()。A)色相B)亮度C)飽和度D)對(duì)比度答案:A解析:[單選題]38.下列哪個(gè)系統(tǒng)屬于新型專家系統(tǒng)?A)多媒體專家系統(tǒng)B)實(shí)時(shí)專家系統(tǒng)C)軍事專家系統(tǒng)D)分布式專家系統(tǒng)答案:D解析:[單選題]39.一幅數(shù)字圖像是()。A)一個(gè)觀測(cè)系統(tǒng)B)一個(gè)有許多像素排列而成的實(shí)體C)一個(gè)2-D數(shù)組中的元素D)一個(gè)3-D空間的場(chǎng)景答案:B解析:[單選題]40.使用似然函數(shù)的目的是()。A)求解目標(biāo)函數(shù)B)得到最優(yōu)數(shù)據(jù)樣本C)找到最適合數(shù)據(jù)的參數(shù)D)改變目標(biāo)函數(shù)分布答案:C解析:似然估計(jì)是一種確定模型參數(shù)值的方法。確定參數(shù)值的過(guò)程,是找到能最大化模型產(chǎn)生真實(shí)觀察數(shù)據(jù)可能性的那一組參數(shù)。[單選題]41.以下關(guān)于文件的描述,錯(cuò)誤的是:A)二進(jìn)制文件和文本文件的操作步驟都是?打開(kāi)-操作-關(guān)閉?B)open()打開(kāi)文件之后,文件的內(nèi)容并沒(méi)有在內(nèi)存中C)open()只能打開(kāi)一個(gè)已經(jīng)存在的文件D)文件讀寫(xiě)之后,要調(diào)用close()才能確保文件被保存在磁盤(pán)中了答案:C解析:[單選題]42.詞袋模型中的文本向量每個(gè)元素表示該詞的()。A)頻率B)順序C)含義D)語(yǔ)義關(guān)系答案:A解析:詞袋模型是最基礎(chǔ)的文本表示模型,就是把每一篇文章看成一袋子單詞,并忽略每個(gè)詞出現(xiàn)的順序。每篇文章可以表示成一個(gè)長(zhǎng)向量,向量中的每一維代表一個(gè)單詞,而該維對(duì)應(yīng)的權(quán)重代表這個(gè)詞在文章中的重要程度,重要程度是由頻率來(lái)衡量的。[單選題]43.下列關(guān)于rosbag的描述,錯(cuò)誤的是()。A)rosbag可以記錄和回放topicB)rosbag可以記錄和回放serviceC)rosbag可以指定記錄某一個(gè)或多個(gè)topicD)rosbag記錄的結(jié)果為.bag文件答案:B解析:[單選題]44.不屬于深度學(xué)習(xí)中的激活函數(shù)需要具有的屬性?()A)計(jì)算簡(jiǎn)單B)非線性C)具有飽和區(qū)D)幾乎處處可微答案:D解析:[單選題]45.在數(shù)據(jù)處理中,以下()不屬于冗余數(shù)據(jù)處理的基本步驟。A)識(shí)別B)驗(yàn)算C)分析D)過(guò)濾答案:B解析:[單選題]46.在某個(gè)list末尾增加兩個(gè)元素obj1,obj2,可以使用下列哪些表達(dá)式A)list.append(obj1,obj2)B)list.append([obj1,obj2])C)list.extend(obj1,obj2)D)list.extend([obj1,obj2])答案:D解析:基礎(chǔ)概念[單選題]47.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯(cuò)誤的是(___)A)可以模擬生物神經(jīng)系統(tǒng)B)面向真實(shí)世界物體C)面向仿真環(huán)境物體D)作出交互反應(yīng)答案:C解析:[單選題]48.以下內(nèi)容符合物體識(shí)別任務(wù)的是().A)不能對(duì)圖像進(jìn)行壓縮或剪裁B)遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C)可以不指定分類的類別數(shù)量D)事先給定樣本的分布特征答案:B解析:遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則為實(shí)現(xiàn)物體識(shí)別任務(wù)的最優(yōu)化準(zhǔn)則。[單選題]49.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則A)圖靈機(jī)B)圖靈測(cè)試C)中文屋思想實(shí)驗(yàn)D)人類智能答案:B解析:[單選題]50.人工智能中用?如果…則…?關(guān)聯(lián)起來(lái)的知識(shí)稱為()A)產(chǎn)生式B)規(guī)則C)關(guān)系式D)模式答案:B解析:[單選題]51.下列度量不具有反演性的是()A)系數(shù)B)幾率C)Cohen度量D)興趣因子答案:D解析:[單選題]52.Y=1的邊緣分布律是多少?A)2/5B)1/5C)1/3D)4/15答案:A解析:[單選題]53.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開(kāi)給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個(gè)字符值存儲(chǔ)在NumPy數(shù)組中,最后返回?cái)?shù)組。請(qǐng)問(wèn)填充在空白處的代碼應(yīng)該是哪個(gè)。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA)lineStr=fr.readlines()B)lineStr=fr.read_line()C)lineStr=readline()D)lineStr=fr.readline()答案:D解析:讀取一行的python方法是.readline()[單選題]54.神經(jīng)元具有兩種常規(guī)工作狀態(tài):興奮和()。A)激活B)休眠C)停止D)抑制答案:D解析:[單選題]55.關(guān)于大數(shù)據(jù)在社會(huì)綜合治理中的作用,以下理解不對(duì)的是()A)大數(shù)據(jù)的運(yùn)用能夠維護(hù)社會(huì)治安B)大數(shù)據(jù)的運(yùn)用能夠加強(qiáng)交通管理C)大數(shù)據(jù)的運(yùn)用能夠杜絕抗生素的濫用D)大數(shù)據(jù)的運(yùn)用有利于走群眾路線答案:C解析:[單選題]56.()是指理解挖掘項(xiàng)目的目標(biāo)業(yè)務(wù)需求。A)業(yè)務(wù)理解B)數(shù)據(jù)理解C)數(shù)據(jù)準(zhǔn)備D)數(shù)據(jù)建模答案:A解析:根據(jù)CRISP-DM(cr。ss-industrystandardpr。cessf。rdatamining,跨行業(yè)數(shù)據(jù)挖掘標(biāo)準(zhǔn)流程)模型,業(yè)務(wù)理解是指從業(yè)務(wù)的角度了解項(xiàng)目的要求和最終目的,并將這些目的與數(shù)據(jù)挖掘的定義以及結(jié)果結(jié)合起來(lái)。[單選題]57.與大數(shù)據(jù)密切相關(guān)的技術(shù)是:()A)wifiB)藍(lán)牙C)云計(jì)算D)博弈論答案:C解析:[單選題]58.len('543')的計(jì)算結(jié)果是A)2B)3C)4D)5答案:B解析:[單選題]59.()是產(chǎn)生式系統(tǒng)中存放問(wèn)題求解過(guò)程中各種當(dāng)前信息的數(shù)據(jù)結(jié)構(gòu)。A)規(guī)則庫(kù)B)綜合數(shù)據(jù)庫(kù)C)控制系統(tǒng)D)知識(shí)庫(kù)答案:B解析:[單選題]60.盡管人工智能學(xué)術(shù)界出現(xiàn)?百家爭(zhēng)鳴?的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:()A)連接主義B)符號(hào)主義C)行為主義D)經(jīng)驗(yàn)主義答案:B解析:[單選題]61.以下哪個(gè)系統(tǒng)最適合應(yīng)用RPAA)未來(lái)一周內(nèi)會(huì)進(jìn)行系統(tǒng)更新B)未來(lái)一個(gè)月內(nèi)會(huì)進(jìn)行系統(tǒng)更新C)未來(lái)3個(gè)月內(nèi)會(huì)進(jìn)行系統(tǒng)更新D)未來(lái)1-2年內(nèi)做系統(tǒng)更新答案:D解析:[單選題]62.SVM(支持向量機(jī))為什么會(huì)使用替代損失函數(shù)(如hinge損失,指數(shù)損失等)?A)替代損失函數(shù)可以擴(kuò)大SVM的應(yīng)用場(chǎng)景B)0/2損失函數(shù)非凸、不連續(xù)C)替代損失函數(shù)可以減少過(guò)擬合D)沒(méi)有正確選項(xiàng)答案:B解析:[單選題]63.關(guān)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的權(quán)重共享現(xiàn)象,下面正確的是()。A)只有全連接神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)B)只有卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)出現(xiàn)C)只有循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)會(huì)出現(xiàn)D)卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會(huì)出現(xiàn)答案:D解析:卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)會(huì)產(chǎn)生權(quán)重共享現(xiàn)象。[單選題]64.利用RPA技術(shù)不能實(shí)現(xiàn)的場(chǎng)景功能是()。A)物體自動(dòng)搬運(yùn)B)數(shù)據(jù)遷移和數(shù)據(jù)輸入C)從不同文件中提取數(shù)據(jù)D)發(fā)票處理答案:A解析:[單選題]65.如果我們現(xiàn)有一個(gè)安裝2.6.5版本的Hadoop集群,在不修改默認(rèn)配置的情況下存儲(chǔ)200個(gè)200M的文本文件,請(qǐng)問(wèn)最終會(huì)在集群中產(chǎn)生()個(gè)數(shù)據(jù)塊(包括副本)。A)200B)40000C)400D)1200答案:D解析:在默認(rèn)情況下,HDFS集群默認(rèn)存儲(chǔ)文件3份,并且大文件會(huì)按照128M的數(shù)據(jù)塊大?。℉adoop2.x版本以前的默認(rèn)數(shù)據(jù)塊的大小是64M,到了Hadoop2.x版本以后,默認(rèn)的數(shù)據(jù)塊大小就變成了128M)進(jìn)行切割分散存儲(chǔ)。所以題目中的總數(shù)據(jù)塊有200X2=400個(gè),再加上會(huì)存儲(chǔ)三份,共有400X3=1200個(gè)。[單選題]66.一般的神經(jīng)網(wǎng)絡(luò)模型通常假定網(wǎng)絡(luò)結(jié)構(gòu)是事先固定的,與此不同,結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò)則將網(wǎng)絡(luò)結(jié)構(gòu)也當(dāng)作學(xué)習(xí)的目標(biāo)之一,()網(wǎng)絡(luò)是重要代表。A)級(jí)聯(lián)相關(guān)B)能量相關(guān)C)網(wǎng)格相關(guān)D)以上都不對(duì)答案:A解析:[單選題]67.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1、隨機(jī)初始化感知機(jī)的權(quán)重2、去到數(shù)據(jù)集的下一批(batch)3、如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4、對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ))1,2,3,4B)4,3,2,1C)3,1,2,4D)1,4,3,2答案:D解析:[單選題]68.在Python中,函數(shù)()。A)不可以嵌套定義B)不可以嵌套調(diào)用C)不可以遞歸調(diào)用D)以上都不對(duì)答案:D解析:[單選題]69.?1+1?在十進(jìn)制中結(jié)果為2,在二進(jìn)制中結(jié)果為10,反映了知識(shí)的()A)相對(duì)正確性B)不確定性C)可表示性D)可利用性答案:A解析:[單選題]70.自然語(yǔ)言理解中,關(guān)于文字表達(dá)句子的層次,正確的是()A)詞素→詞或詞形→詞組或句子B)詞或詞形→詞素→詞組或句子C)詞素→詞組或句子→詞或詞形D)詞組或句子→詞素→詞或詞形答案:A解析:[單選題]71.基于狀態(tài)空間的搜索算法是()A)A*算法B)與或樹(shù)搜索C)極大極小分析法D)α-β剪枝技術(shù)答案:A解析:[單選題]72.Spark比MapReduce快的原因不包括()。A)Spark基于內(nèi)存迭代,而MapReduce基于磁盤(pán)迭代B)DAG計(jì)算模型相比MapReduce更有效率C)Spark是粗粒度的資源調(diào)度,而MapReduce是細(xì)粒度的資源調(diào)度D)Spark支持交互式處理,MapReduce善于處理流計(jì)算答案:D解析:A、B、C是Spark比MapReduce快的原因。MapReduce不善于處理除批處理計(jì)算模式之外的其他計(jì)算模式,如流計(jì)算、交互式計(jì)算和圖計(jì)算等。[單選題]73.有反饋連接的架構(gòu)是()。A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)受限玻爾茲曼機(jī)D)都不是答案:A解析:循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的本質(zhì)特征是在處理單元之間既有內(nèi)部的反饋連接又有前饋連接。從系統(tǒng)觀點(diǎn)看,它是一個(gè)反饋動(dòng)力系統(tǒng),在計(jì)算過(guò)程中體現(xiàn)過(guò)程動(dòng)態(tài)特性,比前饋神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的動(dòng)態(tài)行為和計(jì)算能力。[單選題]74.下面哪個(gè)功能不是大數(shù)據(jù)平臺(tái)安全管理組件提供的功能()。A)接口代理B)接口認(rèn)證C)接口授權(quán)D)路由代理答案:D解析:接口可以對(duì)用戶的身份和請(qǐng)求的參數(shù)進(jìn)行驗(yàn)證,以保證接口的安全。通過(guò)添加身份驗(yàn)證和數(shù)字簽名的方法提高接口安全性,防止數(shù)據(jù)被篡改和信息泄露。[單選題]75.從人文視角看,人工智能產(chǎn)生的影響不包括()。A)對(duì)人的認(rèn)識(shí)的沖擊B)對(duì)人類心理的沖擊C)徹底消除人類中的無(wú)用階級(jí)D)推動(dòng)進(jìn)一步的專業(yè)分化答案:C解析:[單選題]76.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過(guò)程。A)監(jiān)督學(xué)習(xí)B)非監(jiān)督學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)線性回歸答案:C解析:[單選題]77.以下選項(xiàng)中,不屬于函數(shù)的作用的是A)提高代碼執(zhí)行速度B)增強(qiáng)代碼可讀性C)降低編程復(fù)雜度D)復(fù)用代碼答案:A解析:[單選題]78.語(yǔ)音識(shí)別、語(yǔ)義理解、語(yǔ)音合成、OCR識(shí)別、人臉識(shí)別等都屬于人工智能技術(shù),以下哪種事物沒(méi)有應(yīng)用到人工智能技術(shù)()A)機(jī)器貓B)無(wú)人機(jī)C)微信客服D)哈利波特的掃帚答案:D解析:[單選題]79.在TensorFlow中,TensorBoard運(yùn)行時(shí)的默認(rèn)訪問(wèn)端口是以下哪個(gè)端口號(hào)?A)4004B)8080C)8008D)6006答案:D解析:[單選題]80.人工智能AI是()的英文縮寫(xiě)。A)AutomaticIntelligenceB)ArtificalIntelligenceC)AutomaticeInformationD)ArtificalInformation答案:B解析:[單選題]81.使用EasyDL智能云平臺(tái),根據(jù)實(shí)際應(yīng)用確定模型的步驟是下列哪一選項(xiàng)?A)選擇模型B)訓(xùn)練模型C)校驗(yàn)?zāi)P虳)部署模型答案:A解析:[單選題]82.關(guān)于RPA描述準(zhǔn)確的是A)是一臺(tái)實(shí)體機(jī)器人B)無(wú)所不能的萬(wàn)能機(jī)器人C)不安全的軟件工具D)是部署在計(jì)算機(jī)內(nèi)的一個(gè)軟件機(jī)器人,擅長(zhǎng)有規(guī)則的工作,解決重復(fù)性、機(jī)械化工作答案:D解析:[單選題]83.()是一個(gè)開(kāi)源項(xiàng)目,可以免費(fèi)使用和分發(fā),任何人都可以輕松獲取其源代碼來(lái)查看其背后的原理。A)NumPyB)scikit-learnC)SciPyD)Anaconda答案:B解析:[單選題]84.行駛數(shù)據(jù)隱私防護(hù)應(yīng)從()、個(gè)人和技術(shù)方面入手A)法律B)道德C)研究D)資源答案:A解析:[單選題]85.選用的數(shù)據(jù)結(jié)構(gòu)形式要與狀態(tài)所蘊(yùn)含的某些特性具有()。A)一致性B)統(tǒng)一性C)相似性D)相反性答案:C解析:[單選題]86.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A)對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B)對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C)對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D)以上都不對(duì)答案:A解析:[單選題]87.數(shù)字孿生技術(shù)在機(jī)器人行業(yè)的應(yīng)用不包括()。A)虛擬仿真B)動(dòng)力學(xué)分析C)虛擬調(diào)試D)虛實(shí)協(xié)同答案:B解析:[單選題]88.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說(shuō)法,正確的是:A)最小二乘法是通過(guò)最小化預(yù)測(cè)值y和真實(shí)的y在訓(xùn)練數(shù)據(jù)上的誤差來(lái)尋找最優(yōu)解的方法B)當(dāng)自變量X的特征很多的時(shí)候,使用最小二乘法可以求得最優(yōu)解C)最小二乘法是通過(guò)求導(dǎo)來(lái)找出最優(yōu)解,是一種迭代的方法D)使用最小二乘法求最優(yōu)解比梯度下降方法好答案:A解析:[單選題]89.C5.0和QUEST決策樹(shù)只能處理()目標(biāo)值的問(wèn)題。A)隨機(jī)型B)連續(xù)型C)離散型D)分類型答案:D解析:[單選題]90.以下關(guān)于聲紋識(shí)別說(shuō)法錯(cuò)誤的是A)聲紋識(shí)別是生物識(shí)別技術(shù)的一種,也稱為說(shuō)話人識(shí)別,聲紋識(shí)別中蘊(yùn)含聲紋特征的語(yǔ)音獲取方便、自然,聲紋提取可在不知不覺(jué)中完成,因此使用者的接受程度也高;B)聲紋識(shí)別按照任務(wù)分為兩類,即說(shuō)話人辨認(rèn)和說(shuō)話人確認(rèn);C)每個(gè)人的語(yǔ)音聲學(xué)特征相對(duì)穩(wěn)定性,沒(méi)有變異性,是絕對(duì)一成不變的;D)每個(gè)人的語(yǔ)音聲學(xué)特征并不是一成不變的,這種變異可來(lái)自生理、病理、心理、模擬、偽裝,也與環(huán)境干擾有關(guān)答案:C解析:[單選題]91.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A)CRF是生成式的,而HMM是判別式模型B)CRF是判別式模型,HMM是生成式模型。C)CRF和HMM都是生成式模型D)CRF和HMM都是判別式模型。答案:B解析:[單選題]92.個(gè)體學(xué)習(xí)器(),則集成越好A)準(zhǔn)確性越低、多樣性越大B)準(zhǔn)確性越高、多樣性越大C)準(zhǔn)確性越高、多樣性越小D)準(zhǔn)確性越低、多樣性越小答案:B解析:[單選題]93.以下哪一項(xiàng)沒(méi)有發(fā)生沖突()A)一個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功B)多個(gè)已知事實(shí)與知識(shí)庫(kù)中的一個(gè)知識(shí)匹配成功C)多個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功D)已知事實(shí)不能與知識(shí)庫(kù)中的任何知識(shí)匹配成功答案:D解析:[單選題]94.下列代碼運(yùn)行結(jié)果是?a=map(lambdax:x**3,[1,2,3])list(a)A)[1,6,9]B)[1,12,27]C)[1,8,27]D)(1,6,9)答案:C解析:[單選題]95.討論變量之間的關(guān)系,主要有三個(gè)方法:()、方差分析和回歸分析A)參數(shù)分析B)邏輯分析C)假設(shè)分析D)相關(guān)分析答案:D解析:[單選題]96.以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A)視覺(jué)編碼方法論B)視覺(jué)隱喻C)地理信息可視化D)時(shí)變數(shù)據(jù)可視化答案:B解析:[單選題]97.C4.5決策樹(shù)算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。A)二分法B)最小二乘法C)均值法D)投票法答案:A解析:[單選題]98.下列不在人工智能系統(tǒng)的知識(shí)包含的4個(gè)要素中A)事實(shí)B)規(guī)則C)控制和元知識(shí)D)關(guān)系答案:D解析:[單選題]99.下面哪一句話是正確的()A)人工智能就是機(jī)器學(xué)習(xí)B)機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)C)人工智能就是深度學(xué)習(xí)D)深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法答案:D解析:[單選題]100.下列有關(guān)樸素貝葉斯的說(shuō)法不正確的是:A)易于實(shí)現(xiàn),但學(xué)習(xí)和預(yù)測(cè)的效率低B)在數(shù)據(jù)較少的時(shí)仍然有效C)特征獨(dú)立性假設(shè)使模型變得簡(jiǎn)單D)可以處理多分類問(wèn)題答案:A解析:[單選題]101.能夠自己找出問(wèn)題、思考問(wèn)題、解決問(wèn)題的人工智能是()。A)超人工智能B)強(qiáng)人工智能C)弱人工智能D)人工智能答案:A解析:[單選題]102.數(shù)據(jù)預(yù)處理方法不包括()。A)數(shù)據(jù)清洗:去噪聲和無(wú)關(guān)數(shù)據(jù)B)數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來(lái)存在一個(gè)一致的數(shù)據(jù)存儲(chǔ)中C)數(shù)據(jù)變換:把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式D)數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)答案:D解析:數(shù)據(jù)轉(zhuǎn)化多為將字符型數(shù)據(jù)轉(zhuǎn)換為數(shù)值型數(shù)據(jù)。例如將性別[男,女]分別轉(zhuǎn)換為[0,l]。[單選題]103.?小李很高?是()A)隨機(jī)性引起的不確定性B)模糊性引起的不確定性C)經(jīng)驗(yàn)引起的不確定性D)不完全性引起的不確定性答案:B解析:[單選題]104.建設(shè)客戶服務(wù)業(yè)務(wù)中臺(tái),需建設(shè)客戶中心.訂單中心.服務(wù)中心等()個(gè)共享服務(wù)中心,為營(yíng)銷2.0.新一代電力交易服務(wù)平臺(tái)等業(yè)務(wù)系統(tǒng)提供用電檔案.合同信息.工單信息等服務(wù)。A)10B)12C)15D)18答案:C解析:[單選題]105.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問(wèn)題。嚴(yán)格意義上來(lái)講是在以下哪個(gè)環(huán)節(jié)出現(xiàn)樣度消失間題?A)向傳播更新參數(shù)B)正向傳播更新夢(mèng)故C)反向傳播計(jì)算結(jié)果D)正向傳播計(jì)算結(jié)果答案:A解析:[單選題]106.下面對(duì)強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的描述正確的是A)評(píng)估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式B)有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式C)評(píng)估學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式D)無(wú)標(biāo)注學(xué)習(xí)、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式答案:A解析:[單選題]107.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是你有一個(gè)類似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢岳眠@個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)的方法是()。A)把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層B)對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C)只對(duì)最后幾層進(jìn)行訓(xùn)練調(diào)參(fineD)對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用答案:C解析:如果有個(gè)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),就相當(dāng)于網(wǎng)絡(luò)各參數(shù)有個(gè)很靠譜的先驗(yàn)代替隨機(jī)初始化。若新的少量數(shù)據(jù)來(lái)自先前訓(xùn)練數(shù)據(jù)(或者先前訓(xùn)練數(shù)據(jù)量很好地描述了數(shù)據(jù)分布,而新數(shù)據(jù)采樣自完全相同的分布),則凍結(jié)前面所有層而重新訓(xùn)練最后一層即可。但一般情況下,新數(shù)據(jù)分布跟先前訓(xùn)練集分布有所偏差,所以先驗(yàn)網(wǎng)絡(luò)不足以完全擬合新數(shù)據(jù)時(shí),可以凍結(jié)大部分前層網(wǎng)絡(luò),只對(duì)最后幾層進(jìn)行訓(xùn)練調(diào)參(finetune)。[單選題]108.對(duì)完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個(gè)過(guò)程中,通過(guò)誤差后向傳播來(lái)優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請(qǐng)問(wèn)下面哪個(gè)參數(shù)不是通過(guò)誤差后向傳播來(lái)優(yōu)化的A)卷積濾波矩陣中的參數(shù)B)全連接層的鏈接權(quán)重C)激活函數(shù)中的參數(shù)D)模型的隱藏層數(shù)目答案:D解析:[單選題]109.人工智能產(chǎn)業(yè)三大要素是技術(shù)產(chǎn)品、改造提升行業(yè)融合和()。A)算法運(yùn)算B)云計(jì)算C)深度學(xué)習(xí)D)集成應(yīng)用答案:D解析:[單選題]110.(),通過(guò)終端與低壓智能開(kāi)關(guān)通信,實(shí)時(shí)采集開(kāi)關(guān)的分/合狀態(tài).剩余電流值.電壓.電流.電量.諧波.跳閘事件和告警事件等信息,可由主站遠(yuǎn)程遙控分/合智能開(kāi)關(guān)。A)無(wú)功補(bǔ)償裝置采集APPB)低壓智能開(kāi)關(guān)采集C)配電站房環(huán)境采集D)配變運(yùn)行狀態(tài)監(jiān)測(cè)答案:B解析:[單選題]111.機(jī)器學(xué)習(xí)中做特征選擇時(shí),下面方法或信息不一定有用的是A)卡方檢驗(yàn)B)信息增益C)數(shù)據(jù)采樣D)期望交叉熵答案:C解析:[單選題]112.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A)數(shù)字B)字符C)符號(hào)D)英文答案:A解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字[單選題]113.關(guān)于SVM,以下描述錯(cuò)誤的是()A)如果原始空間是有限維,即屬性數(shù)有限,那么一定存在一個(gè)高維特征空間使樣本可分B)某個(gè)核函數(shù)使訓(xùn)練集在特征空間中線性可分,可能原因是欠擬合C)?軟間隔?允許某些樣本不滿足約束D)正則化可理解為一種?罰函數(shù)法答案:B解析:[單選題]114.下列哪項(xiàng)不是構(gòu)建知識(shí)圖譜用到的主要技術(shù)A)詞性標(biāo)注B)實(shí)體鏈接C)關(guān)系抽取D)命名實(shí)體識(shí)別答案:A解析:[單選題]115.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中()不適用。A)AUC-R。CB)準(zhǔn)確度C)LoglossD)均方誤差答案:D解析:LogisticRegression是一個(gè)分類算法,所以它的輸出不能是實(shí)時(shí)值,所以均方誤差不能用于評(píng)估它。[單選題]116.機(jī)器人之父是指:()A)阿蘭.圖靈B)伯納斯.李C)莎佩克D)恩格爾伯格和德沃爾答案:D解析:[單選題]117.如下哪些不是最近鄰分類器的特點(diǎn)()。A)它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),不必維護(hù)源自數(shù)據(jù)的模型B)分類一個(gè)測(cè)試樣例開(kāi)銷很大C)最近鄰分類器基于全局信息進(jìn)行預(yù)測(cè)D)可以生產(chǎn)任意形狀的決策邊界答案:C解析:[單選題]118.()是一種顯意識(shí)與潛意識(shí)相互作用的思維方式。A)形象思維B)智力思維C)頓悟思維D)感知思維答案:C解析:[單選題]119.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。()有反饋連接。A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)限制玻爾茲曼機(jī)D)都不是答案:A解析:循環(huán)神經(jīng)網(wǎng)絡(luò)有反饋連接。[單選題]120.個(gè)數(shù)約為50K的數(shù)列需要進(jìn)行從小到大排序,數(shù)列特征是基本逆序(多數(shù)數(shù)字從大到小,個(gè)別亂序),以下哪種排序算法在事先不了解數(shù)列特征的情況下性能最優(yōu)(不考慮空間限制)。()A)冒泡排序B)改進(jìn)冒泡排序C)選擇排序D)堆排序答案:D解析:[單選題]121.Python中,要保存寫(xiě)入數(shù)據(jù)后的EXCEL文件,下列說(shuō)法那個(gè)不對(duì)?A)如果存盤(pán)的文件已經(jīng)存在、且關(guān)閉,將覆蓋原文件B)如果文件已經(jīng)存在、但未關(guān)閉,將會(huì)出錯(cuò)、無(wú)法保存C)如果文件不存在,將會(huì)作為新文件進(jìn)行創(chuàng)建,再保存D)如果文件不存在,將會(huì)出錯(cuò),無(wú)法保存答案:D解析:[單選題]122.BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)不包括()。A)輸入層B)隱層C)輸出層D)顯層答案:D解析:[單選題]123.以下對(duì)Hash函數(shù)的特征描述錯(cuò)誤的是()A)容易計(jì)算B)單向性C)需要加密處理D)抗碰撞性答案:C解析:[單選題]124.假設(shè)我們使用原始的非線性可分版本的S。ft-SVM優(yōu)化目標(biāo)函數(shù)。我們可通過(guò)()來(lái)保證得到的模型是線性可分離的。A)C=0B)C=1C)C正無(wú)窮大D)C負(fù)無(wú)窮大答案:C解析:C為分類錯(cuò)誤項(xiàng)的參數(shù),即正則化中的懲罰因子,C越大,邊界越窄,盡可能把更多點(diǎn)正確分類,分類錯(cuò)誤越少。C越小,邊界越寬,分類錯(cuò)誤點(diǎn)的個(gè)數(shù)增加。因此,C正無(wú)窮大時(shí),可以實(shí)現(xiàn)沒(méi)有分類錯(cuò)誤的點(diǎn),模型線性可分。[單選題]125.氣壓傳感器在飛行器飛行中不能實(shí)現(xiàn)的功能是()。A)實(shí)時(shí)測(cè)量飛行器的高度B)可以實(shí)現(xiàn)定高飛行C)可以實(shí)現(xiàn)編隊(duì)飛行控制D)可以測(cè)量飛機(jī)的方向變化率答案:D解析:[單選題]126.()是人工智能地核心,是使計(jì)算機(jī)具有智能地主要方法,其應(yīng)用遍及人工智能地各個(gè)領(lǐng)域。A)深度學(xué)習(xí)B)機(jī)器學(xué)習(xí)C)人機(jī)交互D)智能芯片答案:B解析:[單選題]127.執(zhí)行以下命令之后,list的值是什么?list=[5,9,6,7,0,1]list.sort(reverse=True)dellist[-1]A)[7,6,5,1,0]B)[9,7,6,5,1]C)[0,1,5,6,7]D)[1,5,6,7,9]答案:B解析:[單選題]128.當(dāng)學(xué)習(xí)器將訓(xùn)練樣本自身的特點(diǎn)作為所有潛在樣本都具有的一般性質(zhì),這樣會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象稱為()。A)欠擬合B)過(guò)擬合C)擬合D)以上答案都不正確答案:B解析:當(dāng)學(xué)習(xí)器把訓(xùn)練樣本學(xué)得太好了的時(shí)候,很可能已經(jīng)把訓(xùn)練樣本自身的一些特點(diǎn)當(dāng)作了所有潛在樣本都會(huì)具有的一般性質(zhì),這樣就會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象在機(jī)器學(xué)習(xí)中稱為過(guò)擬合。[單選題]129.()是指能夠按照人的要求,在某一個(gè)領(lǐng)域完成一項(xiàng)工作或者一類工作的人工智能。A)超人工智能B)強(qiáng)人工智能C)弱人工智能D)人工智能答案:C解析:[單選題]130.x={"A":1,"B":2,"C":3}len(X)的計(jì)算結(jié)果是?A)3B)4C)5D)6答案:A解析:[單選題]131.()與HDFS類似。A)NTFSB)FAT32C)GFSD)EXT3E)PigF)Hive答案:C解析:GFS也是分布式文件系統(tǒng)。61.在Hadoop生態(tài)系統(tǒng)中,(提供簡(jiǎn)單的査詢語(yǔ)言。在Hadoop生態(tài)系統(tǒng)中,Hive可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張數(shù)據(jù)庫(kù)表,并提供簡(jiǎn)單的查詢語(yǔ)言第2部分:多項(xiàng)選擇題,共49題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]132.下面屬于訓(xùn)練集(Trainingdataset)和測(cè)試集(Testingdataset)區(qū)別表述的是()A)Testingdataset用于測(cè)試尋找到的函數(shù)的效果B)Trainingdataset用于尋找函數(shù)C)Trainingdataset用于挑選模D)Trainingdataset用于構(gòu)建模型答案:ABCD解析:[多選題]133.根據(jù)結(jié)構(gòu)不同,智能傳感器可以分為()A)模塊式傳感器B)集成式傳感器C)混合式傳感器D)控制型傳感器答案:ABC解析:基礎(chǔ)概念[多選題]134.分布式列式存儲(chǔ)的功能有()。A)支持在線快速讀寫(xiě)B(tài))支持線性擴(kuò)展C)具備節(jié)點(diǎn)監(jiān)控管理D)數(shù)據(jù)同源不壓縮答案:ABC解析:分布式列式存儲(chǔ)的功能包括數(shù)據(jù)壓縮。[多選題]135.以下哪兩個(gè)屬于大數(shù)據(jù)特征A)數(shù)據(jù)體量大B)價(jià)值密度高C)數(shù)據(jù)種類多D)處理速度慢答案:AC解析:[多選題]136.importdatetime,獲取當(dāng)前年月日的方法正確的是?A)datetime.date.now().strftime("%Y-%m-%d")B)datetime.date.today().strftime("%Y-%m-%d")C)datetime.datetime.now().strftime("%Y-%m-%d")D)datetime.datetime.today().strftime("%Y-%m-%d")答案:BCD解析:[多選題]137.帶有記憶處理的神經(jīng)元有()A)LSTMB)GRUC)CNND)ResNet答案:AB解析:[多選題]138.人工智能算法中,常見(jiàn)的梯度下降法包括哪些種類?A)全梯度下降算法B)隨機(jī)梯度下降算法C)快速梯度下降算法D)小批量梯度下降算法答案:ABD解析:[多選題]139.下列說(shuō)法不正確的是()。A)現(xiàn)在有很多門是當(dāng)我們走近它的時(shí)候,它會(huì)自動(dòng)打開(kāi),這是一種類似于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的人工智能B)人工智能深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),是一種類似于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),存在多種層次結(jié)構(gòu)相互連接存在多種投射大數(shù)據(jù)大運(yùn)算的一種仿生C)人工智能翻譯目前可以流暢準(zhǔn)確的翻譯文學(xué)作品D)現(xiàn)在的機(jī)器人可以有情緒和意識(shí)答案:ACD解析:[多選題]140.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中,正確的是()。A)可用于處理時(shí)間序列數(shù)據(jù)B)可用于處理圖像數(shù)據(jù)C)卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算D)至少在網(wǎng)絡(luò)的一層中使用卷積答案:ABD解析:[多選題]141.深度學(xué)習(xí)中常見(jiàn)的特征提取器是()A)卷積神經(jīng)網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)注意力網(wǎng)絡(luò)D)以上都不是答案:ABC解析:[多選題]142.電網(wǎng)暫態(tài)數(shù)據(jù)采集的數(shù)據(jù)范圍為()。A)主變保護(hù)錄波數(shù)據(jù)B)線路保護(hù)錄波數(shù)據(jù)C)母線保護(hù)錄波數(shù)據(jù)D)電容器/電抗器保護(hù)錄波數(shù)據(jù)答案:ABCD解析:[多選題]143.計(jì)算機(jī)視覺(jué)的主要研究方向分為()A)圖像分類B)目標(biāo)檢測(cè)C)目標(biāo)跟蹤D)語(yǔ)義分割答案:ABCD解析:主要應(yīng)用[多選題]144.下列方法中,解決欠擬合的方法有哪些()A)正則化方法B)集成學(xué)習(xí)方法C)添加新特征D)減少正則化系數(shù)答案:BCD解析:[多選題]145.用語(yǔ)言實(shí)現(xiàn)人與計(jì)算機(jī)之間的交互,主要包括()A)語(yǔ)言識(shí)別B)語(yǔ)言轉(zhuǎn)換C)自然語(yǔ)言理解D)語(yǔ)言合成答案:ACD解析:[多選題]146.關(guān)于等待局部加載完成,下列正確的是?A)網(wǎng)頁(yè)加載過(guò)程是同步的,頁(yè)面同時(shí)加載出來(lái)B)RPA操作時(shí),必須等待相關(guān)的元素加載出來(lái),否則會(huì)導(dǎo)致操作失效C)若是瀏覽器tab處一直在轉(zhuǎn)圈圈,表示網(wǎng)頁(yè)整體在加載中,可以通過(guò)wait_disappear,會(huì)一直等待到圈圈消失D)等待時(shí)間默認(rèn)是10s,可以自己定義答案:BCD解析:[多選題]147.監(jiān)督學(xué)習(xí)算法主要包括()A)線性模型B)核支持向量機(jī)C)K均值聚類D)神經(jīng)網(wǎng)絡(luò)答案:ABD解析:[多選題]148.增強(qiáng)現(xiàn)實(shí)作為真實(shí)世界和虛擬世界的橋梁,包含的主要特征有()A)增強(qiáng)現(xiàn)實(shí)的優(yōu)越性體現(xiàn)在實(shí)現(xiàn)虛擬對(duì)象和真實(shí)環(huán)境的融合,使真實(shí)世界和虛擬物體共存B)增強(qiáng)現(xiàn)實(shí)可以實(shí)現(xiàn)真實(shí)世界和虛擬世界的完全交互,不會(huì)受到任何影響C)增強(qiáng)現(xiàn)實(shí)可以實(shí)現(xiàn)虛擬世界和真實(shí)世界的實(shí)時(shí)同步和自然交互,使用戶在現(xiàn)實(shí)世界中真實(shí)地體驗(yàn)虛擬世界中的模擬對(duì)象,增加體驗(yàn)的趣味性和互動(dòng)性D)增強(qiáng)現(xiàn)實(shí)可以實(shí)現(xiàn)真實(shí)世界和虛擬世界之間的跨越,不受限制答案:AC解析:[多選題]149.基因遺傳算法的組成部分包括()。A)初始化編碼B)適應(yīng)度函數(shù)C)選擇D)交叉和變異答案:ABCD解析:[多選題]150.轉(zhuǎn)置運(yùn)算返回的輸出的大小取決于三個(gè)方面:、、。A)零填充的策略B)前向傳播運(yùn)算的步幅C)前向傳播的輸出映射的大小D)轉(zhuǎn)置運(yùn)算原始輸入的大小答案:ABC解析:[多選題]151.集成學(xué)習(xí)中增強(qiáng)多樣性的常見(jiàn)做法有()。A)數(shù)據(jù)樣本擾動(dòng)B)輸入屬性擾動(dòng)C)輸出表示擾動(dòng)D)算法參數(shù)擾動(dòng)答案:ABCD解析:集成學(xué)習(xí)中增強(qiáng)多樣性的常見(jiàn)做法主要是是對(duì)數(shù)據(jù)樣本、輸入屬性、輸出表示、算法參數(shù)進(jìn)行擾動(dòng)。[多選題]152.TensorFlow框架可用于多個(gè)領(lǐng)域,例如:()A)語(yǔ)音識(shí)別B)NLPC)計(jì)算機(jī)視覺(jué)D)自動(dòng)駕駛答案:ABCD解析:[多選題]153.?電網(wǎng)一張圖?目標(biāo)中的?電網(wǎng)?是指包含()的物理網(wǎng)絡(luò)。A)電產(chǎn)B)傳輸C)分配D)消費(fèi)答案:ABCD解析:[多選題]154.AlexNet與LeNet的區(qū)別是A)模型構(gòu)造不同B)激活函數(shù)不同C)AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度D)AlexNet中引入了圖像增廣答案:ABCD解析:AlexNet與LeNet的區(qū)別是模型構(gòu)造不同,激活函數(shù)不同,AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度,AlexNet中引入了圖像增廣[多選題]155.知識(shí)按功能來(lái)分類,可以分為()A)事實(shí)性知識(shí)B)過(guò)程性知識(shí)C)控制性知識(shí)D)元知識(shí)答案:ABCD解析:[多選題]156.基本遺傳算法包含哪些操作算子?A)搜索算子B)選擇算子C)交叉算子D)變異算子答案:BCD解析:[多選題]157.強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是()A)基于價(jià)值(value-based)B)基于策略(policy-based)C)基于模型(model-based)D)nan答案:ABC解析:[多選題]158.下列哪些網(wǎng)用到了殘差連接()A)FastTextB)BERTC)GoogLeNetD)ResNet答案:BD解析:[多選題]159.給定兩個(gè)特征向量,以下哪些方法可以計(jì)算這兩個(gè)向量相似度?()A)歐式距離B)夾角余弦(Cosine)C)信息熵D)曼哈頓距離答案:ABD解析:[多選題]160.語(yǔ)音任務(wù)中數(shù)據(jù)預(yù)處理內(nèi)容包括哪些?A)端點(diǎn)檢測(cè)B)歸一化C)分幀D)標(biāo)準(zhǔn)化答案:BD解析:[多選題]161.常用損失函數(shù):()、()。A)平方損失函數(shù)B)softmax函數(shù)C)max函數(shù)D)交叉熵?fù)p失函數(shù)答案:AD解析:[多選題]162.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()A)謂語(yǔ)與非謂語(yǔ)B)可數(shù)名詞與不可數(shù)名詞C)冠詞與數(shù)詞D)單復(fù)數(shù)答案:BD解析:[多選題]163.缺失數(shù)據(jù)的處理主要涉及以下哪三個(gè)關(guān)鍵活動(dòng)。()A)缺失數(shù)據(jù)的識(shí)別B)缺失數(shù)據(jù)的分析C)刪除或插補(bǔ)缺失數(shù)據(jù)D)缺失數(shù)據(jù)的忽略答案:ABC解析:[多選題]164.回歸分析有很多種類,常見(jiàn)的有()。A)線性回歸B)系數(shù)回歸C)邏輯回歸D)曲線回歸答案:ACD解析:[多選題]165.()、()、()三者并稱為人工智能求解中的三大方法。A)推理B)搜索C)判斷D)約束滿足答案:ABD解析:[多選題]166.以下哪層是卷積神經(jīng)網(wǎng)絡(luò)的組成部分()。A)卷積層B)中間層C)池化層D)全連接層答案:ACD解析:卷積神經(jīng)網(wǎng)絡(luò)的組成部分不包括中間層。[多選題]167.下列關(guān)于神經(jīng)網(wǎng)絡(luò)說(shuō)法正確的是()。A)高速尋找優(yōu)化解B)不如決策樹(shù)穩(wěn)定C)非線性D)具有自學(xué)習(xí)、自組織、自適應(yīng)性答案:ACD解析:[多選題]168.以下可以有效解決過(guò)擬合的方法是:()A)增加樣本數(shù)量B)通過(guò)特征選擇減少特征數(shù)量C)訓(xùn)練更多的迭代次數(shù)D)采用正則化方法答案:ABD解析:[多選題]169.降維的重要特征提取技術(shù)()A)PCAB)KPCAC)ICAD)AA答案:ABC解析:[多選題]170.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過(guò)擬合?A)DropoutB)正則化C)批規(guī)范化D)數(shù)據(jù)增強(qiáng)答案:ABCD解析:[多選題]171.數(shù)據(jù)結(jié)構(gòu)主要分為()等幾種形式。A)非線性結(jié)構(gòu)B)環(huán)狀結(jié)構(gòu)C)線性結(jié)構(gòu)D)條狀結(jié)構(gòu)答案:AC解析:[多選題]172.數(shù)字化基礎(chǔ)設(shè)施提升工程優(yōu)化公司網(wǎng)絡(luò)設(shè)備配置和網(wǎng)絡(luò)架構(gòu),全面開(kāi)展云網(wǎng)協(xié)同能力建設(shè),建成?()?的國(guó)網(wǎng)云平臺(tái),提升國(guó)網(wǎng)云平臺(tái)對(duì)中臺(tái)及業(yè)務(wù)應(yīng)用的承載能力,增強(qiáng)平臺(tái)高可用性和資源跨域調(diào)度能力。A)資源全域調(diào)配B)業(yè)務(wù)敏捷支撐C)開(kāi)發(fā)運(yùn)維一體D)企業(yè)價(jià)值導(dǎo)向答案:ABC解析:[多選題]173.數(shù)字電網(wǎng)是以()與()為基礎(chǔ)。A)現(xiàn)代電力能源網(wǎng)絡(luò)B)新一代信息網(wǎng)絡(luò)C)傳統(tǒng)電力網(wǎng)絡(luò)D)智慧能源網(wǎng)絡(luò)答案:AB解析:[多選題]174.Python程序語(yǔ)言與機(jī)器學(xué)習(xí)實(shí)踐可以稱得上是?珠聯(lián)璧合?。因?yàn)槭褂肞ython編程技巧,接觸甚至掌握機(jī)器學(xué)習(xí)的經(jīng)典算法有以下()優(yōu)勢(shì)。A)方便調(diào)試的解釋型語(yǔ)言B)跨平臺(tái)執(zhí)行作業(yè)C)廣泛的應(yīng)用編程接口D)豐富完備的開(kāi)源工具包答案:ABCD解析:[多選題]175.傳統(tǒng)GBDT在優(yōu)化時(shí)只用到一階導(dǎo)數(shù)信息,xgboost則對(duì)代價(jià)函數(shù)進(jìn)行二階泰勒展開(kāi),同時(shí)用到了()A)一階導(dǎo)數(shù)B)二階導(dǎo)數(shù)C)三階導(dǎo)數(shù)D)四階導(dǎo)數(shù)答案:AB解析:[多選題]176.常見(jiàn)的損失函數(shù)。A)SoftmaxLossB)HigonLossC)ExponentialD)LogisticLoss答案:ABCD解析:[多選題]177.根據(jù)整數(shù)和實(shí)數(shù),可以將數(shù)值變量分為()。A)名詞性變量B)順序數(shù)值變量C)順序變量D)連續(xù)數(shù)值變量E)離散數(shù)值變量答案:DE解析:[多選題]178.進(jìn)化算法具有()的特性。A)自發(fā)性B)自組織C)自適應(yīng)D)自學(xué)習(xí)E)自優(yōu)化答案:BCD解析:[多選題]179.聯(lián)機(jī)分析處理包括以下哪些基本分析功能?()A)聚類B)切片C)轉(zhuǎn)軸D)切塊E)分類答案:BCD解析:[多選題]180.語(yǔ)言處理過(guò)程分為三個(gè)層次,分別是()。A)詞法分析B)篇章分析C)語(yǔ)音分析D)語(yǔ)義分析E)句法分析答案:ADE解析:第3部分:判斷題,共71題,請(qǐng)判斷題目是否正確。[判斷題]181.人工智能的目的是要建立一個(gè)能模擬人類智能行為的系統(tǒng)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.Self-OrganizingFeatureMap(SOFM)神經(jīng)網(wǎng)絡(luò)可用于聚類。()A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]183.阿蘭圖靈在1955年提出圖靈測(cè)試的概念A(yù))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]184.2012年神經(jīng)網(wǎng)絡(luò)算法只有2層,而2018年可以做到1200層,在人臉識(shí)別領(lǐng)域最高可達(dá)一億分之一的誤識(shí)率。A)正確B)錯(cuò)誤答案:錯(cuò)解析:錯(cuò)誤[判斷題]185.核函數(shù)可以將樣本從原始空間映射到一個(gè)更高維的特征空間,使得樣本在這個(gè)特征空間內(nèi)線性可分A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]186.高方差是指模型過(guò)擬合了,導(dǎo)致在測(cè)試集中的泛化能力較差。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.YOLOv1將目標(biāo)檢測(cè)當(dāng)作了一個(gè)單一的回歸任務(wù)A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]188.聚類是指將物理或抽象對(duì)象的集合分組成為由類似的對(duì)象組成的多個(gè)類的過(guò)程。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]189.訓(xùn)練集和測(cè)試集準(zhǔn)確率偏差越高越好。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]190.損失函數(shù)有兩個(gè)表達(dá)方式,均方差表達(dá)和信息熵表達(dá)。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]191.用線性代數(shù)的方式描述函數(shù)或者方程的好處之一是書(shū)寫(xiě)方便A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.正向推理推出了結(jié)論,其可信度很高。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]193.K-means屬于有監(jiān)督學(xué)習(xí)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]194.?預(yù)訓(xùn)練+微調(diào)?法以及?權(quán)共享?方法都是為了節(jié)省訓(xùn)練開(kāi)銷A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]195.通常,卷積網(wǎng)絡(luò)訓(xùn)練中最昂貴的部分是學(xué)習(xí)特征。輸出層的計(jì)算代價(jià)通常相對(duì)不高,因?yàn)樵谕ㄟ^(guò)若干層池化之后作為該層輸入的特征的數(shù)量較少。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.u-net也是采用了encoder-decoder這一結(jié)構(gòu)A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]197.深度學(xué)習(xí)建模編寫(xiě)方式中,動(dòng)態(tài)圖模式(聲明式編程范式,類比C++):先編譯后執(zhí)行的方式。用戶需預(yù)先定義完整的網(wǎng)絡(luò)結(jié)構(gòu),再對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行編譯優(yōu)化后,才能執(zhí)行獲得計(jì)算結(jié)果A)正確B)錯(cuò)誤答案:錯(cuò)解析:錯(cuò)誤[判斷題]198.無(wú)人駕駛技術(shù)絕對(duì)不會(huì)替換人為駕駛()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.默認(rèn)推理是在知識(shí)完全的情況下假設(shè)某些條件已經(jīng)具備所進(jìn)行的推理。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]200.mini-batch太小會(huì)導(dǎo)致收斂變慢A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]201.深度神經(jīng)網(wǎng)絡(luò)是有一個(gè)或者多個(gè)隱藏層的傳統(tǒng)多層感知層A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.目標(biāo)檢測(cè)的主要目的是讓計(jì)算機(jī)可以自動(dòng)識(shí)別圖片或者視頻幀中所有目標(biāo)的類別,并在該目標(biāo)周圍繪制邊界框,標(biāo)示出每個(gè)目標(biāo)的位置A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.專家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是一樣的A)正確B)錯(cuò)誤答案:錯(cuò)解析:專家系統(tǒng)本身是一個(gè)程序,它與傳統(tǒng)程序是不同的,例如專家系統(tǒng)須有知識(shí)庫(kù)和推理機(jī),根據(jù)知識(shí)庫(kù)不斷由一致的事實(shí)推出結(jié)果。[判斷題]204.測(cè)控裝置不允許在檢同期和檢無(wú)壓兩種模式中自行轉(zhuǎn)換。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]205.樸素貝葉斯分類方法中的?樸素?是指分類方法適用范圍有限A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]206.目標(biāo)檢測(cè)的算法分為BaseAnchor和AnchorfreeA)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.樹(shù)的深度的增加可能會(huì)造成隨機(jī)森林過(guò)擬合A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]208.剪枝(pruning)是決策樹(shù)算法對(duì)付欠擬合的主要手段A)正確B)錯(cuò)誤答案:錯(cuò)解析:剪枝(pruning)是決策樹(shù)算法對(duì)付過(guò)擬合的主要手段[判斷題]209.無(wú)法使用lambda表達(dá)式定義有名字的函數(shù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]210.自助法每次隨機(jī)從數(shù)據(jù)集中挑選一個(gè)樣本并放回初始數(shù)據(jù)集中。__A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]211.選擇樣本數(shù)據(jù)時(shí),我們一般采用隨機(jī)抽取的方式組成自己的訓(xùn)練集和測(cè)試集來(lái)使用A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.鼓勵(lì)人工智能企業(yè)參與或主導(dǎo)制定國(guó)際標(biāo)準(zhǔn),加強(qiáng)人工智能領(lǐng)域的知識(shí)產(chǎn)權(quán)保護(hù),建立人工智能公共專利池,促進(jìn)人工智能新技術(shù)的利用與擴(kuò)散A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]213.云變量采用阿里云特有的加密技術(shù),確保傳輸和使用過(guò)程中的信息安全。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.50適合作為學(xué)習(xí)率的初始值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:不適合[判斷題]215.在數(shù)據(jù)生命周期管理實(shí)踐中,數(shù)據(jù)管理和維護(hù)是執(zhí)行方法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括量化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.CNN側(cè)重空間映射,主要作用于圖像處理等場(chǎng)景。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]218.與普通反向傳播不同的是,BPTT會(huì)在每個(gè)時(shí)間步長(zhǎng)內(nèi)疊加所有對(duì)應(yīng)權(quán)重的梯度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.主成分分析、線性判別分析和矩陣奇異值分解都可以用于特征降維。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]220.零和博弈中,雙方(或多方)的收益相加為0或負(fù)數(shù)。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]221.當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)A、全批量梯度下降B、隨機(jī)梯度下降A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]222.極大似然估計(jì)的準(zhǔn)確性嚴(yán)重依賴于所假設(shè)的概率分別形式是否符合潛在的真實(shí)數(shù)據(jù)分別A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]223.營(yíng)銷低壓客戶批量新裝業(yè)務(wù)流程中對(duì)應(yīng)需要4位工作人員的賬號(hào)協(xié)作,那么對(duì)應(yīng)RPA自動(dòng)化流程僅需要一位人員賬號(hào)即可。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]224.邏輯回歸不能處理三分類問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]225.模糊集合的隸屬度值必須在區(qū)間[0,1}。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.用戶通過(guò)沉浸虛擬現(xiàn)實(shí)環(huán)境來(lái)獲取新的知識(shí),提高自身的感性和理性認(rèn)識(shí),從而萌發(fā)新的聯(lián)想,因此可以說(shuō),虛擬現(xiàn)實(shí)可以啟發(fā)人的創(chuàng)造性思維。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.反向傳播是一種用于多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法。它將錯(cuò)誤信息從網(wǎng)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論