人工智能練習(xí)試題及答案_第1頁(yè)
人工智能練習(xí)試題及答案_第2頁(yè)
人工智能練習(xí)試題及答案_第3頁(yè)
人工智能練習(xí)試題及答案_第4頁(yè)
人工智能練習(xí)試題及答案_第5頁(yè)
已閱讀5頁(yè),還剩61頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)人工智能練習(xí)試題及答案1.()用于購(gòu)物籃分析、交叉銷售、商品目錄設(shè)計(jì)等商業(yè)決策領(lǐng)域。A、關(guān)聯(lián)分析B、分類分析C、聚類分析D、序列分析【正確答案】:A2.()的目的是構(gòu)造出新特征。A、平滑處理B、特征構(gòu)造C、聚集D、離散化【正確答案】:B3.()是一個(gè)具有大量的專門知識(shí)與經(jīng)驗(yàn)的程序系統(tǒng),它應(yīng)用人工智能技術(shù)和計(jì)算機(jī)技術(shù),根據(jù)某領(lǐng)域一個(gè)或多個(gè)專家提供的知識(shí)和經(jīng)驗(yàn),進(jìn)行推理和判斷,模擬人類專家的決策過(guò)程,以便解決那些需要人類專家處理的復(fù)雜問(wèn)題。A、專家系統(tǒng)B、機(jī)器系統(tǒng)C、智能芯片D、人機(jī)交互【正確答案】:A4.學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率【正確答案】:C解析:

通常把分類錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例稱為“錯(cuò)誤率”;精度=1.0-錯(cuò)誤率;把學(xué)習(xí)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱為“誤差”;查準(zhǔn)率也稱為準(zhǔn)確率5.()是科學(xué)推理的兩大基本手段。A、歸納和演繹B、歸納和泛化C、歸納和特化D、演繹和泛化【正確答案】:A6.將數(shù)值類型的屬性值(如年齡)用區(qū)間標(biāo)簽(例如0~18、19-44、45~59和60~100等)或概念標(biāo)簽,稱為數(shù)據(jù)()處理。A、離散化B、標(biāo)準(zhǔn)化C、特征構(gòu)造D、聚集【正確答案】:A7.從產(chǎn)品形態(tài)看,以下()屬于數(shù)據(jù)產(chǎn)品中的數(shù)據(jù)類產(chǎn)品。A、脫敏數(shù)據(jù)B、數(shù)據(jù)訂閱C、知識(shí)庫(kù)D、決策支持【正確答案】:A8.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為A、噪聲B、核心簇C、邊界簇D、以上都不對(duì)【正確答案】:A9.4目前,多數(shù)NoSQL數(shù)據(jù)庫(kù)是針對(duì)特定應(yīng)用場(chǎng)景研發(fā)出來(lái)的,其設(shè)計(jì)遵循()原則,更加強(qiáng)調(diào)讀寫(xiě)效率、數(shù)據(jù)容量以及系統(tǒng)可擴(kuò)展性。A、EASY原則B、READ原則C、BASE原則D、BASIC原則【正確答案】:C10.下列極大似然估計(jì)描述錯(cuò)誤的是(___)A、極大似然估計(jì)先假定其具有某種確定的概率分布形式;B、極大似然估計(jì)沒(méi)有確定的概率分布形式;C、概率模型的訓(xùn)練過(guò)程就是參數(shù)估計(jì);D、貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機(jī)變量;【正確答案】:B解析:

數(shù)學(xué)基礎(chǔ)11.()以當(dāng)前的假設(shè)作為輸入,輸出一個(gè)新的問(wèn)題供執(zhí)行系統(tǒng)去探索。A、執(zhí)行器B、評(píng)價(jià)器C、泛化器D、實(shí)驗(yàn)生成器【正確答案】:D12.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-00001」。X可能是以下哪一個(gè)激活函數(shù)()A、ReLUB、tanhC、SIGMOIDD、以上都不是【正確答案】:B13.在Linux系統(tǒng)中,下列哪個(gè)命令可以用來(lái)查看kernel版本信息:()A、checkB、lskernelC、kernelD、uname【正確答案】:D14.華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。A、TRUEB、FALSE【正確答案】:A15.下列哪項(xiàng)是自然語(yǔ)言處理的Python開(kāi)發(fā)包?A、openCVB、jiebaC、sklearnD、XGBoost【正確答案】:B解析:

jieba是自然語(yǔ)言中用于分詞的工具。16.以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?A、人臉?biāo)阉鰾、人臉比對(duì)C、人臉檢測(cè)D、翻拍識(shí)別【正確答案】:D17.某二叉樹(shù)共有399個(gè)結(jié)點(diǎn),其中有199個(gè)度為2的結(jié)點(diǎn),則該二叉樹(shù)中的葉子結(jié)點(diǎn)數(shù)為A、不存在這樣的二叉樹(shù)B、200C、198D、$199【正確答案】:B解析:

根據(jù)二叉樹(shù)的性質(zhì),在任意一棵二叉樹(shù)中,度為0的結(jié)點(diǎn)總是比度為2的結(jié)點(diǎn)多一個(gè),則度為0的結(jié)點(diǎn)數(shù)為199+1=200。18.據(jù)WardMO(2010)的研究,超過(guò)()的人腦功能用于視覺(jué)信息的處理,視覺(jué)信息的處理是人腦的最主要功能之一A、0.45B、0.55C、0.5D、$0.75【正確答案】:C19.下列核函數(shù)特性描述錯(cuò)誤的是(___)A、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C、核函數(shù)將影響支持向量機(jī)的性能;D、核函數(shù)是一種降維模型;【正確答案】:D解析:

數(shù)學(xué)基礎(chǔ)20.哪個(gè)范數(shù)指向量中非零元素的個(gè)數(shù)?A、p范數(shù)B、0范數(shù)C、1范數(shù)D、2范數(shù)【正確答案】:B21.決策樹(shù)中不包含一下哪種結(jié)點(diǎn)()。A、根結(jié)點(diǎn)B、內(nèi)部結(jié)點(diǎn)C、外部結(jié)點(diǎn)D、葉結(jié)點(diǎn)【正確答案】:C22.一組數(shù)據(jù)的最大值與最小值之差叫做()。A、標(biāo)準(zhǔn)差B、極差C、方差D、極小值【正確答案】:B23.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來(lái)擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標(biāo)簽【正確答案】:B24.2010年谷歌推出以頂點(diǎn)為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計(jì),將圖數(shù)據(jù)保存在主存儲(chǔ)器中并采用并行計(jì)算的BSP模型AregelB、PregelCregelDregel【正確答案】:B解析:

2010年谷歌推出以頂點(diǎn)為中心的圖處理系統(tǒng)Pregel,其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計(jì),將圖數(shù)據(jù)保存在主存儲(chǔ)器中并采用并行計(jì)算的BSP模型25.為了充分發(fā)揮GPU算力,需要盡可能多的將任務(wù)交給GPU執(zhí)行?,F(xiàn)在有一個(gè)任務(wù)數(shù)組T=[1,2,3,4,5],數(shù)組元素表示在這1秒內(nèi)新增的任務(wù)個(gè)數(shù),且每秒都有新增任務(wù),直到數(shù)結(jié)束。假設(shè)GPU最多一次執(zhí)行N=3個(gè)任務(wù),一次執(zhí)行耗時(shí)1秒,在保證GPU盡量不空閑的情況下,一個(gè)GPU最少需要多長(zhǎng)時(shí)間執(zhí)行完成?A、5秒B、6秒C、7秒D、8秒【正確答案】:B解析:

如果本次任務(wù)大于了GPU最多一次執(zhí)行的任務(wù)數(shù)3,那么就得將這次任務(wù)交給下一次的任務(wù)處理,前三組任務(wù)都沒(méi)有遺留,第四組任務(wù)剩余了4-3=1個(gè)任務(wù)沒(méi)處理,第五組任務(wù)剩余了1+5-3=3個(gè)任務(wù)沒(méi)處理,這3個(gè)任務(wù)需第6秒處理完成。26.數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)()的方式展現(xiàn)出來(lái)A、文字B、圖C、表格D、樹(shù)【正確答案】:B27.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val_scoreB、cross_val%C、val_scoreD、cross_score【正確答案】:A28.關(guān)于級(jí)聯(lián)相關(guān)網(wǎng)絡(luò)描述錯(cuò)誤的是A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo)B、主要成分為級(jí)聯(lián)、相關(guān)、歸約C、無(wú)需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目D、訓(xùn)練速度快,但數(shù)據(jù)較小時(shí)容易陷入過(guò)擬合【正確答案】:B解析:

級(jí)聯(lián)相關(guān)網(wǎng)絡(luò)有兩個(gè)主要成分“級(jí)聯(lián)”和“相關(guān)”級(jí)聯(lián)是指建立層次連接的層級(jí)結(jié)構(gòu),在開(kāi)始訓(xùn)練時(shí),網(wǎng)絡(luò)只有輸入層和輸出層,處于最小拓?fù)浣Y(jié)構(gòu);隨著訓(xùn)練的進(jìn)行,新的隱層神經(jīng)元逐漸加入,從而創(chuàng)建起層級(jí)結(jié)構(gòu),當(dāng)新的隱層神經(jīng)元加入時(shí),其輸入端連接權(quán)值是凍結(jié)固定的相關(guān)是指通過(guò)最大化新神經(jīng)元的輸出與網(wǎng)絡(luò)誤差之間的相關(guān)性來(lái)訓(xùn)練相關(guān)的參數(shù)29.表達(dá)式list(range(5))的值為_(kāi)_______。A、[0,1,2,3,4]B、[1,2,3,4,5]C、[0,1,2,3,4,5]D、[1,2,3,4]【正確答案】:A30.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:①如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。②如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是?A、①和②都錯(cuò)誤B、①正確,②錯(cuò)誤C、①錯(cuò)誤,②正確D、①和②都正確【正確答案】:B31.設(shè)矩陣A的秩為r,則A中()。A、所有的r-1階子式都不為0B、所有的r-1階子式都為0C、至少有一個(gè)r階子式不為0D、所有的r階子式都不為0【正確答案】:C32.df.corr(),返回df數(shù)組中()。A、列與列之間的相關(guān)系數(shù)B、行與行之間的相關(guān)系數(shù)C、正確數(shù)據(jù)的個(gè)數(shù)D、無(wú)返回值【正確答案】:A解析:

f.corr()函數(shù)定義33.下列選項(xiàng)中屬于感知技術(shù)的是()。A、機(jī)器學(xué)習(xí)技術(shù)和計(jì)算實(shí)施技術(shù)B、計(jì)算實(shí)施技術(shù)和語(yǔ)音識(shí)別技術(shù)C、語(yǔ)音識(shí)別技術(shù)和機(jī)器視覺(jué)D、機(jī)器視覺(jué)和機(jī)器學(xué)習(xí)技術(shù)【正確答案】:C解析:

語(yǔ)音識(shí)別技術(shù)和機(jī)器視覺(jué)屬于感知技術(shù)。34.選擇正確的()是最近鄰方法中最重要的一步。A、訓(xùn)練集B、測(cè)試集C、驗(yàn)證集D、預(yù)測(cè)集【正確答案】:A35.()算法是常用的估計(jì)參數(shù)隱變量的利器,它是一種迭代式的方法。A、EMB、吉布斯采樣C、貝葉斯D、概率分布【正確答案】:A36.在非均等代價(jià)下,希望最小化()A、召回率B、錯(cuò)誤率C、錯(cuò)誤次數(shù)D、總體代價(jià)【正確答案】:D37.隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本C、全部事件D、樣本空間【正確答案】:D38.2018年“全球十大突破性技術(shù)”,對(duì)抗性神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱為()A、GANB、LSTMCNND、GRU【正確答案】:A解析:

2018年“全球十大突破性技術(shù)”,對(duì)抗性神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱為GAN39.在證據(jù)理論中,信任函數(shù)與似然函數(shù)的關(guān)系為()。A、Bel≤PlBel<PlC、Bel≥PlD、Bel>Pl【正確答案】:A解析:

概念理解40.下面對(duì)強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)描述正確的是A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標(biāo)注數(shù)據(jù)D、都不需要標(biāo)注信息【正確答案】:A41.下列快捷鍵中能夠中斷(InterruptExecution)Python程序運(yùn)行的是A、F6B、Ctrl+QCtrl+CD、Ctrl+F6【正確答案】:C解析:

Ctrl+Q查看文檔描述42.image=fluid.layers.data(name='image',shape=[1,28,28],dtype='float32'),代碼中28表示?A、訓(xùn)練的周期B、訓(xùn)練的批次C、輸入數(shù)據(jù)的維度D、數(shù)據(jù)的通道【正確答案】:C解析:

image=fluid.layers.data(name='image',shape=[1,28,28],dtype='float32'),代碼中28表示輸入數(shù)據(jù)的維度43.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么?()A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D、以上說(shuō)法都不對(duì)【正確答案】:B44.在scikit-learn中,DBSCAN算法對(duì)于()參數(shù)值的選擇非常敏感A、pB、epsC、n_jobsD、algorithm【正確答案】:B45.子空間樣本密度大幅提高,距離計(jì)算變得更為容易的是()A、低維嵌入B、核化線性降維C、主成分分析D、k近鄰學(xué)習(xí)【正確答案】:A46.Python中,以下哪個(gè)賦值操作符是錯(cuò)誤的?A、+=B、-=C、*=D、X=【正確答案】:D47.下列對(duì)人工智能芯片的表述,不正確的是()。A、一種專門用于處理人工智能應(yīng)用中大量計(jì)算任務(wù)的芯片B、能夠更好地適應(yīng)人工智能中大量矩陣運(yùn)算C、目前處于成熟高速發(fā)展階段D、相對(duì)于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計(jì)算性能【正確答案】:C48.感知機(jī)由()神經(jīng)元組成。A、兩層B、三層C、一層D、四層【正確答案】:A49.在Python中,設(shè)a=2,b=3,表達(dá)式not(b-a>0)值是()A、1B、-1C、TrueD、FALSE【正確答案】:D解析:

本題主要考查Python表達(dá)式的運(yùn)算。a=2,b=3,b-a>0值為True,則表達(dá)式not(b-a>0)值是False,故本題選D選項(xiàng)。50.時(shí)間序列分析方法的選擇,主要取決于需要解決的問(wèn)題,以及時(shí)間序列的()。A、特點(diǎn)B、離散度C、聚合度D、線性關(guān)系【正確答案】:A51.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization)(2)潛在語(yǔ)義索引(LatentSemanticIndexing)(3)隱狄利克雷分布(LatentDirichletAllocation)A、只有(1)B、(2)、(3)C、(1)、(3)D、(1)、(2)、(3)【正確答案】:D52.如果問(wèn)題存于最優(yōu)解,則下面幾種搜索算法中,()必然能夠得到該最優(yōu)解。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:A53.以下關(guān)于異常處理的描述,正確的是()。A、try語(yǔ)句中有except子句就不能有finally子句B、Python中,可以用異常處理捕獲程序中的所有錯(cuò)誤C、引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)NameError錯(cuò)誤D、Python中允許利用raise語(yǔ)句由程序主動(dòng)引發(fā)異?!菊_答案】:D54.下列不屬于數(shù)據(jù)脫敏操作必須滿足的要求的是A、單向性B、無(wú)殘留C、易于實(shí)現(xiàn)D、雙向性【正確答案】:D55.如何查看一個(gè)RPM軟件的配置文件的存放位置?A、rpm-qcrpm1B、rpm-Vcrpm1C、rpm--configrpm1D、rpm-qa--configrpm1【正確答案】:A解析:

解析:rpm命令是RPM軟件包的管理工具。rpm原本是RedHatLinux發(fā)行版專門用來(lái)管理Linux各項(xiàng)套件的程序,由于它遵循GPL規(guī)則且功能強(qiáng)大方便,因而廣受歡迎。逐漸受到其他發(fā)行版的采用。RPM套件管理方式的出現(xiàn),讓Linux易于安裝,升級(jí),間接提升了Linux的適用度。56.我國(guó)于()年發(fā)布了《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》.A、2016B、2017C、2018D、$2,019【正確答案】:B57.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是多少?()A、217x217x3B、217x217x8C、218x218x5D、220x220x7【正確答案】:C58.目前,絕大部分?jǐn)?shù)據(jù)或數(shù)據(jù)中的絕大部分屬于()A、結(jié)構(gòu)化數(shù)據(jù)B、半結(jié)構(gòu)化數(shù)據(jù)C、非結(jié)構(gòu)化數(shù)據(jù)D、大數(shù)據(jù)【正確答案】:C59.在專家系統(tǒng)的開(kāi)發(fā)過(guò)程中使用的專家系統(tǒng)工具一般分為專家系統(tǒng)的和通用專家系統(tǒng)工具兩類。A、模型工具B、外殼C、知識(shí)庫(kù)工具D、專用工具【正確答案】:B60.以下哪一項(xiàng)是HUAWEIHiAIFoundation模塊的功能?App集成B、讓服務(wù)主動(dòng)找到用戶C、快速轉(zhuǎn)化和遷移已有模型D、根據(jù)用戶所需,適時(shí)適地推送服務(wù)八、華為云企業(yè)智能應(yīng)用平臺(tái)【正確答案】:C61.下列哪行python代碼有語(yǔ)法錯(cuò)誤()A、for(subitem:allItems):B、for(key,value)inip_map:C、withopen(src_file,'r')asread_stream:D、read_stream=open(src_file,'r')【正確答案】:A62.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、目標(biāo)檢測(cè)B、智能相冊(cè)C、場(chǎng)景分析D、語(yǔ)音合成【正確答案】:D63.正態(tài)分布的兩個(gè)參數(shù)μ與σ,()對(duì)應(yīng)的正態(tài)曲線愈趨扁平。A、μ愈大B、μ愈小C、σ愈大D、σ愈小【正確答案】:C64.()是一種單隱層前饋神經(jīng)網(wǎng)絡(luò),它使用徑向基函數(shù)作為隱層神經(jīng)元激活函數(shù),而輸出層則是對(duì)隱層神經(jīng)元輸出的線性組合A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)

C、ART網(wǎng)絡(luò)

D、ELman網(wǎng)絡(luò)【正確答案】:B65.負(fù)荷預(yù)測(cè)分為四類()A、(1)按小時(shí)負(fù)荷預(yù)測(cè)(2)日負(fù)荷預(yù)測(cè)(3)周負(fù)荷預(yù)測(cè)(4)月負(fù)荷預(yù)測(cè)B、(1)日負(fù)荷預(yù)測(cè)(2)周負(fù)荷預(yù)測(cè)(3)月負(fù)荷預(yù)測(cè)(4)年負(fù)荷預(yù)測(cè)C、(1)超短期負(fù)荷預(yù)測(cè)(2)短期負(fù)荷預(yù)測(cè)(3)中期負(fù)荷預(yù)測(cè)(4)長(zhǎng)期負(fù)荷預(yù)測(cè)D、(1)日負(fù)荷預(yù)測(cè)(2)周負(fù)荷預(yù)測(cè)(3)月負(fù)荷預(yù)測(cè)(4)季負(fù)荷預(yù)測(cè)【正確答案】:C解析:

負(fù)荷預(yù)測(cè)分為短期、超短期、中期、長(zhǎng)期負(fù)荷預(yù)測(cè)四類。66.運(yùn)行一個(gè)腳本,用戶不需要什么樣的權(quán)限?A、readB、writeC、executeD、browseonthedirectory【正確答案】:B解析:

解析:文件的讀、寫(xiě)、執(zhí)行權(quán)限:

讀read——>允許查看文件的內(nèi)容,包括的命令:cat、vim、grep、head、tail、more、less等--r

寫(xiě)write——>允許修改文件內(nèi)容,包括的命令:vim、>>、>(重定向)--w

執(zhí)行execute——>運(yùn)行腳本里的命令:./a.sh(相對(duì)路徑)、/lianxi/a.sh(絕對(duì)路徑)直接運(yùn)行文件,需要給腳本文件授予可執(zhí)行權(quán)限.--x67.不屬于人工智能的學(xué)派是A、符號(hào)主義B、機(jī)會(huì)主義C、行為主義D、連接主義【正確答案】:B解析:

機(jī)會(huì)主義不屬于人工智能的學(xué)派68.下列哪種情況是圖靈測(cè)試的內(nèi)容?()A、當(dāng)機(jī)器與人對(duì)話,兩者相互詢問(wèn),人分不清機(jī)器是人還是機(jī)器,說(shuō)明它通過(guò)了圖靈測(cè)試B、當(dāng)機(jī)器騙過(guò)測(cè)試者,使得詢問(wèn)者分不清是人還是機(jī)器時(shí),說(shuō)明它通過(guò)了圖靈測(cè)試C、當(dāng)人與人對(duì)話,其中一人的智力超過(guò)另一人時(shí),說(shuō)明智者通過(guò)了圖靈測(cè)試D、兩機(jī)對(duì)話,其中一機(jī)的智力超過(guò)另一機(jī)時(shí),說(shuō)明智者機(jī)器通過(guò)了圖靈測(cè)試【正確答案】:B69.如果矩陣A的形狀是m×n,矩陣B的形狀是n×p,已知C=AB,則矩陣C的形狀是()。A、p×mB、m×pC、m×nD、n×p【正確答案】:B解析:

參考《深度學(xué)習(xí)》P3070.下述()不是知識(shí)的特征。

A、復(fù)雜性和明確性B、進(jìn)化和相對(duì)性C、客觀性和依附性D、可重用性和共享性【正確答案】:A71.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?A、增加參數(shù)數(shù)量B、減少參數(shù)數(shù)量C、在開(kāi)始時(shí)將學(xué)習(xí)率降低10倍D、改變幾個(gè)時(shí)期的學(xué)習(xí)率【正確答案】:D72.設(shè)f′(x0)=0,則曲線y=f(x)在點(diǎn)(x0,f(x0))處的切線()A、不存在B、與x軸平行或重合C、x軸垂直D、與x軸相交但不垂直【正確答案】:B解析:

解析:選B.函數(shù)在某點(diǎn)處的導(dǎo)數(shù)為零,說(shuō)明相應(yīng)曲線在該點(diǎn)處的切線的斜率為零73.對(duì)一班只坐了10個(gè)人的國(guó)際航班進(jìn)行新冠病毒篩查,方案如下:從該航班中隨機(jī)選取三個(gè)人進(jìn)行測(cè)試(所有人員在飛機(jī)上相互隔離,不存在相互傳染的可能性),如果三人中至少有一人在測(cè)試時(shí)結(jié)果呈現(xiàn)陽(yáng)性,那么這趟航班所有人員都將被拒收。假設(shè)某人為陽(yáng)性且被設(shè)備正常檢測(cè)出的概率為0.95,而檢測(cè)為陰性的人被設(shè)備誤判為陽(yáng)性的概率為0.01,已知這趟航班的10名人員有四人為陽(yáng)性,則這趟航班被接收的概率約為()。A、0.157B、0.167C、0.177D、$0.19【正確答案】:D解析:

按照條件概率乘法法則P(A∩B)=P(A)*P(B|A)=P(B)*P(A|B),如上公式也可變形為:P(A)=P(A|B)*P(B)/P(B|A)。設(shè)事件A表示該航班被接收,事件Bi表示測(cè)試的人中有i個(gè)陽(yáng)性,利用含完備事件組的貝葉斯公式可算出這趟航班被接收的概率為0.18774.1997年5月,著名的“人機(jī)大戰(zhàn)”,最終計(jì)算機(jī)以3.5比2.5的總比分將世界國(guó)際象棋棋王卡斯帕羅夫擊敗,這臺(tái)計(jì)算機(jī)被稱為()A、深藍(lán)B、IBMC、深思D、藍(lán)天【正確答案】:A75.隨著()在計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別以及自然語(yǔ)言處理領(lǐng)域取得的成功,近幾年來(lái),無(wú)論是在消費(fèi)者端還是在企業(yè)端,已經(jīng)有許多依賴人工智能技術(shù)的應(yīng)用臻于成熟,并開(kāi)始滲透到我們生活的方方面面A、強(qiáng)化學(xué)習(xí)B、深度學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)【正確答案】:B解析:

隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別以及自然語(yǔ)言處理領(lǐng)域取得的成功,近幾年來(lái),無(wú)論是在消費(fèi)者端還是在企業(yè)端,已經(jīng)有許多依賴人工智能技術(shù)的應(yīng)用臻于成熟,并開(kāi)始滲透到我們生活的方方面面76.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()A、O(m)B、O(m2)C、O(logm)D、O(m*logm)【正確答案】:B77.下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)B、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)C、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)D、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立【正確答案】:A解析:

馬爾可夫鏈的同時(shí)定義了馬爾可夫性質(zhì),該性質(zhì)也被稱為“無(wú)記憶性”,即t+1步的隨機(jī)變量在給定第t步隨機(jī)變量后與其余的隨機(jī)變量條件獨(dú)立78.()是實(shí)現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。A、數(shù)據(jù)管理B、數(shù)據(jù)分析C、數(shù)據(jù)治理D、數(shù)據(jù)規(guī)劃【正確答案】:C79.參數(shù)估計(jì)分為()A、點(diǎn)估計(jì)和區(qū)間估計(jì)B、區(qū)間估計(jì)和無(wú)偏估計(jì)C、點(diǎn)估計(jì)和無(wú)偏估計(jì)D、區(qū)間估計(jì)和一致估計(jì)【正確答案】:A80.設(shè)A是n階方陣,則A能與n階對(duì)角陣相似的充要條件是()。A是對(duì)角陣B、A有n個(gè)互不相同的特征向量C、A有n個(gè)線性無(wú)關(guān)的特征向量D、A有n個(gè)互不相同的特征值【正確答案】:C81.一根繩子,隨機(jī)截成3段,可以組成一個(gè)三角形的概率是()。A、0.5B、0.25C、0.167D、$0.13【正確答案】:B解析:

幾何概率,x82.下面哪個(gè)技術(shù)跟中文分詞無(wú)關(guān)():A、詞語(yǔ)消歧B、詞性標(biāo)注C、未登錄詞識(shí)別D、槽位填充【正確答案】:D83.下列選項(xiàng)中,不屬于生物特征識(shí)別技術(shù)的是()A、步態(tài)識(shí)別B、聲紋識(shí)別C、文本識(shí)別D、虹膜識(shí)別【正確答案】:C84.函數(shù)u=ln(x+sqrt(y^2+z^2))在點(diǎn)M(1,0,1)處沿點(diǎn)M指向N(3,-2,2)方向的方向?qū)?shù)是()。A、1212122022年3月2日B、1212122022年1月2日C、-1.5D、-0.5【正確答案】:B85.a=[[1.,2.,1.],[1.,2.,1.]],a+3的值為()。A、[[1.,2.,1.],[4.,5.,4.]]B、[[4.,5.,4.],[4.,5.,4.]]C、以上都不對(duì)D、[[4.,5.,4.],[1.,2.,1.]]【正確答案】:C86.()是時(shí)間序列分析中最靈活和準(zhǔn)確的方法。A、指數(shù)平滑模型B、自回歸模型C、移動(dòng)平均模型D、差分自回歸移動(dòng)平均模型【正確答案】:A87.設(shè)X是隨機(jī)變量,且EX=DX,則X服從()分布A、二項(xiàng)B、泊松C、正態(tài)D、指數(shù)【正確答案】:B解析:

泊松分布(法語(yǔ):loidePoisson;英語(yǔ):Poissondistribution)又稱Poisson分布、帕松分布、布瓦松分布、布阿松分布、普阿松分布、波以松分布、卜氏分布、帕松小數(shù)法則(Poissonlawofsmallnumbers),是一種統(tǒng)計(jì)與概率學(xué)里常見(jiàn)到的離散概率分布88.圖像灰度的方差表示圖像的哪種屬性A、圖像整體亮度&B、&圖像飽和度&C、&圖像對(duì)比度&D、&圖像細(xì)節(jié)【正確答案】:C解析:

基礎(chǔ)概念89.電力專用縱向加密認(rèn)證裝置是嵌入式設(shè)備,主要模塊包括非Intel指令CPU、千/百兆網(wǎng)絡(luò)接口、雙電源模塊、()等等A、GPS芯片B、GPRS芯片C、電力專用加密算法芯片D、天線【正確答案】:C解析:

電力專用縱向加密認(rèn)證裝置是嵌入式設(shè)備,主要模塊包括非Intel指令CPU、千/百兆網(wǎng)絡(luò)接口、雙電源模塊、電力專用加密算法芯片等等90.下列不是人工智能研究領(lǐng)域的是()A、專家系統(tǒng)B、模式識(shí)別C、編譯原理D、機(jī)器翻譯【正確答案】:C解析:

人工智能的主要研究領(lǐng)域包括:模式識(shí)別、專家系統(tǒng)、自然語(yǔ)言理解(包括機(jī)器翻譯)、計(jì)算機(jī)博弈、智能代理、數(shù)據(jù)挖掘、機(jī)器人等。91.表達(dá)式int('123',8)的值為_(kāi)____。A、83B、12C、84D、$84【正確答案】:A92.C(B|A)表示在規(guī)則A->B中,證據(jù)A為真的作用下結(jié)論B為真的A、可信度B、信度C、信任增長(zhǎng)度D、概率【正確答案】:B93.已知x=3,那么執(zhí)行語(yǔ)句x*=6之后,x的值為_(kāi)________。A、18B、9C、3D、$2【正確答案】:A94.()為我們進(jìn)行學(xué)習(xí)器性能比較提供了重要依據(jù)A、二項(xiàng)檢驗(yàn)B、t檢驗(yàn)C、交叉驗(yàn)證t檢驗(yàn)D、統(tǒng)計(jì)假設(shè)檢驗(yàn)【正確答案】:D解析:

統(tǒng)計(jì)假設(shè)檢驗(yàn)為我們進(jìn)行學(xué)習(xí)器t性能比較提供了重要依據(jù),基于假設(shè)檢驗(yàn)結(jié)果我們可推斷出,若在測(cè)試集上觀察到學(xué)習(xí)器A比B好,則A的泛化性能是否在統(tǒng)計(jì)意義上優(yōu)于B,以及這個(gè)結(jié)論的把握有多大95.在以下不同的場(chǎng)景中,使用的分析方法不正確的有()。A、根據(jù)商家最近一年的經(jīng)營(yíng)及服務(wù)數(shù)據(jù),用聚類算法判斷出天貓商家在各自主營(yíng)類目下所屬的商家層級(jí)B、根據(jù)商家近幾年的成交數(shù)據(jù),用聚類算法擬合出用戶未來(lái)一個(gè)月可能的消費(fèi)金額公式C、用關(guān)聯(lián)規(guī)則算法分析出購(gòu)買了汽車坐墊的買家,是否適合推薦汽車腳墊D、根據(jù)用戶最近購(gòu)買的商品信息,用決策樹(shù)算法識(shí)別出淘寶買家可能是男還是女【正確答案】:B96.智能變電站全站配置模型文件,指的是()。A、SSD文件B、CID文件C、SCD文件D、ICD文件【正確答案】:C97.人工智能應(yīng)用研究的兩個(gè)最重要最廣泛領(lǐng)域?yàn)椋海ǎ〢、專家系統(tǒng)、自動(dòng)規(guī)劃B、專家系統(tǒng)、機(jī)器學(xué)習(xí)C、機(jī)器學(xué)習(xí)、智能控制D、機(jī)器學(xué)習(xí)、自然語(yǔ)言理解【正確答案】:B解析:

人工智能應(yīng)用研究的兩個(gè)最重要最廣泛領(lǐng)域?yàn)椋簩<蚁到y(tǒng)、機(jī)器學(xué)習(xí)98.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式C、多語(yǔ)言D、多平臺(tái)【正確答案】:A99.下面不能使用GPU進(jìn)行加速的算法框架是A、CaffeB、TheanoC、KerasD、Sklearn【正確答案】:D解析:

sklearn本身并不支持深度學(xué)習(xí),不支持GPU加速,不適合處理大規(guī)模問(wèn)題100.人工智能的目的是讓機(jī)器能夠()A、具有智能B、和人一樣工作C、完全代替人的大腦D、模擬、延伸和擴(kuò)展人的智能

【正確答案】:D解析:

人工智能ArtificialIntelligence,AI有時(shí)也稱作機(jī)器智能,是指由人工制造出來(lái)的系統(tǒng)所表現(xiàn)出來(lái)的智能,主要是為了模擬、延伸和擴(kuò)展人的智能。101.機(jī)器學(xué)習(xí)中的決策樹(shù)學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過(guò)程,決策樹(shù)代表的是一種()過(guò)程A、預(yù)測(cè)B、回歸C、分類D、聚類【正確答案】:C102.pyhon中,=[1,2,3.4,5],切片時(shí)如果要取[2,3.4],正確的選項(xiàng)是()A、a[1:-1]B、a[1:4]C、a[-2:]D、a[::2]【正確答案】:A103.在數(shù)據(jù)加工過(guò)程中,將特征值按比例縮小,使之落入一個(gè)特定的區(qū)間的方法是()A、標(biāo)準(zhǔn)化B、平滑處理C、特征構(gòu)造D、聚集【正確答案】:A104.被譽(yù)為“計(jì)算機(jī)科學(xué)之父”的科學(xué)家是A、明斯基B、圖靈C、麥卡錫D、馮諾依曼【正確答案】:B解析:

艾倫·麥席森·圖靈,英國(guó)數(shù)學(xué)家、邏輯學(xué)家,被稱為計(jì)算機(jī)科學(xué)之父,人工智能之父。105.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達(dá)了屬性間的條件()A、獨(dú)立性B、一致性C、有效性D、相關(guān)性【正確答案】:A106.傳統(tǒng)科學(xué)計(jì)算中的建模方法可分為從()出發(fā)的建模和從數(shù)據(jù)出發(fā)的建模兩類A、機(jī)理B、檢索C、設(shè)計(jì)D、存儲(chǔ)【正確答案】:A解析:

傳統(tǒng)科學(xué)計(jì)算中的建模方法可分為從機(jī)理出發(fā)的建模和從數(shù)據(jù)出發(fā)的建模兩類107.()是規(guī)則的置信度與先導(dǎo)的置信度之間的絕對(duì)差。A、置信度差B、信息差C、置信度值D、標(biāo)準(zhǔn)差【正確答案】:A108.下面2個(gè)變量a='1'b=2printa+b的結(jié)果是什么A、3B、TypeError:mustbestr,notintC、1D、$2【正確答案】:B109.特征A對(duì)訓(xùn)練數(shù)據(jù)集D的信息增益比的定義是()和()之比。A、信息增益與訓(xùn)練數(shù)據(jù)集的信息熵之比B、信息增益與訓(xùn)練數(shù)據(jù)集的經(jīng)驗(yàn)熵之比C、信息增益與訓(xùn)練數(shù)據(jù)集的條件熵之比D、信息增益與訓(xùn)練數(shù)據(jù)集的交叉熵之比【正確答案】:B解析:

當(dāng)熵和條件熵中的概率由數(shù)據(jù)估計(jì)(特別是極大似然估計(jì))得到時(shí),所對(duì)應(yīng)的熵與條件熵分別稱為經(jīng)驗(yàn)熵(empiricalentropy)和經(jīng)驗(yàn)條件熵(empiricalconditionalentropy)。110.Scikit-learn中數(shù)據(jù)和標(biāo)簽用什么數(shù)據(jù)結(jié)構(gòu)來(lái)存儲(chǔ)?A、列表B、數(shù)組C、字典【正確答案】:B111.EM算法就是含有隱變量的概率模型參數(shù)的()法。A、極大極小值估計(jì)B、極大似然估計(jì)C、最大先驗(yàn)概率D、最小后驗(yàn)概率【正確答案】:B解析:

EM算法就是含有隱變量的概率模型

參數(shù)的極大似然估計(jì)法112.Prolog語(yǔ)言的三種基本語(yǔ)句是:。A、順序、循環(huán)、分支B、陳述、詢問(wèn)、感嘆C、事實(shí)、規(guī)則、詢問(wèn)D、肯定、疑問(wèn)、感嘆【正確答案】:C113.關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是A、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)C、SMO尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重D、輸出層神經(jīng)元以矩陣方式排列在二維空間【正確答案】:C解析:

SOM的訓(xùn)練目標(biāo)就是為每個(gè)輸出層神經(jīng)元找到合適的權(quán)向量,以達(dá)到保持拓?fù)浣Y(jié)構(gòu)的目的114.max(│x1│,│x2│,…,│xn│)是什么范數(shù)A、1-范數(shù)B、2-范數(shù)C、∞-范數(shù)D、矩陣范數(shù)【正確答案】:C115.()是指將“數(shù)據(jù)”轉(zhuǎn)換為“產(chǎn)品”的藝術(shù)。A、數(shù)據(jù)柔性B、數(shù)據(jù)運(yùn)用C、數(shù)據(jù)挖掘D、數(shù)據(jù)開(kāi)發(fā)【正確答案】:A116.下列哪項(xiàng)不是目前深度學(xué)習(xí)的必備技術(shù)?A、卷積可視化解釋B、反向傳播算法C、非線性激活函數(shù)D、深度神經(jīng)網(wǎng)絡(luò)【正確答案】:A解析:

卷積可視化不是目前深度學(xué)習(xí)的必備技術(shù)117.跳出所處的最近層循環(huán)的是()A、breakB、continuesC、continueD、pass【正確答案】:A解析:

break是打破最近層的循環(huán),continue是略過(guò)本次循環(huán)下的東西跳到循環(huán)開(kāi)頭。118.3*4的方格,從左下角走到右上角,跨一方格為1步,最短路徑前提下一共有()種不同路徑?A、12B、81C、35D、$64【正確答案】:C119.話題模型的典型代表是(___)。A、貝葉斯模型B、拉普拉模型C、隱狄利克雷模型D、馬爾可夫模型【正確答案】:C解析:

數(shù)學(xué)基礎(chǔ)120.關(guān)于“與/或”圖表示法的敘述中,正確的是:。A、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來(lái)描述各部分的因果關(guān)系。B、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來(lái)描述各部分之間的不確定關(guān)系。C、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來(lái)的樹(shù)形圖,用來(lái)描述某類問(wèn)題的層次關(guān)系。D、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來(lái)的樹(shù)形圖,用來(lái)描述某類問(wèn)題的求解過(guò)程。【正確答案】:D121.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對(duì)【正確答案】:A122.設(shè)A是方陣,如有矩陣關(guān)系式AB=AC,則必有()A=0B!=C時(shí)A=0C、A!=0時(shí)B=CD、|A|!=0時(shí)B=C【正確答案】:D123.在數(shù)據(jù)挖掘中,()可以從大量數(shù)據(jù)中挖掘出有價(jià)值的數(shù)據(jù)項(xiàng)之間的相關(guān)生關(guān)系。A、關(guān)聯(lián)規(guī)則B、相關(guān)分析C、線性分析D、分布規(guī)則【正確答案】:A124.HiAI移動(dòng)計(jì)算平臺(tái)提供豐富的上層功能業(yè)務(wù)API,可在移動(dòng)設(shè)備高效運(yùn)行。A、TRUEB、FALSE【正確答案】:A125.邏輯回歸模型中的激活函數(shù)Sigmoid函數(shù)值范圍是A、[0,1]B、[-1,1]C、(-∞~∞)D、(0,1)【正確答案】:D解析:

Sigmoid函數(shù)將變量映射在0至1之間126.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)【正確答案】:A127.中心極限定理是指在給定條件下,大量互相獨(dú)立的隨機(jī)變量的值的()趨近于正態(tài)分布。A、標(biāo)準(zhǔn)差B、最大值C、平均值D、最小值【正確答案】:C128.專家系統(tǒng)的推理機(jī)的最基本的方式是。A、直接推理和間接推理B、正向推理和反向推理C、邏輯推理和非邏輯推理D、準(zhǔn)確推理和模糊推理【正確答案】:B129.什么命令顯示所有裝載的模塊?A、lsmodB、dirmodC、modulesD、Modlist【正確答案】:A解析:

解析:最新的Linux發(fā)行版的內(nèi)核只帶了相對(duì)較小的“內(nèi)置模塊(built-inmodules)”,其余的特定硬件驅(qū)動(dòng)或者自定義功能作為“可加載模塊”來(lái)讓你選擇地加載或卸載;內(nèi)核模塊可以動(dòng)態(tài)地使用modprobe、insmod、rmmod、modinfo或者lsmod等命令地加載、卸載、查詢模塊,內(nèi)置的模塊總是在啟動(dòng)時(shí)就加載進(jìn)了內(nèi)核,不會(huì)被這些命令管理。130.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x【正確答案】:D131.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、ReLuB、SoftmaxC、SigmoidD、Tanh【正確答案】:B132.()是一種基于貝葉斯法則為基礎(chǔ)的,通過(guò)概率手段進(jìn)行學(xué)習(xí)的方法。A、遺傳算法B、分析學(xué)習(xí)C、歸納學(xué)習(xí)D、貝葉斯學(xué)習(xí)【正確答案】:D133.關(guān)于用4V來(lái)表示大數(shù)據(jù)的主要特征,描述錯(cuò)誤的是A、大數(shù)據(jù)的時(shí)間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高B、“如何從海量數(shù)據(jù)中洞見(jiàn)(洞察)出有價(jià)值的數(shù)據(jù)”是數(shù)據(jù)科學(xué)的重要課題之一C、數(shù)據(jù)類型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,對(duì)數(shù)據(jù)處理能力提出了更高要求D、數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間存在線性關(guān)系【正確答案】:D134.以下()數(shù)據(jù)科學(xué)語(yǔ)言工具的第三方提供的功能是以“庫(kù)”的形式存在。A、CB、JavaC、RD、Python【正確答案】:D135.一下哪個(gè)環(huán)境變量表示當(dāng)前路徑()A、PATHB、PWDC、HOMED、ROOT【正確答案】:B136.Bagging是并行式集成學(xué)習(xí)方法最著名的代表,它直接基于A、自助采樣法B、富集采樣法C、自然采樣法D、填充柱采樣法【正確答案】:A137.關(guān)于Docker安裝的表述錯(cuò)誤的是()A、Docker支持在Windows、Linux、MacOS等系統(tǒng)上安裝B、CentOS安裝Docker有兩種方式:一,curl獲取腳本安裝,另外是yum倉(cāng)庫(kù)安裝。C、Docker服務(wù)端和客戶端必須運(yùn)行在一臺(tái)機(jī)器上D、可通過(guò)dockerversion命令參看Docker版本信息【正確答案】:C138.簡(jiǎn)單遺傳算法的遺傳操作主要有三種:選擇操作,交叉操作,()操作A、連接B、復(fù)制C、變異D、結(jié)合【正確答案】:C139.什么命令用來(lái)只更新已經(jīng)安裝過(guò)的rpm軟件包?A、rpm-U*.rpmB、rpm-F*.rpmC、rpm-e*.rpmD、rpm-q*.rpm【正確答案】:B解析:

解析:rpm命令是RPM軟件包的管理工具。rpm原本是RedHatLinux發(fā)行版專門用來(lái)管理Linux各項(xiàng)套件的程序,由于它遵循GPL規(guī)則且功能強(qiáng)大方便,因而廣受歡迎。逐漸受到其他發(fā)行版的采用。RPM套件管理方式的出現(xiàn),讓Linux易于安裝,升級(jí),間接提升了Linux的適用度。140.假如我們建立一個(gè)60000個(gè)特征,1000萬(wàn)數(shù)據(jù)集的機(jī)器學(xué)習(xí)模型,我們?cè)趺从行У膽?yīng)對(duì)這樣的大規(guī)模數(shù)據(jù)的訓(xùn)練A、對(duì)樣本進(jìn)行抽樣,在經(jīng)過(guò)抽樣的樣本上訓(xùn)練B、應(yīng)用PCA算法降維,減少特征數(shù)量C、根據(jù)重要性對(duì)特征進(jìn)行篩選D、以上所有【正確答案】:D141.用于相似度度量的距離()要滿足距離度量的所有基本性質(zhì)A、一定B、不一定C、可能D、以上都不對(duì)【正確答案】:B142.一般情況,K-NN最近鄰方法在()的情況下效果較好.A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團(tuán)狀分布D、樣本呈鏈狀分布【正確答案】:B143.關(guān)于列表的說(shuō)法,描述錯(cuò)誤的是()。A、list是不可變的數(shù)據(jù)類型B、list是一個(gè)有序序列,沒(méi)有固定大小C、list可以存放任意類型的元素D、使用list時(shí),其下標(biāo)可以是負(fù)數(shù)【正確答案】:A144.云計(jì)算通過(guò)共享()的方法將巨大的系統(tǒng)池連接在一起。A、CPUB、軟件C、基礎(chǔ)資源D、處理能力【正確答案】:C145.隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體,它在以決策樹(shù)為基學(xué)習(xí)器構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹(shù)的訓(xùn)練過(guò)程中引入了()選擇。A、隨機(jī)屬性B、分支屬性C、機(jī)器屬性

D、以上都不對(duì)【正確答案】:A146.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)()A、等高線圖B、餅圖C、曲面圖D、矢量場(chǎng)圖【正確答案】:B147.LINUX中,用戶編寫(xiě)了一個(gè)文本文件a.txt,想將該文件名稱改為txt.a,下列命令()可以實(shí)現(xiàn)。A、cda.txttxt.aB、echoa.txt>txt.aC、rma.txttxt.aD、cata.txt>txt.a【正確答案】:D148.GPU擅長(zhǎng)計(jì)算密集和易于并行的程序。A、TRUEB、FALSE【正確答案】:A149.如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂【正確答案】:D150.下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是(___)A、采用屬性條件獨(dú)立性假設(shè);B、假設(shè)屬性之間相互獨(dú)立;C、為了避免條件概率是所以屬性上的聯(lián)合概率;D、假設(shè)屬性之間是相關(guān)的;【正確答案】:D解析:

數(shù)學(xué)基礎(chǔ)151.數(shù)據(jù)庫(kù)系統(tǒng)的核心是()A、數(shù)據(jù)庫(kù)B、數(shù)據(jù)庫(kù)管理系統(tǒng)C、數(shù)據(jù)模型D、軟件工具【正確答案】:B152.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是()A、各類別的先驗(yàn)概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布【正確答案】:C153.ImageNet大賽是計(jì)算機(jī)視覺(jué)領(lǐng)域非常重要的大賽,從ImageNet大賽中走出來(lái)的著名網(wǎng)絡(luò)結(jié)構(gòu)有:①.AlexNet②.VGG③.GoogLeNet④.RestNetA、①③④B、①②③④C、①③④D、①②④【正確答案】:B解析:

都屬于從ImageNet大賽中走出來(lái)的著名網(wǎng)絡(luò)結(jié)構(gòu)。154.以下()的說(shuō)法是正確。A、術(shù)語(yǔ)NoSQL是“No!SQL”的縮寫(xiě)B(tài)、術(shù)語(yǔ)NoSQL可以理解為“NotOnlySQL”的縮寫(xiě)C、NoSQL數(shù)據(jù)庫(kù)始終遵循ACID原則D、NoSQL數(shù)據(jù)庫(kù)屬于關(guān)系數(shù)據(jù)庫(kù)技術(shù)【正確答案】:B155.大數(shù)據(jù)正快速發(fā)展為對(duì)數(shù)量巨大、來(lái)源分散、格式多樣的數(shù)據(jù)進(jìn)行采集、存儲(chǔ)和關(guān)聯(lián)分析,從中發(fā)現(xiàn)新知識(shí)、創(chuàng)造新價(jià)值、提升新能力的()A、新一代技術(shù)平臺(tái)B、新一代信息技術(shù)和服務(wù)業(yè)態(tài)C、新一代服務(wù)業(yè)態(tài)D、新一代信息技術(shù)【正確答案】:B156.用Tensorflow處理圖像識(shí)別任務(wù)時(shí),若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說(shuō)法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項(xiàng)均不正確【正確答案】:B157.表達(dá)式3or5的值為_(kāi)____。A、TRUEB、3C、5D、$2【正確答案】:B158.下列哪一個(gè)不是神經(jīng)網(wǎng)絡(luò)的代表()A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法【正確答案】:D解析:

xgboost算法屬于決策樹(shù)159.Python中heapq是一種()數(shù)據(jù)結(jié)構(gòu)A、樹(shù)型數(shù)據(jù)結(jié)構(gòu)B、列表數(shù)據(jù)結(jié)構(gòu)C、隊(duì)列數(shù)據(jù)結(jié)構(gòu)D、鏈表數(shù)據(jù)結(jié)構(gòu)【正確答案】:A解析:

heapq是Python自帶的完全二叉樹(shù)結(jié)構(gòu)的類型160.專用人工智能的簡(jiǎn)稱是()。ANIB、AGIC、AIND、AIG【正確答案】:A解析:

專用人工智能的簡(jiǎn)稱是ANI。161.關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇【正確答案】:A162.從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。A、戰(zhàn)略規(guī)劃B、咨詢報(bào)告C、AppsD、數(shù)據(jù)庫(kù)【正確答案】:A163.下列哪部分不是專家系統(tǒng)的組成部分A、用戶B、綜合數(shù)據(jù)庫(kù)C、推理機(jī)D、知識(shí)庫(kù)【正確答案】:A解析:

專家系統(tǒng)的組成部分是綜合數(shù)據(jù)庫(kù)、推理機(jī)、知識(shí)庫(kù)164.人工神經(jīng)網(wǎng)絡(luò)在20世紀(jì)()年代興起,一直以來(lái)都是人工智能領(lǐng)域的研究熱點(diǎn)A、50B、60C、70D、$80【正確答案】:D165.若a=(1,2,3),()操作是不合法的。A、a[1:-1]B、a*3C、a[2]=4D、list(a)【正確答案】:C166.在Python編程中,字符轉(zhuǎn)換成字節(jié)的方法是A、decode()B、encode()C、upper()D、rstrip()【正確答案】:B167.對(duì)負(fù)數(shù)取平方根,即使用函數(shù)math.sqrt(x),其中x為負(fù)數(shù),將產(chǎn)生A、什么都不產(chǎn)生B、虛數(shù)C、程序崩潰D、ValueError錯(cuò)誤【正確答案】:D解析:

對(duì)負(fù)數(shù)取平方根,即使用函數(shù)math.sqrt(x),其中x為負(fù)數(shù),將產(chǎn)生ValueError錯(cuò)誤168.()的基本出發(fā)點(diǎn),是認(rèn)為低維流形嵌入到高維空間之后,直接在高維空間中計(jì)算直線距離具有誤導(dǎo)性,因?yàn)楦呔S空間中的直線距離在低維嵌入流形上是不可達(dá)的。A、等度量映射

B、

等距離映射C、等空間映射

D、等范圍映射【正確答案】:A169.下列不屬于數(shù)據(jù)預(yù)處理和特征工程的流程的是A、數(shù)據(jù)獲取B、數(shù)據(jù)清洗C、模型解釋D、數(shù)據(jù)標(biāo)準(zhǔn)化【正確答案】:C170.已知a={“fruits”:pear,“animals”:dog,“vegetables”:carrot},則a[“animals”]的值為()A、pearB、dogC、carrotD、以上選項(xiàng)均不正確【正確答案】:B解析:

python字典相關(guān)知識(shí)求解171.下列不是知識(shí)表示法的是()A、計(jì)算機(jī)表示法B、謂詞表示法C、框架表示法D、產(chǎn)生式規(guī)則表示法【正確答案】:A172.討論變量之間的關(guān)系,主要有三個(gè)方法:()、方差分析和回歸分析A、參數(shù)分析B、邏輯分析C、假設(shè)分析D、相關(guān)分析【正確答案】:D173.數(shù)組與列表的區(qū)別在于()A、數(shù)組元素可變,列表元素不可變B、以上都不對(duì)C、列表元素類型必須一致,數(shù)組可以不一致D、數(shù)組元素類型必須一致,列表可以不一致【正確答案】:D174.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法【正確答案】:A175.()就是讓機(jī)器通過(guò)處理和識(shí)別過(guò)程,把語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。A、語(yǔ)音分析技術(shù)B、語(yǔ)音轉(zhuǎn)化技術(shù)C、語(yǔ)音合成技術(shù)D、語(yǔ)音識(shí)別技術(shù)【正確答案】:D解析:

語(yǔ)音識(shí)別技術(shù)就是讓機(jī)器通過(guò)處理和識(shí)別過(guò)程,把語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。176.當(dāng)需要在字符串中使用特殊字符時(shí),python使用()作為轉(zhuǎn)義字符。A、\B、/C、#D、%【正確答案】:A解析:

當(dāng)需要在字符串中使用特殊字符時(shí),python使用\作為轉(zhuǎn)義字符。177.Atlas200DK所基于的異騰310芯片主要的應(yīng)用是?A、模型推理B、構(gòu)建模型C、訓(xùn)練模型【正確答案】:A178.人工智能的發(fā)展歷程可以劃分為()A、誕生期和成長(zhǎng)期B、形成期和發(fā)展期C、初期和中期D、初級(jí)階段和高級(jí)階段【正確答案】:B解析:

人工智能的發(fā)展歷程可以劃分為形成期和發(fā)展期179.Python內(nèi)置函數(shù)______用來(lái)返回序列中的最小元素。A、least()B、min()C、mini()D、max()【正確答案】:B180.()問(wèn)題更接近人類高級(jí)認(rèn)知智能,有很多重要的開(kāi)放問(wèn)題。A、自然語(yǔ)言處理B、計(jì)算機(jī)視覺(jué)C、語(yǔ)音識(shí)別D、知識(shí)圖譜【正確答案】:A解析:

自然語(yǔ)言處理問(wèn)題更接近人類高級(jí)認(rèn)知智能,有很多重要的開(kāi)放問(wèn)題。181.下列程序段執(zhí)行后,輸出結(jié)果是()。n=1s=1whilenA、24B、10C、120D、$15【正確答案】:A182.1999年,第一款集成了硬件3D加速單元的GPU是由哪個(gè)公司發(fā)布?A、MicrosoftB、intelC、NVIDIAD、AMD【正確答案】:C解析:

重大事件183.生物特征識(shí)別技術(shù)不包括()。A、體感交互B、指紋識(shí)別C、人臉識(shí)別D、虹膜識(shí)別【正確答案】:A184.python循環(huán)效率低的根本原因是()A、以上都不對(duì)B、python的可解釋性強(qiáng)C、numpy等python庫(kù)的效率更高D、python運(yùn)行程序時(shí)逐行翻譯【正確答案】:D185.在分布式隱私保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中,()可為其提供算力支持。A、DDRB、DRAMC、SRAMD、FPGA【正確答案】:D解析:

在分布式隱私保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中,F(xiàn)PGA可為其提供算力支持。186.算法模型應(yīng)支持以接口方式對(duì)外提供服務(wù),接口方式應(yīng)至少支持(_____)和SDK兩種接口方式中的一種。A、消息總線&B、&服務(wù)總線&C、&API&D、&datahub【正確答案】:C解析:

見(jiàn)函數(shù)庫(kù)187.下列哪個(gè)模型屬于無(wú)監(jiān)督學(xué)習(xí)A、KNN分類B、邏輯回歸C、DBSCAND、決策樹(shù)【正確答案】:C188.序列節(jié)點(diǎn)使用()和生成序列模式兩個(gè)步驟進(jìn)行序列模式的挖掘。A、發(fā)生頻繁序列B、設(shè)置修剪值C、最低規(guī)則置信度D、生成時(shí)間序列【正確答案】:A189.作為一家專業(yè)的圖形處理芯片公司,()在1999年發(fā)明圖形處理器GPU。A、高通B、英特爾C、AMDD、英偉達(dá)【正確答案】:D190.2PC主要包括表決階段和()。A、響應(yīng)階段B、操作階段C、執(zhí)行階段D、處理階段【正確答案】:C191.在給定的數(shù)據(jù)集中,變量的取值是固定集合的是()。A、連續(xù)變量B、順序變量C、數(shù)值變量D、分類變量【正確答案】:D192.將一質(zhì)地均勻的正方體骰子擲一次,觀察向上一面的點(diǎn)數(shù),與點(diǎn)數(shù)2的差不大于1的概率是()A、1212122022年1月2日B、1212122022年1月3日C、1212122022年2月3日D、1212122022年5月6日【正確答案】:A解析:

【分析】

根據(jù)正方體骰子共有6個(gè)面,通過(guò)觀察向上一面的點(diǎn)數(shù),即可得到與點(diǎn)數(shù)2的差不大于1的概率.

【詳解】

∵正方體骰子共6個(gè)面,

每個(gè)面上的點(diǎn)數(shù)分別為1、2、3、4、5、6,

∴與點(diǎn)數(shù)2的差不大于1的有1、2、3.

∴與點(diǎn)數(shù)2的差不大于1的概率是.

故選:A193.云計(jì)算提供的支撐技術(shù),有效解決虛擬化技術(shù)、()、海量存儲(chǔ)和海量管理等問(wèn)題A、并行計(jì)算B、實(shí)際操作C、數(shù)據(jù)分析D、數(shù)據(jù)研發(fā)【正確答案】:A194.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問(wèn)題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?()A、探索性數(shù)據(jù)分析B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則【正確答案】:B195.哪個(gè)范數(shù)指向量中各個(gè)元素絕對(duì)值之和?A、p范數(shù)B、0范數(shù)C、1范數(shù)D、2范數(shù)【正確答案】:C196.實(shí)現(xiàn)多路分支的最佳控制結(jié)構(gòu)是A、ifB、tryC、if-elif-elseD、if-else【正確答案】:C197.在pytorch中,若網(wǎng)絡(luò)模型變量名為model,對(duì)model.eval()的說(shuō)法正確的是()A、model.eval()可以在模型訓(xùn)練階段使用B、model.eval()只能在模型測(cè)試階段使用C、model.eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用D、model.eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用【正確答案】:C解析:

model.eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用在模型驗(yàn)證、模型測(cè)試階段都可以使用198.維利昂特在1984年發(fā)表的論文創(chuàng)立了()研究領(lǐng)域,使機(jī)器學(xué)習(xí)有了堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),掃清了學(xué)科發(fā)展的障礙。A、計(jì)算學(xué)習(xí)理論B、機(jī)器學(xué)習(xí)理論C、機(jī)器科學(xué)理論D、機(jī)器數(shù)據(jù)理論【正確答案】:A199.Boosting算法要求基學(xué)習(xí)器能對(duì)待定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),這可通過(guò)()實(shí)施。A、重賦權(quán)法B、重采樣法

C、重訓(xùn)練法

D、重預(yù)測(cè)法【正確答案】:A200.()的特點(diǎn)是使用先驗(yàn)知識(shí)來(lái)分析或解釋每個(gè)訓(xùn)練樣本,以推理出樣本哪些特征與目標(biāo)函數(shù)相關(guān)或不相關(guān)。A、遺傳算法B、分析學(xué)習(xí)C、歸納學(xué)習(xí)D、貝葉斯學(xué)習(xí)【正確答案】:B201.設(shè)f(x)為可導(dǎo)函數(shù),且f'(x)嚴(yán)格單調(diào)遞增,則F(x)=[f(x)-f(a)]/(x-a)在(a,b]內(nèi)()。A、無(wú)極大值B、有極小值C、單調(diào)減少D、單調(diào)遞增【正確答案】:D解析:

對(duì)F(x)求導(dǎo)結(jié)合f''(x)>0易得202.深度學(xué)習(xí)涉及到大量的矩陣相乘,現(xiàn)需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m<n<p<q,以下計(jì)算順序效率最高的是A、(AB)C&B、&AC(B)&C、&A(BC)&D、&所有效率都相同【正確答案】:A解析:

數(shù)學(xué)基礎(chǔ)203.決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類實(shí)例的屬性,而其選擇是以()為依據(jù)的A、分類B、聚類C、概率D、信息熵【正確答案】:D204.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是A、whileB、exceptC、doD、pass【正確答案】:C解析:

do不屬于python保留字205.人工智能發(fā)展歷程中第二次熱潮是()期間的算法應(yīng)用升級(jí)。A、20世紀(jì)50年代B、20世紀(jì)70年代C、20世紀(jì)80年代D、2006年

【正確答案】:C解析:

人工智能發(fā)展歷程中第二次熱潮是20世紀(jì)80年代算法應(yīng)用升級(jí)。206.拋擲一枚質(zhì)地均勻的硬幣,若拋擲95次都是正面朝上,則拋擲第100次正面朝上的概率是()A、小于1/2B、等于1/2C、大于1/2D、無(wú)法確定【正確答案】:B解析:

解:∵拋擲一枚質(zhì)地均勻的硬幣是隨機(jī)事件,正面朝上的概率是

∴拋擲第100次正面朝上的概率是

故答案選:B207.設(shè)λ0是矩陣A的特征方程的3重根,A的屬于λ0的線性無(wú)關(guān)的特征向量的個(gè)數(shù)為k,則必有()A、k≤3B、kC、k=3D、k>3【正確答案】:A208.下列關(guān)于Python的描述正確的是()。A、字典中不可以嵌套字典B、單分支結(jié)構(gòu)的格式為if-elifC、Python中整數(shù)的默認(rèn)書(shū)寫(xiě)格式是二進(jìn)制D、Python中采用“#”表示一行注釋的幵始【正確答案】:D209.設(shè)數(shù)據(jù)集合為D={1,2,3,4,5,6},下列數(shù)據(jù)結(jié)構(gòu)B=(D,R)中為線性結(jié)構(gòu)的是A、R={(1,2),(2,3),(3,4),(4,5),(6,5)}B、R={(1,2),(2,3),(6,5),(3,6),(5,4)})C、R={(5,4),(3,4),(3,2),(4,3),(5,6)}D、R={(1,2),(2,3),(4,3),(4,5),(5,6)}【正確答案】:B解析:

如果一個(gè)非空的數(shù)據(jù)結(jié)構(gòu)滿足下列兩個(gè)條件:1)有且只有一個(gè)根節(jié)點(diǎn);2)每一個(gè)結(jié)點(diǎn)最多有一個(gè)前件,也最多有一個(gè)后件。則稱該數(shù)據(jù)結(jié)構(gòu)為線性結(jié)構(gòu)。數(shù)據(jù)的邏輯結(jié)構(gòu)有兩個(gè)要素:一是數(shù)據(jù)元素的集合,通常記為D;二是D上的關(guān)系,它反映了D中各元素之前的前后件關(guān)系,通常記為R。即一個(gè)數(shù)據(jù)結(jié)構(gòu)可以表示成B=(D,R),其中B表示數(shù)據(jù)結(jié)構(gòu)。為了反映D中各元素之間的前后件關(guān)系,一般用二元組來(lái)表示。例如,假設(shè)a與b是D中的兩個(gè)數(shù)據(jù),則二元組(a,b)表示a是b的前件,b是a的后件。210.避免由于過(guò)擬合造成貌似線性可分的結(jié)果,一個(gè)解決的辦法是允許支持向量機(jī)在一些樣本上出錯(cuò),為此引入()的概念。A、軟間隔B、正則化C、硬間隔D、核函數(shù)【正確答案】:A211.用于終止某一進(jìn)程執(zhí)行的命令是()A、endB、stopC、killD、free【正確答案】:C212.Docker是一個(gè)開(kāi)源的應(yīng)用容器引擎,基于()語(yǔ)言并遵從Apache2.0協(xié)議開(kāi)源。A、GoB、PythonC/C++D、Java【正確答案】:A213.CPU主要通過(guò)增加指令,增加核數(shù)等方式來(lái)提升AI性能。A、TRUEB、FALSE【正確答案】:A214.基于()的搜索是使用最為廣泛的參數(shù)尋優(yōu)方法A、梯度B、維度C、縱向D、橫向【正確答案】:A215.Atlas加速AI推理使用的是什么處理器?A、異騰910處理器B、異騰310處理器C、GPUDFPGA【正確答案】:B216.以下不屬于人工智能軟件的是()。A、語(yǔ)音漢字輸入軟件B、百度翻譯C、在網(wǎng)上與網(wǎng)友下棋D、使用OCR漢字識(shí)別軟件【正確答案】:C解析:

C選項(xiàng)是利用網(wǎng)絡(luò)進(jìn)行的人人互動(dòng)與人工智能無(wú)關(guān)。ABD是人工智能中的識(shí)別技術(shù)。217.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說(shuō)法正確的是?()A、基本模型之間相關(guān)性高。B、基本模型之間相關(guān)性低。C、集成方法均使用加權(quán)平均代替投票方法。D、基本模型都來(lái)自于同一算法。【正確答案】:B218.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種屬于數(shù)據(jù)挖掘的哪類問(wèn)題()A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語(yǔ)言處理【正確答案】:A解析:

”啤酒尿布理論“是關(guān)聯(lián)規(guī)則發(fā)現(xiàn)領(lǐng)域的經(jīng)典案例219.在統(tǒng)計(jì)語(yǔ)言模型中,通常以概率的形式描述任意語(yǔ)句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無(wú)論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問(wèn)題A、一元切分B、一元文法C、數(shù)據(jù)平滑D、N元文法【正確答案】:C220.1997年5月12日,轟動(dòng)全球的人機(jī)大戰(zhàn)中,“更深的藍(lán)”戰(zhàn)勝了國(guó)際象棋之子卡斯帕羅夫,這是()。A、人工思維B、機(jī)器思維C、人工智能D、機(jī)器智能【正確答案】:C221.昪騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?A、DVPPB、GPUC、AI計(jì)算引擎D、芯片系統(tǒng)控制CPU【正確答案】:B222.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb【正確答案】:D223.()作為第四次工業(yè)革命的核心,其前沿算法和基礎(chǔ)理論正在發(fā)生巨大變化。A、計(jì)算B、模型C、數(shù)據(jù)D、存儲(chǔ)【正確答案】:A解析:

計(jì)算作為第四次工業(yè)革命的核心,其前沿算法和基礎(chǔ)理論正在發(fā)生巨大變化。224.對(duì)于給定的關(guān)于天氣信息的數(shù)據(jù)集,已知空氣的溫度、濕度、氣壓、是否降雨以及pm2.5指數(shù),需要建立一個(gè)回歸模型預(yù)測(cè)pm2.5指數(shù),這是一個(gè)()。A、半監(jiān)督學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、無(wú)監(jiān)督學(xué)習(xí)D、有監(jiān)督的學(xué)習(xí)【正確答案】:D225.將長(zhǎng)度為1m的木棒隨機(jī)地截成兩段,則兩段長(zhǎng)度的相關(guān)系數(shù)為()A、1B、1212122022年1月2日C、-0.5D、(""$"#,##0")【正確答案】:D解析:

設(shè)兩段長(zhǎng)度分別為X,Y,則X+Y=1,即Y=-X+1,所以相關(guān)系數(shù)為-1226.下面的問(wèn)題,屬于分類問(wèn)題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額【正確答案】:C227.下列哪種類型是Python的映射類型A、strB、listC、tupleD、dict【正確答案】:D228.以下不屬于數(shù)據(jù)處理包含五個(gè)部分的是:A、數(shù)據(jù)形狀變換&B、&模型篩選&C、&數(shù)據(jù)集劃分&D、&數(shù)據(jù)歸一化處理【正確答案】:B解析:

基礎(chǔ)概念229.不屬于人工智能的學(xué)派是()A、符號(hào)主義B、機(jī)會(huì)主義C、行為主義D、連接主義【正確答案】:B解析:

不屬于人工智能的學(xué)派是機(jī)會(huì)主義230.下列關(guān)于python代碼說(shuō)法不正確的是()A、輸入'a'+'a'等同于'aa'B、輸入3*2等同于2+2+2C、輸入3*'a'等同于'a'+'a'+'a'D、輸入'a'*'a'等同于'a'的平方【正確答案】:D解析:

a'**'a'等同于'a'的平方231.以下激活函數(shù)中,不具有“正向無(wú)邊界”特征的是?A、ReLUB、SigmoidC、softplusD、Mish【正確答案】:B232.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學(xué)可視化C、信息可視化D、可視分析學(xué)【正確答案】:A233.以下關(guān)于機(jī)器學(xué)習(xí)說(shuō)法錯(cuò)誤的是A、機(jī)器學(xué)習(xí)可以解決圖像識(shí)別問(wèn)題B、目前機(jī)器學(xué)習(xí)已經(jīng)可以代替人類C、機(jī)器學(xué)習(xí)在一定程度上依賴于統(tǒng)計(jì)學(xué)習(xí)D、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)都屬于機(jī)器學(xué)習(xí)【正確答案】:B234.被譽(yù)為計(jì)算機(jī)科學(xué)與人工智能之父的是()。A、圖靈B、費(fèi)根鮑姆C、紐維爾D、西蒙【正確答案】:A235."維數(shù)災(zāi)難"指的是:()A、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問(wèn)題,給機(jī)器學(xué)習(xí)方法造成的障礙。B、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問(wèn)題,給機(jī)器學(xué)習(xí)方法造成的障礙。C、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問(wèn)題,給機(jī)器學(xué)習(xí)方法造成的障礙。D、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問(wèn)題,給機(jī)器學(xué)習(xí)方法造成的障礙?!菊_答案】:B236.下列不屬于人工智能學(xué)派的是A、符號(hào)主義B、行為主義C、機(jī)會(huì)主義D、連接主義【正確答案】:C解析:

人工智能學(xué)派為符號(hào)主義學(xué)派、連接主義學(xué)派、行為主義學(xué)派237.學(xué)習(xí)器在訓(xùn)練集上的誤差稱為“訓(xùn)練誤差”或()。A、經(jīng)驗(yàn)誤差B、泛化誤差C、精度誤差D、特定誤差【正確答案】:A238.某銀行的貸款系統(tǒng),操作員只需要輸入客戶資料,該系統(tǒng)就會(huì)提示操作員是否能夠提供貸款以及相應(yīng)的貸款額度,這主要應(yīng)用了人工智能中的()A、機(jī)器博弈B、專家系統(tǒng)C、模式識(shí)別D、機(jī)器翻譯【正確答案】:B解析:

專家系統(tǒng)是一種模擬人類專家解決領(lǐng)域問(wèn)題的計(jì)算機(jī)程序系統(tǒng)。主要應(yīng)用在工程、科學(xué)、醫(yī)藥、軍事、商業(yè)等方面。239.Python使用()符號(hào)標(biāo)示注釋。A、&B、*C、#D、//【正確答案】:C240.Kvps={‘1’:1,’2’:2}theCopy=kvpskvps[‘1’]=5sum=kvps[‘1’]+theCopy[‘1’]Printsum上述代碼的結(jié)果是A、1B、2C、10D、$7【正確答案】:C241.關(guān)于圖像的說(shuō)法,正確的是()A、灰度圖只有一個(gè)通道B、彩色圖一定是RGB三通道C、不同的開(kāi)發(fā)包,對(duì)讀取圖片的通道順序必須相同D、以上說(shuō)法都正確【正確答案】:A解析:

灰度圖只有一個(gè)通道242.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能【正確答案】:B解析:

人工智能的三個(gè)階段包含了計(jì)算智能、感知智能、認(rèn)知智能。目前仍處于初級(jí)階段。243.下面的數(shù)據(jù)中哪個(gè)不屬于噪聲數(shù)據(jù)()A、重復(fù)數(shù)據(jù)B、虛假數(shù)據(jù)C、錯(cuò)誤數(shù)據(jù)D、異常數(shù)據(jù)【正確答案】:A244.對(duì)學(xué)習(xí)器的泛化性能進(jìn)行評(píng)估,不僅需要有效可行的實(shí)驗(yàn)估計(jì)方法,還需要有衡量模型泛化能力的評(píng)價(jià)標(biāo)準(zhǔn),這就是()。A、性能度量B、性能評(píng)估C、泛化能力評(píng)估D、性能衡量【正確答案】:A245.()是一切AI模型的基礎(chǔ),完善數(shù)據(jù)的基礎(chǔ)設(shè)施建設(shè)對(duì)于AI項(xiàng)目開(kāi)發(fā)至關(guān)重要。A、算法B、算力C、程序D、數(shù)據(jù)【正確答案】:D解析:

數(shù)據(jù)是一切AI模型的基礎(chǔ),完善數(shù)據(jù)的基礎(chǔ)設(shè)施建設(shè)對(duì)于AI項(xiàng)目開(kāi)發(fā)至關(guān)重要。246.概率模型的訓(xùn)練過(guò)程就是()過(guò)程。A、參數(shù)估計(jì)B、概率估計(jì)C、極大似然估計(jì)D、分布估計(jì)【正確答案】:A247.人臉檢測(cè)服務(wù)在測(cè)試圖像中沒(méi)有人臉時(shí)會(huì)報(bào)錯(cuò)。A、TRUEB、FALSE【正確答案】:B248.數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,哪個(gè)是常用數(shù)據(jù)可視化工具。A、pytorchB、numpyC、pyechartsD、json【正確答案】:C解析:

數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,pyecharts是常用數(shù)據(jù)可視化工具。249.人工智能的概念最早是由哪一位科學(xué)家提出來(lái)的A、約翰·麥卡錫B、圖林C、馮·諾依曼D、明斯基【正確答案】:A解析:

約翰·麥卡錫在攻讀博士期間首次嘗試在機(jī)器上模擬人工智能,并于1956年首次提出“人工智能”的概念250.為了解決如何模擬人類的感性思維,例如視覺(jué)理解、直覺(jué)思維、悟性等,研究者找到的一個(gè)重要的信息處理的機(jī)制是()。A、專家系統(tǒng)B、人工神經(jīng)網(wǎng)絡(luò)C、模式識(shí)別D、.智能代理【正確答案】:B解析:

人工神經(jīng)網(wǎng)絡(luò)是一種應(yīng)用類似于大腦神經(jīng)突觸聯(lián)接的結(jié)構(gòu)進(jìn)行信息處理的數(shù)學(xué)模型。251.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。A、0,1B、1,0C、0,0D、1,1【正確答案】:A252.pandas中下列哪個(gè)函數(shù)可以根據(jù)單個(gè)或多個(gè)鍵將不同DataFrame的行連接起來(lái)。A、bineB、pd.concatC、pd.mergeD、pd.agg【正確答案】:C253.在圖靈測(cè)試中,如果有超過(guò)()的測(cè)試者不能分清屏幕后的對(duì)話者是人還是機(jī)器,就可以說(shuō)這臺(tái)計(jì)算機(jī)通過(guò)了測(cè)試并具備人工智能.A、30%B、40%C、50%D、60%【正確答案】:A254.a=[0,1,2,3,4,5,6,7,8,9],a[1:5]的輸出為()。A、[0,1,2,3]B、[1,2,3,4]C、[0,1,2,3,4]D、[1,2,3,4,5]【正確答案】:B255.一個(gè)盒子內(nèi)裝有大小、形狀相同的四個(gè)球,其中紅球1個(gè)、綠球1個(gè)、白球2個(gè),小明摸出一個(gè)球不放回,再摸出一個(gè)球,則兩次都摸到白球的概率是()A、1212122022年1月2日B、1212122022年1月4日C、1212122022年1月6日D、1212122022年1月12日【正確答案】:C解析:

解:畫(huà)樹(shù)狀圖得:

∵共有12種等可能的結(jié)果,兩次都摸到白球的有2種情況,

∴兩次都摸到白球的概率是:.

故答案為C.256.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說(shuō)法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少B、每一次Epoch都會(huì)對(duì)之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小C、模型參數(shù)量越多越好,沒(méi)有固定的對(duì)應(yīng)規(guī)則D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中【正確答案】:C解析:

幾乎模型每個(gè)操作所需的時(shí)間和內(nèi)存代價(jià)都會(huì)隨模型參數(shù)量的增加而增加257.如下關(guān)于機(jī)器學(xué)習(xí)的定義,合理的是A、機(jī)器學(xué)習(xí)是一門讓電腦不依賴特別明確的程序而擁有學(xué)習(xí)能力的研究領(lǐng)域&B、&機(jī)器學(xué)習(xí)是一門計(jì)算機(jī)編程的科學(xué)&C、&機(jī)器學(xué)習(xí)僅對(duì)有標(biāo)簽的數(shù)據(jù)有用&D、&機(jī)器學(xué)習(xí)是讓機(jī)器人擁有智能的學(xué)科【正確答案】:A解析:

基礎(chǔ)概念258.代碼defa(b,c,d):pass含義是?A、定義一個(gè)列表,并初始化它。B、定義一個(gè)函數(shù),但什么都不做。C、定義一個(gè)函數(shù),并傳遞參數(shù)。D、定義一個(gè)空的類?!菊_答案】:B259.不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()A、重復(fù)數(shù)據(jù)B、虛假數(shù)據(jù)C、錯(cuò)誤數(shù)據(jù)D、異常數(shù)據(jù)【正確答案】:A260.以下何者是不合法的布爾表達(dá)式:A、xinrange(6)B、3=aC、e>5and4==fD、(x-6)>5【正確答案】:B261.以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層B、數(shù)據(jù)處理一般都是在應(yīng)用層完成C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源【正確答案】:B262.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?()A、頻繁模式挖掘B、分類和預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘【正確答案】:C263.在集成學(xué)習(xí)中,當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),最常見(jiàn)的結(jié)合策略是()。A、平均法B、投票法C、學(xué)習(xí)法【正確答案】:C264.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策&B、&貝葉斯&C、&HMM&D、&最大后驗(yàn)概率【正確答案】:A解析:

基礎(chǔ)概念265.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率D、1、2都對(duì)【正確答案】:A266.()網(wǎng)絡(luò)是一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時(shí)保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點(diǎn)映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)

C、ART網(wǎng)絡(luò)

D、ELman網(wǎng)絡(luò)【正確答案】:A267.(

)表達(dá)式在Pyt

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論