人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案_第1頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案_第2頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案_第3頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案_第4頁(yè)
人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案_第5頁(yè)
已閱讀5頁(yè),還剩61頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)人工智能復(fù)習(xí)復(fù)習(xí)測(cè)試有答案1.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val_scoreB、cross_val%C、val_scoreD、cross_score【正確答案】:A解析:

02.ID3算法選擇劃分屬性的準(zhǔn)則是A、信息增益B、增益率C、基尼系數(shù)D、信息熵【正確答案】:A解析:

ID3算法使用信息增益為準(zhǔn)則來(lái)選擇劃分屬性3.不屬于深度學(xué)習(xí)模型的選項(xiàng)是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:A解析:

樸素貝葉斯算法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類算法不屬于深度學(xué)習(xí)模型。4.無(wú)監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒(méi)有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說(shuō)法都不對(duì)【正確答案】:A解析:

05.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是()。A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法【正確答案】:B解析:

06.以下關(guān)于GBDT算法的說(shuō)法不正確的是A、計(jì)算進(jìn)度較低B、無(wú)法并行計(jì)算C、計(jì)算量較大D、可以防止過(guò)擬合【正確答案】:A解析:

07.圖像數(shù)字化分為兩個(gè)步驟:一為取樣,二為()。A、數(shù)字化B、量化C、去噪聲D、清洗【正確答案】:B解析:

圖像數(shù)字化分為兩個(gè)步驟:一為取樣,二為量化。8.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。A、一個(gè)B、兩個(gè)C、多個(gè)D、無(wú)【正確答案】:A解析:

神經(jīng)元之間的每個(gè)連接都有一個(gè)權(quán)重。9.下述()不是人工智能中常用的知識(shí)格式化表示方法A、框架表示法B、產(chǎn)生式表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、形象描寫表示法【正確答案】:D解析:

知識(shí)表??法主要有:邏輯表?法、產(chǎn)?式表?法、框架表?法、語(yǔ)義?絡(luò)表?法、?向?qū)ο蟊?等等。答案選D10.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說(shuō)法,正確的是:A、最小二乘法是通過(guò)最小化預(yù)測(cè)值y和真實(shí)的y在訓(xùn)練數(shù)據(jù)上的誤差來(lái)尋找最優(yōu)解的方法B、當(dāng)自變量X的特征很多的時(shí)候,使用最小二乘法可以求得最優(yōu)解C、最小二乘法是通過(guò)求導(dǎo)來(lái)找出最優(yōu)解,是一種迭代的方法D、使用最小二乘法求最優(yōu)解比梯度下降方法好【正確答案】:A解析:

011.rcnn網(wǎng)絡(luò)用()結(jié)構(gòu)生成候選框?A、RPNB、NMSC、SelectiveSearchD、RCNN【正確答案】:C解析:

見(jiàn)算法解析12.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:A解析:

線性回歸是傳統(tǒng)統(tǒng)計(jì)學(xué)系呢絨13.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過(guò)程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒(méi)有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒(méi)有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:A解析:

VGG全部使用了3*3的卷積核和2*2的池化核14.從一個(gè)初始策略出發(fā),不斷迭代進(jìn)行策略評(píng)估和改進(jìn),直到策略收斂、不再改變?yōu)橹?,這樣的作法稱為()A、策略迭代B、值迭代C、策略改進(jìn)D、最優(yōu)值函數(shù)【正確答案】:A解析:

見(jiàn)算法解析15.讓學(xué)習(xí)器不依賴外界交互、自動(dòng)地利用未標(biāo)記樣本來(lái)提升學(xué)習(xí)性能,就是()?A、監(jiān)督學(xué)習(xí)B、倍監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)【正確答案】:C解析:

見(jiàn)算法解析16.對(duì)于分類任務(wù),我們不是將神經(jīng)?絡(luò)中的隨機(jī)權(quán)重初始化,?是將所有權(quán)重設(shè)為零。下列哪項(xiàng)是正確的?A、沒(méi)有任何問(wèn)題,神經(jīng)?絡(luò)模型將正常訓(xùn)練B、神經(jīng)?絡(luò)模型可以訓(xùn)練,但所有的神經(jīng)元最終將識(shí)別同樣的事情C、神經(jīng)?絡(luò)模型不會(huì)進(jìn)?訓(xùn)練,因?yàn)闆](méi)有凈梯度變化D、這些均不會(huì)發(fā)?【正確答案】:B解析:

017.下面關(guān)于模型預(yù)測(cè)性能的評(píng)估以及交叉驗(yàn)證,說(shuō)法正確的是()A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromsklearnimportcross_validationB、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測(cè)試集,這種方法叫做留一交叉驗(yàn)證法C、需要把數(shù)據(jù)分成訓(xùn)練集和測(cè)試集,用測(cè)試集來(lái)評(píng)估從訓(xùn)練集學(xué)習(xí)得來(lái)的模型的預(yù)測(cè)性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來(lái)的模型可能對(duì)于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對(duì)于訓(xùn)練集以外的數(shù)據(jù)沒(méi)有太大的泛化能力D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測(cè)準(zhǔn)確率一般會(huì)比用測(cè)試集得到的預(yù)測(cè)準(zhǔn)確率低【正確答案】:C解析:

018.在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過(guò)程。A、算法B、模型C、程序D、算法模型【正確答案】:D解析:

在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、算法模型以及系統(tǒng)整體的廢棄銷毀過(guò)程。19.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實(shí)現(xiàn)。A、BoostingBaggingC、StackingDropping【正確答案】:B解析:

隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實(shí)現(xiàn)。20.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?1樹(shù)的數(shù)量2樹(shù)的深度3學(xué)習(xí)速率A、只有1B、只有2C、只有3D、都正確【正確答案】:B解析:

通常情況下,我們?cè)黾訕?shù)的深度有可能會(huì)造成模型過(guò)擬合。學(xué)習(xí)速率在隨機(jī)森林中并不是超參數(shù)。增加樹(shù)的數(shù)量可能會(huì)造成欠擬合21.循環(huán)神經(jīng)網(wǎng)絡(luò)通常用來(lái)處理:A、矩陣數(shù)據(jù)B、標(biāo)量數(shù)據(jù)C、序列數(shù)據(jù)D、大數(shù)據(jù)【正確答案】:C解析:

循環(huán)神經(jīng)網(wǎng)絡(luò)通常用來(lái)處理序列數(shù)據(jù)22.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說(shuō)法中正確的是?A、在實(shí)際場(chǎng)景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過(guò)擬合【正確答案】:C解析:

相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果23.下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)B、層與層之間通過(guò)“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接C、同一層內(nèi)的神經(jīng)元相互不連接D、同一層內(nèi)神經(jīng)元之間存在全連接【正確答案】:D解析:

024.()常做為CNN網(wǎng)絡(luò)的最后一層。A、卷積層B、池化層C、全連接層D、歸一化層【正確答案】:C解析:

全連接層常做為CNN網(wǎng)絡(luò)的最后一層。25.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為A、噪聲B、核心簇C、邊界簇D、以上都不對(duì)【正確答案】:A解析:

026.在目標(biāo)檢測(cè)中,以下能產(chǎn)生候選框的算法是()a)

SelectiveSearchb)

ROIpoolingc)

RegionproposallayerA、b)、c)B、a)、b)C、a)D、a)、c)【正確答案】:D解析:

SelectiveSearch、Regionproposallayer能產(chǎn)生候選框27.以下哪種模型是自然語(yǔ)言處理后Bert時(shí)代的預(yù)訓(xùn)練模型A、Word2VecB、RNNC、XLNetD、LSTM【正確答案】:C解析:

XLNet是自然語(yǔ)言處理后Bert時(shí)代的預(yù)訓(xùn)練模型28.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5【正確答案】:C解析:

029.下列哪項(xiàng)算法是深度學(xué)習(xí)的重要基礎(chǔ):()A、最小生成樹(shù)算法B、最大流-最小割算法C、A*算法D、SGD反向傳播【正確答案】:D解析:

深度學(xué)習(xí)的重要基礎(chǔ)是反向傳播30.為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG【正確答案】:C解析:

為應(yīng)對(duì)卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問(wèn)題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型BNN31.深度學(xué)習(xí)是一種基于()特征學(xué)習(xí)和特征層次構(gòu)造的學(xué)習(xí)方法。A、無(wú)監(jiān)督B、有監(jiān)督C、半監(jiān)督D、強(qiáng)化學(xué)習(xí)【正確答案】:A解析:

深度學(xué)習(xí)是一種基于無(wú)監(jiān)督特征學(xué)習(xí)和特征層次構(gòu)造的學(xué)習(xí)方法。32.最基本的數(shù)據(jù)挖掘?qū)傩苑譃槿缦聝深悾?、()。特點(diǎn)是屬性的數(shù)據(jù)之間沒(méi)有確定的順序2、連續(xù)型。特點(diǎn)是屬性的數(shù)據(jù)一般是數(shù)值,數(shù)據(jù)之間是有確定的順序,可以相互比較和計(jì)算。A、名稱型B、類別型C、序數(shù)型D、連續(xù)型【正確答案】:A解析:

033.?般我們建議將卷積?成對(duì)抗?絡(luò)(convolutionalgenerativeadversarialnets)中?成部分的池化層替換成什么?A、跨距卷積層(Stridedconvolutionallayer)B、ReLU層C、局部跨距卷積層(Fractionalstridedconvolutionallayer)D、仿射層(Affinelayer)【正確答案】:C解析:

034.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)【正確答案】:D解析:

均方誤差損失函數(shù)多用于回歸任務(wù)。35.在強(qiáng)化學(xué)習(xí)的過(guò)程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大;小B、大;大C、小;小D、小;大【正確答案】:A解析:

036.感知層主要解決()問(wèn)題?A、數(shù)據(jù)的價(jià)值創(chuàng)造B、數(shù)據(jù)的采集C、管理問(wèn)題D、數(shù)據(jù)的傳輸【正確答案】:B解析:

037.如果有m個(gè)點(diǎn),DBSCAN在最壞的情況下的時(shí)間復(fù)雜度度為A、O(m)B、O(mlogm)C、O(m2)D、O(logm)【正確答案】:C解析:

038.假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?A、第一個(gè)B、第二個(gè)C、第三個(gè)D、第四個(gè)【正確答案】:B解析:

039.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan【正確答案】:C解析:

見(jiàn)算法解析40.語(yǔ)言模型的作用是:A、查看一句話成為一句“人話”的概率B、查看一句話是英語(yǔ)的概率C、查看一句話是漢語(yǔ)的概率D、查看一句話是否是完整的【正確答案】:A解析:

語(yǔ)言模型的作用是查看一句話成為一句“人話”的概率41.在pytorch中,設(shè)模型變量名為model,則對(duì)model.eval()的描述正確的是A、model.eval()可以在模型訓(xùn)練階段使用B、model.eval()只能在模型測(cè)試階段使用C、model.eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用D、model.eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用【正確答案】:C解析:

在pytorch中,model.eval在模型驗(yàn)證、模型測(cè)試階段都可以使用42.在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為()。A、每個(gè)主分量的方差B、每個(gè)主分量的標(biāo)準(zhǔn)差C、每個(gè)主分量的方差貢獻(xiàn)率D、每個(gè)主分量的貢獻(xiàn)率【正確答案】:C解析:

在主成分分析中,將幾個(gè)主分量經(jīng)過(guò)線性組合構(gòu)造為一個(gè)綜合評(píng)價(jià)函數(shù)時(shí),每個(gè)主分量的權(quán)數(shù)為每個(gè)主分量的方差貢獻(xiàn)率。43.()不使用訓(xùn)練數(shù)據(jù),人工智能(或機(jī)器人)必須自行(通常通過(guò)試驗(yàn)和誤差)設(shè)計(jì)出完成某一特定任務(wù)的方法。A、類比學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、監(jiān)督式學(xué)習(xí)D、非監(jiān)督式學(xué)習(xí)【正確答案】:D解析:

非監(jiān)督式學(xué)習(xí)不使用訓(xùn)練數(shù)據(jù),人工智能(或機(jī)器人)必須自行(通常通過(guò)試驗(yàn)和誤差)設(shè)計(jì)出完成某一特定任務(wù)的方法。44.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割【正確答案】:D解析:

為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行圖像分割處理。45.如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂【正確答案】:D解析:

046.決策樹(shù)被廣泛用作決策工具。在數(shù)據(jù)挖掘過(guò)程中,通過(guò)對(duì)數(shù)據(jù)的擬合、(),自動(dòng)地從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到一棵決策數(shù)。A、模擬B、預(yù)測(cè)C、學(xué)習(xí)D、以上都可以【正確答案】:C解析:

047.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4【正確答案】:A解析:

閔可夫斯基距離定義為:該距離最常用的p是2和1,前者是歐幾里得距離),后者是曼哈頓距離。48.下列關(guān)于XGboost算法描述中錯(cuò)誤的是A、由于其特殊原因,無(wú)法分布式化B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來(lái)減少過(guò)擬合【正確答案】:A解析:

049.數(shù)據(jù)清洗的方法不包括()A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理【正確答案】:D解析:

050.DSSM使用()個(gè)全連接層A、兩B、一C、三D、四【正確答案】:A解析:

DSSM使用兩個(gè)全連接層51.下列關(guān)于長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是()。A、LSTM是簡(jiǎn)化版的RNNB、LSTM是雙向的RNNC、LSTM是多層的RNND、LSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題【正確答案】:D解析:

LSTM是RNN的擴(kuò)展,通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴問(wèn)題52.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是你有一個(gè)類似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用【正確答案】:C解析:

053.關(guān)聯(lián)分析是描述兩個(gè)或多個(gè)變量之間的某種()關(guān)系的特征規(guī)則A、實(shí)際B、關(guān)聯(lián)C、非現(xiàn)實(shí)D、潛在【正確答案】:D解析:

054.數(shù)據(jù)價(jià)值挖掘常用的模型有()、描述型模型等。A、聚類模型B、預(yù)測(cè)型模型C、分類模型D、時(shí)間模型【正確答案】:B解析:

055.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、給定標(biāo)簽B、離散C、分類D、回歸【正確答案】:D解析:

在監(jiān)督學(xué)習(xí)中,預(yù)測(cè)變量離散,稱為分類,預(yù)測(cè)變量連續(xù),稱為回歸,兩者本質(zhì)一樣,都是對(duì)輸入做預(yù)測(cè),不過(guò)分類輸出的是物體所屬的類別,回歸輸出的是物體的值。答案選D56.為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,我們需要()來(lái)將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、損失函數(shù)B、指數(shù)函數(shù)C、三角函數(shù)D、激活函數(shù)【正確答案】:D解析:

見(jiàn)算法解析57.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來(lái)西亞等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。A、浪潮云B、華為云C、阿里云D、海爾云【正確答案】:C解析:

阿里云城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來(lái)西亞等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。58.以下剪枝算法中性能最好的是A、REPB、IREPC、RIPPERD、CN2【正確答案】:C解析:

見(jiàn)算法解析59.哪個(gè)不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax【正確答案】:D解析:

Softmax不是常用的聚類算法。60.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC【正確答案】:A解析:

061.決策樹(shù)中不包含以下哪種結(jié)點(diǎn)()A、根結(jié)點(diǎn)(rootnode)B、內(nèi)部結(jié)點(diǎn)(internalnode)C、外部結(jié)點(diǎn)(externalnode)D、葉結(jié)點(diǎn)(leafnode)【正確答案】:C解析:

062.屬性劃分的目標(biāo)是讓各個(gè)劃分出來(lái)的子節(jié)點(diǎn)A、屬于同一類別B、盡可能屬于同一類別C、屬于不同類別D、盡可能屬于不同類別【正確答案】:B解析:

屬性劃分的目標(biāo)是讓各個(gè)劃分出來(lái)的子節(jié)點(diǎn)盡可能地“純”,即屬于同一類別。63.下列選項(xiàng)中,無(wú)監(jiān)督學(xué)習(xí)模型是A、DecisionB、K_meansC、SVMD、LogisticRegression【正確答案】:B解析:

K_means是無(wú)監(jiān)督學(xué)習(xí)模型,其它選項(xiàng)是有監(jiān)督學(xué)習(xí)模型64.下列關(guān)于聚類算法的說(shuō)法,正確的是:A、聚類算法可以用于回歸問(wèn)題B、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別C、聚類算法是一種監(jiān)督學(xué)習(xí)算法D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似性等分成不同的類別【正確答案】:D解析:

065.盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:A、連接主義B、符號(hào)主義C、行為主義D、經(jīng)驗(yàn)主義【正確答案】:B解析:

盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:符號(hào)主義66.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、1B、1和3C、1和2D、2【正確答案】:A解析:

067.以下哪種情況說(shuō)明模型出現(xiàn)了過(guò)擬合()A、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度高B、模型對(duì)訓(xùn)練集擬合程度高,對(duì)測(cè)試集擬合程度低C、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度高D、模型對(duì)訓(xùn)練集擬合程度低,對(duì)測(cè)試集擬合程度低【正確答案】:B解析:

068.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、大;小B、大;大C、小;小D、小;大【正確答案】:A解析:

069.LSTM單元中引入了哪些門來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門【正確答案】:A解析:

LSTM單元中引入了哪些門來(lái)更新當(dāng)前時(shí)刻的單元狀態(tài)向量?70.常見(jiàn)的數(shù)據(jù)集劃分方式不包括A、留出法B、裝袋法C、交叉驗(yàn)證法D、自助法【正確答案】:B解析:

071.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)【正確答案】:B解析:

072.LSTM用于文本分類的任務(wù)中,不會(huì)出現(xiàn)的網(wǎng)絡(luò)層是()A、全連接B、詞嵌入層C、卷積層D、以上選項(xiàng)均不正確【正確答案】:C解析:

LSTM中沒(méi)有卷積層73.進(jìn)入21世紀(jì)以來(lái),隨著數(shù)據(jù)的爆發(fā)式增長(zhǎng),計(jì)算能力的大幅度提升和深度學(xué)習(xí)的發(fā)展和成熟,人工智能迎來(lái)了()發(fā)展浪潮A、第一次B、第二次C、第三次D、第四次【正確答案】:C解析:

進(jìn)入21世紀(jì)以來(lái),隨著數(shù)據(jù)的爆發(fā)式增長(zhǎng),計(jì)算能力的大幅度提升和深度學(xué)習(xí)的發(fā)展和成熟,人工智能迎來(lái)了第三次發(fā)展浪潮74.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字B、字符C、符號(hào)D、英文【正確答案】:A解析:

為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字75.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A、1比特B、2.6比特C、3.2比特D、3.8比特【正確答案】:B解析:

076.圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上A、結(jié)構(gòu)化B、非結(jié)構(gòu)化C、對(duì)稱化D、規(guī)則化【正確答案】:B解析:

圖計(jì)算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上77.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、熵越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個(gè)條件熵對(duì)信息熵減少程序越大,也就是說(shuō),這個(gè)屬性對(duì)于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D、熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性【正確答案】:C解析:

078.圖像處理中無(wú)損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)【正確答案】:D解析:

圖像處理中無(wú)損壓縮的目的是濾除圖像中的冗余信號(hào)79.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingBaggingC、StackingD、Mapping【正確答案】:B解析:

080.為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問(wèn)題:A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長(zhǎng),有的序列短B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問(wèn)題D、命名實(shí)體識(shí)別問(wèn)題是一個(gè)無(wú)法解決的問(wèn)題,全連接網(wǎng)絡(luò)也不能解決這個(gè)問(wèn)題【正確答案】:A解析:

序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長(zhǎng),有的序列短,因此不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識(shí)別問(wèn)題81.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。A、XLNetB、GoogleNetC、MuseNetD、AlexNet【正確答案】:C解析:

MuseNet采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。82.下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、實(shí)體鏈接C、關(guān)系抽取D、詞性標(biāo)注【正確答案】:D解析:

知識(shí)圖譜構(gòu)建的不太利用詞性標(biāo)注83.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來(lái)減少泛化誤差的方法,以下關(guān)于兩者的說(shuō)法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇【正確答案】:A解析:

084.選擇Logistic回歸中的One-Vs-All方法中的哪個(gè)選項(xiàng)是真實(shí)的A、我們需要在n類分類問(wèn)題中適合n個(gè)模型B、我們需要適合n-1個(gè)模型來(lái)分類為n個(gè)類C、我們需要只適合1個(gè)模型來(lái)分類為n個(gè)類D、這些都沒(méi)有【正確答案】:A解析:

如果存在n個(gè)類,那么n個(gè)單獨(dú)的邏輯回歸必須與之相適應(yīng),其中每個(gè)類的概率由剩余類的概率之和確定85.下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是()A、可以提高特征關(guān)聯(lián)性B、可以減輕維數(shù)災(zāi)難問(wèn)題C、可以降低學(xué)習(xí)任務(wù)的難度D、特征選擇和降維具有相似的動(dòng)機(jī)【正確答案】:A解析:

見(jiàn)算法解析86.下面的問(wèn)題,屬于分類問(wèn)題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額【正確答案】:C解析:

087.考慮下面的3項(xiàng)頻繁集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過(guò)程得到4項(xiàng)集不包含()A、1,2,3,4B、1,2,3,5C、1,2,4,5D、1,3,4,5【正確答案】:C解析:

088.按照類別比例分組的k折用的是哪個(gè)函數(shù)()A、RepeatedKFoldB、StratifiedKFoldC、LeavePOutD、GroupKFold【正確答案】:B解析:

089.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識(shí)別)上訓(xùn)練好了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對(duì)于這個(gè)輸入的輸出結(jié)果為任何種類的物體的可能性都是一樣的,對(duì)嗎?A、對(duì)的B、不知道C、看情況D、不對(duì)【正確答案】:D解析:

090.閔可夫斯基距離不滿足直遞性,但滿足非負(fù)性、同一性、對(duì)稱性時(shí)p的取值范圍是A、p≥1B、0≤pC、p=1D、p趨于正無(wú)窮【正確答案】:B解析:

p≥1時(shí),閔可夫斯基距離滿足距離度量的四條基本性質(zhì);0≤p91.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換【正確答案】:A解析:

主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)線性變換將向量投影到低維空間。92.以下選項(xiàng)中,不屬于函數(shù)的作用的是A、提高代碼執(zhí)行速度B、增強(qiáng)代碼可讀性C、降低編程復(fù)雜度D、復(fù)用代碼【正確答案】:A解析:

093.手寫數(shù)字識(shí)別的例子中,輸入的圖片為長(zhǎng)和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個(gè)問(wèn)題,輸入層是()維的,輸出層是()維的。A、784;10B、28;10C、784;1D、28;1【正確答案】:A解析:

094.企業(yè)要建立預(yù)測(cè)模型,需要準(zhǔn)備建模數(shù)據(jù)集,以下四條描述建模數(shù)據(jù)集正確的是()。A、數(shù)據(jù)越多越好B、盡可能多的合適的數(shù)據(jù)C、訓(xùn)練集數(shù)據(jù)是建模集數(shù)據(jù)的一部分D、以上三條都正確【正確答案】:D解析:

095.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GAP的優(yōu)點(diǎn)是()A、提供更好的分類B、減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入C、加速模型收斂D、增加網(wǎng)絡(luò)深度【正確答案】:B解析:

GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GAP的優(yōu)點(diǎn)是減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入96.代碼array=np.arange(10,31,5)中的5代表()?A、元素的個(gè)數(shù)B、步長(zhǎng)C、第一個(gè)元素D、最后一個(gè)元素【正確答案】:B解析:

見(jiàn)算法解析97.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU【正確答案】:B解析:

卷積神經(jīng)網(wǎng)絡(luò)是單向傳播的98.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ)、1,2,3,4B、4,3,2,1C、3,1,2,4D、1,4,3,2【正確答案】:D解析:

099.下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量越多B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多少有關(guān)D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時(shí)間長(zhǎng)【正確答案】:C解析:

不同訓(xùn)練數(shù)據(jù)集的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的最優(yōu)層數(shù)不同,并非層數(shù)越深效果越好,訓(xùn)練時(shí)間除了與層數(shù)有關(guān)以外,batchsize大小、學(xué)習(xí)率、衰減方式等都有很大影響,神經(jīng)元的數(shù)量并不一定與層數(shù)正相關(guān)100.以下哪些分類方法可以較好地避免樣本的不平衡問(wèn)題,()A、KNNB、SVMC、ayesD、神經(jīng)網(wǎng)絡(luò)【正確答案】:A解析:

01.隱馬爾可夫模型三個(gè)基本問(wèn)題以及相應(yīng)的算法說(shuō)法正確的是()A、評(píng)估—前向后向算法B、解碼—維特比算法C、學(xué)習(xí)—Baum-Welch算法D、學(xué)習(xí)—前向后向算法【正確答案】:ABC解析:

02.下列哪些項(xiàng)是決策樹(shù)常用的屬性選擇指標(biāo)()A、Gini系數(shù)B、信息增益C、信息增益率D、距離平方和【正確答案】:ABC解析:

見(jiàn)算法解析3.DecisionTree構(gòu)造的重要步驟。A、特征選擇B、決策樹(shù)生成C、剪枝D、計(jì)算信息增益【正確答案】:ABC解析:

決策樹(shù)構(gòu)造只有特征選擇、決策樹(shù)生成、剪枝三個(gè)環(huán)節(jié)過(guò)程4.常見(jiàn)的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、Kmeans【正確答案】:ABCD解析:

密度聚類、層次聚類和譜聚類都是常見(jiàn)的聚類算法。5.深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)中,存在的主要問(wèn)題難點(diǎn)有A、數(shù)據(jù)精度設(shè)置B、每層卷積核多少設(shè)置C、網(wǎng)絡(luò)層數(shù)選取D、激活函數(shù)選取【正確答案】:BCD解析:

見(jiàn)算法解析6.對(duì)股票漲跌方向的判斷,理論上下列哪些方法是可行的?()A、SVMB、DBSCANC、FP-growthD、決策樹(shù)【正確答案】:AD解析:

見(jiàn)算法解析7.剪枝是決策樹(shù)學(xué)習(xí)短發(fā)對(duì)付“過(guò)擬合”的主要手段。以下屬于剪枝方法的是()A、預(yù)剪枝B、后剪枝C、先剪枝D、外剪枝【正確答案】:AB解析:

08.半監(jiān)督學(xué)習(xí)算法包含()。A、生成模型算法B、自訓(xùn)練算法C、聯(lián)合訓(xùn)練D、SVM【正確答案】:ABCD解析:

SVM算法屬于有監(jiān)督學(xué)習(xí)模型9.產(chǎn)生式系統(tǒng)的組成部分包括()A、狀態(tài)空間B、綜合數(shù)據(jù)庫(kù)C、規(guī)則集D、控制策略【正確答案】:BCD解析:

010.RNN可以用來(lái)處理()A、圖像類別預(yù)測(cè)B、語(yǔ)音分析C、情感分類D、文章創(chuàng)作【正確答案】:ABCD解析:

011.下列可以用于分類問(wèn)題的機(jī)器學(xué)習(xí)算法有:A、決策樹(shù)B、隨機(jī)森林C、k近鄰D、邏輯回歸【正確答案】:ABCD解析:

012.根據(jù)本課程,3D打印技術(shù)有什么優(yōu)勢(shì)?()A、變革產(chǎn)品設(shè)計(jì)理念B、降低大批量生產(chǎn)的成本C、降低小批量生產(chǎn)的成本D、是很多傳統(tǒng)方法無(wú)法比擬的新的制造手段【正確答案】:ACD解析:

見(jiàn)算法解析13.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過(guò)池化的特征圖像變小了【正確答案】:ABCD解析:

池化是一種down-sampling技術(shù),本質(zhì)是基于滑動(dòng)窗口的思想,可以去除特征圖中的冗余信息,降低特征圖的維度。常用的是最大池化和平均池化14.智能控制的開(kāi)發(fā),目前認(rèn)為有以下途徑()A、基于數(shù)據(jù)挖掘的專家智能控制B、基于遺傳算法的軟計(jì)算控制C、基于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)控制D、以上說(shuō)法都不對(duì)【正確答案】:AC解析:

015.回歸問(wèn)題的評(píng)估方法包括A、F值B、AUCC、決定系數(shù)D、均方誤差【正確答案】:CD解析:

016.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?A、準(zhǔn)確性B、不確定性C、可信賴度D、雜亂性【正確答案】:AC解析:

017.下列算法哪些屬于K-means的變種?A、kNNB、MeanshiftC、k-means++D、以上都不是【正確答案】:BC解析:

見(jiàn)算法解析18.統(tǒng)計(jì)模式分類問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()A、最小最大損失準(zhǔn)則B、最小誤判概率準(zhǔn)則C、最小損失準(zhǔn)則D、N-P判決【正確答案】:AD解析:

019.工業(yè)界人工智能成功的三大法寶是哪些A、深度學(xué)習(xí)B、大數(shù)據(jù)C、云計(jì)算D、漣漪效應(yīng)【正確答案】:ABC解析:

020.關(guān)于聚類的描述正確的是()。A、聚類是一種非監(jiān)督式學(xué)習(xí)B、聚類是一種監(jiān)督式學(xué)習(xí)C、使用的數(shù)據(jù)不需要包含類別卷標(biāo)D、使用的數(shù)據(jù)需要包含類別卷標(biāo)【正確答案】:AC解析:

021.決策樹(shù)的構(gòu)造是一個(gè)遞歸的過(guò)程,哪幾種情形會(huì)導(dǎo)致遞歸返回A、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別B、當(dāng)前屬性集為空C、當(dāng)前屬性集所有樣本在所有屬性上取值相同,無(wú)法劃分D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分【正確答案】:ABCD解析:

決策樹(shù)的構(gòu)造是一個(gè)遞歸的過(guò)程,有三種情形會(huì)導(dǎo)致遞歸返回:(1)當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別;(2)當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分;(3)當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分。22.對(duì)于樸素貝葉斯分類器,下面說(shuō)法正確的是()A、適用于小規(guī)模數(shù)據(jù)集B、適用于多分類任務(wù)C、適合增量式訓(xùn)練D、對(duì)輸入數(shù)據(jù)的表達(dá)形式不敏感【正確答案】:ABC解析:

023.機(jī)器學(xué)習(xí)的核心要素包括()A、算法B、算力C、操作人員D、數(shù)據(jù)【正確答案】:ABD解析:

操作人員并不是機(jī)器學(xué)習(xí)的核心要素。24.專家系統(tǒng)知識(shí)表示的方法主要有哪些?A、邏輯表示法(謂詞表示法)B、框架C、產(chǎn)生式D、語(yǔ)義網(wǎng)絡(luò)【正確答案】:ABCD解析:

025.下列說(shuō)法正確的是()A、k折劃分后,得到的是分組后的索引值B、LOO計(jì)算開(kāi)銷更少C、LOO比k折效果更差D、k折劃分后,得到的是分組后的元素【正確答案】:AC解析:

026.下面關(guān)于邏輯回歸的說(shuō)法,正確的是:A、邏輯回歸主要應(yīng)用于二分類問(wèn)題B、邏輯回歸使用LogisticFunction后得到的數(shù)值在-1到1之間C、把邏輯回歸應(yīng)用于多分類問(wèn)題時(shí),需要使用Onevs.Rest方法D、邏輯回歸得到的數(shù)值可以看作屬于類別1的概率【正確答案】:ACD解析:

027.以下模型中,會(huì)用到隨機(jī)梯度下降法的分別是A、CNNB、RNNC、KNND、C4.5【正確答案】:AB解析:

見(jiàn)算法解析28.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A、顯著減少訓(xùn)練時(shí)間開(kāi)銷B、顯著減少測(cè)試時(shí)間開(kāi)銷C、降低過(guò)擬合風(fēng)險(xiǎn)D、提高欠擬合風(fēng)險(xiǎn)【正確答案】:ABCD解析:

預(yù)剪枝就是在構(gòu)造決策樹(shù)的過(guò)程中,先對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)行估計(jì),若果當(dāng)前結(jié)點(diǎn)的劃分不能帶來(lái)決策樹(shù)模型泛華性能的提升,則不對(duì)當(dāng)前結(jié)點(diǎn)進(jìn)行劃分并且將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)29.認(rèn)知語(yǔ)言學(xué)更多地是考慮()A、句法B、音韻C、語(yǔ)義D、語(yǔ)用【正確答案】:CD解析:

見(jiàn)算法解析30.決策樹(shù)最常用的算法有A、ID3B、C4.5CARTD、ID4.5【正確答案】:ABC解析:

決策樹(shù)最常用的算法有三種:ID3,C4.5和CART。31.對(duì)股價(jià)的預(yù)測(cè),下列哪些方法是可行的()A、kNNB、SVRC、線性回歸D、邏輯回歸【正確答案】:BC解析:

見(jiàn)算法解析32.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()A、數(shù)字屬性的缺失值補(bǔ)0B、LabelEncoderC、one-hotencoderD、CountVectorize【正確答案】:ABCD解析:

見(jiàn)算法解析33.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC解析:

034.下列可用于隱馬爾可夫預(yù)測(cè)的算法是()。A、維特比算法Baum-Welch算法C、前向-后向算法D、擬牛頓法【正確答案】:ABCD解析:

A是教材原文;B是EM算法,可用于求解隱馬爾可夫模型,C和D用于求解條件隨機(jī)場(chǎng),而隱馬爾可夫模型可以寫成條件隨機(jī)場(chǎng)的形式。35.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解決方法為A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化【正確答案】:ACD解析:

036.數(shù)據(jù)挖掘算法的組件包括()A、模型或模型結(jié)構(gòu)B、評(píng)分函數(shù)C、優(yōu)化和搜索方法D、數(shù)據(jù)管理策略【正確答案】:ABCD解析:

037.決策樹(shù)學(xué)習(xí)算法包括哪幾個(gè)部分?A、特征選擇B、樹(shù)的生成C、分類決策規(guī)則D、樹(shù)的剪枝【正確答案】:ABD解析:

k近鄰算法的三要素:距離度量,k值選擇,分類決策規(guī)則38.層次聚類方法包括A、劃分聚類方法B、凝聚型層次聚類方法C、分解型層次聚類方法D、基于密度聚類方法【正確答案】:BC解析:

039.屬于深度學(xué)習(xí)模型的選項(xiàng)是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:BCD解析:

040.以下常用于處理離散特征的方法有()A、ImputerB、OneHotencoderC、NormalizerD、LabelEncoder【正確答案】:BD解析:

041.下列關(guān)于Ridge回歸,說(shuō)法正確的是(多選)?A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大【正確答案】:AC解析:

042.以下哪些是專家系統(tǒng)結(jié)構(gòu)的一部分?A、知識(shí)庫(kù)B、推理機(jī)C、動(dòng)態(tài)數(shù)據(jù)庫(kù)D、解釋模塊【正確答案】:ABCD解析:

專家系統(tǒng)的結(jié)構(gòu)包含人機(jī)界面、知識(shí)庫(kù)、推理機(jī)、動(dòng)態(tài)數(shù)據(jù)庫(kù)、知識(shí)庫(kù)答理系統(tǒng)和解釋模塊。43.以下哪層是卷積神經(jīng)網(wǎng)絡(luò)的組成部分A、卷積層B、中間層C、池化層D、全連接層【正確答案】:ACD解析:

044.關(guān)于學(xué)習(xí)器結(jié)合的描述,正確的是()。A、避免單學(xué)習(xí)器可能因誤選而導(dǎo)致泛化性能不佳B、降低陷入局部極小點(diǎn)的風(fēng)險(xiǎn)C、假設(shè)空間擴(kuò)大,有可能學(xué)得更好的近似D、多學(xué)習(xí)器結(jié)合有可能沖突【正確答案】:ABC解析:

基礎(chǔ)知識(shí)45.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪些適用?AUC-ROCB、準(zhǔn)確度C、LoglossD、均方誤差【正確答案】:ABC解析:

046.哪些項(xiàng)屬于集成學(xué)習(xí)A、KnnB、AdaboostC、隨機(jī)森林D、XGBoost【正確答案】:BCD解析:

集成學(xué)習(xí)方法大致可分為兩大類:即個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系,必須串行生成的序列化方法以及個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴關(guān)系、可同時(shí)生成的并行化方法;前者代表是Boosting,后者代表是Bagging和“隨機(jī)森林”47.影響聚類算法結(jié)果的主要因素有()A、已知類別的樣本質(zhì)量B、分類準(zhǔn)則C、特征選取D、模式相似性測(cè)度【正確答案】:BCD解析:

048.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見(jiàn)的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD解析:

049.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC解析:

正則化和優(yōu)化策略是深度學(xué)習(xí)的兩個(gè)重要部分,L1、L2正則化和Dropout屬于正則化,而動(dòng)量?jī)?yōu)化屬于優(yōu)化策略。50.關(guān)于邏輯回歸,說(shuō)法正確的是()A、垃圾郵件分類問(wèn)題可以使用邏輯回歸模型B、一條商品評(píng)論分為正面,負(fù)面和中性,不可以使用邏輯回歸模型C、邏輯回歸不能直接用于多分類問(wèn)題D、以上都不對(duì)【正確答案】:AC解析:

051.做一個(gè)二分類預(yù)測(cè)問(wèn)題,先設(shè)定閾值為0.5,概率不小于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面說(shuō)法正確的是()。A、增加閾值不會(huì)提高召回率B、增加閾值會(huì)提高召回率C、增加閾值不會(huì)降低查準(zhǔn)率D、增加閾值會(huì)降低查準(zhǔn)率【正確答案】:AC解析:

召回率=TP/TP+FN查準(zhǔn)率=TP/TP+FP所以當(dāng)概率閾值增加時(shí),TP、FP減少或者持平,TP+FN不變,所以召回率不會(huì)增加,一般情況,用不同的閥值,統(tǒng)計(jì)出一組不同閥值下的精確率和召回率。52.卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A、卷積層后為池化層,然后還是卷積層-池化層。B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D、網(wǎng)絡(luò)中最開(kāi)始的幾個(gè)層是全連接層【正確答案】:AC解析:

一般卷積層后為池化層,網(wǎng)絡(luò)最后為幾個(gè)全連接層。53.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、全連接層B、輸入層C、池化層D、卷積層【正確答案】:ACD解析:

vgg19是常用的卷積神經(jīng)網(wǎng)絡(luò)之一,包括16層卷積層和3層全連接層,中間用到池化層54.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有A、線性回歸B、邏輯回歸C、支持向量機(jī)D、隨機(jī)森林【正確答案】:BCD解析:

線性回歸無(wú)法解決分類問(wèn)題55.下列哪些項(xiàng)用于對(duì)問(wèn)題進(jìn)行形式化A、感知B、初始狀態(tài)C、動(dòng)作D、環(huán)境【正確答案】:BC解析:

056.漢語(yǔ)的演化史表明,量詞的真實(shí)功用可能與()沒(méi)有任何關(guān)系A(chǔ)、隱喻機(jī)制B、個(gè)體化機(jī)制C、單復(fù)數(shù)區(qū)分D、補(bǔ)足音素【正確答案】:BC解析:

見(jiàn)算法解析57.日語(yǔ)是()的混合體A、平假名B、漢字C、片假名D、假名【正確答案】:BC解析:

見(jiàn)算法解析58.使用k折交叉驗(yàn)證,下面說(shuō)法正確的是()A、模型性能對(duì)數(shù)據(jù)劃分非常敏感B、避免了在劃分訓(xùn)練集和驗(yàn)證集時(shí)的隨機(jī)性C、通過(guò)平均模型評(píng)論指標(biāo)來(lái)考查擬合優(yōu)度D、可以從有限的數(shù)據(jù)中獲取盡可能多的有效信息【正確答案】:BCD解析:

059.下列無(wú)監(jiān)督學(xué)習(xí)算法中可解決降維問(wèn)題的算法有A、PCAB、LSAC、LDAD、k-means【正確答案】:ABC解析:

k-means只能解決聚類問(wèn)題60.以下技術(shù),BERT使用的包括哪些?()A、TransformerB、Sel-Attention模塊C、RNN循環(huán)連接D、文本卷積【正確答案】:AB解析:

見(jiàn)算法解析61.下列哪些開(kāi)發(fā)包,已包含一些常用的機(jī)器學(xué)習(xí)算法?()A、sklearnB、xgboostC、lightgbmD、numpy【正確答案】:ABC解析:

見(jiàn)算法解析62.完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()A、全連接層B、隱藏層C、卷積層D、池化層【正確答案】:ACD解析:

063.貝葉斯信念網(wǎng)絡(luò)(BBN)有如下哪些特點(diǎn)()A、構(gòu)建網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力B、對(duì)模型的過(guò)分問(wèn)題非常魯棒C、貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)D、網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩【正確答案】:AB解析:

064.噪聲數(shù)據(jù)的產(chǎn)生原因主要有:()A、數(shù)據(jù)采集設(shè)備有問(wèn)題B、在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤C、數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤D、由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致【正確答案】:ABCD解析:

065.人工智能主要依賴的學(xué)科有()A、邏輯學(xué)B、數(shù)學(xué)C、統(tǒng)計(jì)學(xué)D、信息與計(jì)算科學(xué)【正確答案】:AC解析:

見(jiàn)算法解析66.下列何者可以有效識(shí)別視頻中的行為()。A、利用較低取樣率對(duì)原始視頻進(jìn)行取樣B、利用較高取樣率對(duì)原始視頻進(jìn)行取樣C、增加深度學(xué)習(xí)的隱藏層數(shù)目D、參考高取樣率的動(dòng)作估測(cè)結(jié)果【正確答案】:AD解析:

067.數(shù)據(jù)挖掘的預(yù)測(cè)建模任務(wù)主要包括哪幾大類問(wèn)題?()A、分類B、回歸C、聚類D、關(guān)聯(lián)規(guī)則挖掘【正確答案】:AB解析:

068.遺傳算法評(píng)價(jià)的常用方法有()A、當(dāng)前最好法B、在線比較法C、離線比較法D、都不是【正確答案】:ABC解析:

069.不確定性類型按性質(zhì)可分哪些?A、隨機(jī)性B、模糊性C、不完全性D、不一致性【正確答案】:ABCD解析:

070.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前層自身作為輸入()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、LSTM網(wǎng)絡(luò)D、多層感知機(jī)【正確答案】:AC解析:

LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種,循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是前一層的輸出和當(dāng)前層自身71.選擇下列哪些方法可以用于表示表示智能體的狀態(tài)A、結(jié)構(gòu)式B、模塊式C、網(wǎng)絡(luò)式D、因子式【正確答案】:AD解析:

072.下列是svm核函數(shù)的是()A、多項(xiàng)式核函數(shù)B、logistic核函數(shù)C、徑向基核函數(shù)D、sigmoid核函數(shù)【正確答案】:ACD解析:

073.常用的機(jī)器學(xué)習(xí)算法,可使用哪些開(kāi)發(fā)包()A、sklearnB、xgboostC、lightgbmD、numpy【正確答案】:ABC解析:

見(jiàn)算法解析74.關(guān)于反向傳播算法,它的主要不足在于A、訓(xùn)練時(shí)間較長(zhǎng)B、完全不能訓(xùn)練,訓(xùn)練時(shí)由于權(quán)值調(diào)整過(guò)大使得激活函數(shù)達(dá)到飽和C、易陷入局部極小值D、訓(xùn)練過(guò)程中,學(xué)習(xí)新樣本時(shí)有一網(wǎng)舊樣本的趨勢(shì)【正確答案】:ABCD解析:

學(xué)習(xí)速度慢,失敗的可能性較大是主要不足之處75.在卷積神經(jīng)網(wǎng)絡(luò)中,一個(gè)10*10的像素在使用5*5的卷積核進(jìn)行池化,在不補(bǔ)零的情況下能得到以下哪些大小的featuremapA、2*2B、4*4C、6*6D、8*8【正確答案】:ABC解析:

H(output)=(H(input)?F)/S+1;W(output)=(Winput?F)/S+176.FasterRCNN模型相比于FastR-CNN模型,算法的改進(jìn)主要體現(xiàn)在()A、提出候選框生成網(wǎng)絡(luò),取代了SelectiveSearchB、在RPN與最終輸出的兩個(gè)階段,將分類損失和框回歸損失進(jìn)行聯(lián)合后對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化C、采用ROIpooling層,加速特征提取過(guò)程D、將CNN提取到的特征送入SVM進(jìn)行分類【正確答案】:AB解析:

見(jiàn)算法解析77.下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪些?A、LSTM中通過(guò)引入輸入門、遺忘門、輸出門解決了RNN中存在的梯度消失和梯度爆炸B、LSTM中門的開(kāi)關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過(guò)程中記住重要信息C、與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久D、LSTM中使用Sigmoid實(shí)現(xiàn)門限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理【正確答案】:BCD解析:

078.下面關(guān)于決策樹(shù)的說(shuō)法,正確的是:A、決策樹(shù)有二叉樹(shù)和多叉樹(shù)B、建立決策樹(shù)模型的時(shí)候,可能不需要用到數(shù)據(jù)集中的所有特征來(lái)建立決策樹(shù)節(jié)點(diǎn)的分裂規(guī)則C、決策樹(shù)子節(jié)點(diǎn)分裂時(shí),選擇的是最優(yōu)的特征進(jìn)行分裂D、決策樹(shù)只能用于分類【正確答案】:ABC解析:

079.除了問(wèn)題本身的定義之外,使用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是A、啟發(fā)式搜索B、有信息搜索C、二元搜索D、無(wú)信息搜索【正確答案】:AB解析:

080.驅(qū)動(dòng)深度學(xué)習(xí)的三駕馬車是指?()A、大模型B、大應(yīng)用C、大算力D、大數(shù)據(jù)【正確答案】:ACD解析:

見(jiàn)算法解析81.常用的盲目搜索方法是什么?A、隨機(jī)碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索【正確答案】:AD解析:

082.下列哪些方法的輸出結(jié)果,通常包含boundingbox?()A、MTCNNB、FasterRCNNC、MaskRCNND、AlexNet【正確答案】:ABC解析:

見(jiàn)算法解析83.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層【正確答案】:BCD解析:

輸入層的作用是將輸入數(shù)據(jù)送入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,并沒(méi)有起到降維的作用。84.我國(guó)建設(shè)安全便捷的智能社會(huì)的重要途徑包括()A、發(fā)展便捷高效的智能服務(wù)B、推進(jìn)社會(huì)治理智能化C、提升公共安全保障能力D、促進(jìn)社會(huì)交往共享互信【正確答案】:ABCD解析:

見(jiàn)算法解析85.關(guān)于遺傳算法和進(jìn)化策略,下列說(shuō)法正確的是A、遺傳算法同時(shí)使用交叉和突變操作B、進(jìn)化策略僅使用交叉操作C、進(jìn)化策略不需要用編碼的形式來(lái)表示問(wèn)題D、進(jìn)化策略使用純粹的數(shù)值優(yōu)化計(jì)算【正確答案】:ACD解析:

遺傳算法根據(jù)問(wèn)題域中個(gè)體的適應(yīng)度大小,按照輪盤賭的方法選擇個(gè)體,在完成選擇后,還需要進(jìn)行組合交叉和變異,產(chǎn)生出代表新的解集的種群。A項(xiàng)正確。遺傳算法采用二進(jìn)制編碼雜交;而進(jìn)化策略使用實(shí)數(shù)。CD正確。進(jìn)化策略的每個(gè)個(gè)體都具有兩個(gè)特點(diǎn)。1、基因,通過(guò)基因進(jìn)行運(yùn)算可以得到每個(gè)個(gè)體的適應(yīng)度。2、變異強(qiáng)度,變異強(qiáng)度則是每次基因雜交完,基因變化的一個(gè)范圍。B項(xiàng)錯(cuò)誤。答案ACD86.基因知識(shí)圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測(cè)及診斷C、基因檢測(cè)報(bào)告生成D、實(shí)體查詢【正確答案】:ACD解析:

087.關(guān)于線性回歸說(shuō)法正確的是()A、輸入特征是非隨機(jī)的且互不相關(guān)的B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)C、隨機(jī)誤差彼此間不相關(guān)D、輸入特征于隨機(jī)誤差不相關(guān)【正確答案】:ABCD解析:

088.假設(shè)我們要解決一個(gè)二類分類問(wèn)題,我們已經(jīng)建立好了模型,輸出是0或1,初始時(shí)設(shè)閾值為0.5,超過(guò)0.5概率估計(jì),就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個(gè)大于0.5的閾值,那么現(xiàn)在關(guān)于模型說(shuō)法,正確的是A、模型分類的召回率不變B、模型分類的召回率會(huì)升高C、模型分類準(zhǔn)確率會(huì)升高或不變D、模型分類準(zhǔn)確率降低【正確答案】:AC解析:

準(zhǔn)確率:即預(yù)測(cè)結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測(cè)結(jié)果為正例樣本中真實(shí)為正例的比例(查得準(zhǔn))。召回率(查全率):真實(shí)為正例的樣本中預(yù)測(cè)結(jié)果為正例的比例(查的全,對(duì)正樣本的區(qū)分能力。F-score:在實(shí)踐中,我們定義了新的指標(biāo)去“綜合”這兩個(gè)指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)上來(lái)看,它其實(shí)是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對(duì)于二元分類問(wèn)題,F(xiàn)-score綜合考慮了預(yù)測(cè)結(jié)果的查準(zhǔn)率和查全率,是一個(gè)比較好的評(píng)估指標(biāo)。89.需要循環(huán)迭代的算法有A、k-meansB、線性回歸C、svmD、邏輯回歸【正確答案】:ABD解析:

支持向量機(jī)(SVM)從數(shù)據(jù)中找出一個(gè)數(shù)據(jù)的分割超平面。將兩個(gè)類別的數(shù)據(jù)完全分割開(kāi),并且在模型構(gòu)建的過(guò)程中,保證分割區(qū)間最大化,無(wú)迭代循環(huán)90.人工神經(jīng)元網(wǎng)絡(luò)包括()A、輸入層B、中間隱藏層C、映射層D、輸出層【正確答案】:ABD解析:

見(jiàn)算法解析91.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來(lái)B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來(lái)解決問(wèn)題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC解析:

092.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?()A、謂語(yǔ)與非謂語(yǔ)B、可數(shù)名詞與不可數(shù)名詞C、冠詞與數(shù)詞D、單復(fù)數(shù)【正確答案】:BD解析:

見(jiàn)算法解析93.以下屬于深度學(xué)習(xí)算法的是A、CNNB、FCMC、FPND、GCN【正確答案】:ACD解析:

FCM算法是聚類算法,不是深度學(xué)習(xí)算法94.選擇如下哪些搜索方法屬于無(wú)信息搜索A、貪婪搜索B、A*搜索C、雙向搜索D、寬度優(yōu)先搜索【正確答案】:CD解析:

095.下列選項(xiàng)中,哪項(xiàng)是可以用于數(shù)據(jù)采集的技術(shù)?A、FlumeB、HiveC、KafkaD、Mahout【正確答案】:AC解析:

Hive和Mahout主要用于數(shù)據(jù)的分析式處理96.常用的聚類模型評(píng)價(jià)指標(biāo)包括A、調(diào)整蘭德系數(shù)B、輪廓系數(shù)C、基尼系數(shù)D、Jaccard系數(shù)【正確答案】:ABD解析:

097.關(guān)于謂詞邏輯,下列描述正確的是()A、緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域B、在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)狢、僅個(gè)體變?cè)涣炕闹^詞成為一階謂詞D、個(gè)體變?cè)⒑瘮?shù)符號(hào)和謂詞符號(hào)都被量化的謂詞成為二階謂詞【正確答案】:ABCD解析:

098.K-Means聚類法的局限性體現(xiàn)在()A、K-Means聚類法對(duì)噪聲和離群點(diǎn)敏感B、K-Means聚類法對(duì)變量的要求比較高C、由K-Means聚類法得到的聚類結(jié)果,輪廓系數(shù)都不是很大。D、應(yīng)用K-Means聚類法需要預(yù)先設(shè)定聚類個(gè)數(shù)【正確答案】:ABD解析:

k均值聚類算法(k-meansclusteringalgorithm)是一種迭代求解的聚類分析算法,其步驟是,預(yù)將數(shù)據(jù)分為K組,則隨機(jī)選取K個(gè)對(duì)象作為初始的聚類中心,然后計(jì)算每個(gè)對(duì)象與各個(gè)種子聚類中心之間的距離,把每個(gè)對(duì)象分配給距離它最近的聚類中心。聚類中心以及分配給它們的對(duì)象就代表一個(gè)聚類。每分配一個(gè)樣本,聚類的聚類中心會(huì)根據(jù)聚類中現(xiàn)有的對(duì)象被重新計(jì)算。99.AlexNet與LeNet的區(qū)別是A、模型構(gòu)造不同B、激活函數(shù)不同C、AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度D、AlexNet中引入了圖像增廣【正確答案】:ABCD解析:

AlexNet與LeNet的區(qū)別是模型構(gòu)造不同,激活函數(shù)不同,AlexNet使用dropout來(lái)控制全連接層的模型復(fù)雜程度,AlexNet中引入了圖像增廣100.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD解析:

01.在解決函數(shù)優(yōu)化問(wèn)題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。()A、正確B、錯(cuò)誤【正確答案】:B解析:

02.在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、正確B、錯(cuò)誤【正確答案】:A解析:

03.為了解決特定的計(jì)算程序,如分類器或?qū)<抑R(shí)等多種模式,進(jìn)行戰(zhàn)略性生產(chǎn)和組合。這個(gè)過(guò)程被稱為集成學(xué)習(xí)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確4.人工智能研究的先驅(qū)者認(rèn)為人的智能主要表現(xiàn)在人能學(xué)習(xí)知識(shí)和運(yùn)用知識(shí)上,知識(shí)是智能的基礎(chǔ)于是學(xué)者們把專門的知識(shí)集、規(guī)則集和附加過(guò)程組成知識(shí)庫(kù),開(kāi)發(fā)出許多專家系統(tǒng)(英文縮寫為ES),在領(lǐng)域獲得成功()A、正確B、錯(cuò)誤【正確答案】:A解析:

正確5.Python標(biāo)準(zhǔn)庫(kù)os中的方法startfile()可以啟動(dòng)任何已關(guān)聯(lián)應(yīng)用程序的文件,并自動(dòng)調(diào)用關(guān)聯(lián)的程序。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確6.Dropout對(duì)一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重A、正確B、錯(cuò)誤【正確答案】:B解析:

07.離群點(diǎn)是一個(gè)觀測(cè)值,它與其他觀測(cè)值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的A、正確B、錯(cuò)誤【正確答案】:A解析:

08.自然語(yǔ)言處理基礎(chǔ)技術(shù)包括分詞、詞性標(biāo)注、詞法分析、語(yǔ)法分析、語(yǔ)義分析、篇章分析等A、正確B、錯(cuò)誤【正確答案】:A解析:

正確9.在聚類分析當(dāng)中,MAX(全鏈)技術(shù)可以處理任意形狀的簇A、正確B、錯(cuò)誤【正確答案】:B解析:

010.只能通過(guò)切片訪問(wèn)列表中的元素,不能使用切片修改列表中的元素。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)11.正則表達(dá)式元字符“s”用來(lái)匹配任意空白字符。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確12.VGG模型于2014年被提出,是最流行的RNN模型之一,在ImageNet比賽中,達(dá)到了Top5錯(cuò)誤率7.3%A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤13.廣義人工智能是指通過(guò)計(jì)算機(jī)實(shí)現(xiàn)人的頭腦思維所產(chǎn)生的效果,通過(guò)研究和開(kāi)發(fā)用于模擬、延伸人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)所構(gòu)建而成的,其構(gòu)建過(guò)程中綜合了計(jì)算機(jī)科學(xué)、數(shù)學(xué)、生理學(xué)、哲學(xué)等內(nèi)容A、正確B、錯(cuò)誤【正確答案】:A解析:

正確14.美國(guó)共有33個(gè)州可以共享數(shù)據(jù)A、正確B、錯(cuò)誤【正確答案】:A解析:

正確15.基于人工智能技術(shù)的數(shù)據(jù)深度偽造將威脅網(wǎng)絡(luò)安全、社會(huì)安全和國(guó)家安全。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確16.判斷AI應(yīng)用場(chǎng)景可行性的方法是構(gòu)建前提和商業(yè)前提A、正確B、錯(cuò)誤【正確答案】:A解析:

正確17.根據(jù)應(yīng)用場(chǎng)景不同,人工智能芯片可分為通用類芯片(比如CPU和GPU)、基于FPGA的半定制化芯片、全定制化ASIC芯片、類腦計(jì)算芯片A、正確B、錯(cuò)誤【正確答案】:B解析:

根據(jù)不同的應(yīng)用場(chǎng)景,人工智能芯片設(shè)計(jì)可以分為云推理、云訓(xùn)練、終端推理三部分18.只有Python擴(kuò)展庫(kù)才需要導(dǎo)入以后才能使用其中的對(duì)象,Python標(biāo)準(zhǔn)庫(kù)不需要導(dǎo)入即可使用其中的所有對(duì)象和方法。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)19.人工智能是指能夠像人一樣進(jìn)行感知、認(rèn)知、決策和執(zhí)行的人工程序或系統(tǒng)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確20.美國(guó)計(jì)算機(jī)科學(xué)家艾倫圖靈對(duì)于人工智能的發(fā)展起到了至關(guān)重要的推動(dòng)作用A、正確B、錯(cuò)誤【正確答案】:B解析:

英國(guó)21.人工智能是“研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)”,將其視為計(jì)算機(jī)科學(xué)的一個(gè)分支,指出其研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等A、正確B、錯(cuò)誤【正確答案】:A解析:

正確22.訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)的算法是BPTTA、正確B、錯(cuò)誤【正確答案】:A解析:

正確23.卷積操作中,卷積核在整張圖片上滑動(dòng),不同區(qū)域共用同樣的卷積核參數(shù),與輸入圖片尺寸有關(guān)A、正確B、錯(cuò)誤【正確答案】:B解析:

與尺寸無(wú)關(guān)24.計(jì)算機(jī)視覺(jué)通過(guò)深度學(xué)習(xí)來(lái)形成神經(jīng)網(wǎng)絡(luò),模仿人類視覺(jué)系統(tǒng)進(jìn)行圖像配準(zhǔn)、處理和分析A、正確B、錯(cuò)誤【正確答案】:A解析:

正確25.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法、K均值法、SOM神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:B解析:

可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法。(K-means:聚類、SOM神經(jīng)網(wǎng)絡(luò):降維)26.在GBK和CP936編碼中一個(gè)漢字需要2個(gè)字節(jié)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確27.數(shù)據(jù)質(zhì)量和安全直接影響人工智能系統(tǒng)算法模型的準(zhǔn)確性,進(jìn)而威脅人工智能應(yīng)用安全。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確28.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響A、正確B、錯(cuò)誤【正確答案】:A解析:

029.卷積神經(jīng)網(wǎng)絡(luò)的并發(fā)性,比循環(huán)神經(jīng)網(wǎng)絡(luò)好A、正確B、錯(cuò)誤【正確答案】:A解析:

正確30.由于卷積核比較小,可以堆疊更多的卷積層,加深網(wǎng)絡(luò)的深度,這對(duì)于圖像分類任務(wù)來(lái)說(shuō)是不利的。A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤31.美國(guó)歐亞集團(tuán)咨詢公司將數(shù)據(jù)數(shù)量和質(zhì)量視為衡量人工智能發(fā)展?jié)摿Φ闹匾u(píng)價(jià)指標(biāo)。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確32.根據(jù)結(jié)構(gòu)不同,智能傳感器可以分為采集存儲(chǔ)型傳感器、篩選型傳感器、控制型傳感器等A、正確B、錯(cuò)誤【正確答案】:B解析:

如果從結(jié)構(gòu)上劃分,智能傳感器可以分為集成式、混合式和模塊式。33.利用one-hot表示一個(gè)向量,使用一個(gè)詞表長(zhǎng)的向量表示一個(gè)單詞,被表示單詞對(duì)應(yīng)的位置為0,其他單詞對(duì)應(yīng)的位置均為1A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤34.dropout方法在預(yù)測(cè)過(guò)程中keep_prob=1A、正確B、錯(cuò)誤【正確答案】:A解析:

正確35.神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制受到人類視覺(jué)中注意力的啟發(fā),即人類視覺(jué)注意力能夠聚焦到圖像的特定區(qū)域,并在這個(gè)區(qū)域有非常低的分辨率,而在其它區(qū)域有較高的分辨率。A、正確B、錯(cuò)誤【正確答案】:B解析:

神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制受到人類視覺(jué)中注意力的啟發(fā),即人類視覺(jué)注意力能夠聚焦到圖像的特定區(qū)域,并在這個(gè)區(qū)域有非常高的分辨率,而在其它區(qū)域有較低的分辨率。36.原始業(yè)務(wù)數(shù)據(jù)來(lái)自多個(gè)數(shù)據(jù)庫(kù)或數(shù)據(jù)倉(cāng)庫(kù),它們的結(jié)構(gòu)和規(guī)則可能是不同的,這將導(dǎo)致原始數(shù)據(jù)非常的雜亂、不可用,即使在同一個(gè)數(shù)據(jù)庫(kù)中,也可能存在重復(fù)的和不完整的數(shù)據(jù)信息,為了使這些數(shù)據(jù)能夠符合數(shù)據(jù)挖掘的要求,提高效率和得到清晰的結(jié)果,必須進(jìn)行數(shù)據(jù)的預(yù)處理。A、正確B、錯(cuò)誤【正確答案】:A解析:

037.近年來(lái)隨著算法的更迭、算力的升級(jí)、數(shù)據(jù)的爆發(fā),計(jì)算機(jī)視覺(jué)技術(shù)快速發(fā)展。特別是在深度學(xué)習(xí)算法出現(xiàn)后,計(jì)算機(jī)視覺(jué)技術(shù)得到了很大的突破,當(dāng)前已處于比較成熟的階段A、正確B、錯(cuò)誤【正確答案】:A解析:

正確38.麥特卡爾夫定律指的是在當(dāng)前我們凡是一個(gè)成功的商業(yè)運(yùn)作,總是把價(jià)格最低的資源盡可能消費(fèi)掉,來(lái)保留價(jià)格最貴的資源A、正確B、錯(cuò)誤【正確答案】:A解析:

正確39.Python字典中的“鍵”可以是列表。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)40.已知A和B是兩個(gè)集合,并且表達(dá)式AB的值為True。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)41.機(jī)器學(xué)習(xí)是指計(jì)算機(jī)使用大數(shù)據(jù)集而不是硬編碼規(guī)則來(lái)學(xué)習(xí)的能力。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確42.AI作為決策系統(tǒng)的前提是信息采集和自動(dòng)化實(shí)施要完備A、正確B、錯(cuò)誤【正確答案】:A解析:

正確43.Python標(biāo)準(zhǔn)庫(kù)threading中的Lock、RLock、Condition、Event、Semaphore對(duì)象都可以用來(lái)實(shí)現(xiàn)線程同步。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確44.一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開(kāi)成為一個(gè)完全連接的、具有無(wú)限長(zhǎng)度的普通神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤【正確答案】:A解析:

045.常用的單向循環(huán)神經(jīng)網(wǎng)絡(luò),同層的神經(jīng)元,彼此相連A、正確B、錯(cuò)誤【正確答案】:B解析:

常用的單向循環(huán)神經(jīng)網(wǎng)絡(luò),同層的神經(jīng)元,彼此不相連46.知識(shí)圖譜是一種基于圖的數(shù)據(jù)結(jié)構(gòu),由節(jié)點(diǎn)和邊組成,每個(gè)節(jié)點(diǎn)表示一個(gè)“實(shí)體”,每條邊為實(shí)體與實(shí)體之間的“關(guān)系”A、正確B、錯(cuò)誤【正確答案】:A解析:

正確47.對(duì)分類問(wèn)題,若類別數(shù)目為N,則最后一個(gè)全連接層的神經(jīng)元數(shù)目必須為NA、正確B、錯(cuò)誤【正確答案】:A解析:

正確48.神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層、輸出層基本組成。A、正確B、錯(cuò)誤【正確答案】:A解析:

049.使用paddle.optimizer.SGDAPI加載MNIST數(shù)據(jù)集A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)50.對(duì)于列表而言,在尾部追加元素比在中間位置插入元素速度更快一些,尤其是對(duì)于包含大量元素的列表。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確51.智慧城市的構(gòu)建包括聯(lián)網(wǎng)監(jiān)控。A、正確B、錯(cuò)誤【正確答案】:B解析:

052.只可以動(dòng)態(tài)為對(duì)象增加數(shù)據(jù)成員,而不能為對(duì)象動(dòng)態(tài)增加成員方法。A、正確B、錯(cuò)誤【正確答案】:B解析:

見(jiàn)函數(shù)庫(kù)53.Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和,這就是為什么ReLU會(huì)被提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和。A、正確B、錯(cuò)誤【正確答案】:B解析:

054.深度學(xué)習(xí)建模編寫方式中,靜態(tài)圖模式(命令式編程范式,類比Python):解析式的執(zhí)行方式。用戶無(wú)需預(yù)先定義完整的網(wǎng)絡(luò)結(jié)構(gòu),每寫一行網(wǎng)絡(luò)代碼,即可同時(shí)獲得計(jì)算結(jié)果A、正確B、錯(cuò)誤【正確答案】:B解析:

錯(cuò)誤55.知識(shí)圖譜構(gòu)建技術(shù)主要包括:知識(shí)抽取、知識(shí)融合、知識(shí)表示、知識(shí)驗(yàn)證和知識(shí)推理A、正確B、錯(cuò)誤【正確答案】:A解析:

正確56.人工智能的一個(gè)重要分支是PatternRecognition,中文名稱是模式識(shí)別它主要研究視覺(jué)和聽(tīng)覺(jué)的識(shí)別()A、正確B、錯(cuò)誤【正確答案】:A解析:

正確57.Python標(biāo)準(zhǔn)庫(kù)os中的方法isdir()可以用來(lái)測(cè)試給定的路徑是否為文件夾。A、正確B、錯(cuò)誤【正確答案】:A解析:

正確58.普通的循環(huán)神經(jīng)網(wǎng)絡(luò)會(huì)遇到梯度爆炸和梯度消失的問(wèn)題,所以現(xiàn)在在自然語(yǔ)言處理領(lǐng)域,一般會(huì)使用LSTM網(wǎng)絡(luò)模型。A、正確B、錯(cuò)誤【正確答案】:A解析:

長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LongShortTermMemory,簡(jiǎn)稱LSTM)模型,本質(zhì)上是一種特定形式的循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,簡(jiǎn)稱RNN)。LSTM模型在RNN模型的基礎(chǔ)上通過(guò)增加門限(Gates)來(lái)解決RNN短期記憶的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論