版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGEPAGE1392023年人工智能知識(shí)考試復(fù)習(xí)題庫(kù)500題(含各題型)一、單選題1.當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí)更()發(fā)生過(guò)擬合。A、不容易B、容易C、不會(huì)答案:B2.一幅256*256的圖像,若灰度級(jí)數(shù)為16,則存儲(chǔ)它所需的比特?cái)?shù)是()()A、256kB、512kC、1mD、2m答案:A3.長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了()導(dǎo)致單元內(nèi)的處理過(guò)程不同。A、輸入門(mén)B、記憶門(mén)C、忘記門(mén)D、輸出門(mén)答案:C4.關(guān)于集成學(xué)習(xí),下列說(shuō)法錯(cuò)誤的是A、集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B、Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C、Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D、Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴答案:A5.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是你有一個(gè)類似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來(lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用答案:C6.自然語(yǔ)言中的詞語(yǔ)需要轉(zhuǎn)化為計(jì)算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),通常會(huì)把自然語(yǔ)言中的詞語(yǔ)轉(zhuǎn)化為以下哪種數(shù)據(jù)結(jié)構(gòu):A、標(biāo)量B、向量C、結(jié)構(gòu)體D、有向圖答案:B7.設(shè)某樹(shù)的度為3,且度為3的結(jié)點(diǎn)數(shù)為4,度為1的結(jié)點(diǎn)數(shù)為9,沒(méi)有度為2的結(jié)點(diǎn)。則該樹(shù)中總的結(jié)點(diǎn)數(shù)為A、22B、21C、13D、20答案:A8.關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率答案:C9.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、都可以答案:D10.以下哪個(gè)聚類算法不是屬于基于原型的聚類()A、模糊均值B、EM算法C、SOMD、LIQUE答案:D11.通過(guò)()的方式,可以實(shí)現(xiàn)信息更快的向前傳播,梯度更快的向后傳播A、跨界連接B、跨層短接C、跨級(jí)連接D、跨級(jí)短接答案:B12.以下說(shuō)法正確的是()。A、聚類是非監(jiān)督學(xué)習(xí)B、分類是非監(jiān)督學(xué)習(xí)C、聚類是監(jiān)督學(xué)習(xí)D、以上都不對(duì)答案:A13.在數(shù)據(jù)集上使用2-fold交叉驗(yàn)證,應(yīng)該在kf=KFold(n_splits=_)"_"處填入:A、2B、4C、6$;8%答案:A14.以下關(guān)于邏輯回歸說(shuō)法不正確的是A、logistic回歸本質(zhì)上是線性回歸B、邏輯回歸支持二分類和多分類問(wèn)題,但不支持連續(xù)特征C、logistic回歸在特征到結(jié)果的映射中加入了一層函數(shù)映射,即先把特征線性求和,然后使用函數(shù)g(z)作為假設(shè)函數(shù)來(lái)預(yù)測(cè)。D、邏輯回歸支持二分類和多分類問(wèn)題,支持類別特征,但類別特征在字符串索引后需要進(jìn)行one-hot算子處理。答案:B15.邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLU函數(shù)D、LeakyReLU函數(shù)答案:A16.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:A17.小王和老張交換名片后,小王打開(kāi)手機(jī)中安裝的靈云智能輸入法app,拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是()A、模式識(shí)別B、文字合成C、圖像搜索D、圖像還原答案:A18.深度學(xué)習(xí)可以用在下列哪項(xiàng)NLP任務(wù)中A、情感分析B、問(wèn)答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D19.DBSCAN算法將“簇”定義為:由()導(dǎo)出的最大的密度相連樣本集合。A、密度直達(dá)關(guān)系B、密度可達(dá)關(guān)系C、密度相連關(guān)系答案:B20.下列哪項(xiàng)算法構(gòu)建了深度學(xué)習(xí)的重要基礎(chǔ):()A、霍夫曼編碼B、最大流-最小割算法C、A*算法D、SGD反向傳播答案:D21.數(shù)據(jù)清洗過(guò)程不包括A、補(bǔ)全缺失的數(shù)據(jù)B、修改格式和內(nèi)容錯(cuò)誤的數(shù)據(jù)C、修改邏輯錯(cuò)誤的數(shù)據(jù)D、數(shù)據(jù)ETL答案:D22.()是人工智能的核心,是使計(jì)算機(jī)具有智能的主要方法,其應(yīng)用遍及人工智能的各個(gè)領(lǐng)域。A、深度學(xué)習(xí)B、人機(jī)交互C、機(jī)器學(xué)習(xí)D、智能芯片答案:C23.在一個(gè)簡(jiǎn)單的MLP模型中,輸入層有8個(gè)神經(jīng)元,隱藏層有5個(gè)神經(jīng)元,輸出層有1個(gè)神經(jīng)元。隱藏輸出層和輸入隱藏層之間的權(quán)重矩陣的大小是多少?A、[1X5],[5X8]B、[8×5],[1×5]C、[5×8],[5×1]D、[5×1],[8×5]答案:D24.下列哪個(gè)函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x答案:D25.卷積神經(jīng)網(wǎng)絡(luò)作為一種常見(jiàn)的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)已被廣泛接受,下列任務(wù)的主流方法中沒(méi)有用到卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)是A、圖像風(fēng)格遷移B、圖像分割C、人臉識(shí)別D、房?jī)r(jià)預(yù)測(cè)答案:D26.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。A、權(quán)重B、偏置C、激活函數(shù)D、學(xué)習(xí)率答案:D27.以下不是貝葉斯回歸的優(yōu)點(diǎn)的是哪一項(xiàng)A、它能根據(jù)已有的數(shù)據(jù)進(jìn)行改變B、它能在估計(jì)過(guò)程中引入正則項(xiàng)C、貝葉斯回歸的推斷速度快答案:C28.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)答案:C29.以下對(duì)字典的說(shuō)法錯(cuò)誤的是()。A、字典可以為空B、字典的鍵不能相同C、字典的鍵不可變D、字典的鍵的值不可變答案:D30.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對(duì)答案:A31.下列哪個(gè)不是激活函數(shù)()。A、sigmodB、reluC、tanhD、hidden答案:D32.將輸出標(biāo)記的對(duì)數(shù)作為線性模型逼近的目標(biāo)是(___)。A、對(duì)數(shù)幾率回歸B、對(duì)數(shù)線性回歸C、極大似然法D、正則化答案:B33.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享A、卷積神經(jīng)網(wǎng)絡(luò)B、&;&循環(huán)神經(jīng)網(wǎng)絡(luò)C、&;&全連接神經(jīng)網(wǎng)絡(luò)D、&;&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)答案:D34.相同的詞可以如何實(shí)現(xiàn)多個(gè)詞嵌入?A、GloVeB、Word2VecC、ELMoD、Nltk答案:C35.下列方法中,能夠返回某個(gè)字串在字符串中出現(xiàn)的次數(shù)的是()。A、len()B、count()C、find()D、split()答案:B36.盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭(zhēng)鳴”的局面,但是,當(dāng)前國(guó)際人工智能的主流派仍屬于:()A、連接主義B、符號(hào)主義C、行為主義D、經(jīng)驗(yàn)主義答案:B37.下面關(guān)于模型預(yù)測(cè)性能的評(píng)估以及交叉驗(yàn)證,說(shuō)法正確的是()A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromsklearnimportcross_validationB、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測(cè)試集,這種方法叫做留一交叉驗(yàn)證法C、需要把數(shù)據(jù)分成訓(xùn)練集和測(cè)試集,用測(cè)試集來(lái)評(píng)估從訓(xùn)練集學(xué)習(xí)得來(lái)的模型的預(yù)測(cè)性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來(lái)的模型可能對(duì)于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對(duì)于訓(xùn)練集以外的數(shù)據(jù)沒(méi)有太大的泛化能力D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測(cè)準(zhǔn)確率一般會(huì)比用測(cè)試集得到的預(yù)測(cè)準(zhǔn)確率低答案:C38.CRF(條件隨機(jī)場(chǎng))和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。答案:B39.一般一顆決策樹(shù)不包含A、一個(gè)根節(jié)點(diǎn)B、若干個(gè)內(nèi)部節(jié)點(diǎn)C、若干個(gè)外部節(jié)點(diǎn)D、若干個(gè)葉子節(jié)點(diǎn)答案:C40.以下哪種問(wèn)題主要采用無(wú)監(jiān)督學(xué)習(xí)方法?A、頻繁項(xiàng)挖掘B、股價(jià)預(yù)測(cè)C、圖像分類D、文本情感分析答案:A41.以下哪種方法不可以有效防止過(guò)擬合?()A、使用Mini-batchB、設(shè)置EarlyStopingC、使用DropoutD、更換網(wǎng)絡(luò)架構(gòu)答案:A42.圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)處理內(nèi)容的抽象性,從低到高依次為A、圖像分析,圖像處理,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像處理,圖像分析,圖像理解D、圖像理解,圖像分析,圖像處理答案:C43.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B44.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列哪一種方法可能是解決此問(wèn)題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B45."df.csv"是一個(gè)在當(dāng)前ipynb文件根目錄下的csv表格,該文件具有3列數(shù)據(jù),讀取過(guò)程中為避免將第一行數(shù)據(jù)讀取為dataframe的column名,應(yīng)采取以下哪種語(yǔ)句讀入()A、df=pandas.read_csv('df.csv')B、df=pandas.read_csv('df.csv',header=None)C、df=pandas.read_csv('df.csv')D、df=pandas.read_excel('df.csv',header=None)答案:B46.測(cè)試集應(yīng)盡可能與訓(xùn)練集A、相容B、相等C、互斥D、包含答案:C47.關(guān)于集成學(xué)習(xí),以下說(shuō)法錯(cuò)誤的是A、集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B、Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C、Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D、Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴答案:A48.在執(zhí)行了以下的文本清理步驟之后,可從下面的語(yǔ)句中生成多少三元組短語(yǔ)(trigram)操作:[1].停用詞移除[2].使用單一空格替換標(biāo)點(diǎn)符號(hào)語(yǔ)句:#Analytics-vidhyaisagreatsourcetolearndata_science.A、3B、4C、5D、6答案:C49.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)答案:B50.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C51.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來(lái)越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①③B、①②③C、②③D、①②答案:B52.哪個(gè)不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax答案:D53.有一個(gè)28x28的圖片,并使用輸入深度為3和輸出深度為8在上面運(yùn)行一個(gè)3x3的卷積神經(jīng)網(wǎng)絡(luò)。注意,步幅是1,你正在使用相同的填充(padding)當(dāng)使用給定的參數(shù)時(shí),輸出特征圖的尺寸是多少?()A、13寬、13高、8深B、28寬、28高、8深C、13寬、28高、8深D、28寬、13高、8深答案:B54.如何對(duì)featuremaps繼續(xù)進(jìn)行卷積操作?通過(guò)多通道卷積。假設(shè)上一個(gè)卷積層已得到3個(gè)3X3的featuremaps,3個(gè)2x2的卷積核可表示為具有三個(gè)通道卷積核立方體,生成一個(gè)()大小的featuremap。A、2X2B、3X3C、2X3D、6X6答案:A55.蒙特卡羅強(qiáng)化學(xué)習(xí)算法的本質(zhì),是通過(guò)多次嘗試后求平均來(lái)作為期望累計(jì)獎(jiǎng)賞的金絲,但它在求平均時(shí)是采用哪種方式進(jìn)行?A、逐一式B、循環(huán)式C、分組式D、批處理答案:D56..混沌度(Perplexity)是一種常見(jiàn)的應(yīng)用在使用深度學(xué)習(xí)處理NLP問(wèn)題過(guò)程中的評(píng)估技術(shù),關(guān)于混沌度,哪種說(shuō)法是正確的?A、混沌度沒(méi)什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對(duì)于結(jié)果的影響不一定答案:B57.基于統(tǒng)計(jì)的異常點(diǎn)檢測(cè)算法不包括A、基于正態(tài)分布的異常點(diǎn)檢測(cè)算法B、基于距離的異常點(diǎn)檢測(cè)算法C、3δ原則D、簡(jiǎn)單統(tǒng)計(jì)分析答案:A58.變量a的值為字符串類型的“2”,如何將它轉(zhuǎn)換為整型?A、castTolnt(a)B、int(a)C、integer(a)D、castTointeger(a)答案:B59.在集成學(xué)習(xí)中,當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),最常見(jiàn)的結(jié)合策略是()。A、平均法B、投票法C、學(xué)習(xí)法答案:C60.下列哪項(xiàng)是自然語(yǔ)言處理的Python開(kāi)發(fā)包?A、openCVB、jiebaC、sklearnD、XGBoost答案:B61.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、不斷遞歸而衰退B、不斷遞歸而增強(qiáng)C、先增強(qiáng)后減弱D、先減弱后增強(qiáng)答案:A62.在Python中__________表示空類型。A、NoneB、nullC、undefinedD、0答案:A63.對(duì)于一個(gè)圖像識(shí)別問(wèn)題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D64.如果我們用了一個(gè)過(guò)大的學(xué)習(xí)速率會(huì)發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂B、不好說(shuō)C、都不對(duì)D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂答案:D65.以下不屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點(diǎn)的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接答案:B66.半監(jiān)督學(xué)習(xí)包括(___)。A、純半監(jiān)督學(xué)習(xí)B、主動(dòng)學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、答案:A67.不同于通常涉及大量的規(guī)則編碼的早期常識(shí)語(yǔ)言處理,現(xiàn)代NLP算法是基于()A、自動(dòng)識(shí)別B、機(jī)器學(xué)習(xí)C、模式識(shí)別D、算法輔助答案:B68.下述()不是人工智能中常用的知識(shí)格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、形象描寫(xiě)表示法答案:D69.下列選項(xiàng)中,不屬于深度學(xué)習(xí)模型的是A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A70.下面的問(wèn)題,屬于分類問(wèn)題的是;A、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工在接下來(lái)一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的績(jī)效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工是否可能會(huì)在接下來(lái)的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長(zhǎng)環(huán)境、工作年限、績(jī)效考核等數(shù)據(jù),預(yù)測(cè)員工下一季度的銷售額答案:C71.下面不屬于有監(jiān)督學(xué)習(xí)的算法的是A、決策樹(shù)B、隨機(jī)森林C、線性回歸D、K-Means答案:D72.超市收銀員用掃描器直接掃描商品的條形碼,商品的價(jià)格信息就會(huì)呈現(xiàn)出來(lái),這主要利用了人工智能中的()技術(shù)。A、智能代理B、模式識(shí)別C、機(jī)器翻譯D、專家系統(tǒng)答案:B73.人工神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系是()A、人工神經(jīng)元網(wǎng)絡(luò)是深度學(xué)習(xí)的前身B、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)分支C、深度學(xué)習(xí)是人工神經(jīng)元網(wǎng)絡(luò)的一個(gè)發(fā)展D、深度學(xué)習(xí)與人工神經(jīng)元網(wǎng)絡(luò)無(wú)關(guān)答案:C74.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingB、BaggingC、StackingD、Mapping答案:B75.下列算法常用于聚類的問(wèn)題是()A、k-meansB、邏輯回歸模型C、決策樹(shù)模型D、隨機(jī)森林模型答案:A76.以下哪些是通用逼近器?A、KernelSVMB、NeuralNetworksC、BoostedDecisionTreesD、以上所有答案:D77.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過(guò)程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸答案:C78.下列關(guān)于JupyterNotebook的描述錯(cuò)誤的是A、JupyterNotebook有兩種模式:編輯模式、命令模式B、JupyterNotebook有兩種形式的單元:Code單元、Markdown單元C、JupyterNotebookMarkdown可以使用LaTeX語(yǔ)法D、JupyterNotebook可以支持Python等多種語(yǔ)言答案:B79.數(shù)據(jù)挖掘技術(shù)主要有分類、估計(jì)、()、關(guān)聯(lián)分析和預(yù)報(bào)。A、回歸B、統(tǒng)計(jì)C、聚類D、假設(shè)答案:C80.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性A、隨機(jī)梯度下降B、Sigmoid激活函數(shù)C、增大權(quán)重和偏置的初始化值D、以上都不正確答案:B81.以下關(guān)于特征工程的說(shuō)法不正確的是A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個(gè)上限C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提取、特征選擇三個(gè)部分。D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。答案:D82.常見(jiàn)的數(shù)據(jù)集劃分方式不包括A、留出法B、裝袋法C、交叉驗(yàn)證法D、自助法答案:B83.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車(chē)輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車(chē)和卡車(chē)的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車(chē)輛的名稱(車(chē)輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(chē)(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉?chē)輛在照片中的位置。()A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)答案:B84.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingB、BaggingC、StackingD、Mapping答案:B85.下述()不是人工智能中常用的知識(shí)格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語(yǔ)義網(wǎng)絡(luò)表示法D、形象描寫(xiě)表示法答案:D86.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問(wèn)題的方法是?()A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D87.混淆矩陣中TP=16,FP=12,FN=8,TN=4,精確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:C88.以下方法屬于無(wú)監(jiān)督學(xué)習(xí)的是?()A、LogisticRegressionB、SVMC、DBSCAND、DecisionTree答案:C89.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB、ReLuC、SigmoidD、Tanh答案:A90.獨(dú)熱編碼的缺點(diǎn)是:①.過(guò)于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④答案:B91.數(shù)據(jù)分析常用包pandas的函數(shù)to_datetime可以將字符串轉(zhuǎn)換為時(shí)間戳,現(xiàn)需要將”20220601”轉(zhuǎn)換為時(shí)間戳,請(qǐng)問(wèn)下列哪項(xiàng)語(yǔ)句可以實(shí)現(xiàn)該項(xiàng)需求A、pd.to_datetime('20220601',format='%Y%m%d')B、pd.to_datetime('20220601',format='%Y%M%d')C、pd.to_datetime('20220601',format='%Y%m%D')D、pd.to_datetime('20220601',format='%Y%M%D')答案:A92.Matplotlib庫(kù)中,用來(lái)繪制等值圖的pyplot的基礎(chǔ)圖標(biāo)函數(shù)是()。A、plt.vlines()B、plt.plot_date()C、plt.contour(X,Y,Z,N)D、plt.specgram(x,NFFT=256,pad_to,F)答案:C93.在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為()。A、[11,8,7,2,[4,5],3]B、[11,8,7,2,4,5,3]C、[11,8,7,[4,5],2,3]D、[11,8,7,4,5,2,3]答案:A94.機(jī)器學(xué)習(xí)中,模型需要輸入什么來(lái)訓(xùn)練自身,預(yù)測(cè)未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)答案:D95.圖像識(shí)別是以圖像的主要()為基礎(chǔ)的A、元素B、像素C、特征D、部件答案:C96.()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點(diǎn)盡可能接近、異類樣例投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來(lái)確定樣本的類別.A、多分類學(xué)習(xí)B、對(duì)數(shù)幾率回歸C、線性判別分析D、多分類學(xué)習(xí)答案:C97.OCR是指對(duì)文本書(shū)面資料(印刷字體、手寫(xiě)字體)的圖像文件進(jìn)行分析識(shí)別處理,獲取文字及版面信息的過(guò)程,其中文全程是()。A、光學(xué)字符識(shí)別B、文字識(shí)別C、字符識(shí)別D、書(shū)面識(shí)別答案:A98.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5答案:C99.回歸分析的任務(wù),就是根據(jù)()和因變量的觀察值,估計(jì)這個(gè)函數(shù),并討論與之有關(guān)的種種統(tǒng)計(jì)推斷的問(wèn)題A、相關(guān)變量B、樣本C、已知數(shù)據(jù)D、自變量答案:D100.對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好答案:C101.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B102.為什么批量梯度下降法(BGD)尋優(yōu)路徑相對(duì)比較平滑()A、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值減小的方向B、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值增加的方向C、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值不變的方向D、批量梯度下降法(BGD)每一次對(duì)模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值發(fā)生變化的方向答案:A103.機(jī)器學(xué)習(xí)中的決策樹(shù)學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過(guò)程,決策樹(shù)代表的是一種()過(guò)程A、預(yù)測(cè)B、回歸C、分類D、聚類答案:C104.以下的場(chǎng)景中,適合使用聚類算法的是:A、根據(jù)顧客的年齡、收入、職業(yè)、購(gòu)買(mǎi)頻率、購(gòu)買(mǎi)習(xí)慣等相關(guān)信息,預(yù)測(cè)顧客的消費(fèi)額B、據(jù)顧客的年齡、收入、職業(yè)、購(gòu)買(mǎi)頻率、購(gòu)買(mǎi)習(xí)慣等相關(guān)信息,預(yù)測(cè)顧客是否會(huì)重復(fù)購(gòu)買(mǎi)C、根據(jù)顧客的年齡、收入、職業(yè)、購(gòu)買(mǎi)頻率、購(gòu)買(mǎi)習(xí)慣等相關(guān)信息,把顧客分成不同顧客群體,針對(duì)不同的顧客群體采取針對(duì)性強(qiáng)的產(chǎn)品推廣方法D、據(jù)顧客的年齡、收入、職業(yè)、購(gòu)買(mǎi)頻率、購(gòu)買(mǎi)習(xí)慣等相關(guān)信息,給顧客推薦不同的商品答案:C105.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、給定標(biāo)簽B、離散C、分類D、回歸答案:D106.關(guān)于knn說(shuō)法不正確的是()A、需要及時(shí)測(cè)試樣本與所有訓(xùn)練樣本的距離B、可以用于分類和回歸C、有參模型D、是一種基于樣本的算法答案:A107.Python內(nèi)置函數(shù)_____用來(lái)返回序列中的最大元素。A、maxin()B、max()C、min()D、least()答案:B108.下面哪個(gè)選項(xiàng)中哪一項(xiàng)屬于確定性算法A、PCAB、K-MeansC、以上都不是D、AB都是答案:A109.對(duì)于MLP,輸入層中的節(jié)點(diǎn)數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是:A、50B、小于50C、超過(guò)50D、這是一個(gè)任意值答案:A110.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是()A、學(xué)習(xí)率太小,更新速度慢B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改答案:C111.以下不屬于回歸分析的是()。A、線性回歸B、BP神經(jīng)網(wǎng)絡(luò)C、ARIMAD、SVM支撐向量機(jī)答案:C112.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D113.下列關(guān)于深度學(xué)習(xí)說(shuō)法錯(cuò)誤的是A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問(wèn)題B、CNN相比于全連接的優(yōu)勢(shì)之一是模型復(fù)雜度低,緩解過(guò)擬合C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過(guò)程中陷入鞍點(diǎn)的問(wèn)題答案:C114.下列選項(xiàng)中,哪個(gè)不是關(guān)鍵詞提取常用的算法()A、TF-IDFB、TextRankC、SSAD、LDA答案:C115.()是下面代碼的運(yùn)行結(jié)果。A、importnumpyasnpa=np.arange(12).reshape((3,4))print(mean())[4,5,6,7]B、16.5C、5.5D、[1.5,5.5,9.5]答案:C116.模型出現(xiàn)過(guò)擬合,以下何種措施無(wú)法降低過(guò)擬合現(xiàn)象A、添加正則化項(xiàng)B、降低模型復(fù)雜度C、減少訓(xùn)練數(shù)據(jù)量D、使用Dropout答案:C117.python安裝拓展庫(kù)常用的工具是A、yumB、prmC、pipD、install答案:C118.屬于常見(jiàn)損失函數(shù):A、計(jì)算預(yù)測(cè)值函數(shù)B、求偏導(dǎo)數(shù)函數(shù)C、均方誤差損失函數(shù)D、更新參數(shù)函數(shù)答案:C119.以下哪些方法不可以直接來(lái)對(duì)文本分類?A、K-MeansB、決策樹(shù)C、支持向量機(jī)D、kNN答案:A120.為了對(duì)某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對(duì)圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割答案:D121.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?()A、卷積層B、全連接層C、池化層D、以上都不是答案:B122.深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過(guò)程是由三個(gè)算法依次運(yùn)行組成,下面不屬于這三個(gè)算法中的是A、歸一化B、正向傳播C、反向傳播D、梯度下降答案:A123.根據(jù)機(jī)器智能水平由低到高,正確的是()A、計(jì)算智能、感知智能、認(rèn)知智能B、計(jì)算智能、感應(yīng)智能、認(rèn)知智能C、機(jī)器智能、感知智能、認(rèn)知智能D、機(jī)器智能、感應(yīng)智能、認(rèn)知智能答案:A124.下面關(guān)于Jarvis-Patrik(JP)聚類算法的說(shuō)法不正確的是()。A、JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。B、JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時(shí)間復(fù)雜度為O(m)。答案:D125.人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。A、單元學(xué)習(xí)算法B、多層網(wǎng)絡(luò)學(xué)習(xí)C、決策樹(shù)學(xué)習(xí)D、概念學(xué)習(xí)答案:B126.傳統(tǒng)GBDT以()作為基分類器A、線性分類器B、CARTC、gblinearD、svm答案:B127.K折法是下列哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:B128.代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A、[01]B、[345]C、[23]D、[012]答案:B129.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?A、樣本輸入順序B、模式相似性測(cè)度C、聚類準(zhǔn)則D、初始類中心的選取答案:C130.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、熵越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個(gè)條件熵對(duì)信息熵減少程序越大,也就是說(shuō),這個(gè)屬性對(duì)于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D、熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性答案:C131.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^(guò)程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無(wú)C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重答案:C132.在模型中全連接層可采用A、paddle.nn.LinearB、paddle.nn.Conv2DC、paddle.nn.MaxPool2DD、paddle.nn.ReLU答案:A133.對(duì)應(yīng)GradientBoostingtree算法,以下說(shuō)法正確的是:1.當(dāng)增加最小樣本分裂個(gè)數(shù),我們可以抵制過(guò)擬合2.當(dāng)增加最小樣本分裂個(gè)數(shù),會(huì)導(dǎo)致過(guò)擬合3.當(dāng)我們減少訓(xùn)練單個(gè)學(xué)習(xí)器的樣本個(gè)數(shù),我們可以降低variance4.當(dāng)我們減少訓(xùn)練單個(gè)學(xué)習(xí)器的樣本個(gè)數(shù),我們可以降低biasA、2和4B、2和3C、1和3D、1和4答案:C134.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來(lái)保證得到的模型是線性可分離的?A、C=0B、C=1C、C正無(wú)窮大D、C負(fù)無(wú)窮大答案:C135.Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器答案:A136.下面哪種方法沒(méi)辦法直接應(yīng)用于自然語(yǔ)言處理的任務(wù)?A、去語(yǔ)法模型B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、主成分分析(PCA)答案:D137.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長(zhǎng)解決以下哪些問(wèn)題?A、序列相關(guān)問(wèn)題B、圖像分類C、圖像檢測(cè)D、推薦問(wèn)題答案:A138.有如下兩組數(shù)據(jù){(-1,0),(-1,2),(1,2)}{(0,0),(1,0),(1,1)}我們?cè)谠摂?shù)據(jù)集上訓(xùn)練一個(gè)線性SVM模型,該模型中的支持向量是哪些?()A、(?1,2),(1,1),(1,0)B、(?1,0),(?1,2),(1,1),(1,0)C、(?1,0),(1,2),(0,0),(1,1)D、(?1,0),(-1,2),(0,0),(1,0)答案:C139.在Skip-gram實(shí)際實(shí)現(xiàn)的過(guò)程中,通常會(huì)讓模型接收()個(gè)tensor輸入。A、1B、2C、3D、4答案:C140.對(duì)于給定的關(guān)于天氣信息的數(shù)據(jù)集,已知空氣的溫度、濕度、氣壓、是否降雨以及pm2.5指數(shù),需要建立一個(gè)回歸模型預(yù)測(cè)pm2.5指數(shù),這是一個(gè)()。A、半監(jiān)督學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、無(wú)監(jiān)督學(xué)習(xí)D、有監(jiān)督的學(xué)習(xí)答案:D141.下列不屬于特征降維的作用是A、降低時(shí)間復(fù)雜度和空間復(fù)雜度B、較簡(jiǎn)單的模型在小數(shù)據(jù)集上有更強(qiáng)的魯棒性C、提升模型效果D、降低算法的計(jì)算開(kāi)銷答案:B142.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問(wèn)標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的數(shù)字,又稱為什么呢A、給定標(biāo)簽B、離散C、分類D、回歸答案:D143.()是用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A144.梯度下降算法的正確步驟是什么?1計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2重復(fù)迭代,直?得到?絡(luò)權(quán)重的最佳值3把輸?傳??絡(luò),得到輸出值4隨機(jī)值初始化權(quán)重和偏差5對(duì)每個(gè)產(chǎn)?誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減?誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2答案:D145.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯(cuò)誤的是?()A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問(wèn)題,引入了F1值答案:C146.人工神經(jīng)元內(nèi)部運(yùn)算包含哪兩個(gè)部分:A、非線性變換和激活變換B、線性變換和非線性變換C、向量變換和標(biāo)量變換D、化學(xué)變換和電變換答案:B147.以下哪些分類方法可以較好地避免樣本的不平衡問(wèn)題()A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A148.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6答案:D149.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?()A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A150.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端答案:A151.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來(lái)解決車(chē)輛檢測(cè)問(wèn)題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車(chē)和卡車(chē)的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測(cè)出每種車(chē)輛的名稱(車(chē)輛共有10種類型)?,F(xiàn)在想要使用這個(gè)模型來(lái)解決另外一個(gè)問(wèn)題,問(wèn)題數(shù)據(jù)集中僅包含一種車(chē)(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉?chē)輛在照片中的位置。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)答案:B152.重復(fù)K-折交叉驗(yàn)證應(yīng)該使用哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:A153.在用于文本分類的隱狄利克雷分布(LDA)模型中,α和β超參數(shù)表征什么?A、α:文檔中的主題數(shù)量,β:假主題中的詞條數(shù)量B、α:主題內(nèi)生成的詞條密度,β:假詞條中生成的主題密度C、α:文檔中的主題數(shù)量,β:假主題中的詞條數(shù)量D、α:文檔中生成的主題密度,β:真主題內(nèi)生成的詞密度答案:D154.常用的圖像特征包括A、顏色特征B、形狀特征C、紋理特征D、像素特征答案:D155.K-Means算法無(wú)法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布答案:B156.邏輯回歸模型是解決什么問(wèn)題的模型?A、分類問(wèn)題B、聚類問(wèn)題C、回歸問(wèn)題答案:A157.當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)A、全批量梯度下降B、隨機(jī)梯度下降答案:B158.不屬于常見(jiàn)激活:A、sigmoidB、ReluC、NMSD、Tanh答案:C159.以下關(guān)于數(shù)據(jù)質(zhì)量的說(shuō)法不正確的是A、數(shù)據(jù)質(zhì)量是基于一組定性或定量變量的值的條件下提出的概念B、數(shù)據(jù)內(nèi)部一致性的問(wèn)題非常重要C、一組數(shù)據(jù)特性滿足業(yè)務(wù)需求的程度D、數(shù)據(jù)清洗的必要性不大答案:D160.現(xiàn)要將某氣象觀測(cè)站每天不同時(shí)間點(diǎn)的氣溫及濕度的觀察值保存,方便以后進(jìn)行調(diào)用及查詢,在Python3哪種數(shù)據(jù)結(jié)構(gòu)更合適?A、字符串B、列表C、集合D、字典答案:D161.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對(duì)數(shù)損失函數(shù)D、Hinge損失函數(shù)答案:B162.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說(shuō)法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B163.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDD、MBGD答案:A164.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、2答案:A165.在圖搜索中,選擇最有希望的節(jié)點(diǎn)作為下一個(gè)要擴(kuò)展的節(jié)點(diǎn),這種搜索方法叫做()A、寬度搜索B、深度搜索C、有序搜索D、廣義搜索答案:C166.數(shù)據(jù)挖掘技術(shù)包括三個(gè)主要的部分()。A、數(shù)據(jù)、模型、技術(shù)B、算法、技術(shù)、領(lǐng)域知識(shí)C、數(shù)據(jù)、建模能力、算法與技術(shù)D、建模能力、算法與技術(shù)、領(lǐng)域知識(shí)答案:C167.假設(shè)一個(gè)公司的薪資水平中位數(shù)是35000,排名前25%和75%分別是60000和20000,如果某人的薪水是3000,那么他可以被看出異常值嗎A、可以B、不可以C、需要更多信息D、以上說(shuō)法都不對(duì)答案:A168.使用一個(gè)滑動(dòng)窗口對(duì)語(yǔ)料()掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測(cè)它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從左到右B、從上到下C、從右到左D、從下到上答案:A169.聲明1:可以通過(guò)將所有權(quán)重初始化為0來(lái)訓(xùn)練網(wǎng)絡(luò)。聲明2:可以通過(guò)將偏差初始化為0來(lái)很好地訓(xùn)練網(wǎng)絡(luò)以上哪些陳述是真實(shí)的?A、1對(duì)2錯(cuò)誤B、1錯(cuò)誤2對(duì)C、1和2都對(duì)D、1和2都錯(cuò)誤答案:B170.下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量越多B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多少有關(guān)D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時(shí)間長(zhǎng)答案:C171.下列哪項(xiàng)不是噪聲數(shù)據(jù)的主要表現(xiàn)形式A、錯(cuò)誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、重復(fù)數(shù)據(jù)答案:D172.用于分類與回歸應(yīng)用的主要算法有()A、隨機(jī)森林、AprioriB、邏輯回歸、K均值、決策樹(shù)C、支持向量機(jī)、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)、BP神經(jīng)網(wǎng)絡(luò)、樸素貝葉斯答案:D173.讀取文件時(shí)并指定文件以空格分隔,則應(yīng)該添加A、sep="\n”B、sep="\t”C、sep=""D、sep="\r”答案:C174.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說(shuō)法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)答案:A175.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了減少訓(xùn)練時(shí)間,我們可以A、增加樹(shù)的深度B、增大學(xué)習(xí)率(LearninRate)C、對(duì)決策樹(shù)模型進(jìn)行預(yù)剪枝D、減少樹(shù)的數(shù)量答案:C176.在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是()A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)答案:A177.下面哪一項(xiàng)對(duì)梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個(gè)訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。A、只有1BB、只有2C、只有3D、都正確答案:A178.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score答案:A179.ID3算法選擇劃分屬性的準(zhǔn)則是A、信息增益B、增益率C、基尼系數(shù)D、信息熵答案:A180.Python中有這樣一個(gè)示例:types=['娛樂(lè)','體育','科技'],在使用列表時(shí),以下哪個(gè)選項(xiàng),會(huì)引起索引錯(cuò)誤A、types[-1]B、types[-2]C、types[0]D、types[3]答案:D181.表達(dá)式3andnot5的值為_(kāi)______。A、FALSEB、3C、TRUED、2答案:A182.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來(lái)形容下列哪個(gè)模型?A、KMeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C183.下列不屬于數(shù)據(jù)脫敏操作必須滿足的要求的是A、單向性B、無(wú)殘留C、易于實(shí)現(xiàn)D、雙向性答案:D184.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯(cuò)誤的是?A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫(kù)中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問(wèn)題,引入了F1分?jǐn)?shù)答案:C185.手寫(xiě)數(shù)字識(shí)別的例子中,輸入的圖片為長(zhǎng)和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個(gè)問(wèn)題,輸入層是()維的,輸出層是()維的。A、784;10B、28;10C、784;1D、28;1答案:A186.有關(guān)深度學(xué)習(xí)加速芯片,以下的說(shuō)法中不正確的是:()A、GPU既可以做游戲圖形加速,也可以做深度學(xué)習(xí)加速B、用于玩游戲的高配置顯卡,也可以用于深度學(xué)習(xí)計(jì)算。C、GoogleTPU已經(jīng)發(fā)展了三代,它們只能用于推斷(Inference)計(jì)算,不能用于訓(xùn)練(Training)計(jì)算D、FPGA最早是作為CPLD的競(jìng)爭(zhēng)技術(shù)而出現(xiàn)的答案:C187.從給定的特征集合中選擇出相關(guān)特征子集的過(guò)程,稱為(___)A、特征抽取B、特征選擇C、特征降維D、特征簡(jiǎn)化答案:B188.使用一組槽來(lái)描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語(yǔ)義網(wǎng)絡(luò)法B、過(guò)程表示法C、劇本表示法D、框架表示法答案:C189.下面對(duì)強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的描述正確的是A、評(píng)估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式B、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式C、評(píng)估學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式D、無(wú)標(biāo)注學(xué)習(xí)、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式答案:A190.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:()A、logistic回歸B、SVMC、樹(shù)形模型D、神經(jīng)網(wǎng)絡(luò)答案:C191.在高斯混合分布中,其隱變量的含義是在高斯混合分布中,其隱變量的含義是A、表示高斯分布的方差B、表示高斯分布的均值C、表示數(shù)據(jù)分布的概率D、表示數(shù)據(jù)從某個(gè)高斯分布中產(chǎn)生答案:D192.循環(huán)神經(jīng)網(wǎng)最常用的激活函數(shù)是tanh,除了tanh還可以使用:①.relu②.sigmoid③.softmax④.完全不使用激活函數(shù)A、①③④B、①②③C、①③④D、①②④答案:B193.以下屬于生成式模型的是:()A、SVMB、隨機(jī)森林C、隱馬爾可夫模型HMMD、邏輯回歸答案:C194.下列有關(guān)樸素貝葉斯的說(shuō)法不正確的是:A、易于實(shí)現(xiàn),但學(xué)習(xí)和預(yù)測(cè)的效率低B、在數(shù)據(jù)較少的時(shí)仍然有效C、特征獨(dú)立性假設(shè)使模型變得簡(jiǎn)單D、可以處理多分類問(wèn)題答案:A195.以下哪種算法不屬于數(shù)據(jù)挖掘技術(shù)中的算法()。A、聚類B、神經(jīng)網(wǎng)絡(luò)C、決策樹(shù)D、RSA加密算法答案:D196.欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過(guò)多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B197.1x1卷積的主要作用是A、加快卷積運(yùn)算B、增大卷積核C、擴(kuò)大感受野D、通道降維答案:D198.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說(shuō)法正確的是A、Adam的收斂速度比RMSprop慢B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C、對(duì)于輕量級(jí)神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的答案:D199.文本分類模型組成部分的正確順序是?1.文本清理(Textcleaning)2.文本標(biāo)注(Textannotation)3.梯度下降(Gradientdescent)4.模型調(diào)優(yōu)(Modeltuning)5.文本到預(yù)測(cè)器(Texttopredictors)A、12345B、13425C、12534D、13452答案:C200.L1正則和L2正則的共同點(diǎn)是什么?A、都會(huì)讓數(shù)據(jù)集中的特征數(shù)量減少B、都會(huì)增大模型的偏差C、都會(huì)增大模型方差D、沒(méi)有正確選項(xiàng)答案:D201.以下哪一項(xiàng)是不合法的布爾表達(dá)式A、xinrange(6)B、3=aC、e>5and4==fD、(x-6)>5答案:B202.模型的高bias(偏差)是什么意思,如何降低它()?A、在特征空間中減少特征B、在特征空間中增加特征C、增加數(shù)據(jù)點(diǎn)D、B和CE、以上所有答案:B203.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字B、字符C、符號(hào)D、英文答案:A204.代碼array=np.arange(10,31,5)中的5代表()?A、元素的個(gè)數(shù)B、步長(zhǎng)C、第一個(gè)元素D、最后一個(gè)元素答案:B205.下列選項(xiàng)中,屬于人工智能應(yīng)用的是()A、人與計(jì)算機(jī)下棋B、利用計(jì)算機(jī)播放視頻C、利用計(jì)算機(jī)制作動(dòng)畫(huà)D、利用計(jì)算機(jī)進(jìn)行英譯漢的翻譯答案:A206.預(yù)測(cè)分析過(guò)程包括:數(shù)據(jù)的準(zhǔn)備、預(yù)測(cè)模型開(kāi)發(fā)、模型驗(yàn)收和評(píng)估、使用PMML實(shí)現(xiàn)大數(shù)據(jù)預(yù)測(cè)的有效部署。()是指對(duì)數(shù)據(jù)的采集和整理A、數(shù)據(jù)的準(zhǔn)備B、預(yù)測(cè)模型開(kāi)發(fā)C、模型驗(yàn)收D、評(píng)估答案:A207.以下關(guān)于L1正則化和L2正則化的說(shuō)法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項(xiàng)B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項(xiàng)是模型各個(gè)參數(shù)的平方和的開(kāi)方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇答案:D208.圖像灰度的方差表示圖像的哪種屬性A、圖像整體亮度B、圖像飽和度C、圖像對(duì)比度D、圖像細(xì)節(jié)答案:C209.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每?層的輸?的范圍都?致固定B、它將權(quán)重的歸?化平均值和標(biāo)準(zhǔn)差C、它是?種?常有效的反向傳播(BP)?法D、這些均不是答案:A210.屬性劃分的目標(biāo)是讓各個(gè)劃分出來(lái)的子節(jié)點(diǎn)A、屬于同一類別B、盡可能屬于同一類別C、屬于不同類別D、盡可能屬于不同類別答案:B211.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說(shuō)C、不一定D、不能答案:D212.深度神經(jīng)網(wǎng)絡(luò)中,隱藏層無(wú)法學(xué)習(xí)的情況被稱為()問(wèn)題A、梯度下降B、梯度消失C、梯度爆炸D、以上都不對(duì)答案:B213.人工智能產(chǎn)業(yè)鏈條主要包括:基礎(chǔ)技術(shù)支撐、()、人工智能應(yīng)用。A、智能平臺(tái)建設(shè)B、大數(shù)據(jù)平臺(tái)C、互聯(lián)網(wǎng)應(yīng)用D、人工智能技術(shù)答案:D214.以下那種CNN結(jié)構(gòu)中不包含殘差結(jié)構(gòu)?A、ResNetB、DarkNetC、Inception-ResNetv2D、VGG答案:D215.在線性回歸中,對(duì)回歸系數(shù)的顯著性檢驗(yàn)采用()A、Z檢驗(yàn)B、T檢驗(yàn);$F檢驗(yàn)C、χ2檢驗(yàn)答案:B216.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C217.以下哪個(gè)模型屬于生成模型()()A、支持向量機(jī)B、邏輯回歸C、DNND、樸素貝葉斯答案:D218.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性答案:B219.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B答案:D220.圖像處理中無(wú)損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)答案:D221.scikit-learn中的SGD方法是指?A、梯度下降法B、隨機(jī)梯度下降答案:B222.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、1B、1和3C、1和2D、2答案:A223.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過(guò)程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒(méi)有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒(méi)有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)答案:A224.pandas每個(gè)索引都有一些方法和屬性,下列()方法用來(lái)刪除傳入的值,并得到新的Index。A、diffB、deleteC、dropD、isin答案:C225.一個(gè)僅給出測(cè)試用例標(biāo)簽的模型將會(huì)獲得極高的分?jǐn)?shù),但對(duì)于尚未出現(xiàn)過(guò)的數(shù)據(jù)它則無(wú)法預(yù)測(cè)出任何有用的信息。這種情況稱為:A、過(guò)擬合B、欠擬合C、正擬合D、負(fù)擬合答案:A226.在遺傳算法中,變量x的定義域?yàn)閇-2,5],要求其精度為10-6,現(xiàn)用二進(jìn)制進(jìn)行編碼,則碼長(zhǎng)為()A、20B、21C、22D、23答案:D227.人工智能三大核心,()的提升大幅度推動(dòng)人工智能發(fā)展。A、算法B、運(yùn)算力C、大數(shù)據(jù)D、創(chuàng)造力答案:B228.在選擇神經(jīng)?絡(luò)的深度時(shí),下?哪些參數(shù)需要考慮?1神經(jīng)?絡(luò)的類型(如MLP,CNN)2輸?數(shù)據(jù)3計(jì)算能?(硬件和軟件能?決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮;D、$1,3,4,5答案:C229.一般情況下,KNN最近鄰方法在()情況下效果最好()A、樣本呈現(xiàn)團(tuán)狀分布B、樣本呈現(xiàn)鏈狀分布C、樣本較多但典型性不好D、樣本較少但典型性好答案:D230.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個(gè)動(dòng)作的概率越(),采用當(dāng)前Q函數(shù)值最大的動(dòng)作的概率越()。A、大;小B、大;大C、小;小D、小;大答案:A231.以下哪種分類方法對(duì)樣本質(zhì)量要求最高()。A、KNNB、支持向量機(jī)C、貝葉斯D、神經(jīng)網(wǎng)絡(luò)答案:A232.當(dāng)決策樹(shù)出現(xiàn)過(guò)擬合的時(shí)候,可以采取以下哪些措施()A、剪枝B、增加訓(xùn)練次數(shù)C、進(jìn)行交叉檢驗(yàn)D、以上均可答案:A233.啟發(fā)式搜索是尋求問(wèn)題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞答案:C234.優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項(xiàng):A、加快算法收斂速度B、減少手工參數(shù)的設(shè)置難度C、避過(guò)過(guò)擬合問(wèn)題D、避過(guò)局部極值答案:C235.如何選取合適的卷積核大?。緼、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野答案:B236.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說(shuō)法,正確的是:A、最小二乘法是通過(guò)最小化預(yù)測(cè)值y和真實(shí)的y在訓(xùn)練數(shù)據(jù)上的誤差來(lái)尋找最優(yōu)解的方法B、當(dāng)自變量X的特征很多的時(shí)候,使用最小二乘法可以求得最優(yōu)解C、最小二乘法是通過(guò)求導(dǎo)來(lái)找出最優(yōu)解,是一種迭代的方法D、使用最小二乘法求最優(yōu)解比梯度下降方法好答案:A237.下面對(duì)強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)描述正確的是A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標(biāo)注數(shù)據(jù)D、都不需要標(biāo)注信息答案:A238.DSSM模型總的來(lái)說(shuō)可以分成哪幾層結(jié)構(gòu),分別是()A、表示層、匹配層B、輸入層、匹配層C、輸入層、表示層D、輸入層、表示層和匹配層。答案:D239.()的人工神經(jīng)網(wǎng)絡(luò)適合學(xué)習(xí)、分類等應(yīng)用。A、反饋型B、隨機(jī)型網(wǎng)絡(luò)C、自組織競(jìng)爭(zhēng)型D、前向型答案:D240.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動(dòng)車(chē)車(chē)牌識(shí)別系統(tǒng)。A、圖像變換B、圖像增強(qiáng)C、圖像分割D、圖像復(fù)原答案:C241.下列哪個(gè)包不是用于處理圖像的?()A、ScipyB、skimageC、opencvD、gensim答案:D242.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說(shuō)C、不一定D、不能答案:D243.我們?cè)谟?xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?A、樣本數(shù)目B、特征值C、超參數(shù)D、參數(shù)答案:D244.人工智能的目的是讓機(jī)器能夠(),以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化A、模擬、延伸和擴(kuò)展人的智能B、和人一樣工作C、完全代替人的大腦D、徹底的替代人類答案:A245.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A、可以B、不好說(shuō)C、不一定D、不能答案:D246.無(wú)監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒(méi)有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說(shuō)法都不對(duì)答案:A247.預(yù)測(cè)分析方法分為兩大類,分別是定性分析法和()。A、回歸分析法B、指數(shù)平滑法C、定量分析法D、平均法答案:C248.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征答案:A249.不屬于深度學(xué)習(xí)模型的選項(xiàng)是()A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A250.兩個(gè)種子點(diǎn)A(-1,1),B(2,1),其余點(diǎn)為(0,0),(0,2),(1,1),(3,2),(6,0),(6,2),利用Kmeans算法,點(diǎn)群中心按坐標(biāo)平均計(jì)算。最終種子點(diǎn)A需要移動(dòng)的次數(shù),種子點(diǎn)B需要移動(dòng)的次數(shù),屬于種子點(diǎn)A的點(diǎn)數(shù)(不包含A),屬于種子點(diǎn)B的點(diǎn)數(shù)(不包含B)分別為()()A、2,2,3,3B、1,1,3,3C、1,1,2,4D、2,2,2,4答案:A251.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、樸素貝葉斯D、深度殘差網(wǎng)絡(luò)答案:A252.哪些文本分析技術(shù)可被用于名詞短語(yǔ)檢測(cè)、動(dòng)詞短語(yǔ)檢測(cè)、主語(yǔ)檢測(cè)和賓語(yǔ)檢測(cè)?A、詞性標(biāo)注(PartofSpeechTagging)B、SkipGram和N-Gram提取C、連續(xù)性詞袋(BagofWords)D、依存句法分析(DependencyParsing)和成分句法分析(ConstituencyParsing)答案:D253.python循環(huán)效率低的根本原因是()A、以上都不對(duì)B、python的可解釋性強(qiáng)C、numpy等python庫(kù)的效率更高D、python運(yùn)行程序時(shí)逐行翻譯答案:D254.()適合連續(xù)特征,它假設(shè)每個(gè)特征對(duì)于每個(gè)類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A255.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了使用較少時(shí)間,我們可以()A、增加樹(shù)的深度B、增加學(xué)習(xí)率C、減少樹(shù)的深度D、減少樹(shù)的數(shù)量答案:C256.留出法直接將數(shù)據(jù)集劃分為(___)個(gè)互斥的集合。A、一B、二C、三D、四答案:B257.假如我們使用Lasso回歸來(lái)擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(gè)(X1,X2,…,X100)?,F(xiàn)在,我們把其中一個(gè)特征值擴(kuò)大10倍(例如是特征X1),然后用相同的正則化參數(shù)對(duì)Lasso回歸進(jìn)行修正。那么,下列說(shuō)法正確的是A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無(wú)法確定特征X1是否被舍棄D、以上說(shuō)法都不對(duì)答案:B258.下列選項(xiàng)中對(duì)泊松分布與二項(xiàng)分布的關(guān)系描述正確的是?A、泊松分布可以代替二項(xiàng)分布B、泊松分布是二項(xiàng)分布當(dāng)n很大p很小時(shí)的近似計(jì)算C、泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概型D、泊松分布與二項(xiàng)分布沒(méi)有關(guān)系答案:B259.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問(wèn)題②獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運(yùn)行A、①②③④⑤B、②③④⑤⑥C、①②③④⑤⑥D(zhuǎn)、①②④⑤⑥答案:C260.下列選項(xiàng)中,可以通過(guò)掃描儀將其轉(zhuǎn)換成數(shù)字圖像輸入電腦中,然后通過(guò)OCR軟件識(shí)別成文本信息的是()A、報(bào)紙B、FLASH動(dòng)畫(huà)C、歌曲D、電影答案:A261.隨著句子的長(zhǎng)度越來(lái)越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過(guò)程將愈加困難,為了解決這類問(wèn)題,下面哪項(xiàng)是我們可以采用的?A、使用遞歸單元代替循環(huán)單元B、使用注意力機(jī)制(attentionmechanism)C、使用字符級(jí)別翻譯(characterleveltranslation)D、所有選項(xiàng)均不對(duì)答案:B262.關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)自己學(xué)習(xí)得到的B、學(xué)習(xí)率越大系統(tǒng)運(yùn)行速度越快C、學(xué)習(xí)率越小系統(tǒng)一定精度越高D、學(xué)習(xí)率的大小是根據(jù)不同場(chǎng)景程序員自己設(shè)定的,不宜太大或者太小答案:D263.在某個(gè)list末尾增加兩個(gè)元素obj1,obj2,可以使用下列哪些表達(dá)式A、list.append(obj1,obj2)B、list.append([obj1,obj2])C、list.extend(obj1,obj2)D、list.extend([obj1,obj2])答案:D264.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個(gè),使用GAP的優(yōu)點(diǎn)是()A、提供更好的分類B、減少參數(shù)量,實(shí)現(xiàn)任意大小的輸入C、加速模型收斂D、增加網(wǎng)絡(luò)深度答案:B265.下列選項(xiàng)中,是合頁(yè)損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))答案:B266.下列哪項(xiàng)不屬于聚類算法()A、K-meansB、BIRCHC、SVMD、DBSCAN答案:C267.下面關(guān)于模型預(yù)測(cè)性能的評(píng)估以及交叉驗(yàn)證,說(shuō)法正確的是:A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromsklearnimportcross_validationB、需要把數(shù)據(jù)分成訓(xùn)練集和測(cè)試集,用測(cè)試集來(lái)評(píng)估從訓(xùn)練集學(xué)習(xí)得來(lái)的模型的預(yù)測(cè)性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來(lái)的模型可能對(duì)于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對(duì)于訓(xùn)練集以外的數(shù)據(jù)沒(méi)有太大的泛化能力C、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測(cè)試集,這種方法叫做留一交叉驗(yàn)證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測(cè)準(zhǔn)確率一般會(huì)比用測(cè)試集得到的預(yù)測(cè)準(zhǔn)確率低答案:B268.對(duì)于機(jī)器學(xué)習(xí)表述下列正確的是()。A、機(jī)器學(xué)習(xí)和人工智能是獨(dú)立的兩種技術(shù)B、機(jī)器學(xué)習(xí)是人工智能的核心技術(shù)和重要分支C、機(jī)器學(xué)習(xí)的目標(biāo)是讓機(jī)器設(shè)備像人類一樣學(xué)習(xí)書(shū)本知識(shí)D、機(jī)器學(xué)習(xí)是指一系列程序邏輯控制算法答案:B269.在分類學(xué)習(xí)中,提升方法通過(guò)反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個(gè)強(qiáng)分類器。A、偏差B、方差C、采樣樣本D、權(quán)值分布答案:D270.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題A、增加訓(xùn)練集量B、&;&減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、&;&在損失函數(shù)中增加正則項(xiàng)D、&;&SVM算法中使用高斯核/RBF核代替線性核答案:D271.下方法中屬于無(wú)監(jiān)督學(xué)習(xí)算法的是()A、線性回歸B、支持向量機(jī)C、決策樹(shù)D、K-Means聚類答案:D272.以下不屬于聚類算法的是A、K均值B、DBSCANC、AprioriD、Jarvis-Patrick(JP)答案:C273.輸入圖片大小為200×200,依次經(jīng)過(guò)一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、95B、96C、97D、98答案:C274.目前RNN中常用的激活函數(shù)是()A、reluB、sigmoidC、eluD、Swish答案:B275.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:D276.下列哪項(xiàng)屬于集成學(xué)習(xí)()A、決策樹(shù)模型B、kNN分類C、AdaboostD、k-means答案:C277.回歸算法預(yù)測(cè)的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型答案:D278.深度學(xué)習(xí)系統(tǒng)訓(xùn)練過(guò)程通常需要輸入:A、特征值B、標(biāo)簽C、特征值和標(biāo)簽D、預(yù)測(cè)值答案:C279.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb答案:D280.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D281.以下那種操作會(huì)方法圖像中的噪聲?A、拉普拉斯濾波B、中值濾波C、高斯濾波D、均值濾波答案:A282.計(jì)算詞語(yǔ)間距離的方法有很多,一下選項(xiàng)中屬于常用方法的是:A、正切相似度B、余弦相似度C、絕對(duì)距離D、球面距離答案:B283.在Python中,設(shè)a=2,b=3,表達(dá)式a<bandb>=3值是()A、1B、0C、TRUED、FALSE答案:C284.下列應(yīng)用了人工智能技術(shù)的是()①用手寫(xiě)板輸入漢字②視頻聊天③與計(jì)算機(jī)對(duì)弈④OCR文字識(shí)別A、①②③B、①②④C、①③④D、②③④答案:C285.在數(shù)字圖像的特征提取中,經(jīng)常會(huì)用到Hessian矩陣來(lái)提取關(guān)鍵點(diǎn),以下關(guān)于Hessian矩陣的描述不正確的是?A、圖像上某個(gè)點(diǎn)的Hessian矩陣,其最大特征值對(duì)應(yīng)其領(lǐng)域內(nèi)最大曲率的強(qiáng)度B、如果Hessian矩陣是負(fù)正定的,則臨界點(diǎn)處有局部極小值C、如果Hessian矩陣是不定矩陣,則臨界點(diǎn)處沒(méi)有極值D、Hessian矩陣的特征值,用于衡量特征向量方向的凹凸性答案:B286.假設(shè)對(duì)給定數(shù)據(jù)應(yīng)用了Logistic回歸模型,并獲得了訓(xùn)練精度X和測(cè)試精度Y?,F(xiàn)在要在同一數(shù)據(jù)中添加一訓(xùn)練精度提高B訓(xùn)練準(zhǔn)確度提高或保持不變C測(cè)試精度提高或保持不變D以上均錯(cuò)些新特征,以下哪些是錯(cuò)誤的選項(xiàng)A、現(xiàn)在要在同一數(shù)據(jù)中添加一訓(xùn)練精度提高B、訓(xùn)練準(zhǔn)確度提高或保持不變C、測(cè)試精度提高或保持不變D、以上均錯(cuò)些新特征答案:B287.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D288.某銀行的貸款系統(tǒng),操作員只需要輸入客戶資料,該系統(tǒng)就會(huì)提示操作員是否能夠提供貸款以及相應(yīng)的貸款額度,這主要應(yīng)用了人工智能中的()A、機(jī)器博弈B、專家系統(tǒng)C、模式識(shí)別D、機(jī)器翻譯答案:B289.循環(huán)神經(jīng)網(wǎng)最常常遇到的問(wèn)題是:①.梯度消失②.詞語(yǔ)依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①③④B、①②③C、①③④D、①②④答案:B290.以下哪種神經(jīng)網(wǎng)絡(luò)技術(shù)可以用于語(yǔ)音識(shí)別的處理A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、深層神經(jīng)網(wǎng)絡(luò)D、淺層神經(jīng)網(wǎng)絡(luò)答案:B291.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則答案:B292.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A293.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A、GloVeB、BERTC、OpenAI'sGPTD、ULMFit答案:C294.Python中的變量var如果包含字符串的內(nèi)容,下面哪種數(shù)據(jù)類型不可能創(chuàng)建var?A、listB、stringC、charD、dict答案:C295.文字檢測(cè)網(wǎng)絡(luò)TextBoxes基于下列哪個(gè)網(wǎng)絡(luò)A、Fastr-cnnB、Fasterr-cnnC、SSDD、YOLO答案:C296.關(guān)于反向傳播,以下說(shuō)法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過(guò)激活函數(shù)D、反向傳播指的是誤差通過(guò)網(wǎng)絡(luò)反向傳播答案:A297.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型。A、神經(jīng)元B、閾值C、興奮D、節(jié)點(diǎn)答案:A298.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來(lái)越(),也即越來(lái)越能表現(xiàn)語(yǔ)義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化答案:B299.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。2.如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是A、1和2都錯(cuò)誤B、1正確,2錯(cuò)誤C、1錯(cuò)誤,2正確D、1和2都正確答案:B300.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:B多選題1.Python的集成工具類IDE包括()。A、IDLEB、SublimeC、PyCharmD、Anaconda&Spyder答案:CD2.數(shù)據(jù)處理階段現(xiàn)存問(wèn)題有哪些A、數(shù)據(jù)采集容易,效率高B、訓(xùn)練數(shù)據(jù)量需求大,數(shù)據(jù)稀缺C、樣本沒(méi)有統(tǒng)一格式,
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年輔導(dǎo)班報(bào)名協(xié)議范本版B版
- 企業(yè)股權(quán)收購(gòu)協(xié)議
- 2024租賃合同三方變更協(xié)議
- 2024版獨(dú)家價(jià)格保密協(xié)議
- 全自動(dòng)輸送式噴砂機(jī)安全操作規(guī)程
- 二零二五年度夫妻財(cái)產(chǎn)分割與婚后財(cái)產(chǎn)管理協(xié)議范本3篇
- 2025年度生活垃圾運(yùn)輸合同范本(含廢棄物回收利用)3篇
- 全自動(dòng)洗板機(jī)盛信康安全操作規(guī)程
- 二零二五年度工業(yè)原材料采購(gòu)合同樣本集2篇
- IT行業(yè)數(shù)據(jù)安全免責(zé)協(xié)議
- 《社區(qū)安全防范》課程教案
- 中石油度員工HSE培訓(xùn)計(jì)劃
- 瀝青路面損壞調(diào)查表-帶公式
- (完整版)Adams課程設(shè)計(jì)
- 30課時(shí)羽毛球教案
- 客服部相關(guān)報(bào)表解
- 全踝關(guān)節(jié)置換術(shù)ppt課件
- 學(xué)術(shù)英語(yǔ)寫(xiě)作范文17篇
- 任發(fā)改委副主任掛職鍛煉工作總結(jié)范文
- 中華任姓字輩源流
- 2021年人事部年度年終工作總結(jié)及明年工作計(jì)劃
評(píng)論
0/150
提交評(píng)論