2023年人工智能知識考試復(fù)習題庫500題(含各題型)_第1頁
2023年人工智能知識考試復(fù)習題庫500題(含各題型)_第2頁
2023年人工智能知識考試復(fù)習題庫500題(含各題型)_第3頁
2023年人工智能知識考試復(fù)習題庫500題(含各題型)_第4頁
2023年人工智能知識考試復(fù)習題庫500題(含各題型)_第5頁
已閱讀5頁,還剩134頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE1392023年人工智能知識考試復(fù)習題庫500題(含各題型)一、單選題1.當訓(xùn)練數(shù)據(jù)較少時更()發(fā)生過擬合。A、不容易B、容易C、不會答案:B2.一幅256*256的圖像,若灰度級數(shù)為16,則存儲它所需的比特數(shù)是()()A、256kB、512kC、1mD、2m答案:A3.長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了()導(dǎo)致單元內(nèi)的處理過程不同。A、輸入門B、記憶門C、忘記門D、輸出門答案:C4.關(guān)于集成學習,下列說法錯誤的是A、集成學習一定能提升個體學習器的性能B、Bagging方法中,個體學習器之間彼此獨立C、Boosting是一種重視錯誤樣本的學習方法D、Boosting方法中,個體學習器存在強依賴答案:A5.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對新數(shù)據(jù)重新訓(xùn)練整個模型C、只對最后幾層進行調(diào)參(finetune)D、對每一層模型進行評估,選擇其中的少數(shù)來用答案:C6.自然語言中的詞語需要轉(zhuǎn)化為計算機可以記錄處理的數(shù)據(jù)結(jié)構(gòu),通常會把自然語言中的詞語轉(zhuǎn)化為以下哪種數(shù)據(jù)結(jié)構(gòu):A、標量B、向量C、結(jié)構(gòu)體D、有向圖答案:B7.設(shè)某樹的度為3,且度為3的結(jié)點數(shù)為4,度為1的結(jié)點數(shù)為9,沒有度為2的結(jié)點。則該樹中總的結(jié)點數(shù)為A、22B、21C、13D、20答案:A8.關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測試集錯誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測試集錯誤率答案:C9.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪項技術(shù)?A、窮舉搜索B、隨機搜索C、Bayesian優(yōu)化D、都可以答案:D10.以下哪個聚類算法不是屬于基于原型的聚類()A、模糊均值B、EM算法C、SOMD、LIQUE答案:D11.通過()的方式,可以實現(xiàn)信息更快的向前傳播,梯度更快的向后傳播A、跨界連接B、跨層短接C、跨級連接D、跨級短接答案:B12.以下說法正確的是()。A、聚類是非監(jiān)督學習B、分類是非監(jiān)督學習C、聚類是監(jiān)督學習D、以上都不對答案:A13.在數(shù)據(jù)集上使用2-fold交叉驗證,應(yīng)該在kf=KFold(n_splits=_)"_"處填入:A、2B、4C、6$;8%答案:A14.以下關(guān)于邏輯回歸說法不正確的是A、logistic回歸本質(zhì)上是線性回歸B、邏輯回歸支持二分類和多分類問題,但不支持連續(xù)特征C、logistic回歸在特征到結(jié)果的映射中加入了一層函數(shù)映射,即先把特征線性求和,然后使用函數(shù)g(z)作為假設(shè)函數(shù)來預(yù)測。D、邏輯回歸支持二分類和多分類問題,支持類別特征,但類別特征在字符串索引后需要進行one-hot算子處理。答案:B15.邏輯回歸將輸出概率限定在[0,1]之間。下列哪個函數(shù)起到這樣的作用?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLU函數(shù)D、LeakyReLU函數(shù)答案:A16.GoogLeNet從角度改進了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:A17.小王和老張交換名片后,小王打開手機中安裝的靈云智能輸入法app,拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是()A、模式識別B、文字合成C、圖像搜索D、圖像還原答案:A18.深度學習可以用在下列哪項NLP任務(wù)中A、情感分析B、問答系統(tǒng)C、機器翻譯D、所有選項答案:D19.DBSCAN算法將“簇”定義為:由()導(dǎo)出的最大的密度相連樣本集合。A、密度直達關(guān)系B、密度可達關(guān)系C、密度相連關(guān)系答案:B20.下列哪項算法構(gòu)建了深度學習的重要基礎(chǔ):()A、霍夫曼編碼B、最大流-最小割算法C、A*算法D、SGD反向傳播答案:D21.數(shù)據(jù)清洗過程不包括A、補全缺失的數(shù)據(jù)B、修改格式和內(nèi)容錯誤的數(shù)據(jù)C、修改邏輯錯誤的數(shù)據(jù)D、數(shù)據(jù)ETL答案:D22.()是人工智能的核心,是使計算機具有智能的主要方法,其應(yīng)用遍及人工智能的各個領(lǐng)域。A、深度學習B、人機交互C、機器學習D、智能芯片答案:C23.在一個簡單的MLP模型中,輸入層有8個神經(jīng)元,隱藏層有5個神經(jīng)元,輸出層有1個神經(jīng)元。隱藏輸出層和輸入隱藏層之間的權(quán)重矩陣的大小是多少?A、[1X5],[5X8]B、[8×5],[1×5]C、[5×8],[5×1]D、[5×1],[8×5]答案:D24.下列哪個函數(shù)不可以做非線性激活函數(shù)?()A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x答案:D25.卷積神經(jīng)網(wǎng)絡(luò)作為一種常見的深度學習網(wǎng)絡(luò)結(jié)構(gòu)已被廣泛接受,下列任務(wù)的主流方法中沒有用到卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)是A、圖像風格遷移B、圖像分割C、人臉識別D、房價預(yù)測答案:D26.下列哪個是CNN網(wǎng)絡(luò)的超參數(shù)。A、權(quán)重B、偏置C、激活函數(shù)D、學習率答案:D27.以下不是貝葉斯回歸的優(yōu)點的是哪一項A、它能根據(jù)已有的數(shù)據(jù)進行改變B、它能在估計過程中引入正則項C、貝葉斯回歸的推斷速度快答案:C28.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點答案:C29.以下對字典的說法錯誤的是()。A、字典可以為空B、字典的鍵不能相同C、字典的鍵不可變D、字典的鍵的值不可變答案:D30.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢在于()A、對序列的每個元素進行相同的計算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對序列的每個元素進行不同的計算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對序列的每個元素進行相同的計算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對答案:A31.下列哪個不是激活函數(shù)()。A、sigmodB、reluC、tanhD、hidden答案:D32.將輸出標記的對數(shù)作為線性模型逼近的目標是(___)。A、對數(shù)幾率回歸B、對數(shù)線性回歸C、極大似然法D、正則化答案:B33.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享A、卷積神經(jīng)網(wǎng)絡(luò)B、&;&循環(huán)神經(jīng)網(wǎng)絡(luò)C、&;&全連接神經(jīng)網(wǎng)絡(luò)D、&;&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)答案:D34.相同的詞可以如何實現(xiàn)多個詞嵌入?A、GloVeB、Word2VecC、ELMoD、Nltk答案:C35.下列方法中,能夠返回某個字串在字符串中出現(xiàn)的次數(shù)的是()。A、len()B、count()C、find()D、split()答案:B36.盡管人工智能學術(shù)界出現(xiàn)“百家爭鳴”的局面,但是,當前國際人工智能的主流派仍屬于:()A、連接主義B、符號主義C、行為主義D、經(jīng)驗主義答案:B37.下面關(guān)于模型預(yù)測性能的評估以及交叉驗證,說法正確的是()A、在scikit-learn包里面使用交叉驗證方法,可以使用代碼:fromsklearnimportcross_validationB、課程中的交叉驗證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測試集,這種方法叫做留一交叉驗證法C、需要把數(shù)據(jù)分成訓(xùn)練集和測試集,用測試集來評估從訓(xùn)練集學習得來的模型的預(yù)測性能,是因為從訓(xùn)練集學習得來的模型可能對于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對于訓(xùn)練集以外的數(shù)據(jù)沒有太大的泛化能力D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測準確率一般會比用測試集得到的預(yù)測準確率低答案:C38.CRF(條件隨機場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。答案:B39.一般一顆決策樹不包含A、一個根節(jié)點B、若干個內(nèi)部節(jié)點C、若干個外部節(jié)點D、若干個葉子節(jié)點答案:C40.以下哪種問題主要采用無監(jiān)督學習方法?A、頻繁項挖掘B、股價預(yù)測C、圖像分類D、文本情感分析答案:A41.以下哪種方法不可以有效防止過擬合?()A、使用Mini-batchB、設(shè)置EarlyStopingC、使用DropoutD、更換網(wǎng)絡(luò)架構(gòu)答案:A42.圖像識別任務(wù)可以分為三個層次,根據(jù)處理內(nèi)容的抽象性,從低到高依次為A、圖像分析,圖像處理,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像處理,圖像分析,圖像理解D、圖像理解,圖像分析,圖像處理答案:C43.深度學習中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B44.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B45."df.csv"是一個在當前ipynb文件根目錄下的csv表格,該文件具有3列數(shù)據(jù),讀取過程中為避免將第一行數(shù)據(jù)讀取為dataframe的column名,應(yīng)采取以下哪種語句讀入()A、df=pandas.read_csv('df.csv')B、df=pandas.read_csv('df.csv',header=None)C、df=pandas.read_csv('df.csv')D、df=pandas.read_excel('df.csv',header=None)答案:B46.測試集應(yīng)盡可能與訓(xùn)練集A、相容B、相等C、互斥D、包含答案:C47.關(guān)于集成學習,以下說法錯誤的是A、集成學習一定能提升個體學習器的性能B、Bagging方法中,個體學習器之間彼此獨立C、Boosting是一種重視錯誤樣本的學習方法D、Boosting方法中,個體學習器存在強依賴答案:A48.在執(zhí)行了以下的文本清理步驟之后,可從下面的語句中生成多少三元組短語(trigram)操作:[1].停用詞移除[2].使用單一空格替換標點符號語句:#Analytics-vidhyaisagreatsourcetolearndata_science.A、3B、4C、5D、6答案:C49.DBSCAN在最壞情況下的時間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)答案:B50.下列哪一項屬于特征學習算法(representationlearningalgorithm)?()A、K近鄰算法B、隨機森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C51.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①③B、①②③C、②③D、①②答案:B52.哪個不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax答案:D53.有一個28x28的圖片,并使用輸入深度為3和輸出深度為8在上面運行一個3x3的卷積神經(jīng)網(wǎng)絡(luò)。注意,步幅是1,你正在使用相同的填充(padding)當使用給定的參數(shù)時,輸出特征圖的尺寸是多少?()A、13寬、13高、8深B、28寬、28高、8深C、13寬、28高、8深D、28寬、13高、8深答案:B54.如何對featuremaps繼續(xù)進行卷積操作?通過多通道卷積。假設(shè)上一個卷積層已得到3個3X3的featuremaps,3個2x2的卷積核可表示為具有三個通道卷積核立方體,生成一個()大小的featuremap。A、2X2B、3X3C、2X3D、6X6答案:A55.蒙特卡羅強化學習算法的本質(zhì),是通過多次嘗試后求平均來作為期望累計獎賞的金絲,但它在求平均時是采用哪種方式進行?A、逐一式B、循環(huán)式C、分組式D、批處理答案:D56..混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學習處理NLP問題過程中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?A、混沌度沒什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對于結(jié)果的影響不一定答案:B57.基于統(tǒng)計的異常點檢測算法不包括A、基于正態(tài)分布的異常點檢測算法B、基于距離的異常點檢測算法C、3δ原則D、簡單統(tǒng)計分析答案:A58.變量a的值為字符串類型的“2”,如何將它轉(zhuǎn)換為整型?A、castTolnt(a)B、int(a)C、integer(a)D、castTointeger(a)答案:B59.在集成學習中,當訓(xùn)練數(shù)據(jù)很多時,最常見的結(jié)合策略是()。A、平均法B、投票法C、學習法答案:C60.下列哪項是自然語言處理的Python開發(fā)包?A、openCVB、jiebaC、sklearnD、XGBoost答案:B61.標準循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間A、不斷遞歸而衰退B、不斷遞歸而增強C、先增強后減弱D、先減弱后增強答案:A62.在Python中__________表示空類型。A、NoneB、nullC、undefinedD、0答案:A63.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機C、多層感知機D、卷積神經(jīng)網(wǎng)絡(luò)答案:D64.如果我們用了一個過大的學習速率會發(fā)生什么?()A、神經(jīng)網(wǎng)絡(luò)會收斂B、不好說C、都不對D、神經(jīng)網(wǎng)絡(luò)不會收斂答案:D65.以下不屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接答案:B66.半監(jiān)督學習包括(___)。A、純半監(jiān)督學習B、主動學習C、回歸學習D、分類學習、答案:A67.不同于通常涉及大量的規(guī)則編碼的早期常識語言處理,現(xiàn)代NLP算法是基于()A、自動識別B、機器學習C、模式識別D、算法輔助答案:B68.下述()不是人工智能中常用的知識格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法答案:D69.下列選項中,不屬于深度學習模型的是A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A70.下面的問題,屬于分類問題的是;A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分數(shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會在接下來的一段時間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額答案:C71.下面不屬于有監(jiān)督學習的算法的是A、決策樹B、隨機森林C、線性回歸D、K-Means答案:D72.超市收銀員用掃描器直接掃描商品的條形碼,商品的價格信息就會呈現(xiàn)出來,這主要利用了人工智能中的()技術(shù)。A、智能代理B、模式識別C、機器翻譯D、專家系統(tǒng)答案:B73.人工神經(jīng)元網(wǎng)絡(luò)與深度學習的關(guān)系是()A、人工神經(jīng)元網(wǎng)絡(luò)是深度學習的前身B、深度學習是人工神經(jīng)元網(wǎng)絡(luò)的一個分支C、深度學習是人工神經(jīng)元網(wǎng)絡(luò)的一個發(fā)展D、深度學習與人工神經(jīng)元網(wǎng)絡(luò)無關(guān)答案:C74.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingB、BaggingC、StackingD、Mapping答案:B75.下列算法常用于聚類的問題是()A、k-meansB、邏輯回歸模型C、決策樹模型D、隨機森林模型答案:A76.以下哪些是通用逼近器?A、KernelSVMB、NeuralNetworksC、BoostedDecisionTreesD、以上所有答案:D77.()有跟環(huán)境進行交互,從反饋當中進行不斷的學習的過程。A、監(jiān)督學習B、非監(jiān)督學習C、強化學習D、線性回歸答案:C78.下列關(guān)于JupyterNotebook的描述錯誤的是A、JupyterNotebook有兩種模式:編輯模式、命令模式B、JupyterNotebook有兩種形式的單元:Code單元、Markdown單元C、JupyterNotebookMarkdown可以使用LaTeX語法D、JupyterNotebook可以支持Python等多種語言答案:B79.數(shù)據(jù)挖掘技術(shù)主要有分類、估計、()、關(guān)聯(lián)分析和預(yù)報。A、回歸B、統(tǒng)計C、聚類D、假設(shè)答案:C80.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性A、隨機梯度下降B、Sigmoid激活函數(shù)C、增大權(quán)重和偏置的初始化值D、以上都不正確答案:B81.以下關(guān)于特征工程的說法不正確的是A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過程B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機器學習模型逼近這個上限C、特征工程在機器學習中占有非常重要的作用,一般認為括特征構(gòu)建、特征提取、特征選擇三個部分。D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計意義的特征子集。答案:D82.常見的數(shù)據(jù)集劃分方式不包括A、留出法B、裝袋法C、交叉驗證法D、自助法答案:B83.閱讀以下文字:假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標變?yōu)槎ㄎ卉囕v在照片中的位置。()A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對神經(jīng)網(wǎng)絡(luò)中的最后幾層進行微調(diào),同時將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對答案:B84.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingB、BaggingC、StackingD、Mapping答案:B85.下述()不是人工智能中常用的知識格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法答案:D86.在深度學習中,我們經(jīng)常會遇到收斂到localminimum,下面不屬于解決localminimum問題的方法是?()A、隨機梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D87.混淆矩陣中TP=16,FP=12,FN=8,TN=4,精確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:C88.以下方法屬于無監(jiān)督學習的是?()A、LogisticRegressionB、SVMC、DBSCAND、DecisionTree答案:C89.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB、ReLuC、SigmoidD、Tanh答案:A90.獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲A、③④B、①②C、①③D、②④答案:B91.數(shù)據(jù)分析常用包pandas的函數(shù)to_datetime可以將字符串轉(zhuǎn)換為時間戳,現(xiàn)需要將”20220601”轉(zhuǎn)換為時間戳,請問下列哪項語句可以實現(xiàn)該項需求A、pd.to_datetime('20220601',format='%Y%m%d')B、pd.to_datetime('20220601',format='%Y%M%d')C、pd.to_datetime('20220601',format='%Y%m%D')D、pd.to_datetime('20220601',format='%Y%M%D')答案:A92.Matplotlib庫中,用來繪制等值圖的pyplot的基礎(chǔ)圖標函數(shù)是()。A、plt.vlines()B、plt.plot_date()C、plt.contour(X,Y,Z,N)D、plt.specgram(x,NFFT=256,pad_to,F)答案:C93.在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為()。A、[11,8,7,2,[4,5],3]B、[11,8,7,2,4,5,3]C、[11,8,7,[4,5],2,3]D、[11,8,7,4,5,2,3]答案:A94.機器學習中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)答案:D95.圖像識別是以圖像的主要()為基礎(chǔ)的A、元素B、像素C、特征D、部件答案:C96.()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點盡可能接近、異類樣例投影點盡可能遠離;在對新樣本進行分類時,將其投影到同樣的這條直線上,再根據(jù)投影點的位置來確定樣本的類別.A、多分類學習B、對數(shù)幾率回歸C、線性判別分析D、多分類學習答案:C97.OCR是指對文本書面資料(印刷字體、手寫字體)的圖像文件進行分析識別處理,獲取文字及版面信息的過程,其中文全程是()。A、光學字符識別B、文字識別C、字符識別D、書面識別答案:A98.在選擇神經(jīng)網(wǎng)絡(luò)的深度時,下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2輸入數(shù)據(jù)3計算能力(硬件和軟件能力決定)4學習速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5答案:C99.回歸分析的任務(wù),就是根據(jù)()和因變量的觀察值,估計這個函數(shù),并討論與之有關(guān)的種種統(tǒng)計推斷的問題A、相關(guān)變量B、樣本C、已知數(shù)據(jù)D、自變量答案:D100.對線性回歸模型進行性能評估時,以下說法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好答案:C101.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B102.為什么批量梯度下降法(BGD)尋優(yōu)路徑相對比較平滑()A、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價函數(shù)值減小的方向B、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價函數(shù)值增加的方向C、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價函數(shù)值不變的方向D、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價函數(shù)值發(fā)生變化的方向答案:A103.機器學習中的決策樹學習的本質(zhì)是一種逼近離散值目標函數(shù)的過程,決策樹代表的是一種()過程A、預(yù)測B、回歸C、分類D、聚類答案:C104.以下的場景中,適合使用聚類算法的是:A、根據(jù)顧客的年齡、收入、職業(yè)、購買頻率、購買習慣等相關(guān)信息,預(yù)測顧客的消費額B、據(jù)顧客的年齡、收入、職業(yè)、購買頻率、購買習慣等相關(guān)信息,預(yù)測顧客是否會重復(fù)購買C、根據(jù)顧客的年齡、收入、職業(yè)、購買頻率、購買習慣等相關(guān)信息,把顧客分成不同顧客群體,針對不同的顧客群體采取針對性強的產(chǎn)品推廣方法D、據(jù)顧客的年齡、收入、職業(yè)、購買頻率、購買習慣等相關(guān)信息,給顧客推薦不同的商品答案:C105.傳統(tǒng)的機器學習方法包括監(jiān)督學習、無監(jiān)督學習和半監(jiān)督學習,其中監(jiān)督學習是學習給定標簽的數(shù)據(jù)集。請問標簽為離散的類型,稱為分類,標簽為連續(xù)的類型,稱為什么?A、給定標簽B、離散C、分類D、回歸答案:D106.關(guān)于knn說法不正確的是()A、需要及時測試樣本與所有訓(xùn)練樣本的距離B、可以用于分類和回歸C、有參模型D、是一種基于樣本的算法答案:A107.Python內(nèi)置函數(shù)_____用來返回序列中的最大元素。A、maxin()B、max()C、min()D、least()答案:B108.下面哪個選項中哪一項屬于確定性算法A、PCAB、K-MeansC、以上都不是D、AB都是答案:A109.對于MLP,輸入層中的節(jié)點數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是:A、50B、小于50C、超過50D、這是一個任意值答案:A110.CNN網(wǎng)絡(luò)設(shè)計中,學習率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學習率的說法,錯誤的是()A、學習率太小,更新速度慢B、學習率過大,可能跨過最優(yōu)解C、學習率也是有網(wǎng)絡(luò)學習而來D、學習率可在網(wǎng)絡(luò)訓(xùn)練過程中更改答案:C111.以下不屬于回歸分析的是()。A、線性回歸B、BP神經(jīng)網(wǎng)絡(luò)C、ARIMAD、SVM支撐向量機答案:C112.機器學習算法中,以下不屬于集成學習策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D113.下列關(guān)于深度學習說法錯誤的是A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題B、CNN相比于全連接的優(yōu)勢之一是模型復(fù)雜度低,緩解過擬合C、只要參數(shù)設(shè)置合理,深度學習的效果至少應(yīng)優(yōu)于隨機算法D、隨機梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過程中陷入鞍點的問題答案:C114.下列選項中,哪個不是關(guān)鍵詞提取常用的算法()A、TF-IDFB、TextRankC、SSAD、LDA答案:C115.()是下面代碼的運行結(jié)果。A、importnumpyasnpa=np.arange(12).reshape((3,4))print(mean())[4,5,6,7]B、16.5C、5.5D、[1.5,5.5,9.5]答案:C116.模型出現(xiàn)過擬合,以下何種措施無法降低過擬合現(xiàn)象A、添加正則化項B、降低模型復(fù)雜度C、減少訓(xùn)練數(shù)據(jù)量D、使用Dropout答案:C117.python安裝拓展庫常用的工具是A、yumB、prmC、pipD、install答案:C118.屬于常見損失函數(shù):A、計算預(yù)測值函數(shù)B、求偏導(dǎo)數(shù)函數(shù)C、均方誤差損失函數(shù)D、更新參數(shù)函數(shù)答案:C119.以下哪些方法不可以直接來對文本分類?A、K-MeansB、決策樹C、支持向量機D、kNN答案:A120.為了對某圖像中的目標進行分析和識別,一般需要對圖像進行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割答案:D121.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?()A、卷積層B、全連接層C、池化層D、以上都不是答案:B122.深度神經(jīng)網(wǎng)絡(luò)的運行過程是由三個算法依次運行組成,下面不屬于這三個算法中的是A、歸一化B、正向傳播C、反向傳播D、梯度下降答案:A123.根據(jù)機器智能水平由低到高,正確的是()A、計算智能、感知智能、認知智能B、計算智能、感應(yīng)智能、認知智能C、機器智能、感知智能、認知智能D、機器智能、感應(yīng)智能、認知智能答案:A124.下面關(guān)于Jarvis-Patrik(JP)聚類算法的說法不正確的是()。A、JP聚類擅長處理噪聲和離群點,并且能夠處理不同大小、形狀和密度的簇。B、JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強相關(guān)對象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時間復(fù)雜度為O(m)。答案:D125.人工神經(jīng)網(wǎng)絡(luò)學習中()主要采用反向傳播算法。A、單元學習算法B、多層網(wǎng)絡(luò)學習C、決策樹學習D、概念學習答案:B126.傳統(tǒng)GBDT以()作為基分類器A、線性分類器B、CARTC、gblinearD、svm答案:B127.K折法是下列哪個函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:B128.代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A、[01]B、[345]C、[23]D、[012]答案:B129.影響基本K-均值算法的主要因素不包括下列哪一個選項?A、樣本輸入順序B、模式相似性測度C、聚類準則D、初始類中心的選取答案:C130.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯誤的是A、熵越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個條件熵對信息熵減少程序越大,也就是說,這個屬性對于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯D、熵權(quán)法是一種客觀賦權(quán)法,因為它僅依賴于數(shù)據(jù)本身的離散性答案:C131.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重答案:C132.在模型中全連接層可采用A、paddle.nn.LinearB、paddle.nn.Conv2DC、paddle.nn.MaxPool2DD、paddle.nn.ReLU答案:A133.對應(yīng)GradientBoostingtree算法,以下說法正確的是:1.當增加最小樣本分裂個數(shù),我們可以抵制過擬合2.當增加最小樣本分裂個數(shù),會導(dǎo)致過擬合3.當我們減少訓(xùn)練單個學習器的樣本個數(shù),我們可以降低variance4.當我們減少訓(xùn)練單個學習器的樣本個數(shù),我們可以降低biasA、2和4B、2和3C、1和3D、1和4答案:C134.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標函數(shù)。我們需要做什么來保證得到的模型是線性可分離的?A、C=0B、C=1C、C正無窮大D、C負無窮大答案:C135.Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強分類器C、多個分類器D、單個分類器答案:A136.下面哪種方法沒辦法直接應(yīng)用于自然語言處理的任務(wù)?A、去語法模型B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、主成分分析(PCA)答案:D137.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測D、推薦問題答案:A138.有如下兩組數(shù)據(jù){(-1,0),(-1,2),(1,2)}{(0,0),(1,0),(1,1)}我們在該數(shù)據(jù)集上訓(xùn)練一個線性SVM模型,該模型中的支持向量是哪些?()A、(?1,2),(1,1),(1,0)B、(?1,0),(?1,2),(1,1),(1,0)C、(?1,0),(1,2),(0,0),(1,1)D、(?1,0),(-1,2),(0,0),(1,0)答案:C139.在Skip-gram實際實現(xiàn)的過程中,通常會讓模型接收()個tensor輸入。A、1B、2C、3D、4答案:C140.對于給定的關(guān)于天氣信息的數(shù)據(jù)集,已知空氣的溫度、濕度、氣壓、是否降雨以及pm2.5指數(shù),需要建立一個回歸模型預(yù)測pm2.5指數(shù),這是一個()。A、半監(jiān)督學習B、強化學習C、無監(jiān)督學習D、有監(jiān)督的學習答案:D141.下列不屬于特征降維的作用是A、降低時間復(fù)雜度和空間復(fù)雜度B、較簡單的模型在小數(shù)據(jù)集上有更強的魯棒性C、提升模型效果D、降低算法的計算開銷答案:B142.傳統(tǒng)的機器學習方法包括監(jiān)督學習、無監(jiān)督學習和半監(jiān)督學習,其中監(jiān)督學習是學習給定標簽的數(shù)據(jù)集。請問標簽為離散的類型,稱為分類,標簽為連續(xù)的數(shù)字,又稱為什么呢A、給定標簽B、離散C、分類D、回歸答案:D143.()是用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A144.梯度下降算法的正確步驟是什么?1計算預(yù)測值和真實值之間的誤差2重復(fù)迭代,直?得到?絡(luò)權(quán)重的最佳值3把輸?傳??絡(luò),得到輸出值4隨機值初始化權(quán)重和偏差5對每個產(chǎn)?誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減?誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2答案:D145.下面有關(guān)分類算法的準確率,召回率,F(xiàn)1值的描述,錯誤的是?()A、準確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準率或查全率就越高D、為了解決準確率和召回率沖突問題,引入了F1值答案:C146.人工神經(jīng)元內(nèi)部運算包含哪兩個部分:A、非線性變換和激活變換B、線性變換和非線性變換C、向量變換和標量變換D、化學變換和電變換答案:B147.以下哪些分類方法可以較好地避免樣本的不平衡問題()A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A148.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6答案:D149.假設(shè)你有5個大小為7x7、邊界值為0的卷積核,同時卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時如果你向這一層傳入一個維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?()A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A150.我們可以將深度學習看成一種端到端的學習方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端答案:A151.閱讀以下文字:假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標變?yōu)槎ㄎ卉囕v在照片中的位置。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對神經(jīng)網(wǎng)絡(luò)中的最后幾層進行微調(diào),同時將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對答案:B152.重復(fù)K-折交叉驗證應(yīng)該使用哪個函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:A153.在用于文本分類的隱狄利克雷分布(LDA)模型中,α和β超參數(shù)表征什么?A、α:文檔中的主題數(shù)量,β:假主題中的詞條數(shù)量B、α:主題內(nèi)生成的詞條密度,β:假詞條中生成的主題密度C、α:文檔中的主題數(shù)量,β:假主題中的詞條數(shù)量D、α:文檔中生成的主題密度,β:真主題內(nèi)生成的詞密度答案:D154.常用的圖像特征包括A、顏色特征B、形狀特征C、紋理特征D、像素特征答案:D155.K-Means算法無法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布答案:B156.邏輯回歸模型是解決什么問題的模型?A、分類問題B、聚類問題C、回歸問題答案:A157.當數(shù)據(jù)太大而不能同時在RAM中處理時,哪種梯度技術(shù)更有優(yōu)勢A、全批量梯度下降B、隨機梯度下降答案:B158.不屬于常見激活:A、sigmoidB、ReluC、NMSD、Tanh答案:C159.以下關(guān)于數(shù)據(jù)質(zhì)量的說法不正確的是A、數(shù)據(jù)質(zhì)量是基于一組定性或定量變量的值的條件下提出的概念B、數(shù)據(jù)內(nèi)部一致性的問題非常重要C、一組數(shù)據(jù)特性滿足業(yè)務(wù)需求的程度D、數(shù)據(jù)清洗的必要性不大答案:D160.現(xiàn)要將某氣象觀測站每天不同時間點的氣溫及濕度的觀察值保存,方便以后進行調(diào)用及查詢,在Python3哪種數(shù)據(jù)結(jié)構(gòu)更合適?A、字符串B、列表C、集合D、字典答案:D161.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標輸出和實際輸出的誤差,在深度學習中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對數(shù)損失函數(shù)D、Hinge損失函數(shù)答案:B162.在深度學習神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B163.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDD、MBGD答案:A164.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、2答案:A165.在圖搜索中,選擇最有希望的節(jié)點作為下一個要擴展的節(jié)點,這種搜索方法叫做()A、寬度搜索B、深度搜索C、有序搜索D、廣義搜索答案:C166.數(shù)據(jù)挖掘技術(shù)包括三個主要的部分()。A、數(shù)據(jù)、模型、技術(shù)B、算法、技術(shù)、領(lǐng)域知識C、數(shù)據(jù)、建模能力、算法與技術(shù)D、建模能力、算法與技術(shù)、領(lǐng)域知識答案:C167.假設(shè)一個公司的薪資水平中位數(shù)是35000,排名前25%和75%分別是60000和20000,如果某人的薪水是3000,那么他可以被看出異常值嗎A、可以B、不可以C、需要更多信息D、以上說法都不對答案:A168.使用一個滑動窗口對語料()掃描,在每個窗口內(nèi),中心詞需要預(yù)測它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從左到右B、從上到下C、從右到左D、從下到上答案:A169.聲明1:可以通過將所有權(quán)重初始化為0來訓(xùn)練網(wǎng)絡(luò)。聲明2:可以通過將偏差初始化為0來很好地訓(xùn)練網(wǎng)絡(luò)以上哪些陳述是真實的?A、1對2錯誤B、1錯誤2對C、1和2都對D、1和2都錯誤答案:B170.下列關(guān)于深度學習神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量越多B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學習特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學習到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多少有關(guān)D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時間長答案:C171.下列哪項不是噪聲數(shù)據(jù)的主要表現(xiàn)形式A、錯誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、重復(fù)數(shù)據(jù)答案:D172.用于分類與回歸應(yīng)用的主要算法有()A、隨機森林、AprioriB、邏輯回歸、K均值、決策樹C、支持向量機、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹、BP神經(jīng)網(wǎng)絡(luò)、樸素貝葉斯答案:D173.讀取文件時并指定文件以空格分隔,則應(yīng)該添加A、sep="\n”B、sep="\t”C、sep=""D、sep="\r”答案:C174.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機器學習和深度學習的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機器學習可解釋性強,而在深度學習可解釋性弱B、特征在傳統(tǒng)機器學習可解釋性弱,而在深度學習可解釋性強C、特征在傳統(tǒng)機器學習和深度學習可解釋性均弱D、特征在傳統(tǒng)機器學習和深度學習可解釋性均強答案:A175.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了減少訓(xùn)練時間,我們可以A、增加樹的深度B、增大學習率(LearninRate)C、對決策樹模型進行預(yù)剪枝D、減少樹的數(shù)量答案:C176.在以下模型中,訓(xùn)練集不需要標注信息的是()A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹答案:A177.下面哪一項對梯度下降(GD)和隨機梯度下降(SGD)的描述是正確的?1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個訓(xùn)練集的數(shù)據(jù)更新一個參數(shù)。A、只有1BB、只有2C、只有3D、都正確答案:A178.Scikit-Learn中()可以實現(xiàn)計算模型準確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score答案:A179.ID3算法選擇劃分屬性的準則是A、信息增益B、增益率C、基尼系數(shù)D、信息熵答案:A180.Python中有這樣一個示例:types=['娛樂','體育','科技'],在使用列表時,以下哪個選項,會引起索引錯誤A、types[-1]B、types[-2]C、types[0]D、types[3]答案:D181.表達式3andnot5的值為_______。A、FALSEB、3C、TRUED、2答案:A182.有監(jiān)督學習中,“近朱者赤近墨者黑”是用來形容下列哪個模型?A、KMeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C183.下列不屬于數(shù)據(jù)脫敏操作必須滿足的要求的是A、單向性B、無殘留C、易于實現(xiàn)D、雙向性答案:D184.下面有關(guān)分類算法的準確率,召回率,F(xiàn)1值的描述,錯誤的是?A、準確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準率或查全率就越高D、為了解決準確率和召回率沖突問題,引入了F1分數(shù)答案:C185.手寫數(shù)字識別的例子中,輸入的圖片為長和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個問題,輸入層是()維的,輸出層是()維的。A、784;10B、28;10C、784;1D、28;1答案:A186.有關(guān)深度學習加速芯片,以下的說法中不正確的是:()A、GPU既可以做游戲圖形加速,也可以做深度學習加速B、用于玩游戲的高配置顯卡,也可以用于深度學習計算。C、GoogleTPU已經(jīng)發(fā)展了三代,它們只能用于推斷(Inference)計算,不能用于訓(xùn)練(Training)計算D、FPGA最早是作為CPLD的競爭技術(shù)而出現(xiàn)的答案:C187.從給定的特征集合中選擇出相關(guān)特征子集的過程,稱為(___)A、特征抽取B、特征選擇C、特征降維D、特征簡化答案:B188.使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法答案:C189.下面對強化學習、監(jiān)督學習和深度卷積神經(jīng)網(wǎng)絡(luò)學習的描述正確的是A、評估學習方式、有標注信息學習方式、端到端學習方式B、有標注信息學習方式、端到端學習方式、端到端學習方式C、評估學習方式、端到端學習方式、端到端學習方式D、無標注學習、有標注信息學習方式、端到端學習方式答案:A190.以下機器學習中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是:()A、logistic回歸B、SVMC、樹形模型D、神經(jīng)網(wǎng)絡(luò)答案:C191.在高斯混合分布中,其隱變量的含義是在高斯混合分布中,其隱變量的含義是A、表示高斯分布的方差B、表示高斯分布的均值C、表示數(shù)據(jù)分布的概率D、表示數(shù)據(jù)從某個高斯分布中產(chǎn)生答案:D192.循環(huán)神經(jīng)網(wǎng)最常用的激活函數(shù)是tanh,除了tanh還可以使用:①.relu②.sigmoid③.softmax④.完全不使用激活函數(shù)A、①③④B、①②③C、①③④D、①②④答案:B193.以下屬于生成式模型的是:()A、SVMB、隨機森林C、隱馬爾可夫模型HMMD、邏輯回歸答案:C194.下列有關(guān)樸素貝葉斯的說法不正確的是:A、易于實現(xiàn),但學習和預(yù)測的效率低B、在數(shù)據(jù)較少的時仍然有效C、特征獨立性假設(shè)使模型變得簡單D、可以處理多分類問題答案:A195.以下哪種算法不屬于數(shù)據(jù)挖掘技術(shù)中的算法()。A、聚類B、神經(jīng)網(wǎng)絡(luò)C、決策樹D、RSA加密算法答案:D196.欠擬合通常是由于(___)而造成的。A、權(quán)值學習迭代次數(shù)足夠多B、學習能力低下C、訓(xùn)練集過多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B197.1x1卷積的主要作用是A、加快卷積運算B、增大卷積核C、擴大感受野D、通道降維答案:D198.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是A、Adam的收斂速度比RMSprop慢B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C、對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的答案:D199.文本分類模型組成部分的正確順序是?1.文本清理(Textcleaning)2.文本標注(Textannotation)3.梯度下降(Gradientdescent)4.模型調(diào)優(yōu)(Modeltuning)5.文本到預(yù)測器(Texttopredictors)A、12345B、13425C、12534D、13452答案:C200.L1正則和L2正則的共同點是什么?A、都會讓數(shù)據(jù)集中的特征數(shù)量減少B、都會增大模型的偏差C、都會增大模型方差D、沒有正確選項答案:D201.以下哪一項是不合法的布爾表達式A、xinrange(6)B、3=aC、e>5and4==fD、(x-6)>5答案:B202.模型的高bias(偏差)是什么意思,如何降低它()?A、在特征空間中減少特征B、在特征空間中增加特征C、增加數(shù)據(jù)點D、B和CE、以上所有答案:B203.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、數(shù)字B、字符C、符號D、英文答案:A204.代碼array=np.arange(10,31,5)中的5代表()?A、元素的個數(shù)B、步長C、第一個元素D、最后一個元素答案:B205.下列選項中,屬于人工智能應(yīng)用的是()A、人與計算機下棋B、利用計算機播放視頻C、利用計算機制作動畫D、利用計算機進行英譯漢的翻譯答案:A206.預(yù)測分析過程包括:數(shù)據(jù)的準備、預(yù)測模型開發(fā)、模型驗收和評估、使用PMML實現(xiàn)大數(shù)據(jù)預(yù)測的有效部署。()是指對數(shù)據(jù)的采集和整理A、數(shù)據(jù)的準備B、預(yù)測模型開發(fā)C、模型驗收D、評估答案:A207.以下關(guān)于L1正則化和L2正則化的說法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項是模型各個參數(shù)的平方和的開方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個稀疏模型,可以用于特征選擇答案:D208.圖像灰度的方差表示圖像的哪種屬性A、圖像整體亮度B、圖像飽和度C、圖像對比度D、圖像細節(jié)答案:C209.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每?層的輸?的范圍都?致固定B、它將權(quán)重的歸?化平均值和標準差C、它是?種?常有效的反向傳播(BP)?法D、這些均不是答案:A210.屬性劃分的目標是讓各個劃分出來的子節(jié)點A、屬于同一類別B、盡可能屬于同一類別C、屬于不同類別D、盡可能屬于不同類別答案:B211.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D212.深度神經(jīng)網(wǎng)絡(luò)中,隱藏層無法學習的情況被稱為()問題A、梯度下降B、梯度消失C、梯度爆炸D、以上都不對答案:B213.人工智能產(chǎn)業(yè)鏈條主要包括:基礎(chǔ)技術(shù)支撐、()、人工智能應(yīng)用。A、智能平臺建設(shè)B、大數(shù)據(jù)平臺C、互聯(lián)網(wǎng)應(yīng)用D、人工智能技術(shù)答案:D214.以下那種CNN結(jié)構(gòu)中不包含殘差結(jié)構(gòu)?A、ResNetB、DarkNetC、Inception-ResNetv2D、VGG答案:D215.在線性回歸中,對回歸系數(shù)的顯著性檢驗采用()A、Z檢驗B、T檢驗;$F檢驗C、χ2檢驗答案:B216.深度學習神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C217.以下哪個模型屬于生成模型()()A、支持向量機B、邏輯回歸C、DNND、樸素貝葉斯答案:D218.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性答案:B219.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項A和B答案:D220.圖像處理中無損壓縮的目的是()A、濾除圖像中的不相干信號B、濾除圖像中的高頻信號C、濾除圖形中的低頻信號D、濾除圖像中的冗余信號答案:D221.scikit-learn中的SGD方法是指?A、梯度下降法B、隨機梯度下降答案:B222.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率A、1B、1和3C、1和2D、2答案:A223.VGG網(wǎng)絡(luò)在深度學習發(fā)展過程中做出了重要貢獻,下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)答案:A224.pandas每個索引都有一些方法和屬性,下列()方法用來刪除傳入的值,并得到新的Index。A、diffB、deleteC、dropD、isin答案:C225.一個僅給出測試用例標簽的模型將會獲得極高的分數(shù),但對于尚未出現(xiàn)過的數(shù)據(jù)它則無法預(yù)測出任何有用的信息。這種情況稱為:A、過擬合B、欠擬合C、正擬合D、負擬合答案:A226.在遺傳算法中,變量x的定義域為[-2,5],要求其精度為10-6,現(xiàn)用二進制進行編碼,則碼長為()A、20B、21C、22D、23答案:D227.人工智能三大核心,()的提升大幅度推動人工智能發(fā)展。A、算法B、運算力C、大數(shù)據(jù)D、創(chuàng)造力答案:B228.在選擇神經(jīng)?絡(luò)的深度時,下?哪些參數(shù)需要考慮?1神經(jīng)?絡(luò)的類型(如MLP,CNN)2輸?數(shù)據(jù)3計算能?(硬件和軟件能?決定)4學習速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮;D、$1,3,4,5答案:C229.一般情況下,KNN最近鄰方法在()情況下效果最好()A、樣本呈現(xiàn)團狀分布B、樣本呈現(xiàn)鏈狀分布C、樣本較多但典型性不好D、樣本較少但典型性好答案:D230.在ε-greedy策略當中,ε的值越大,表示采用隨機的一個動作的概率越(),采用當前Q函數(shù)值最大的動作的概率越()。A、大;小B、大;大C、小;小D、小;大答案:A231.以下哪種分類方法對樣本質(zhì)量要求最高()。A、KNNB、支持向量機C、貝葉斯D、神經(jīng)網(wǎng)絡(luò)答案:A232.當決策樹出現(xiàn)過擬合的時候,可以采取以下哪些措施()A、剪枝B、增加訓(xùn)練次數(shù)C、進行交叉檢驗D、以上均可答案:A233.啟發(fā)式搜索是尋求問題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞答案:C234.優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項:A、加快算法收斂速度B、減少手工參數(shù)的設(shè)置難度C、避過過擬合問題D、避過局部極值答案:C235.如何選取合適的卷積核大???A、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野答案:B236.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說法,正確的是:A、最小二乘法是通過最小化預(yù)測值y和真實的y在訓(xùn)練數(shù)據(jù)上的誤差來尋找最優(yōu)解的方法B、當自變量X的特征很多的時候,使用最小二乘法可以求得最優(yōu)解C、最小二乘法是通過求導(dǎo)來找出最優(yōu)解,是一種迭代的方法D、使用最小二乘法求最優(yōu)解比梯度下降方法好答案:A237.下面對強化學習、有監(jiān)督學習和無監(jiān)督學習描述正確的是A、都是人工智能的學習算法B、都是深度學習的學習算法C、都需要標注數(shù)據(jù)D、都不需要標注信息答案:A238.DSSM模型總的來說可以分成哪幾層結(jié)構(gòu),分別是()A、表示層、匹配層B、輸入層、匹配層C、輸入層、表示層D、輸入層、表示層和匹配層。答案:D239.()的人工神經(jīng)網(wǎng)絡(luò)適合學習、分類等應(yīng)用。A、反饋型B、隨機型網(wǎng)絡(luò)C、自組織競爭型D、前向型答案:D240.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機動車車牌識別系統(tǒng)。A、圖像變換B、圖像增強C、圖像分割D、圖像復(fù)原答案:C241.下列哪個包不是用于處理圖像的?()A、ScipyB、skimageC、opencvD、gensim答案:D242.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D243.我們在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進而使得損失函數(shù)最小化?A、樣本數(shù)目B、特征值C、超參數(shù)D、參數(shù)答案:D244.人工智能的目的是讓機器能夠(),以實現(xiàn)某些腦力勞動的機械化A、模擬、延伸和擴展人的智能B、和人一樣工作C、完全代替人的大腦D、徹底的替代人類答案:A245.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A、可以B、不好說C、不一定D、不能答案:D246.無監(jiān)督學習需要()A、學習程序自己形成和評價概念,沒有教師B、學習程序在教師監(jiān)督下形成和評價概念C、學習程序有時需要教師,有時不需要教師,以形成和評價概念D、以上說法都不對答案:A247.預(yù)測分析方法分為兩大類,分別是定性分析法和()。A、回歸分析法B、指數(shù)平滑法C、定量分析法D、平均法答案:C248.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征答案:A249.不屬于深度學習模型的選項是()A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A250.兩個種子點A(-1,1),B(2,1),其余點為(0,0),(0,2),(1,1),(3,2),(6,0),(6,2),利用Kmeans算法,點群中心按坐標平均計算。最終種子點A需要移動的次數(shù),種子點B需要移動的次數(shù),屬于種子點A的點數(shù)(不包含A),屬于種子點B的點數(shù)(不包含B)分別為()()A、2,2,3,3B、1,1,3,3C、1,1,2,4D、2,2,2,4答案:A251.LSTM是一個非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其他時序信號進行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、樸素貝葉斯D、深度殘差網(wǎng)絡(luò)答案:A252.哪些文本分析技術(shù)可被用于名詞短語檢測、動詞短語檢測、主語檢測和賓語檢測?A、詞性標注(PartofSpeechTagging)B、SkipGram和N-Gram提取C、連續(xù)性詞袋(BagofWords)D、依存句法分析(DependencyParsing)和成分句法分析(ConstituencyParsing)答案:D253.python循環(huán)效率低的根本原因是()A、以上都不對B、python的可解釋性強C、numpy等python庫的效率更高D、python運行程序時逐行翻譯答案:D254.()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A255.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()A、增加樹的深度B、增加學習率C、減少樹的深度D、減少樹的數(shù)量答案:C256.留出法直接將數(shù)據(jù)集劃分為(___)個互斥的集合。A、一B、二C、三D、四答案:B257.假如我們使用Lasso回歸來擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(X1,X2,…,X100)?,F(xiàn)在,我們把其中一個特征值擴大10倍(例如是特征X1),然后用相同的正則化參數(shù)對Lasso回歸進行修正。那么,下列說法正確的是A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無法確定特征X1是否被舍棄D、以上說法都不對答案:B258.下列選項中對泊松分布與二項分布的關(guān)系描述正確的是?A、泊松分布可以代替二項分布B、泊松分布是二項分布當n很大p很小時的近似計算C、泊松分布與二項分布的數(shù)學模型都是拉格朗日概型D、泊松分布與二項分布沒有關(guān)系答案:B259.一個完整機器學習項目需要以下哪些流程?①抽象成數(shù)學問題②獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運行A、①②③④⑤B、②③④⑤⑥C、①②③④⑤⑥D(zhuǎn)、①②④⑤⑥答案:C260.下列選項中,可以通過掃描儀將其轉(zhuǎn)換成數(shù)字圖像輸入電腦中,然后通過OCR軟件識別成文本信息的是()A、報紙B、FLASH動畫C、歌曲D、電影答案:A261.隨著句子的長度越來越多,神經(jīng)翻譯機器將句意表征為固定維度向量的過程將愈加困難,為了解決這類問題,下面哪項是我們可以采用的?A、使用遞歸單元代替循環(huán)單元B、使用注意力機制(attentionmechanism)C、使用字符級別翻譯(characterleveltranslation)D、所有選項均不對答案:B262.關(guān)于學習率的描述正確的是:A、學習率和w、b一樣是參數(shù),是系統(tǒng)自己學習得到的B、學習率越大系統(tǒng)運行速度越快C、學習率越小系統(tǒng)一定精度越高D、學習率的大小是根據(jù)不同場景程序員自己設(shè)定的,不宜太大或者太小答案:D263.在某個list末尾增加兩個元素obj1,obj2,可以使用下列哪些表達式A、list.append(obj1,obj2)B、list.append([obj1,obj2])C、list.extend(obj1,obj2)D、list.extend([obj1,obj2])答案:D264.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個,使用GAP的優(yōu)點是()A、提供更好的分類B、減少參數(shù)量,實現(xiàn)任意大小的輸入C、加速模型收斂D、增加網(wǎng)絡(luò)深度答案:B265.下列選項中,是合頁損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))答案:B266.下列哪項不屬于聚類算法()A、K-meansB、BIRCHC、SVMD、DBSCAN答案:C267.下面關(guān)于模型預(yù)測性能的評估以及交叉驗證,說法正確的是:A、在scikit-learn包里面使用交叉驗證方法,可以使用代碼:fromsklearnimportcross_validationB、需要把數(shù)據(jù)分成訓(xùn)練集和測試集,用測試集來評估從訓(xùn)練集學習得來的模型的預(yù)測性能,是因為從訓(xùn)練集學習得來的模型可能對于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對于訓(xùn)練集以外的數(shù)據(jù)沒有太大的泛化能力C、課程中的交叉驗證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測試集,這種方法叫做留一交叉驗證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測準確率一般會比用測試集得到的預(yù)測準確率低答案:B268.對于機器學習表述下列正確的是()。A、機器學習和人工智能是獨立的兩種技術(shù)B、機器學習是人工智能的核心技術(shù)和重要分支C、機器學習的目標是讓機器設(shè)備像人類一樣學習書本知識D、機器學習是指一系列程序邏輯控制算法答案:B269.在分類學習中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個強分類器。A、偏差B、方差C、采樣樣本D、權(quán)值分布答案:D270.在其他條件不變的前提下,以下哪種做法容易引起機器學習中的過擬合問題A、增加訓(xùn)練集量B、&;&減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)C、&;&在損失函數(shù)中增加正則項D、&;&SVM算法中使用高斯核/RBF核代替線性核答案:D271.下方法中屬于無監(jiān)督學習算法的是()A、線性回歸B、支持向量機C、決策樹D、K-Means聚類答案:D272.以下不屬于聚類算法的是A、K均值B、DBSCANC、AprioriD、Jarvis-Patrick(JP)答案:C273.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、95B、96C、97D、98答案:C274.目前RNN中常用的激活函數(shù)是()A、reluB、sigmoidC、eluD、Swish答案:B275.混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:D276.下列哪項屬于集成學習()A、決策樹模型B、kNN分類C、AdaboostD、k-means答案:C277.回歸算法預(yù)測的標簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型答案:D278.深度學習系統(tǒng)訓(xùn)練過程通常需要輸入:A、特征值B、標簽C、特征值和標簽D、預(yù)測值答案:C279.梯度下降算法的正確步驟是什么?a.計算預(yù)測值和真實值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機值初始化權(quán)重和偏差e.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb答案:D280.批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學習率D、使用樣本數(shù)答案:D281.以下那種操作會方法圖像中的噪聲?A、拉普拉斯濾波B、中值濾波C、高斯濾波D、均值濾波答案:A282.計算詞語間距離的方法有很多,一下選項中屬于常用方法的是:A、正切相似度B、余弦相似度C、絕對距離D、球面距離答案:B283.在Python中,設(shè)a=2,b=3,表達式a<bandb>=3值是()A、1B、0C、TRUED、FALSE答案:C284.下列應(yīng)用了人工智能技術(shù)的是()①用手寫板輸入漢字②視頻聊天③與計算機對弈④OCR文字識別A、①②③B、①②④C、①③④D、②③④答案:C285.在數(shù)字圖像的特征提取中,經(jīng)常會用到Hessian矩陣來提取關(guān)鍵點,以下關(guān)于Hessian矩陣的描述不正確的是?A、圖像上某個點的Hessian矩陣,其最大特征值對應(yīng)其領(lǐng)域內(nèi)最大曲率的強度B、如果Hessian矩陣是負正定的,則臨界點處有局部極小值C、如果Hessian矩陣是不定矩陣,則臨界點處沒有極值D、Hessian矩陣的特征值,用于衡量特征向量方向的凹凸性答案:B286.假設(shè)對給定數(shù)據(jù)應(yīng)用了Logistic回歸模型,并獲得了訓(xùn)練精度X和測試精度Y。現(xiàn)在要在同一數(shù)據(jù)中添加一訓(xùn)練精度提高B訓(xùn)練準確度提高或保持不變C測試精度提高或保持不變D以上均錯些新特征,以下哪些是錯誤的選項A、現(xiàn)在要在同一數(shù)據(jù)中添加一訓(xùn)練精度提高B、訓(xùn)練準確度提高或保持不變C、測試精度提高或保持不變D、以上均錯些新特征答案:B287.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D288.某銀行的貸款系統(tǒng),操作員只需要輸入客戶資料,該系統(tǒng)就會提示操作員是否能夠提供貸款以及相應(yīng)的貸款額度,這主要應(yīng)用了人工智能中的()A、機器博弈B、專家系統(tǒng)C、模式識別D、機器翻譯答案:B289.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠③.梯度爆炸④.維數(shù)災(zāi)難A、①③④B、①②③C、①③④D、①②④答案:B290.以下哪種神經(jīng)網(wǎng)絡(luò)技術(shù)可以用于語音識別的處理A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、深層神經(jīng)網(wǎng)絡(luò)D、淺層神經(jīng)網(wǎng)絡(luò)答案:B291.機器學習的算法中,以下哪個不是無監(jiān)督學習?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則答案:B292.下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學習率增加,模型能力增加D、都不正確答案:A293.Transformer架構(gòu)首先是由下列哪項引入的?A、GloVeB、BERTC、OpenAI'sGPTD、ULMFit答案:C294.Python中的變量var如果包含字符串的內(nèi)容,下面哪種數(shù)據(jù)類型不可能創(chuàng)建var?A、listB、stringC、charD、dict答案:C295.文字檢測網(wǎng)絡(luò)TextBoxes基于下列哪個網(wǎng)絡(luò)A、Fastr-cnnB、Fasterr-cnnC、SSDD、YOLO答案:C296.關(guān)于反向傳播,以下說法錯誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:A297.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型。A、神經(jīng)元B、閾值C、興奮D、節(jié)點答案:A298.高層的特征是低層特征的組合,從低層到高層的特征表達越來越(),也即越來越能表現(xiàn)語義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化答案:B299.假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是A、1和2都錯誤B、1正確,2錯誤C、1錯誤,2正確D、1和2都正確答案:B300.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:B多選題1.Python的集成工具類IDE包括()。A、IDLEB、SublimeC、PyCharmD、Anaconda&Spyder答案:CD2.數(shù)據(jù)處理階段現(xiàn)存問題有哪些A、數(shù)據(jù)采集容易,效率高B、訓(xùn)練數(shù)據(jù)量需求大,數(shù)據(jù)稀缺C、樣本沒有統(tǒng)一格式,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論