人工智能題庫(kù)(一)2020_第1頁(yè)
人工智能題庫(kù)(一)2020_第2頁(yè)
人工智能題庫(kù)(一)2020_第3頁(yè)
人工智能題庫(kù)(一)2020_第4頁(yè)
人工智能題庫(kù)(一)2020_第5頁(yè)
已閱讀5頁(yè),還剩20頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能題庫(kù)(一)20201_人工智能概述

一.單選題

1.如果分別向參加測(cè)試的人和計(jì)算機(jī)提出一些書面問(wèn)題,人類無(wú)法區(qū)分問(wèn)題答案來(lái)自人還是計(jì)算機(jī),那么可以說(shuō)這臺(tái)計(jì)算機(jī)通過(guò)了測(cè)試。

A、黑盒

B、丘奇

C、圖靈

D、智商

正確答案:C

3.有人說(shuō)“人類智能是智能回路的總開(kāi)關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面描述和這個(gè)觀點(diǎn)不一致。

A、人類智能是機(jī)器智能的設(shè)計(jì)者

B、機(jī)器智能目前已經(jīng)超越了人類智能

C、機(jī)器智能目前無(wú)法完全模擬人類所有智能

D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能

正確答案:B

4.下面關(guān)于人工智能及深度學(xué)習(xí)的關(guān)系描述中,是正確的。

A、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種方法

B、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支

C、人工智能就是深度學(xué)習(xí)

D、深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法

正確答案:D

5.下面描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點(diǎn)。

A、大數(shù)據(jù),大任務(wù)

B、大數(shù)據(jù),小任務(wù)

C、小數(shù)據(jù),小任務(wù)

D、小數(shù)據(jù),大任務(wù)

正確答案:B

6.被譽(yù)為“機(jī)器學(xué)習(xí)之父“的是。

A、塞繆爾

B、費(fèi)根鮑姆

C、西蒙

D、圖靈

正確答案:A

7.第一個(gè)成功研制的專家系統(tǒng)是。

A、計(jì)算機(jī)配置專家系統(tǒng)Xcon

B、血液病診斷專家系統(tǒng)MYCIN

C、化合物結(jié)構(gòu)識(shí)別專家系統(tǒng)Dendral

D、探礦專家系統(tǒng)Prospector

正確答案:C

8.強(qiáng)化學(xué)習(xí)技術(shù)屬于學(xué)派。

A、行為主義

B、符號(hào)主義

C、連接主義

D、邏輯主義

正確答案:A

9.計(jì)算機(jī)領(lǐng)域的最高獎(jiǎng)項(xiàng)是。

A、菲爾茲獎(jiǎng)

B、馮.諾伊曼獎(jiǎng)

C、圖靈獎(jiǎng)

D、香農(nóng)獎(jiǎng)

正確答案:C

10.機(jī)器智能目前還無(wú)法達(dá)到人類智能,主要原因是。

A、機(jī)器智能占有的數(shù)據(jù)量還不夠大

B、機(jī)器智能的支持設(shè)備的計(jì)算能力不足

C、機(jī)器智能的推理規(guī)則不全面

D、機(jī)器智能缺乏直覺(jué)和頓悟能力

正確答案:D

11.我國(guó)《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到年成為世界主要人工智能創(chuàng)新中心。

A、2020

B、2025

C、2030

D、2035

正確答案:C

二.多選題

(共12題,52.7分)

1.系統(tǒng)屬于人工智能應(yīng)用的實(shí)例。

A、計(jì)步器

B、機(jī)械式密碼鎖

C、聊天機(jī)器人

D、電商網(wǎng)站的商品推薦

正確答案:CD

2.下面關(guān)于人工智能概念的表述,合理。

A、根據(jù)對(duì)環(huán)境的感知做出合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序

B、任何計(jì)算機(jī)程序都具有人工智能

C、針對(duì)特定的任務(wù),人工智能程序一般具有自主學(xué)習(xí)的能力

D、人工智能程序要和人類具有相同的思考方式

正確答案:AC

3.下面學(xué)科是人工智能的基礎(chǔ)。

A、經(jīng)濟(jì)學(xué)

B、計(jì)算機(jī)科學(xué)

C、地理學(xué)

D、數(shù)學(xué)

正確答案:BD

4.符合強(qiáng)人工智能的描述有。

A、僅在某個(gè)特定的領(lǐng)域超越人類的水平

B、是通用的人工智能

C、可以勝任人類的所有工作

D、在科學(xué)創(chuàng)造力、智慧等方面都遠(yuǎn)勝于人類

正確答案:BC

5.發(fā)展出圖像識(shí)別成功率超越人類的人工智能的主要因素有。

A、人類專家規(guī)則的完善

B、計(jì)算力的提升

C、社會(huì)關(guān)注度提升

D、大量數(shù)據(jù)驅(qū)動(dòng)

正確答案:BD

6.ImageNet是一個(gè)圖片集合,它是。

A、圖像算法性能檢驗(yàn)的“標(biāo)準(zhǔn)”數(shù)據(jù)集

B、繪制圖像的參考標(biāo)準(zhǔn)

C、任何圖形進(jìn)行分類的依據(jù)

D、每個(gè)圖片都有類別標(biāo)簽

正確答案:AD

7.數(shù)據(jù)驅(qū)動(dòng)的人工智能方法的弱點(diǎn)是。

A、解釋性差

B、需要大量數(shù)據(jù)集合

C、需要建立知識(shí)庫(kù)

D、直接從數(shù)據(jù)中學(xué)習(xí)

正確答案:AB

8.對(duì)人工智能的發(fā)展趨勢(shì)劃分,一般可分為。

A、強(qiáng)人工智能

B、泛人工智能

C、弱人工智能

D、超人工智能

正確答案:ACD

9.AlphaGo成為第一個(gè)戰(zhàn)勝圍棋世界冠軍的人工智能機(jī)器人,它用到技術(shù)。

A、專家系統(tǒng)

B、深度學(xué)習(xí)

C、知識(shí)圖譜

D、強(qiáng)化學(xué)習(xí)

正確答案:BD

10.搜索下面的知識(shí)圖譜中,可以得到結(jié)論。

A、風(fēng)云兒是東京的美食品牌

B、風(fēng)云兒是最著名的拉面品牌

C、在一蘭吃壽司人均消費(fèi)低于100元

D、壽司和拉面是本州島的美食

正確答案:AD

11.采用深度學(xué)習(xí)根據(jù)圖像訓(xùn)練一個(gè)植物分類模型前,一般需要。

A、搜集大量植物圖像樣本

B、搜集少量典型植物圖像樣本

C、對(duì)植物樣本進(jìn)行標(biāo)注

D、每類植物搜集一張圖像

正確答案:AC

12.當(dāng)前推動(dòng)人工智能發(fā)展的主要支持技術(shù)包括。

A、云計(jì)算技術(shù)

B、大數(shù)據(jù)技術(shù)

C、深度學(xué)習(xí)算法

D、圖靈測(cè)試技術(shù)

正確答案:ABC

2.每一次比較都使搜索范圍減少一半的方法是。

A、蒙特卡洛方法

B、A*算法

C、minimax算法

D、二分查找法

正確答案:D

3.考慮到對(duì)稱性,井字棋最終局面有種不相同的可能。

A、19683

B、91

C、44

D、138

正確答案:D

4.在啟發(fā)式搜索中,評(píng)價(jià)函數(shù)的作用是。

A、判斷搜索算法的時(shí)間復(fù)雜度

B、判斷搜索算法的空間復(fù)雜度

C、從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)

D、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值

正確答案:D

5.下面對(duì)minimax搜索算法描述中,哪句描述是不正確的。

A、MIN節(jié)點(diǎn)希望對(duì)方收益最小化

B、minimax值計(jì)算從根節(jié)點(diǎn)自頂向下進(jìn)行

C、根據(jù)minimax值確定行棋決策

D、MAX節(jié)點(diǎn)希望自己收益最大化

正確答案:D

6.蒙特卡洛搜索樹中,在階段要兼顧探索和利用。

A、選擇

B、擴(kuò)展

C、模擬

D、反向傳播

正確答案:D

7.根據(jù)課程所講的井字棋估值方法,給以下局面估值為(X為正,O為負(fù))。

A、1

B、-1

C、0

D、2

正確答案:D

8.除了問(wèn)題本身的定義之外,使用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是。

A、啟發(fā)式算法

B、minimax算法

C、深度優(yōu)先搜索

D、蒙特卡洛樹搜索

正確答案:D

9.圖中所示的minimax算法決策樹,圖中估值為7的結(jié)點(diǎn)被稱為。

A、終止結(jié)點(diǎn)

B、MAX結(jié)點(diǎn)

C、MIN結(jié)點(diǎn)

D、根節(jié)點(diǎn)

正確答案:D

10.在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是。

A、從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)

B、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值

C、判斷搜索算法的空間復(fù)雜度

D、判斷搜索算法的時(shí)間復(fù)雜度

正確答案:D

11.在貪婪最佳優(yōu)先搜索中,評(píng)價(jià)函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是。

A、相等

B、不相等

C、大于

D、小于

正確答案:D

12.將兩個(gè)圖片每個(gè)像素RGB三個(gè)分量的差值的平方和作為適應(yīng)度函數(shù)的計(jì)算方法。前后兩次計(jì)算得出來(lái)的值分別為1512869728和1495705312,那么說(shuō)明適應(yīng)度函數(shù)值,適應(yīng)度。

A、變低了;變低了

B、變高了;變低了

C、變低了;變高了

D、變高了;變高了

正確答案:D

二.多選題

1.在圍棋對(duì)弈的蒙特卡洛搜索樹中,每個(gè)節(jié)點(diǎn)記錄A/B值分別對(duì)應(yīng)。

A、該節(jié)點(diǎn)的層數(shù)

B、該局面的子節(jié)點(diǎn)數(shù)

C、該局面被訪問(wèn)總次數(shù)

D、該局面被訪問(wèn)的勝利次數(shù)

正確答案:CD

2.下列關(guān)于搜索算法的描述,錯(cuò)誤的是。

A、盲目搜索如DFS或BFS由于沒(méi)有知識(shí)支持,很可能在解空間中找不到最優(yōu)解

B、A*算法如果啟發(fā)函數(shù)滿足可容性和單調(diào)性,一定能在解空間中找到最優(yōu)解

C、蒙特卡洛算法有可能找到最優(yōu)解,但搜索效率比minimax搜索要高

D、貪婪最佳優(yōu)先搜索一定能在解空間中找到最優(yōu)解

正確答案:ACD

3.下列部分屬于基因遺傳算法的有。

A、選擇

B、交叉和變異

C、初始化編碼

D、反向傳播

正確答案:ABC

4.基因遺傳算法的兩個(gè)常用的結(jié)束條件為。

A、達(dá)到一定的迭代次數(shù)

B、達(dá)到一定的交叉次數(shù)

C、達(dá)到一定的變異次數(shù)

D、適應(yīng)度函數(shù)結(jié)果達(dá)到一定的要求

正確答案:AD

三.判斷題

1.在解決函數(shù)優(yōu)化問(wèn)題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。

正確答案:×

2.每次在同一個(gè)搜索樹中進(jìn)行蒙特卡洛搜索的結(jié)果都是一樣的。

正確答案:×

3.仿生算法是一類模擬自然生物進(jìn)化或者群體社會(huì)行為的隨機(jī)搜索方法的統(tǒng)稱。

正確答案:√

2_人工智能

一.單選題

2.如果一個(gè)模型,我們稱它過(guò)擬合。

A、在訓(xùn)練集上表現(xiàn)好,在測(cè)試集上表現(xiàn)也好

B、在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)也不好

C、在訓(xùn)練集上表現(xiàn)好,在測(cè)試集上表現(xiàn)不好

D、在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)好

正確答案:C

4.某線性回歸模型在訓(xùn)練集和測(cè)試集上的性能都較差,這說(shuō)明出現(xiàn)了問(wèn)題。

A、過(guò)擬合

B、欠擬合

C、數(shù)據(jù)泄露

D、泛化能力強(qiáng)

正確答案:B

5.有關(guān)機(jī)器學(xué)習(xí),說(shuō)法錯(cuò)誤的是。

A、可以利用數(shù)據(jù)來(lái)獲取新知識(shí)

B、使用樣本數(shù)據(jù)來(lái)建立模型,處理同源數(shù)據(jù)的能力得以提升

C、從某類數(shù)據(jù)中學(xué)習(xí)規(guī)律,解決所有數(shù)據(jù)的預(yù)測(cè)問(wèn)題

D、模仿人的學(xué)習(xí)行為來(lái)解決問(wèn)題

正確答案:C

6.線性回歸模型的訓(xùn)練目標(biāo)是找到一組參數(shù),使最小。

A、樣本損失值

B、樣本特征值

C、決定系數(shù)

D、損失函數(shù)值

正確答案:D

7.回歸分析的目的是。

A、對(duì)歷史數(shù)據(jù)進(jìn)行統(tǒng)計(jì)

B、對(duì)歷史數(shù)據(jù)進(jìn)行歸類

C、對(duì)當(dāng)前數(shù)據(jù)進(jìn)行歸類

D、對(duì)未知數(shù)據(jù)做出預(yù)測(cè)

正確答案:D

8.進(jìn)行多項(xiàng)式回歸時(shí),以下說(shuō)法錯(cuò)誤。

A、特征構(gòu)建會(huì)生成更多得用于建模的特征值

B、越是高次多項(xiàng)式,生成的衍生特征越多

C、一元多項(xiàng)式回歸一般會(huì)得到一個(gè)曲線模型

D、如果一元線性回歸出現(xiàn)過(guò)擬合,可采用多項(xiàng)式回歸避免過(guò)擬合

正確答案:D

9.對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確。

A、均方根誤差接近1最好

B、均方根誤差越大越好

C、決定系數(shù)越接近1越好

D、決定系數(shù)越接近0越好

正確答案:C

10.已知各次在電視、微信兩個(gè)渠道投放廣告獲得的收益,利用線性回歸方法為投資和收益關(guān)系建模,可得到的目標(biāo)函數(shù)模型為。

A、A

B、B

C、C

D、D

正確答案:A

11.有關(guān)線性回歸模型的參數(shù),以下說(shuō)法錯(cuò)誤。

A、參數(shù)的數(shù)量跟特征數(shù)量無(wú)關(guān)

B、參數(shù)可以使用梯度下降法求得

C、一元線性回歸模型的參數(shù)大小和正負(fù)說(shuō)明自變量對(duì)因變量的相對(duì)影響大小

D、添加正則化可以使參數(shù)變小

正確答案:A

12.回歸分析通過(guò)對(duì)樣本數(shù)據(jù)的學(xué)習(xí),可以得到一個(gè)來(lái)表示目標(biāo)變量和自變量之間的因果關(guān)系。

A、數(shù)學(xué)模型

B、邏輯推理規(guī)則

C、關(guān)系表

D、決策搜索樹

正確答案:A

二.多選題

1.廣義線性回歸要求以下有一個(gè)是一次的就可以。

A、自變量

B、目標(biāo)變量

C、損失函數(shù)

D、參數(shù)

正確答案:AD

2.在機(jī)器學(xué)習(xí)建模分析時(shí),通常將數(shù)據(jù)集劃分為。

A、訓(xùn)練集

B、預(yù)測(cè)集

C、測(cè)試集

D、回歸集

正確答案:AC

3.以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。

A、匯總

B、回歸

C、聚類

D、排序

正確答案:BC

4.用線性回歸建模時(shí),以下是正確的操作。

A、剔除異常值

B、被預(yù)測(cè)值應(yīng)該在建模的自變量范圍內(nèi)

C、可視化觀察目標(biāo)變量與自變量關(guān)系

D、使用相關(guān)分析把相關(guān)變量合成為一個(gè)或只保留一個(gè)

正確答案:ABCD

三.判斷題

1.把訓(xùn)練數(shù)據(jù)交給線性回歸模型LinearRegression(),它會(huì)自動(dòng)根據(jù)數(shù)據(jù)分布決定用直線擬合還是曲線擬合。

正確答案:×

2.在數(shù)據(jù)集分割時(shí),一般訓(xùn)練集的樣本數(shù)大于測(cè)試集。

正確答案:√

3.線性回歸是一種監(jiān)督學(xué)習(xí)算法。

正確答案:√

4.線性回歸模型能建模多個(gè)特征和目標(biāo)變量的關(guān)系。

正確答案:√

5.測(cè)試集用來(lái)評(píng)估模型,因此不需要數(shù)據(jù)標(biāo)簽。

正確答案:×

6.訓(xùn)練得到的模型如果出現(xiàn)欠擬合,說(shuō)明模型太復(fù)雜。

正確答案:×

6_用邏輯回歸進(jìn)行分類

一.單選題

1.測(cè)試集有800個(gè)樣本,其中正類樣本有600個(gè),若使分類模型的準(zhǔn)確率(Accuracy)至少達(dá)到85%,則該模型預(yù)測(cè)結(jié)果正確的樣本數(shù)目應(yīng)大于等于個(gè)。

A、400

B、480

C、510

D、680

正確答案:D

2.邏輯回歸模型中的損失函數(shù)一般采用。

A、對(duì)數(shù)似然損失函數(shù)

B、均方損失函數(shù)

C、絕對(duì)值損失函數(shù)

D、Logistic函數(shù)

正確答案:A

3.下面對(duì)回歸和分類的描述不正確的是。

A、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型

B、在回歸分析時(shí),學(xué)習(xí)得到一個(gè)函數(shù)將輸入變量映射到連續(xù)輸出空間

C、回歸是一種無(wú)監(jiān)督學(xué)習(xí),分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)

D、在分類時(shí),學(xué)習(xí)得到一個(gè)模型將輸入變量映射到離散輸出空間

正確答案:C

4.用戶針對(duì)同一問(wèn)題建立了四個(gè)分類模型,分別繪制了ROC曲線如圖,說(shuō)明模型最優(yōu)。

A、NT-proBNP

B、CTNI

C、DKMB

D、D-Dimer

正確答案:A

5.保險(xiǎn)公司有客戶購(gòu)買保險(xiǎn)的歷史信息(姓名、性別、生日、收入、孩子數(shù)、房產(chǎn)面積、已購(gòu)保險(xiǎn)品種),若利用這些信息做數(shù)據(jù)分析,下面哪種數(shù)據(jù)分析需要利用機(jī)器學(xué)習(xí)的分類算法。

A、對(duì)老客戶的年齡段進(jìn)行分類(39以下,40-69,70以上)

B、預(yù)測(cè)新客戶購(gòu)買的保險(xiǎn)品種

C、對(duì)老客戶的性別進(jìn)行分類(男、女)

D、預(yù)測(cè)新客戶的房產(chǎn)面積值

正確答案:B

6.在用于分類算法建模的數(shù)據(jù)集合中,。

A、不需要分類標(biāo)簽列

B、是否需要分類標(biāo)簽,根據(jù)集合特點(diǎn)確定

C、一定有多列是分類標(biāo)簽

D、至少有一列是分類標(biāo)簽

正確答案:D

7.評(píng)價(jià)一個(gè)分類模型的性能,召回率計(jì)算公式為。

A、將正類預(yù)測(cè)為正類的樣本數(shù)/所有真正的正類的樣本數(shù)

B、將正類預(yù)測(cè)為正類的樣本數(shù)/所有預(yù)測(cè)為正類的樣本數(shù)

C、所有預(yù)測(cè)正確的樣本數(shù)/總的樣本數(shù)

D、所有真正的正類樣本數(shù)/總的樣本數(shù)

正確答案:A

二.多選題

1.處理數(shù)據(jù)集中的缺失值一般采取以下方法。

A、刪除相關(guān)記錄

B、替換為Nan即可

C、替換為0

D、用估計(jì)的數(shù)據(jù)填充

正確答案:AD

2.邏輯回歸模型建立后,對(duì)于一個(gè)新的未知數(shù)據(jù)進(jìn)行分類,可以通過(guò)實(shí)現(xiàn)。

A、計(jì)算模型輸出的概率值

B、計(jì)算損失函數(shù)值

C、決策邊界計(jì)算

D、Sigmoid函數(shù)計(jì)算

正確答案:AC

3.以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。

A、匯總

B、回歸

C、分類

D、排序

正確答案:BC

4.以下關(guān)于邏輯回歸的說(shuō)法,正確的有。

A、可以實(shí)現(xiàn)二元分類

B、是線性的

C、是非線性的

D、是否線性根據(jù)實(shí)際情況確定

正確答案:AC

5.以下需要使用到分類技術(shù)的應(yīng)用有。

A、根據(jù)客戶消費(fèi)額大小將用戶聚為三類

B、樹木生長(zhǎng)高度預(yù)測(cè)

C、車牌識(shí)別

D、垃圾郵件過(guò)濾

正確答案:CD

6.分類問(wèn)題。

A、是一種預(yù)測(cè),預(yù)測(cè)數(shù)據(jù)所屬的類別

B、有二分類問(wèn)題和多分類問(wèn)題

C、是無(wú)監(jiān)督學(xué)習(xí)問(wèn)題

D、是有監(jiān)督學(xué)習(xí)問(wèn)題

正確答案:ABD

三.判斷題

1.非平衡的二分類問(wèn)題,是指正負(fù)樣本的比例差異大。

正確答案:√

2.邏輯回歸的損失函數(shù)應(yīng)該反映預(yù)測(cè)值與分類標(biāo)簽0和1的距離,因此適合采用交叉熵?fù)p失函數(shù)。

正確答案:√

3.邏輯回歸模型用于二分類(0,1)的輸出結(jié)果是樣本屬于類別1的概率值。

正確答案:√

7_決策樹與隨機(jī)森林

一.單選題

1.信息增益的計(jì)算方法是。

A、信息熵(當(dāng)前集劃分前)-信息熵(當(dāng)前集劃分后)

B、信息熵(當(dāng)前集劃分后)-信息熵(當(dāng)前集劃分前)

C、信息熵(訓(xùn)練集初始熵)-信息熵(葉節(jié)點(diǎn)樣本集信息熵)

D、信息熵(葉節(jié)點(diǎn)樣本集信息熵)-信息熵(訓(xùn)練集初始熵)

正確答案:A

2.隨機(jī)森林算法中,。

A、隨機(jī)的含義是包含決策樹的個(gè)數(shù)是隨機(jī)的

B、樹之間沒(méi)有關(guān)聯(lián),每棵樹單獨(dú)學(xué)習(xí)

C、一棵樹的學(xué)習(xí)結(jié)果作為另一棵樹的輸入

D、隨機(jī)森林的預(yù)測(cè)結(jié)果取決于分類性能最強(qiáng)的那棵決策樹

正確答案:B

3.下面有關(guān)過(guò)擬合的認(rèn)識(shí)錯(cuò)誤的是。

A、過(guò)擬合是因?yàn)橛?xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進(jìn)去了。

B、降低決策樹的復(fù)雜度可以減少過(guò)擬合,例如減少?zèng)Q策樹的深度。

C、判斷模型是否過(guò)擬合可以看隨著訓(xùn)練的增加,訓(xùn)練集的分類精度提高,但測(cè)試集的精度卻下降了。

D、分類算法都可能會(huì)遇到過(guò)擬合現(xiàn)象。

正確答案:A

4.集成學(xué)習(xí)的主要思想是。

A、將多個(gè)數(shù)據(jù)集合集成在一起進(jìn)行訓(xùn)練

B、將多源數(shù)據(jù)(如文本、圖像、聲音等)進(jìn)行融合學(xué)習(xí)

C、通過(guò)聚類算法使數(shù)據(jù)集分為多個(gè)簇

D、將多個(gè)機(jī)器學(xué)習(xí)模型組合起來(lái)解決問(wèn)題

正確答案:D

5.ID3算法使用作為啟發(fā)式信息來(lái)及進(jìn)行特征選擇。

A、信息熵

B、信息增益

C、信息增益比

D、Gini指數(shù)

正確答案:B

6.從歷史數(shù)據(jù)中建立模型分析某人是否適合某個(gè)崗位,以指導(dǎo)招聘人員選撥新員工,這應(yīng)該用

算法解決。

A、分類

B、回歸

C、聚類

D、查詢

正確答案:A

7.決策樹算法。

A、擬合出一個(gè)含有參數(shù)的函數(shù)

B、構(gòu)造出一個(gè)含有參數(shù)的網(wǎng)絡(luò)

C、生成一個(gè)有分枝的決策樹

D、生成一個(gè)有向圖

正確答案:C

8.有關(guān)決策樹與特征工程的關(guān)系,以下說(shuō)法錯(cuò)誤的是。

A、決策樹可以得到對(duì)分類重要的屬性,因此可以作為分類特征獲取的一種方法。

B、如果要了解影響簽署合同快慢的主要因素,可以使用決策樹算法。

C、決策樹獲得的特征可以作為其他算法(例如回歸算法的自變量)輸入的依據(jù)。

D、決策樹可以增強(qiáng)數(shù)據(jù)集獲得更多的特征。

正確答案:D

9.如果從員工的日常表現(xiàn)數(shù)據(jù)預(yù)測(cè)其升職的可能性可以使用下面機(jī)器學(xué)習(xí)方法。

A、關(guān)聯(lián)分析

B、線性回歸

C、聚類

D、分類

正確答案:D

10.ID3用信息增益來(lái)進(jìn)行特征選擇,信息增益。

A、越小越好

B、越大越好

C、為0最好

D、為1最好

正確答案:B

11.在決策樹算法中,如果一個(gè)特征對(duì)于所有樣本都沒(méi)有區(qū)分能力,那么它對(duì)決策。

A、無(wú)用途,可以不考慮

B、仍必須保留在決策樹中

C、最好放在距離根節(jié)點(diǎn)近的位置

D、最好放在距離葉節(jié)點(diǎn)近的位置

正確答案:A

二.多選題

1.理想的決策樹具有特點(diǎn)。

A、樹的高度最高

B、葉子節(jié)點(diǎn)數(shù)最多

C、葉子節(jié)點(diǎn)數(shù)最少

D、葉子節(jié)點(diǎn)深度最小

正確答案:CD

2.決策樹通過(guò)構(gòu)造一棵樹來(lái)實(shí)現(xiàn)分類任務(wù)。它是。

A、一種有監(jiān)督學(xué)習(xí)方法

B、一種無(wú)監(jiān)督學(xué)習(xí)方法

C、樹的葉子節(jié)點(diǎn)對(duì)應(yīng)分類結(jié)果

D、樹的中間節(jié)點(diǎn)對(duì)應(yīng)數(shù)據(jù)特征

正確答案:ACD

3.決策樹中進(jìn)行決策選擇的節(jié)點(diǎn)包括。

A、根節(jié)點(diǎn)

B、中間節(jié)點(diǎn)

C、葉子節(jié)點(diǎn)

D、所有節(jié)點(diǎn)

正確答案:AB

4.構(gòu)建樹結(jié)構(gòu)為多叉樹的決策樹算法有。

A、ID3

B、C4.5

C、Logistic

D、CART

正確答案:AB

5.以下算法屬于決策樹算法。

A、ID3

B、C4.5

C、Logistic

D、CART

正確答案:ABD

三.判斷題

1.決策樹是一種分類模型,不能用于解決回歸問(wèn)題。

正確答案:×

2.一個(gè)集成學(xué)習(xí)分類算法可能包含多個(gè)弱分類器。

正確答案:√

3.在決策樹中,選用較好分類能力的特征對(duì)數(shù)據(jù)集進(jìn)行劃分,各分支中樣本的純度會(huì)比較高。

正確答案:√

4.集成學(xué)習(xí)分類算法AdaBoosting通過(guò)關(guān)注被已有分類器分類錯(cuò)誤的樣本,來(lái)提升新的分類器性能。

正確答案:√

8_用Kmeans進(jìn)行聚類

一.單選題

1.聚類算法屬于。

A、分類問(wèn)題

B、回歸分析

C、有監(jiān)督學(xué)習(xí)

D、無(wú)監(jiān)督學(xué)習(xí)

正確答案:D

2.聚類的目標(biāo)是。

A、已知數(shù)據(jù)類別和特點(diǎn),將其他數(shù)據(jù)分類到和它相似度高的類別中

B、已知數(shù)據(jù)類別和特點(diǎn),將類別進(jìn)一步細(xì)分

C、未知數(shù)據(jù)類別和特點(diǎn),把相似度高和相似度低的樣本分別聚集在一起

D、未知數(shù)據(jù)類別和特點(diǎn),根據(jù)數(shù)據(jù)內(nèi)在性質(zhì)及規(guī)律將其劃分為若干個(gè)子集

正確答案:D

3.K-means聚類的結(jié)果中。

A、類別的個(gè)數(shù)不確定

B、最終的類別之間不能有樣本的交叉

C、最終的類別之間允許有少量樣本的交叉

D、不同類別的元素之間相似度大

正確答案:B

4.K-means算法的結(jié)束條件是。

A、K的值達(dá)到最大

B、每個(gè)簇包含相同個(gè)數(shù)的樣本

C、每個(gè)簇的中心點(diǎn)不再變化

D、某個(gè)簇的樣本相似度最大

正確答案:C

5.K-means算法中如果使用余弦相似度計(jì)算數(shù)據(jù)樣本的相似性,那么計(jì)算結(jié)果。

A、越接近0,相似度越高

B、越接近1,相似度越高

C、越接近-1,相似度越高

D、無(wú)法僅根據(jù)值判斷相似度

正確答案:B

6.如果用K-means算法根據(jù)廣場(chǎng)上的人員分布進(jìn)行聚類,應(yīng)該選擇度量樣本相似性。

A、歐式距離

B、余弦距離

C、漢明距離

D、人員密度

正確答案:A

7.以下對(duì)K-means聚類結(jié)果的解釋,描述錯(cuò)誤的是。

A、最終聚類結(jié)果中,簇內(nèi)凝聚度高,簇間分離度高

B、換不同的K值聚類結(jié)果應(yīng)該一樣

C、每個(gè)樣本數(shù)據(jù)歸屬于與其距離最近的聚類質(zhì)心所在的簇

D、最終聚類結(jié)果中每個(gè)簇中所包含的數(shù)據(jù)差異性最小

正確答案:B

8.K-means算法中的K個(gè)初始中心點(diǎn),通常的選擇方法是。

A、排序后選最大的K個(gè)值

B、排序后選最小的K個(gè)值

C、求均值后,選與均值最接近的K個(gè)值

D、隨機(jī)選擇K個(gè)值

正確答案:D

9.根據(jù)用戶使用移動(dòng)運(yùn)營(yíng)商的數(shù)據(jù),可以為他們?cè)O(shè)計(jì)合適的套餐,使用方法比較合適。

A、聚類

B、回歸

C、匯總

D、分類

正確答案:A

10.下列說(shuō)法錯(cuò)誤的是。

A、在聚類分析中,簇之間的相似性越大,簇內(nèi)樣本的差別越大,聚類的效果就越好

B、聚類分析可以看作是一種非監(jiān)督的樣本分組過(guò)程

C、k均值算法是一種常用的聚類算法,簇的個(gè)數(shù)算法不能自動(dòng)確定

D、k均值算法的計(jì)算耗時(shí)與初始假設(shè)聚類中心的位置有關(guān)

正確答案:A

11.分析營(yíng)銷投入與銷售收入的關(guān)系可以使用數(shù)據(jù)建模方法。

A、匯總

B、聚類

C、回歸

D、分類

正確答案:C

12.在使用Kmeans算法進(jìn)行聚類時(shí),可以利用肘部原理觀察折線圖來(lái)選擇k值。

A、迭代次數(shù)

B、蘭德指數(shù)

C、輪廓系數(shù)

D、歐式距離

正確答案:C

13.在聚類時(shí),根據(jù)衡量樣本是否可以聚為同類。

A、樣本損失

B、樣本數(shù)量

C、樣本維度

D、樣本相似度

正確答案:D

二.多選題

1.下面描述屬于K-means聚類算法特點(diǎn)的有。

A、算法迭代執(zhí)行

B、需要初始化聚類質(zhì)心

C、數(shù)據(jù)需要帶有分類標(biāo)簽

D、需要事先確定聚類數(shù)目

正確答案:ABD

2.有關(guān)機(jī)器學(xué)習(xí)算法選擇的說(shuō)法不正確的有。

A、每種算法都有其使用范圍,因此選擇算法需要考慮具體處理的問(wèn)題

B、判斷機(jī)器學(xué)習(xí)算法好壞在數(shù)據(jù)需求階段就可以確定

C、在分類前可以先做聚類分析

D、對(duì)聚類問(wèn)題可以任選一種聚類算法

正確答案:BD

3.對(duì)移動(dòng)客戶進(jìn)行分組,以便根據(jù)各組的特點(diǎn),策劃不同的營(yíng)銷方案,需要客戶數(shù)據(jù)可能包括

。

A、身高

B、收入

C、年齡

D、客戶長(zhǎng)途市話以及漫游等通話數(shù)據(jù)

正確答案:BCD

4.以下算法需要訓(xùn)練數(shù)據(jù)樣本必須有標(biāo)簽。

A、決策樹

B、邏輯回歸

C、Kmeans聚類

D、線性回歸

正確答案:ABD

5.對(duì)聚類結(jié)果進(jìn)行評(píng)估可以采用輪廓系數(shù),它綜合考慮了。

A、簇內(nèi)凝聚度

B、簇內(nèi)分離度

C、簇間分離度

D、簇間凝聚度

正確答案:AC

三.判斷題

1.對(duì)有標(biāo)簽的數(shù)據(jù)集進(jìn)行聚類結(jié)果的性能評(píng)估,可以利用“調(diào)正蘭德系數(shù)ARI”計(jì)算真實(shí)標(biāo)簽與聚類標(biāo)簽的分布相似性,ARI越接近0越好。

正確答案:×

2.聚類和分類的本質(zhì)是一樣的,都是對(duì)樣本的類別進(jìn)行預(yù)測(cè)。

正確答案:×

9_神經(jīng)網(wǎng)絡(luò)原理與實(shí)現(xiàn)

一.單選題

1.以下算法是基于規(guī)則的分類器。

A、神經(jīng)網(wǎng)絡(luò)

B、k-means

C、邏輯回歸

D、決策樹

正確答案:D

2‘以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是。

A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量

B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則

C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過(guò)程

D、只能用于分類任務(wù)

正確答案:C

3.有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)正確的是。

A、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程是擬合訓(xùn)練數(shù)據(jù)模式的過(guò)程

B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則

C、一個(gè)結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的

D、神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好

正確答案:A

4.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,確定每一個(gè)神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法是。

A、根據(jù)人工經(jīng)驗(yàn)隨機(jī)賦值

B、搜索所有權(quán)重和偏差的組合,直到得到最佳值

C、賦予一個(gè)初始值,然后迭代更新權(quán)重,直至損失函數(shù)取得極小

D、下一層神經(jīng)元繼承上一層神經(jīng)元的權(quán)重和偏差

正確答案:C

5.梯度下降算法的正確計(jì)算步驟是。

1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差

2)迭代更新,直到找到最佳權(quán)重

3)把輸入傳入網(wǎng)絡(luò),得到輸出值

4)初始化隨機(jī)權(quán)重和偏差

5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變其權(quán)重值以減小誤差

A、1)2)3)4)5)

B、5)4)3)2)1)

C、3)2)1)5)4)

D、4)3)1)5)2)

正確答案:D

6.以下問(wèn)題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。

A、預(yù)測(cè)電信客戶流失的可能性

B、輔助確定是否給銀行的客戶貸款

C、對(duì)基金公司的客戶進(jìn)行分組,了解每組客戶的特點(diǎn)

D、股票走勢(shì)的預(yù)測(cè)

正確答案:C

7.用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。

A、優(yōu)化函數(shù)

B、梯度下降

C、反向傳播

D、損失函數(shù)

正確答案:D

8.下面對(duì)感知機(jī)網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是。

A、感知機(jī)網(wǎng)絡(luò)沒(méi)有隱藏層

B、感知機(jī)網(wǎng)絡(luò)具有一層隱藏層

C、感知機(jī)網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)

D、感知機(jī)網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)

正確答案:B

9.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面不是神經(jīng)元所能夠完成的功能。

A、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞

B、通過(guò)激活函數(shù)對(duì)加權(quán)累加信息進(jìn)行非線性變換

C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息

D、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加

正確答案:C

10

對(duì)前饋神經(jīng)網(wǎng)絡(luò)的描述是不正確的。

A、層與層之間通過(guò)“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接

B、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)

C、同一層內(nèi)神經(jīng)元之間存在全連接

D、同一層內(nèi)的神經(jīng)元相互不連接

正確答案:C

11

下面圖像是sigmoid激活函數(shù)。

A、圖1

B、圖2

C、圖3

D、圖4

正確答案:A

12

神經(jīng)網(wǎng)絡(luò)的一次誤差反向傳播算法可以。

A、修改一層神經(jīng)元的參數(shù)

B、修改相鄰2層的神經(jīng)元的參數(shù)

C、修改網(wǎng)絡(luò)中所有神經(jīng)元的參數(shù)

D、修改網(wǎng)絡(luò)中所有神經(jīng)元的激活函數(shù)

正確答案:C

13

神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí),數(shù)據(jù)的類別標(biāo)簽可以用獨(dú)熱編碼,編碼中。

A、只有1個(gè)1,其他為0

B、只有1個(gè)0,其他為1

C、只要是二進(jìn)制就可以

D、一般用8位二進(jìn)制數(shù)

正確答案:A14

神經(jīng)網(wǎng)絡(luò)建模步驟一般是。

1)模型評(píng)估

2)網(wǎng)絡(luò)配置

3)模型訓(xùn)練

4)數(shù)據(jù)準(zhǔn)備

5)模型預(yù)測(cè)

A、1)2)3)4)5)

B、3)2)1)5)4)

C、5)4)3)2)1)

D、4)2)3)1)5)

正確答案:D

二.多選題

1.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,下列關(guān)于神經(jīng)元的陳述中是正確的。

A、一個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出

B、一個(gè)神經(jīng)元可以有一個(gè)輸入和多個(gè)輸出

C、一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出

D、一個(gè)神經(jīng)元只能有一個(gè)輸入和一個(gè)輸出

正確答案:ABC

2.神經(jīng)網(wǎng)絡(luò)的激活函數(shù),通常具有特性。

A、非線性

B、線性

C、可導(dǎo)

D、不可導(dǎo)

正確答案:AC

3.下列可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。

A、隱藏層層數(shù)增加

B、Dropout的比例增加

C、加大學(xué)習(xí)率

D、增加神經(jīng)元的數(shù)量

正確答案:AD

4.訓(xùn)練樣本中,正負(fù)樣本數(shù)量的比例較大,這稱為樣本類別不平衡問(wèn)題,可采用解決。

A、過(guò)采樣,即增加正樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)

B、欠采樣,即去除反例樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)

C、設(shè)置閾值?;谠紨?shù)據(jù)集學(xué)習(xí),當(dāng)使用已訓(xùn)練好的分類器進(jìn)行測(cè)試時(shí),將正負(fù)樣本數(shù)量的比例作為閾值嵌入到?jīng)Q策過(guò)程中

D、改變?cè)u(píng)價(jià)標(biāo)準(zhǔn),用AUC/ROC來(lái)進(jìn)行評(píng)價(jià)

正確答案:ABCD

5.如果神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率太大,。

A、網(wǎng)絡(luò)一定收斂

B、網(wǎng)絡(luò)可能無(wú)法收斂

C、網(wǎng)絡(luò)收斂速度慢

D、網(wǎng)絡(luò)收斂速度快

正確答案:BD

三.判斷題

1.全連接神經(jīng)網(wǎng)絡(luò)輸入層的神經(jīng)元個(gè)數(shù)一般與一個(gè)輸入樣本的特征個(gè)數(shù)相同。

正確答案:√

10_神經(jīng)網(wǎng)絡(luò)應(yīng)用案例與調(diào)優(yōu)

一.單選題

1.實(shí)現(xiàn)二分類任務(wù)的神經(jīng)網(wǎng)絡(luò)中,輸出層激活函數(shù)一般選擇。

A、softmax

B、relu

C、tanh

D、sigmoid

正確答案:D

2.如果神經(jīng)網(wǎng)絡(luò)的性能有表現(xiàn),說(shuō)明出現(xiàn)過(guò)擬合。

A、訓(xùn)練集精度升高、驗(yàn)證集精度升高

B、訓(xùn)練集精度下降、驗(yàn)證集精度下降

C、訓(xùn)練集精度升高、驗(yàn)證集精度下降

D、訓(xùn)練集精度下降、驗(yàn)證集精度升高

正確答案:C

3.實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個(gè)數(shù)一般選擇。

A、與類別數(shù)一致

B、10以內(nèi)

C、2個(gè)

D、類別數(shù)的2倍

正確答案:A

4.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)采用k折交叉驗(yàn)證時(shí),。

A、隨機(jī)選任一份做驗(yàn)證集,其他份做訓(xùn)練集

B、隨機(jī)選任一份做訓(xùn)練集,其他份做驗(yàn)證集

C、依次選一份做驗(yàn)證集,其他份做訓(xùn)練集

D、隨機(jī)選k份做訓(xùn)練集,其他份做驗(yàn)證集

正確答案:C5

實(shí)現(xiàn)標(biāo)量回歸預(yù)測(cè)任務(wù)的神經(jīng)網(wǎng)絡(luò),評(píng)價(jià)指標(biāo)一般選擇。

A、精確率

B、平均絕對(duì)誤差

C、召回率

D、交叉熵

正確答案:B

二.多選題

1.在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,一般需要把訓(xùn)練集再分割為。

A、訓(xùn)練集

B、測(cè)試集

C、驗(yàn)證集

D、備用集

正確答案:AC

2.神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括步驟。

A、將數(shù)據(jù)向量化

B、將數(shù)據(jù)值標(biāo)準(zhǔn)化

C、處理缺失值

D、將數(shù)據(jù)值轉(zhuǎn)化為浮點(diǎn)數(shù)或整數(shù)

正確答案:ABCD

三.判斷題

1.特征工程的目標(biāo)就是減少數(shù)據(jù)集中特征的個(gè)數(shù)。

正確答案:×

2.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練中不應(yīng)該出現(xiàn)過(guò)擬合,這網(wǎng)絡(luò)結(jié)構(gòu)不合理。

正確答案:×

3.上海積累了歷年的氣候大數(shù)據(jù),并使用這些數(shù)據(jù)訓(xùn)練建立了神經(jīng)網(wǎng)絡(luò)模型進(jìn)行天氣預(yù)測(cè),那么這個(gè)模型也可用于其他地區(qū)的天氣預(yù)測(cè)。

正確答案:×

11_卷積神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)視覺(jué)基礎(chǔ)

一.單選題

1.以下情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型。

A、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深

B、輸入層可以接收維度更高的數(shù)據(jù)

C、當(dāng)問(wèn)題是圖形識(shí)別或分類問(wèn)題時(shí)

D、激活函數(shù)更復(fù)雜

正確答案:A

2.卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為。

A、(樣本數(shù),高度,寬度,通道數(shù))

B、(樣本數(shù),高度,寬度)

C、(高度,寬度)

D、(高度*寬度)

正確答案:A

3.深度學(xué)習(xí)算法對(duì)于圖像進(jìn)行特征提取采用的方法是。

A、人為設(shè)計(jì)好特征,由網(wǎng)絡(luò)實(shí)現(xiàn)提取

B、網(wǎng)絡(luò)自動(dòng)提取

C、不需要提取特征

D、根據(jù)特征集合提取

正確答案:B

4.假設(shè)我們需要訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò),來(lái)完成500種圖像分類,類別采用獨(dú)熱編碼。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是。

A、1

B、100

C、250

D、500

正確答案:D

5.CNN網(wǎng)絡(luò)中池化層的作用有。

A、實(shí)現(xiàn)局部特征提取

B、減少過(guò)擬合

C、減少隱層節(jié)點(diǎn)數(shù)

D、獲得分類結(jié)果

正確答案:C

6.下列在神經(jīng)網(wǎng)絡(luò)中引入了非線性。

A、隨機(jī)梯度下降

B、Relu函數(shù)

C、卷積計(jì)算

D、損失函數(shù)

正確答案:B

7.CNN中,是局部連接,所以提取的是局部信息。

A、卷積層

B、池化層

C、全連接層

D、Dropout層

正確答案:A

8.數(shù)據(jù)增強(qiáng)可以有效提升模型質(zhì)量,最好在進(jìn)行數(shù)據(jù)增強(qiáng)。

A、整個(gè)數(shù)據(jù)集

B、訓(xùn)練集

C、驗(yàn)證集

D、測(cè)試集

正確答案:B

9.預(yù)訓(xùn)練模型是指。

A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)

B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練

C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型

D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整

正確答案:C

10

使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是。

A、全連接分類器

B、高層卷積層

C、底層卷積層

D、整個(gè)網(wǎng)絡(luò)

正確答案:A

11.預(yù)訓(xùn)練模型的卷積基一般。

A、只包含卷積層

B、包含卷積層、池化層和全連接層

C、包含卷積層和池化層

D、包含凍結(jié)的卷積層

正確答案:C

12.微調(diào)預(yù)訓(xùn)練模型,一般是指調(diào)整。

A、全連接層

B、高層卷積層

C、底層卷積層

D、任意一個(gè)或幾個(gè)卷積層

正確答案:B

13.要解決的問(wèn)題只有少量的數(shù)據(jù),但幸運(yùn)的是有一個(gè)之前訓(xùn)練過(guò)的針對(duì)類似問(wèn)題的神經(jīng)網(wǎng)絡(luò)模型。最佳方案是。

A、對(duì)于新的數(shù)據(jù)集重新訓(xùn)練模型

B、凍結(jié)除第一層之外的所有層,微調(diào)第一層

C、評(píng)估型每一層的功能,然后選擇其中的某些層

D、凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層

正確答案:D

二.多選題

1.深度全連接神經(jīng)網(wǎng)絡(luò)在圖像處理中有弱點(diǎn)。

A、參數(shù)量太大

B、無(wú)法利用相鄰像素關(guān)聯(lián)

C、模型結(jié)構(gòu)單一

D、過(guò)擬合嚴(yán)重

正確答案:AB

2.通過(guò)數(shù)據(jù)增強(qiáng)可以減少過(guò)擬合的發(fā)生,常用的方法有以下。

A、從數(shù)據(jù)源采集更多的數(shù)據(jù)

B、復(fù)制原有數(shù)據(jù)并添加隨機(jī)噪聲

C、復(fù)制多份一樣的數(shù)據(jù)放在一起

D、根據(jù)現(xiàn)有樣本估計(jì)樣本的分布,然后按照此分布再產(chǎn)生一些樣本

正確答案:ABD

3.CNN網(wǎng)絡(luò)中可能包含層。

A、輸入層

B、卷積層

C、池化層

D、全連接層

正確答案:ABCD

4.CNN網(wǎng)絡(luò)中,卷積核大小一般常采用。

A、3*3

B、5*5

C、100*100

D、1024*1024

正確答案:AB

5.深度學(xué)習(xí)對(duì)的數(shù)據(jù)集沒(méi)有明顯優(yōu)勢(shì)。

A、數(shù)據(jù)集小

B、數(shù)據(jù)集大

C、沒(méi)有局部相關(guān)性

D、有局部相關(guān)性

正確答案:AC

6.在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過(guò)程中,如果泛化能力太差,則可以。

A、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)

B、調(diào)整樣本

C、調(diào)整學(xué)習(xí)率

D、調(diào)整優(yōu)化器

正確答案:ABD

7.Keras的圖片生成器的主要作用是。

A、隨機(jī)動(dòng)態(tài)生成圖像

B、自動(dòng)批量加載磁盤圖像

C、實(shí)現(xiàn)數(shù)據(jù)的轉(zhuǎn)換

D、生成圖像并保存到磁盤

正確答案:BC

8.對(duì)圖片數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)可以采用方法。

A、旋轉(zhuǎn)圖像

B、隨機(jī)裁剪

C、增加噪聲

D、數(shù)據(jù)集中兩個(gè)圖像疊加

正確答案:ABC

9.在微調(diào)預(yù)訓(xùn)練模型時(shí),情況下,凍結(jié)層數(shù)越少。

A、數(shù)據(jù)集越大

B、數(shù)據(jù)集越小

C、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越大

D、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越小

正確答案:AD

三.判斷題

1.CNN網(wǎng)絡(luò)的每個(gè)卷積層之后都有池化層。

正確答案:×

2.CNN中,卷積核的各元素值是神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中自己學(xué)習(xí)得到。

正確答案:×

3.卷積神經(jīng)網(wǎng)絡(luò)卷積核的深度和下層輸入數(shù)據(jù)通道數(shù)相同。

正確答案:×

4.CNN網(wǎng)絡(luò)的一個(gè)卷積核只能提取一種模式。

正確答案:√

5.卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量要遠(yuǎn)遠(yuǎn)小于同樣規(guī)模的全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)量。

正確答案:√

6.卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入完成旋轉(zhuǎn)、錯(cuò)切等變換。

正確答案:×

7.增大卷積核的大小必然會(huì)提高卷積神經(jīng)網(wǎng)絡(luò)的性能。

正確答案:×

12_循環(huán)神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言處理基礎(chǔ)

一.單選題

1.聲音是一種時(shí)序數(shù)據(jù),是對(duì)連續(xù)聲音信號(hào)的進(jìn)行采樣獲得。

A、頻率

B、振幅

C、周期

D、長(zhǎng)度

正確答案:B

2.在使用深度學(xué)習(xí)進(jìn)行文本處理時(shí),一個(gè)文本句子要被理解,首先需要做的是。

A、分詞

B、詞性標(biāo)注

C、命名實(shí)體識(shí)別

D、生成詞嵌入

正確答案:A

3.如果要采用神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)文本進(jìn)行建模,必須先將文本向量化,這一過(guò)程是指。

A、將文本分詞

B、獲得文本類別標(biāo)簽

C、將文本壓縮

D、將文本轉(zhuǎn)換為數(shù)值張量

正確答案:D

4.在經(jīng)過(guò)學(xué)習(xí)獲得的詞嵌入空間中,語(yǔ)法和語(yǔ)義上相近的詞匯。

A、距離更遠(yuǎn)

B、距離更近

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論