人工智能題庫(一)2020_第1頁
人工智能題庫(一)2020_第2頁
人工智能題庫(一)2020_第3頁
人工智能題庫(一)2020_第4頁
人工智能題庫(一)2020_第5頁
已閱讀5頁,還剩20頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能題庫(一)20201_人工智能概述

一.單選題

1.如果分別向參加測試的人和計算機提出一些書面問題,人類無法區(qū)分問題答案來自人還是計算機,那么可以說這臺計算機通過了測試。

A、黑盒

B、丘奇

C、圖靈

D、智商

正確答案:C

3.有人說“人類智能是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面描述和這個觀點不一致。

A、人類智能是機器智能的設(shè)計者

B、機器智能目前已經(jīng)超越了人類智能

C、機器智能目前無法完全模擬人類所有智能

D、機器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機器智能

正確答案:B

4.下面關(guān)于人工智能及深度學(xué)習(xí)的關(guān)系描述中,是正確的。

A、機器學(xué)習(xí)是深度學(xué)習(xí)的一種方法

B、人工智能是機器學(xué)習(xí)的一個分支

C、人工智能就是深度學(xué)習(xí)

D、深度學(xué)習(xí)是一種機器學(xué)習(xí)的方法

正確答案:D

5.下面描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點。

A、大數(shù)據(jù),大任務(wù)

B、大數(shù)據(jù),小任務(wù)

C、小數(shù)據(jù),小任務(wù)

D、小數(shù)據(jù),大任務(wù)

正確答案:B

6.被譽為“機器學(xué)習(xí)之父“的是。

A、塞繆爾

B、費根鮑姆

C、西蒙

D、圖靈

正確答案:A

7.第一個成功研制的專家系統(tǒng)是。

A、計算機配置專家系統(tǒng)Xcon

B、血液病診斷專家系統(tǒng)MYCIN

C、化合物結(jié)構(gòu)識別專家系統(tǒng)Dendral

D、探礦專家系統(tǒng)Prospector

正確答案:C

8.強化學(xué)習(xí)技術(shù)屬于學(xué)派。

A、行為主義

B、符號主義

C、連接主義

D、邏輯主義

正確答案:A

9.計算機領(lǐng)域的最高獎項是。

A、菲爾茲獎

B、馮.諾伊曼獎

C、圖靈獎

D、香農(nóng)獎

正確答案:C

10.機器智能目前還無法達(dá)到人類智能,主要原因是。

A、機器智能占有的數(shù)據(jù)量還不夠大

B、機器智能的支持設(shè)備的計算能力不足

C、機器智能的推理規(guī)則不全面

D、機器智能缺乏直覺和頓悟能力

正確答案:D

11.我國《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到年成為世界主要人工智能創(chuàng)新中心。

A、2020

B、2025

C、2030

D、2035

正確答案:C

二.多選題

(共12題,52.7分)

1.系統(tǒng)屬于人工智能應(yīng)用的實例。

A、計步器

B、機械式密碼鎖

C、聊天機器人

D、電商網(wǎng)站的商品推薦

正確答案:CD

2.下面關(guān)于人工智能概念的表述,合理。

A、根據(jù)對環(huán)境的感知做出合理的行動,并獲得最大收益的計算機程序

B、任何計算機程序都具有人工智能

C、針對特定的任務(wù),人工智能程序一般具有自主學(xué)習(xí)的能力

D、人工智能程序要和人類具有相同的思考方式

正確答案:AC

3.下面學(xué)科是人工智能的基礎(chǔ)。

A、經(jīng)濟學(xué)

B、計算機科學(xué)

C、地理學(xué)

D、數(shù)學(xué)

正確答案:BD

4.符合強人工智能的描述有。

A、僅在某個特定的領(lǐng)域超越人類的水平

B、是通用的人工智能

C、可以勝任人類的所有工作

D、在科學(xué)創(chuàng)造力、智慧等方面都遠(yuǎn)勝于人類

正確答案:BC

5.發(fā)展出圖像識別成功率超越人類的人工智能的主要因素有。

A、人類專家規(guī)則的完善

B、計算力的提升

C、社會關(guān)注度提升

D、大量數(shù)據(jù)驅(qū)動

正確答案:BD

6.ImageNet是一個圖片集合,它是。

A、圖像算法性能檢驗的“標(biāo)準(zhǔn)”數(shù)據(jù)集

B、繪制圖像的參考標(biāo)準(zhǔn)

C、任何圖形進(jìn)行分類的依據(jù)

D、每個圖片都有類別標(biāo)簽

正確答案:AD

7.數(shù)據(jù)驅(qū)動的人工智能方法的弱點是。

A、解釋性差

B、需要大量數(shù)據(jù)集合

C、需要建立知識庫

D、直接從數(shù)據(jù)中學(xué)習(xí)

正確答案:AB

8.對人工智能的發(fā)展趨勢劃分,一般可分為。

A、強人工智能

B、泛人工智能

C、弱人工智能

D、超人工智能

正確答案:ACD

9.AlphaGo成為第一個戰(zhàn)勝圍棋世界冠軍的人工智能機器人,它用到技術(shù)。

A、專家系統(tǒng)

B、深度學(xué)習(xí)

C、知識圖譜

D、強化學(xué)習(xí)

正確答案:BD

10.搜索下面的知識圖譜中,可以得到結(jié)論。

A、風(fēng)云兒是東京的美食品牌

B、風(fēng)云兒是最著名的拉面品牌

C、在一蘭吃壽司人均消費低于100元

D、壽司和拉面是本州島的美食

正確答案:AD

11.采用深度學(xué)習(xí)根據(jù)圖像訓(xùn)練一個植物分類模型前,一般需要。

A、搜集大量植物圖像樣本

B、搜集少量典型植物圖像樣本

C、對植物樣本進(jìn)行標(biāo)注

D、每類植物搜集一張圖像

正確答案:AC

12.當(dāng)前推動人工智能發(fā)展的主要支持技術(shù)包括。

A、云計算技術(shù)

B、大數(shù)據(jù)技術(shù)

C、深度學(xué)習(xí)算法

D、圖靈測試技術(shù)

正確答案:ABC

2.每一次比較都使搜索范圍減少一半的方法是。

A、蒙特卡洛方法

B、A*算法

C、minimax算法

D、二分查找法

正確答案:D

3.考慮到對稱性,井字棋最終局面有種不相同的可能。

A、19683

B、91

C、44

D、138

正確答案:D

4.在啟發(fā)式搜索中,評價函數(shù)的作用是。

A、判斷搜索算法的時間復(fù)雜度

B、判斷搜索算法的空間復(fù)雜度

C、從當(dāng)前節(jié)點出發(fā)來選擇后續(xù)節(jié)點

D、計算從當(dāng)前節(jié)點到目標(biāo)節(jié)點之間的最小代價值

正確答案:D

5.下面對minimax搜索算法描述中,哪句描述是不正確的。

A、MIN節(jié)點希望對方收益最小化

B、minimax值計算從根節(jié)點自頂向下進(jìn)行

C、根據(jù)minimax值確定行棋決策

D、MAX節(jié)點希望自己收益最大化

正確答案:D

6.蒙特卡洛搜索樹中,在階段要兼顧探索和利用。

A、選擇

B、擴展

C、模擬

D、反向傳播

正確答案:D

7.根據(jù)課程所講的井字棋估值方法,給以下局面估值為(X為正,O為負(fù))。

A、1

B、-1

C、0

D、2

正確答案:D

8.除了問題本身的定義之外,使用問題特定知識的搜索策略被認(rèn)為是。

A、啟發(fā)式算法

B、minimax算法

C、深度優(yōu)先搜索

D、蒙特卡洛樹搜索

正確答案:D

9.圖中所示的minimax算法決策樹,圖中估值為7的結(jié)點被稱為。

A、終止結(jié)點

B、MAX結(jié)點

C、MIN結(jié)點

D、根節(jié)點

正確答案:D

10.在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是。

A、從當(dāng)前節(jié)點出發(fā)來選擇后續(xù)節(jié)點

B、計算從當(dāng)前節(jié)點到目標(biāo)節(jié)點之間的最小代價值

C、判斷搜索算法的空間復(fù)雜度

D、判斷搜索算法的時間復(fù)雜度

正確答案:D

11.在貪婪最佳優(yōu)先搜索中,評價函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是。

A、相等

B、不相等

C、大于

D、小于

正確答案:D

12.將兩個圖片每個像素RGB三個分量的差值的平方和作為適應(yīng)度函數(shù)的計算方法。前后兩次計算得出來的值分別為1512869728和1495705312,那么說明適應(yīng)度函數(shù)值,適應(yīng)度。

A、變低了;變低了

B、變高了;變低了

C、變低了;變高了

D、變高了;變高了

正確答案:D

二.多選題

1.在圍棋對弈的蒙特卡洛搜索樹中,每個節(jié)點記錄A/B值分別對應(yīng)。

A、該節(jié)點的層數(shù)

B、該局面的子節(jié)點數(shù)

C、該局面被訪問總次數(shù)

D、該局面被訪問的勝利次數(shù)

正確答案:CD

2.下列關(guān)于搜索算法的描述,錯誤的是。

A、盲目搜索如DFS或BFS由于沒有知識支持,很可能在解空間中找不到最優(yōu)解

B、A*算法如果啟發(fā)函數(shù)滿足可容性和單調(diào)性,一定能在解空間中找到最優(yōu)解

C、蒙特卡洛算法有可能找到最優(yōu)解,但搜索效率比minimax搜索要高

D、貪婪最佳優(yōu)先搜索一定能在解空間中找到最優(yōu)解

正確答案:ACD

3.下列部分屬于基因遺傳算法的有。

A、選擇

B、交叉和變異

C、初始化編碼

D、反向傳播

正確答案:ABC

4.基因遺傳算法的兩個常用的結(jié)束條件為。

A、達(dá)到一定的迭代次數(shù)

B、達(dá)到一定的交叉次數(shù)

C、達(dá)到一定的變異次數(shù)

D、適應(yīng)度函數(shù)結(jié)果達(dá)到一定的要求

正確答案:AD

三.判斷題

1.在解決函數(shù)優(yōu)化問題時,基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。

正確答案:×

2.每次在同一個搜索樹中進(jìn)行蒙特卡洛搜索的結(jié)果都是一樣的。

正確答案:×

3.仿生算法是一類模擬自然生物進(jìn)化或者群體社會行為的隨機搜索方法的統(tǒng)稱。

正確答案:√

2_人工智能

一.單選題

2.如果一個模型,我們稱它過擬合。

A、在訓(xùn)練集上表現(xiàn)好,在測試集上表現(xiàn)也好

B、在訓(xùn)練集上表現(xiàn)不好,在測試集上表現(xiàn)也不好

C、在訓(xùn)練集上表現(xiàn)好,在測試集上表現(xiàn)不好

D、在訓(xùn)練集上表現(xiàn)不好,在測試集上表現(xiàn)好

正確答案:C

4.某線性回歸模型在訓(xùn)練集和測試集上的性能都較差,這說明出現(xiàn)了問題。

A、過擬合

B、欠擬合

C、數(shù)據(jù)泄露

D、泛化能力強

正確答案:B

5.有關(guān)機器學(xué)習(xí),說法錯誤的是。

A、可以利用數(shù)據(jù)來獲取新知識

B、使用樣本數(shù)據(jù)來建立模型,處理同源數(shù)據(jù)的能力得以提升

C、從某類數(shù)據(jù)中學(xué)習(xí)規(guī)律,解決所有數(shù)據(jù)的預(yù)測問題

D、模仿人的學(xué)習(xí)行為來解決問題

正確答案:C

6.線性回歸模型的訓(xùn)練目標(biāo)是找到一組參數(shù),使最小。

A、樣本損失值

B、樣本特征值

C、決定系數(shù)

D、損失函數(shù)值

正確答案:D

7.回歸分析的目的是。

A、對歷史數(shù)據(jù)進(jìn)行統(tǒng)計

B、對歷史數(shù)據(jù)進(jìn)行歸類

C、對當(dāng)前數(shù)據(jù)進(jìn)行歸類

D、對未知數(shù)據(jù)做出預(yù)測

正確答案:D

8.進(jìn)行多項式回歸時,以下說法錯誤。

A、特征構(gòu)建會生成更多得用于建模的特征值

B、越是高次多項式,生成的衍生特征越多

C、一元多項式回歸一般會得到一個曲線模型

D、如果一元線性回歸出現(xiàn)過擬合,可采用多項式回歸避免過擬合

正確答案:D

9.對線性回歸模型進(jìn)行性能評估時,以下說法正確。

A、均方根誤差接近1最好

B、均方根誤差越大越好

C、決定系數(shù)越接近1越好

D、決定系數(shù)越接近0越好

正確答案:C

10.已知各次在電視、微信兩個渠道投放廣告獲得的收益,利用線性回歸方法為投資和收益關(guān)系建模,可得到的目標(biāo)函數(shù)模型為。

A、A

B、B

C、C

D、D

正確答案:A

11.有關(guān)線性回歸模型的參數(shù),以下說法錯誤。

A、參數(shù)的數(shù)量跟特征數(shù)量無關(guān)

B、參數(shù)可以使用梯度下降法求得

C、一元線性回歸模型的參數(shù)大小和正負(fù)說明自變量對因變量的相對影響大小

D、添加正則化可以使參數(shù)變小

正確答案:A

12.回歸分析通過對樣本數(shù)據(jù)的學(xué)習(xí),可以得到一個來表示目標(biāo)變量和自變量之間的因果關(guān)系。

A、數(shù)學(xué)模型

B、邏輯推理規(guī)則

C、關(guān)系表

D、決策搜索樹

正確答案:A

二.多選題

1.廣義線性回歸要求以下有一個是一次的就可以。

A、自變量

B、目標(biāo)變量

C、損失函數(shù)

D、參數(shù)

正確答案:AD

2.在機器學(xué)習(xí)建模分析時,通常將數(shù)據(jù)集劃分為。

A、訓(xùn)練集

B、預(yù)測集

C、測試集

D、回歸集

正確答案:AC

3.以下屬于機器學(xué)習(xí)的任務(wù)是。

A、匯總

B、回歸

C、聚類

D、排序

正確答案:BC

4.用線性回歸建模時,以下是正確的操作。

A、剔除異常值

B、被預(yù)測值應(yīng)該在建模的自變量范圍內(nèi)

C、可視化觀察目標(biāo)變量與自變量關(guān)系

D、使用相關(guān)分析把相關(guān)變量合成為一個或只保留一個

正確答案:ABCD

三.判斷題

1.把訓(xùn)練數(shù)據(jù)交給線性回歸模型LinearRegression(),它會自動根據(jù)數(shù)據(jù)分布決定用直線擬合還是曲線擬合。

正確答案:×

2.在數(shù)據(jù)集分割時,一般訓(xùn)練集的樣本數(shù)大于測試集。

正確答案:√

3.線性回歸是一種監(jiān)督學(xué)習(xí)算法。

正確答案:√

4.線性回歸模型能建模多個特征和目標(biāo)變量的關(guān)系。

正確答案:√

5.測試集用來評估模型,因此不需要數(shù)據(jù)標(biāo)簽。

正確答案:×

6.訓(xùn)練得到的模型如果出現(xiàn)欠擬合,說明模型太復(fù)雜。

正確答案:×

6_用邏輯回歸進(jìn)行分類

一.單選題

1.測試集有800個樣本,其中正類樣本有600個,若使分類模型的準(zhǔn)確率(Accuracy)至少達(dá)到85%,則該模型預(yù)測結(jié)果正確的樣本數(shù)目應(yīng)大于等于個。

A、400

B、480

C、510

D、680

正確答案:D

2.邏輯回歸模型中的損失函數(shù)一般采用。

A、對數(shù)似然損失函數(shù)

B、均方損失函數(shù)

C、絕對值損失函數(shù)

D、Logistic函數(shù)

正確答案:A

3.下面對回歸和分類的描述不正確的是。

A、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型

B、在回歸分析時,學(xué)習(xí)得到一個函數(shù)將輸入變量映射到連續(xù)輸出空間

C、回歸是一種無監(jiān)督學(xué)習(xí),分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)

D、在分類時,學(xué)習(xí)得到一個模型將輸入變量映射到離散輸出空間

正確答案:C

4.用戶針對同一問題建立了四個分類模型,分別繪制了ROC曲線如圖,說明模型最優(yōu)。

A、NT-proBNP

B、CTNI

C、DKMB

D、D-Dimer

正確答案:A

5.保險公司有客戶購買保險的歷史信息(姓名、性別、生日、收入、孩子數(shù)、房產(chǎn)面積、已購保險品種),若利用這些信息做數(shù)據(jù)分析,下面哪種數(shù)據(jù)分析需要利用機器學(xué)習(xí)的分類算法。

A、對老客戶的年齡段進(jìn)行分類(39以下,40-69,70以上)

B、預(yù)測新客戶購買的保險品種

C、對老客戶的性別進(jìn)行分類(男、女)

D、預(yù)測新客戶的房產(chǎn)面積值

正確答案:B

6.在用于分類算法建模的數(shù)據(jù)集合中,。

A、不需要分類標(biāo)簽列

B、是否需要分類標(biāo)簽,根據(jù)集合特點確定

C、一定有多列是分類標(biāo)簽

D、至少有一列是分類標(biāo)簽

正確答案:D

7.評價一個分類模型的性能,召回率計算公式為。

A、將正類預(yù)測為正類的樣本數(shù)/所有真正的正類的樣本數(shù)

B、將正類預(yù)測為正類的樣本數(shù)/所有預(yù)測為正類的樣本數(shù)

C、所有預(yù)測正確的樣本數(shù)/總的樣本數(shù)

D、所有真正的正類樣本數(shù)/總的樣本數(shù)

正確答案:A

二.多選題

1.處理數(shù)據(jù)集中的缺失值一般采取以下方法。

A、刪除相關(guān)記錄

B、替換為Nan即可

C、替換為0

D、用估計的數(shù)據(jù)填充

正確答案:AD

2.邏輯回歸模型建立后,對于一個新的未知數(shù)據(jù)進(jìn)行分類,可以通過實現(xiàn)。

A、計算模型輸出的概率值

B、計算損失函數(shù)值

C、決策邊界計算

D、Sigmoid函數(shù)計算

正確答案:AC

3.以下屬于機器學(xué)習(xí)的任務(wù)是。

A、匯總

B、回歸

C、分類

D、排序

正確答案:BC

4.以下關(guān)于邏輯回歸的說法,正確的有。

A、可以實現(xiàn)二元分類

B、是線性的

C、是非線性的

D、是否線性根據(jù)實際情況確定

正確答案:AC

5.以下需要使用到分類技術(shù)的應(yīng)用有。

A、根據(jù)客戶消費額大小將用戶聚為三類

B、樹木生長高度預(yù)測

C、車牌識別

D、垃圾郵件過濾

正確答案:CD

6.分類問題。

A、是一種預(yù)測,預(yù)測數(shù)據(jù)所屬的類別

B、有二分類問題和多分類問題

C、是無監(jiān)督學(xué)習(xí)問題

D、是有監(jiān)督學(xué)習(xí)問題

正確答案:ABD

三.判斷題

1.非平衡的二分類問題,是指正負(fù)樣本的比例差異大。

正確答案:√

2.邏輯回歸的損失函數(shù)應(yīng)該反映預(yù)測值與分類標(biāo)簽0和1的距離,因此適合采用交叉熵?fù)p失函數(shù)。

正確答案:√

3.邏輯回歸模型用于二分類(0,1)的輸出結(jié)果是樣本屬于類別1的概率值。

正確答案:√

7_決策樹與隨機森林

一.單選題

1.信息增益的計算方法是。

A、信息熵(當(dāng)前集劃分前)-信息熵(當(dāng)前集劃分后)

B、信息熵(當(dāng)前集劃分后)-信息熵(當(dāng)前集劃分前)

C、信息熵(訓(xùn)練集初始熵)-信息熵(葉節(jié)點樣本集信息熵)

D、信息熵(葉節(jié)點樣本集信息熵)-信息熵(訓(xùn)練集初始熵)

正確答案:A

2.隨機森林算法中,。

A、隨機的含義是包含決策樹的個數(shù)是隨機的

B、樹之間沒有關(guān)聯(lián),每棵樹單獨學(xué)習(xí)

C、一棵樹的學(xué)習(xí)結(jié)果作為另一棵樹的輸入

D、隨機森林的預(yù)測結(jié)果取決于分類性能最強的那棵決策樹

正確答案:B

3.下面有關(guān)過擬合的認(rèn)識錯誤的是。

A、過擬合是因為訓(xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進(jìn)去了。

B、降低決策樹的復(fù)雜度可以減少過擬合,例如減少決策樹的深度。

C、判斷模型是否過擬合可以看隨著訓(xùn)練的增加,訓(xùn)練集的分類精度提高,但測試集的精度卻下降了。

D、分類算法都可能會遇到過擬合現(xiàn)象。

正確答案:A

4.集成學(xué)習(xí)的主要思想是。

A、將多個數(shù)據(jù)集合集成在一起進(jìn)行訓(xùn)練

B、將多源數(shù)據(jù)(如文本、圖像、聲音等)進(jìn)行融合學(xué)習(xí)

C、通過聚類算法使數(shù)據(jù)集分為多個簇

D、將多個機器學(xué)習(xí)模型組合起來解決問題

正確答案:D

5.ID3算法使用作為啟發(fā)式信息來及進(jìn)行特征選擇。

A、信息熵

B、信息增益

C、信息增益比

D、Gini指數(shù)

正確答案:B

6.從歷史數(shù)據(jù)中建立模型分析某人是否適合某個崗位,以指導(dǎo)招聘人員選撥新員工,這應(yīng)該用

算法解決。

A、分類

B、回歸

C、聚類

D、查詢

正確答案:A

7.決策樹算法。

A、擬合出一個含有參數(shù)的函數(shù)

B、構(gòu)造出一個含有參數(shù)的網(wǎng)絡(luò)

C、生成一個有分枝的決策樹

D、生成一個有向圖

正確答案:C

8.有關(guān)決策樹與特征工程的關(guān)系,以下說法錯誤的是。

A、決策樹可以得到對分類重要的屬性,因此可以作為分類特征獲取的一種方法。

B、如果要了解影響簽署合同快慢的主要因素,可以使用決策樹算法。

C、決策樹獲得的特征可以作為其他算法(例如回歸算法的自變量)輸入的依據(jù)。

D、決策樹可以增強數(shù)據(jù)集獲得更多的特征。

正確答案:D

9.如果從員工的日常表現(xiàn)數(shù)據(jù)預(yù)測其升職的可能性可以使用下面機器學(xué)習(xí)方法。

A、關(guān)聯(lián)分析

B、線性回歸

C、聚類

D、分類

正確答案:D

10.ID3用信息增益來進(jìn)行特征選擇,信息增益。

A、越小越好

B、越大越好

C、為0最好

D、為1最好

正確答案:B

11.在決策樹算法中,如果一個特征對于所有樣本都沒有區(qū)分能力,那么它對決策。

A、無用途,可以不考慮

B、仍必須保留在決策樹中

C、最好放在距離根節(jié)點近的位置

D、最好放在距離葉節(jié)點近的位置

正確答案:A

二.多選題

1.理想的決策樹具有特點。

A、樹的高度最高

B、葉子節(jié)點數(shù)最多

C、葉子節(jié)點數(shù)最少

D、葉子節(jié)點深度最小

正確答案:CD

2.決策樹通過構(gòu)造一棵樹來實現(xiàn)分類任務(wù)。它是。

A、一種有監(jiān)督學(xué)習(xí)方法

B、一種無監(jiān)督學(xué)習(xí)方法

C、樹的葉子節(jié)點對應(yīng)分類結(jié)果

D、樹的中間節(jié)點對應(yīng)數(shù)據(jù)特征

正確答案:ACD

3.決策樹中進(jìn)行決策選擇的節(jié)點包括。

A、根節(jié)點

B、中間節(jié)點

C、葉子節(jié)點

D、所有節(jié)點

正確答案:AB

4.構(gòu)建樹結(jié)構(gòu)為多叉樹的決策樹算法有。

A、ID3

B、C4.5

C、Logistic

D、CART

正確答案:AB

5.以下算法屬于決策樹算法。

A、ID3

B、C4.5

C、Logistic

D、CART

正確答案:ABD

三.判斷題

1.決策樹是一種分類模型,不能用于解決回歸問題。

正確答案:×

2.一個集成學(xué)習(xí)分類算法可能包含多個弱分類器。

正確答案:√

3.在決策樹中,選用較好分類能力的特征對數(shù)據(jù)集進(jìn)行劃分,各分支中樣本的純度會比較高。

正確答案:√

4.集成學(xué)習(xí)分類算法AdaBoosting通過關(guān)注被已有分類器分類錯誤的樣本,來提升新的分類器性能。

正確答案:√

8_用Kmeans進(jìn)行聚類

一.單選題

1.聚類算法屬于。

A、分類問題

B、回歸分析

C、有監(jiān)督學(xué)習(xí)

D、無監(jiān)督學(xué)習(xí)

正確答案:D

2.聚類的目標(biāo)是。

A、已知數(shù)據(jù)類別和特點,將其他數(shù)據(jù)分類到和它相似度高的類別中

B、已知數(shù)據(jù)類別和特點,將類別進(jìn)一步細(xì)分

C、未知數(shù)據(jù)類別和特點,把相似度高和相似度低的樣本分別聚集在一起

D、未知數(shù)據(jù)類別和特點,根據(jù)數(shù)據(jù)內(nèi)在性質(zhì)及規(guī)律將其劃分為若干個子集

正確答案:D

3.K-means聚類的結(jié)果中。

A、類別的個數(shù)不確定

B、最終的類別之間不能有樣本的交叉

C、最終的類別之間允許有少量樣本的交叉

D、不同類別的元素之間相似度大

正確答案:B

4.K-means算法的結(jié)束條件是。

A、K的值達(dá)到最大

B、每個簇包含相同個數(shù)的樣本

C、每個簇的中心點不再變化

D、某個簇的樣本相似度最大

正確答案:C

5.K-means算法中如果使用余弦相似度計算數(shù)據(jù)樣本的相似性,那么計算結(jié)果。

A、越接近0,相似度越高

B、越接近1,相似度越高

C、越接近-1,相似度越高

D、無法僅根據(jù)值判斷相似度

正確答案:B

6.如果用K-means算法根據(jù)廣場上的人員分布進(jìn)行聚類,應(yīng)該選擇度量樣本相似性。

A、歐式距離

B、余弦距離

C、漢明距離

D、人員密度

正確答案:A

7.以下對K-means聚類結(jié)果的解釋,描述錯誤的是。

A、最終聚類結(jié)果中,簇內(nèi)凝聚度高,簇間分離度高

B、換不同的K值聚類結(jié)果應(yīng)該一樣

C、每個樣本數(shù)據(jù)歸屬于與其距離最近的聚類質(zhì)心所在的簇

D、最終聚類結(jié)果中每個簇中所包含的數(shù)據(jù)差異性最小

正確答案:B

8.K-means算法中的K個初始中心點,通常的選擇方法是。

A、排序后選最大的K個值

B、排序后選最小的K個值

C、求均值后,選與均值最接近的K個值

D、隨機選擇K個值

正確答案:D

9.根據(jù)用戶使用移動運營商的數(shù)據(jù),可以為他們設(shè)計合適的套餐,使用方法比較合適。

A、聚類

B、回歸

C、匯總

D、分類

正確答案:A

10.下列說法錯誤的是。

A、在聚類分析中,簇之間的相似性越大,簇內(nèi)樣本的差別越大,聚類的效果就越好

B、聚類分析可以看作是一種非監(jiān)督的樣本分組過程

C、k均值算法是一種常用的聚類算法,簇的個數(shù)算法不能自動確定

D、k均值算法的計算耗時與初始假設(shè)聚類中心的位置有關(guān)

正確答案:A

11.分析營銷投入與銷售收入的關(guān)系可以使用數(shù)據(jù)建模方法。

A、匯總

B、聚類

C、回歸

D、分類

正確答案:C

12.在使用Kmeans算法進(jìn)行聚類時,可以利用肘部原理觀察折線圖來選擇k值。

A、迭代次數(shù)

B、蘭德指數(shù)

C、輪廓系數(shù)

D、歐式距離

正確答案:C

13.在聚類時,根據(jù)衡量樣本是否可以聚為同類。

A、樣本損失

B、樣本數(shù)量

C、樣本維度

D、樣本相似度

正確答案:D

二.多選題

1.下面描述屬于K-means聚類算法特點的有。

A、算法迭代執(zhí)行

B、需要初始化聚類質(zhì)心

C、數(shù)據(jù)需要帶有分類標(biāo)簽

D、需要事先確定聚類數(shù)目

正確答案:ABD

2.有關(guān)機器學(xué)習(xí)算法選擇的說法不正確的有。

A、每種算法都有其使用范圍,因此選擇算法需要考慮具體處理的問題

B、判斷機器學(xué)習(xí)算法好壞在數(shù)據(jù)需求階段就可以確定

C、在分類前可以先做聚類分析

D、對聚類問題可以任選一種聚類算法

正確答案:BD

3.對移動客戶進(jìn)行分組,以便根據(jù)各組的特點,策劃不同的營銷方案,需要客戶數(shù)據(jù)可能包括

。

A、身高

B、收入

C、年齡

D、客戶長途市話以及漫游等通話數(shù)據(jù)

正確答案:BCD

4.以下算法需要訓(xùn)練數(shù)據(jù)樣本必須有標(biāo)簽。

A、決策樹

B、邏輯回歸

C、Kmeans聚類

D、線性回歸

正確答案:ABD

5.對聚類結(jié)果進(jìn)行評估可以采用輪廓系數(shù),它綜合考慮了。

A、簇內(nèi)凝聚度

B、簇內(nèi)分離度

C、簇間分離度

D、簇間凝聚度

正確答案:AC

三.判斷題

1.對有標(biāo)簽的數(shù)據(jù)集進(jìn)行聚類結(jié)果的性能評估,可以利用“調(diào)正蘭德系數(shù)ARI”計算真實標(biāo)簽與聚類標(biāo)簽的分布相似性,ARI越接近0越好。

正確答案:×

2.聚類和分類的本質(zhì)是一樣的,都是對樣本的類別進(jìn)行預(yù)測。

正確答案:×

9_神經(jīng)網(wǎng)絡(luò)原理與實現(xiàn)

一.單選題

1.以下算法是基于規(guī)則的分類器。

A、神經(jīng)網(wǎng)絡(luò)

B、k-means

C、邏輯回歸

D、決策樹

正確答案:D

2‘以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是。

A、神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量

B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則

C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個很耗時的過程

D、只能用于分類任務(wù)

正確答案:C

3.有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識正確的是。

A、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程是擬合訓(xùn)練數(shù)據(jù)模式的過程

B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則

C、一個結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的

D、神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好

正確答案:A

4.在一個神經(jīng)網(wǎng)絡(luò)中,確定每一個神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法是。

A、根據(jù)人工經(jīng)驗隨機賦值

B、搜索所有權(quán)重和偏差的組合,直到得到最佳值

C、賦予一個初始值,然后迭代更新權(quán)重,直至損失函數(shù)取得極小

D、下一層神經(jīng)元繼承上一層神經(jīng)元的權(quán)重和偏差

正確答案:C

5.梯度下降算法的正確計算步驟是。

1)計算預(yù)測值和真實值之間的誤差

2)迭代更新,直到找到最佳權(quán)重

3)把輸入傳入網(wǎng)絡(luò),得到輸出值

4)初始化隨機權(quán)重和偏差

5)對每一個產(chǎn)生誤差的神經(jīng)元,改變其權(quán)重值以減小誤差

A、1)2)3)4)5)

B、5)4)3)2)1)

C、3)2)1)5)4)

D、4)3)1)5)2)

正確答案:D

6.以下問題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。

A、預(yù)測電信客戶流失的可能性

B、輔助確定是否給銀行的客戶貸款

C、對基金公司的客戶進(jìn)行分組,了解每組客戶的特點

D、股票走勢的預(yù)測

正確答案:C

7.用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。

A、優(yōu)化函數(shù)

B、梯度下降

C、反向傳播

D、損失函數(shù)

正確答案:D

8.下面對感知機網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是。

A、感知機網(wǎng)絡(luò)沒有隱藏層

B、感知機網(wǎng)絡(luò)具有一層隱藏層

C、感知機網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)

D、感知機網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)

正確答案:B

9.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個神經(jīng)元會完成若干功能,下面不是神經(jīng)元所能夠完成的功能。

A、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞

B、通過激活函數(shù)對加權(quán)累加信息進(jìn)行非線性變換

C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息

D、對前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加

正確答案:C

10

對前饋神經(jīng)網(wǎng)絡(luò)的描述是不正確的。

A、層與層之間通過“全連接”進(jìn)行連接,即兩個相鄰層之間神經(jīng)元完全成對連接

B、各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級

C、同一層內(nèi)神經(jīng)元之間存在全連接

D、同一層內(nèi)的神經(jīng)元相互不連接

正確答案:C

11

下面圖像是sigmoid激活函數(shù)。

A、圖1

B、圖2

C、圖3

D、圖4

正確答案:A

12

神經(jīng)網(wǎng)絡(luò)的一次誤差反向傳播算法可以。

A、修改一層神經(jīng)元的參數(shù)

B、修改相鄰2層的神經(jīng)元的參數(shù)

C、修改網(wǎng)絡(luò)中所有神經(jīng)元的參數(shù)

D、修改網(wǎng)絡(luò)中所有神經(jīng)元的激活函數(shù)

正確答案:C

13

神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,數(shù)據(jù)的類別標(biāo)簽可以用獨熱編碼,編碼中。

A、只有1個1,其他為0

B、只有1個0,其他為1

C、只要是二進(jìn)制就可以

D、一般用8位二進(jìn)制數(shù)

正確答案:A14

神經(jīng)網(wǎng)絡(luò)建模步驟一般是。

1)模型評估

2)網(wǎng)絡(luò)配置

3)模型訓(xùn)練

4)數(shù)據(jù)準(zhǔn)備

5)模型預(yù)測

A、1)2)3)4)5)

B、3)2)1)5)4)

C、5)4)3)2)1)

D、4)2)3)1)5)

正確答案:D

二.多選題

1.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,下列關(guān)于神經(jīng)元的陳述中是正確的。

A、一個神經(jīng)元可以有多個輸入和一個輸出

B、一個神經(jīng)元可以有一個輸入和多個輸出

C、一個神經(jīng)元可以有多個輸入和多個輸出

D、一個神經(jīng)元只能有一個輸入和一個輸出

正確答案:ABC

2.神經(jīng)網(wǎng)絡(luò)的激活函數(shù),通常具有特性。

A、非線性

B、線性

C、可導(dǎo)

D、不可導(dǎo)

正確答案:AC

3.下列可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。

A、隱藏層層數(shù)增加

B、Dropout的比例增加

C、加大學(xué)習(xí)率

D、增加神經(jīng)元的數(shù)量

正確答案:AD

4.訓(xùn)練樣本中,正負(fù)樣本數(shù)量的比例較大,這稱為樣本類別不平衡問題,可采用解決。

A、過采樣,即增加正樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)

B、欠采樣,即去除反例樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)

C、設(shè)置閾值?;谠紨?shù)據(jù)集學(xué)習(xí),當(dāng)使用已訓(xùn)練好的分類器進(jìn)行測試時,將正負(fù)樣本數(shù)量的比例作為閾值嵌入到?jīng)Q策過程中

D、改變評價標(biāo)準(zhǔn),用AUC/ROC來進(jìn)行評價

正確答案:ABCD

5.如果神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率太大,。

A、網(wǎng)絡(luò)一定收斂

B、網(wǎng)絡(luò)可能無法收斂

C、網(wǎng)絡(luò)收斂速度慢

D、網(wǎng)絡(luò)收斂速度快

正確答案:BD

三.判斷題

1.全連接神經(jīng)網(wǎng)絡(luò)輸入層的神經(jīng)元個數(shù)一般與一個輸入樣本的特征個數(shù)相同。

正確答案:√

10_神經(jīng)網(wǎng)絡(luò)應(yīng)用案例與調(diào)優(yōu)

一.單選題

1.實現(xiàn)二分類任務(wù)的神經(jīng)網(wǎng)絡(luò)中,輸出層激活函數(shù)一般選擇。

A、softmax

B、relu

C、tanh

D、sigmoid

正確答案:D

2.如果神經(jīng)網(wǎng)絡(luò)的性能有表現(xiàn),說明出現(xiàn)過擬合。

A、訓(xùn)練集精度升高、驗證集精度升高

B、訓(xùn)練集精度下降、驗證集精度下降

C、訓(xùn)練集精度升高、驗證集精度下降

D、訓(xùn)練集精度下降、驗證集精度升高

正確答案:C

3.實現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個數(shù)一般選擇。

A、與類別數(shù)一致

B、10以內(nèi)

C、2個

D、類別數(shù)的2倍

正確答案:A

4.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時采用k折交叉驗證時,。

A、隨機選任一份做驗證集,其他份做訓(xùn)練集

B、隨機選任一份做訓(xùn)練集,其他份做驗證集

C、依次選一份做驗證集,其他份做訓(xùn)練集

D、隨機選k份做訓(xùn)練集,其他份做驗證集

正確答案:C5

實現(xiàn)標(biāo)量回歸預(yù)測任務(wù)的神經(jīng)網(wǎng)絡(luò),評價指標(biāo)一般選擇。

A、精確率

B、平均絕對誤差

C、召回率

D、交叉熵

正確答案:B

二.多選題

1.在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,一般需要把訓(xùn)練集再分割為。

A、訓(xùn)練集

B、測試集

C、驗證集

D、備用集

正確答案:AC

2.神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括步驟。

A、將數(shù)據(jù)向量化

B、將數(shù)據(jù)值標(biāo)準(zhǔn)化

C、處理缺失值

D、將數(shù)據(jù)值轉(zhuǎn)化為浮點數(shù)或整數(shù)

正確答案:ABCD

三.判斷題

1.特征工程的目標(biāo)就是減少數(shù)據(jù)集中特征的個數(shù)。

正確答案:×

2.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練中不應(yīng)該出現(xiàn)過擬合,這網(wǎng)絡(luò)結(jié)構(gòu)不合理。

正確答案:×

3.上海積累了歷年的氣候大數(shù)據(jù),并使用這些數(shù)據(jù)訓(xùn)練建立了神經(jīng)網(wǎng)絡(luò)模型進(jìn)行天氣預(yù)測,那么這個模型也可用于其他地區(qū)的天氣預(yù)測。

正確答案:×

11_卷積神經(jīng)網(wǎng)絡(luò)計算機視覺基礎(chǔ)

一.單選題

1.以下情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型。

A、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深

B、輸入層可以接收維度更高的數(shù)據(jù)

C、當(dāng)問題是圖形識別或分類問題時

D、激活函數(shù)更復(fù)雜

正確答案:A

2.卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為。

A、(樣本數(shù),高度,寬度,通道數(shù))

B、(樣本數(shù),高度,寬度)

C、(高度,寬度)

D、(高度*寬度)

正確答案:A

3.深度學(xué)習(xí)算法對于圖像進(jìn)行特征提取采用的方法是。

A、人為設(shè)計好特征,由網(wǎng)絡(luò)實現(xiàn)提取

B、網(wǎng)絡(luò)自動提取

C、不需要提取特征

D、根據(jù)特征集合提取

正確答案:B

4.假設(shè)我們需要訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò),來完成500種圖像分類,類別采用獨熱編碼。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是。

A、1

B、100

C、250

D、500

正確答案:D

5.CNN網(wǎng)絡(luò)中池化層的作用有。

A、實現(xiàn)局部特征提取

B、減少過擬合

C、減少隱層節(jié)點數(shù)

D、獲得分類結(jié)果

正確答案:C

6.下列在神經(jīng)網(wǎng)絡(luò)中引入了非線性。

A、隨機梯度下降

B、Relu函數(shù)

C、卷積計算

D、損失函數(shù)

正確答案:B

7.CNN中,是局部連接,所以提取的是局部信息。

A、卷積層

B、池化層

C、全連接層

D、Dropout層

正確答案:A

8.數(shù)據(jù)增強可以有效提升模型質(zhì)量,最好在進(jìn)行數(shù)據(jù)增強。

A、整個數(shù)據(jù)集

B、訓(xùn)練集

C、驗證集

D、測試集

正確答案:B

9.預(yù)訓(xùn)練模型是指。

A、先訓(xùn)練一個模型作為基準(zhǔn)

B、在正式訓(xùn)練之前,做一次試驗訓(xùn)練

C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個模型

D、預(yù)先根據(jù)任務(wù)特點,對模型結(jié)構(gòu)進(jìn)行調(diào)整

正確答案:C

10

使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是。

A、全連接分類器

B、高層卷積層

C、底層卷積層

D、整個網(wǎng)絡(luò)

正確答案:A

11.預(yù)訓(xùn)練模型的卷積基一般。

A、只包含卷積層

B、包含卷積層、池化層和全連接層

C、包含卷積層和池化層

D、包含凍結(jié)的卷積層

正確答案:C

12.微調(diào)預(yù)訓(xùn)練模型,一般是指調(diào)整。

A、全連接層

B、高層卷積層

C、底層卷積層

D、任意一個或幾個卷積層

正確答案:B

13.要解決的問題只有少量的數(shù)據(jù),但幸運的是有一個之前訓(xùn)練過的針對類似問題的神經(jīng)網(wǎng)絡(luò)模型。最佳方案是。

A、對于新的數(shù)據(jù)集重新訓(xùn)練模型

B、凍結(jié)除第一層之外的所有層,微調(diào)第一層

C、評估型每一層的功能,然后選擇其中的某些層

D、凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層

正確答案:D

二.多選題

1.深度全連接神經(jīng)網(wǎng)絡(luò)在圖像處理中有弱點。

A、參數(shù)量太大

B、無法利用相鄰像素關(guān)聯(lián)

C、模型結(jié)構(gòu)單一

D、過擬合嚴(yán)重

正確答案:AB

2.通過數(shù)據(jù)增強可以減少過擬合的發(fā)生,常用的方法有以下。

A、從數(shù)據(jù)源采集更多的數(shù)據(jù)

B、復(fù)制原有數(shù)據(jù)并添加隨機噪聲

C、復(fù)制多份一樣的數(shù)據(jù)放在一起

D、根據(jù)現(xiàn)有樣本估計樣本的分布,然后按照此分布再產(chǎn)生一些樣本

正確答案:ABD

3.CNN網(wǎng)絡(luò)中可能包含層。

A、輸入層

B、卷積層

C、池化層

D、全連接層

正確答案:ABCD

4.CNN網(wǎng)絡(luò)中,卷積核大小一般常采用。

A、3*3

B、5*5

C、100*100

D、1024*1024

正確答案:AB

5.深度學(xué)習(xí)對的數(shù)據(jù)集沒有明顯優(yōu)勢。

A、數(shù)據(jù)集小

B、數(shù)據(jù)集大

C、沒有局部相關(guān)性

D、有局部相關(guān)性

正確答案:AC

6.在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,如果泛化能力太差,則可以。

A、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)

B、調(diào)整樣本

C、調(diào)整學(xué)習(xí)率

D、調(diào)整優(yōu)化器

正確答案:ABD

7.Keras的圖片生成器的主要作用是。

A、隨機動態(tài)生成圖像

B、自動批量加載磁盤圖像

C、實現(xiàn)數(shù)據(jù)的轉(zhuǎn)換

D、生成圖像并保存到磁盤

正確答案:BC

8.對圖片數(shù)據(jù)進(jìn)行數(shù)據(jù)增強可以采用方法。

A、旋轉(zhuǎn)圖像

B、隨機裁剪

C、增加噪聲

D、數(shù)據(jù)集中兩個圖像疊加

正確答案:ABC

9.在微調(diào)預(yù)訓(xùn)練模型時,情況下,凍結(jié)層數(shù)越少。

A、數(shù)據(jù)集越大

B、數(shù)據(jù)集越小

C、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越大

D、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越小

正確答案:AD

三.判斷題

1.CNN網(wǎng)絡(luò)的每個卷積層之后都有池化層。

正確答案:×

2.CNN中,卷積核的各元素值是神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中自己學(xué)習(xí)得到。

正確答案:×

3.卷積神經(jīng)網(wǎng)絡(luò)卷積核的深度和下層輸入數(shù)據(jù)通道數(shù)相同。

正確答案:×

4.CNN網(wǎng)絡(luò)的一個卷積核只能提取一種模式。

正確答案:√

5.卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量要遠(yuǎn)遠(yuǎn)小于同樣規(guī)模的全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)量。

正確答案:√

6.卷積神經(jīng)網(wǎng)絡(luò)可以對一個輸入完成旋轉(zhuǎn)、錯切等變換。

正確答案:×

7.增大卷積核的大小必然會提高卷積神經(jīng)網(wǎng)絡(luò)的性能。

正確答案:×

12_循環(huán)神經(jīng)網(wǎng)絡(luò)自然語言處理基礎(chǔ)

一.單選題

1.聲音是一種時序數(shù)據(jù),是對連續(xù)聲音信號的進(jìn)行采樣獲得。

A、頻率

B、振幅

C、周期

D、長度

正確答案:B

2.在使用深度學(xué)習(xí)進(jìn)行文本處理時,一個文本句子要被理解,首先需要做的是。

A、分詞

B、詞性標(biāo)注

C、命名實體識別

D、生成詞嵌入

正確答案:A

3.如果要采用神經(jīng)網(wǎng)絡(luò)來對文本進(jìn)行建模,必須先將文本向量化,這一過程是指。

A、將文本分詞

B、獲得文本類別標(biāo)簽

C、將文本壓縮

D、將文本轉(zhuǎn)換為數(shù)值張量

正確答案:D

4.在經(jīng)過學(xué)習(xí)獲得的詞嵌入空間中,語法和語義上相近的詞匯。

A、距離更遠(yuǎn)

B、距離更近

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論