版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能題庫(kù)(一)20201_人工智能概述
一.單選題
1.如果分別向參加測(cè)試的人和計(jì)算機(jī)提出一些書面問(wèn)題,人類無(wú)法區(qū)分問(wèn)題答案來(lái)自人還是計(jì)算機(jī),那么可以說(shuō)這臺(tái)計(jì)算機(jī)通過(guò)了測(cè)試。
A、黑盒
B、丘奇
C、圖靈
D、智商
正確答案:C
3.有人說(shuō)“人類智能是智能回路的總開(kāi)關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面描述和這個(gè)觀點(diǎn)不一致。
A、人類智能是機(jī)器智能的設(shè)計(jì)者
B、機(jī)器智能目前已經(jīng)超越了人類智能
C、機(jī)器智能目前無(wú)法完全模擬人類所有智能
D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能
正確答案:B
4.下面關(guān)于人工智能及深度學(xué)習(xí)的關(guān)系描述中,是正確的。
A、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種方法
B、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支
C、人工智能就是深度學(xué)習(xí)
D、深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法
正確答案:D
5.下面描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點(diǎn)。
A、大數(shù)據(jù),大任務(wù)
B、大數(shù)據(jù),小任務(wù)
C、小數(shù)據(jù),小任務(wù)
D、小數(shù)據(jù),大任務(wù)
正確答案:B
6.被譽(yù)為“機(jī)器學(xué)習(xí)之父“的是。
A、塞繆爾
B、費(fèi)根鮑姆
C、西蒙
D、圖靈
正確答案:A
7.第一個(gè)成功研制的專家系統(tǒng)是。
A、計(jì)算機(jī)配置專家系統(tǒng)Xcon
B、血液病診斷專家系統(tǒng)MYCIN
C、化合物結(jié)構(gòu)識(shí)別專家系統(tǒng)Dendral
D、探礦專家系統(tǒng)Prospector
正確答案:C
8.強(qiáng)化學(xué)習(xí)技術(shù)屬于學(xué)派。
A、行為主義
B、符號(hào)主義
C、連接主義
D、邏輯主義
正確答案:A
9.計(jì)算機(jī)領(lǐng)域的最高獎(jiǎng)項(xiàng)是。
A、菲爾茲獎(jiǎng)
B、馮.諾伊曼獎(jiǎng)
C、圖靈獎(jiǎng)
D、香農(nóng)獎(jiǎng)
正確答案:C
10.機(jī)器智能目前還無(wú)法達(dá)到人類智能,主要原因是。
A、機(jī)器智能占有的數(shù)據(jù)量還不夠大
B、機(jī)器智能的支持設(shè)備的計(jì)算能力不足
C、機(jī)器智能的推理規(guī)則不全面
D、機(jī)器智能缺乏直覺(jué)和頓悟能力
正確答案:D
11.我國(guó)《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到年成為世界主要人工智能創(chuàng)新中心。
A、2020
B、2025
C、2030
D、2035
正確答案:C
二.多選題
(共12題,52.7分)
1.系統(tǒng)屬于人工智能應(yīng)用的實(shí)例。
A、計(jì)步器
B、機(jī)械式密碼鎖
C、聊天機(jī)器人
D、電商網(wǎng)站的商品推薦
正確答案:CD
2.下面關(guān)于人工智能概念的表述,合理。
A、根據(jù)對(duì)環(huán)境的感知做出合理的行動(dòng),并獲得最大收益的計(jì)算機(jī)程序
B、任何計(jì)算機(jī)程序都具有人工智能
C、針對(duì)特定的任務(wù),人工智能程序一般具有自主學(xué)習(xí)的能力
D、人工智能程序要和人類具有相同的思考方式
正確答案:AC
3.下面學(xué)科是人工智能的基礎(chǔ)。
A、經(jīng)濟(jì)學(xué)
B、計(jì)算機(jī)科學(xué)
C、地理學(xué)
D、數(shù)學(xué)
正確答案:BD
4.符合強(qiáng)人工智能的描述有。
A、僅在某個(gè)特定的領(lǐng)域超越人類的水平
B、是通用的人工智能
C、可以勝任人類的所有工作
D、在科學(xué)創(chuàng)造力、智慧等方面都遠(yuǎn)勝于人類
正確答案:BC
5.發(fā)展出圖像識(shí)別成功率超越人類的人工智能的主要因素有。
A、人類專家規(guī)則的完善
B、計(jì)算力的提升
C、社會(huì)關(guān)注度提升
D、大量數(shù)據(jù)驅(qū)動(dòng)
正確答案:BD
6.ImageNet是一個(gè)圖片集合,它是。
A、圖像算法性能檢驗(yàn)的“標(biāo)準(zhǔn)”數(shù)據(jù)集
B、繪制圖像的參考標(biāo)準(zhǔn)
C、任何圖形進(jìn)行分類的依據(jù)
D、每個(gè)圖片都有類別標(biāo)簽
正確答案:AD
7.數(shù)據(jù)驅(qū)動(dòng)的人工智能方法的弱點(diǎn)是。
A、解釋性差
B、需要大量數(shù)據(jù)集合
C、需要建立知識(shí)庫(kù)
D、直接從數(shù)據(jù)中學(xué)習(xí)
正確答案:AB
8.對(duì)人工智能的發(fā)展趨勢(shì)劃分,一般可分為。
A、強(qiáng)人工智能
B、泛人工智能
C、弱人工智能
D、超人工智能
正確答案:ACD
9.AlphaGo成為第一個(gè)戰(zhàn)勝圍棋世界冠軍的人工智能機(jī)器人,它用到技術(shù)。
A、專家系統(tǒng)
B、深度學(xué)習(xí)
C、知識(shí)圖譜
D、強(qiáng)化學(xué)習(xí)
正確答案:BD
10.搜索下面的知識(shí)圖譜中,可以得到結(jié)論。
A、風(fēng)云兒是東京的美食品牌
B、風(fēng)云兒是最著名的拉面品牌
C、在一蘭吃壽司人均消費(fèi)低于100元
D、壽司和拉面是本州島的美食
正確答案:AD
11.采用深度學(xué)習(xí)根據(jù)圖像訓(xùn)練一個(gè)植物分類模型前,一般需要。
A、搜集大量植物圖像樣本
B、搜集少量典型植物圖像樣本
C、對(duì)植物樣本進(jìn)行標(biāo)注
D、每類植物搜集一張圖像
正確答案:AC
12.當(dāng)前推動(dòng)人工智能發(fā)展的主要支持技術(shù)包括。
A、云計(jì)算技術(shù)
B、大數(shù)據(jù)技術(shù)
C、深度學(xué)習(xí)算法
D、圖靈測(cè)試技術(shù)
正確答案:ABC
2.每一次比較都使搜索范圍減少一半的方法是。
A、蒙特卡洛方法
B、A*算法
C、minimax算法
D、二分查找法
正確答案:D
3.考慮到對(duì)稱性,井字棋最終局面有種不相同的可能。
A、19683
B、91
C、44
D、138
正確答案:D
4.在啟發(fā)式搜索中,評(píng)價(jià)函數(shù)的作用是。
A、判斷搜索算法的時(shí)間復(fù)雜度
B、判斷搜索算法的空間復(fù)雜度
C、從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)
D、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值
正確答案:D
5.下面對(duì)minimax搜索算法描述中,哪句描述是不正確的。
A、MIN節(jié)點(diǎn)希望對(duì)方收益最小化
B、minimax值計(jì)算從根節(jié)點(diǎn)自頂向下進(jìn)行
C、根據(jù)minimax值確定行棋決策
D、MAX節(jié)點(diǎn)希望自己收益最大化
正確答案:D
6.蒙特卡洛搜索樹中,在階段要兼顧探索和利用。
A、選擇
B、擴(kuò)展
C、模擬
D、反向傳播
正確答案:D
7.根據(jù)課程所講的井字棋估值方法,給以下局面估值為(X為正,O為負(fù))。
A、1
B、-1
C、0
D、2
正確答案:D
8.除了問(wèn)題本身的定義之外,使用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是。
A、啟發(fā)式算法
B、minimax算法
C、深度優(yōu)先搜索
D、蒙特卡洛樹搜索
正確答案:D
9.圖中所示的minimax算法決策樹,圖中估值為7的結(jié)點(diǎn)被稱為。
A、終止結(jié)點(diǎn)
B、MAX結(jié)點(diǎn)
C、MIN結(jié)點(diǎn)
D、根節(jié)點(diǎn)
正確答案:D
10.在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是。
A、從當(dāng)前節(jié)點(diǎn)出發(fā)來(lái)選擇后續(xù)節(jié)點(diǎn)
B、計(jì)算從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)之間的最小代價(jià)值
C、判斷搜索算法的空間復(fù)雜度
D、判斷搜索算法的時(shí)間復(fù)雜度
正確答案:D
11.在貪婪最佳優(yōu)先搜索中,評(píng)價(jià)函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是。
A、相等
B、不相等
C、大于
D、小于
正確答案:D
12.將兩個(gè)圖片每個(gè)像素RGB三個(gè)分量的差值的平方和作為適應(yīng)度函數(shù)的計(jì)算方法。前后兩次計(jì)算得出來(lái)的值分別為1512869728和1495705312,那么說(shuō)明適應(yīng)度函數(shù)值,適應(yīng)度。
A、變低了;變低了
B、變高了;變低了
C、變低了;變高了
D、變高了;變高了
正確答案:D
二.多選題
1.在圍棋對(duì)弈的蒙特卡洛搜索樹中,每個(gè)節(jié)點(diǎn)記錄A/B值分別對(duì)應(yīng)。
A、該節(jié)點(diǎn)的層數(shù)
B、該局面的子節(jié)點(diǎn)數(shù)
C、該局面被訪問(wèn)總次數(shù)
D、該局面被訪問(wèn)的勝利次數(shù)
正確答案:CD
2.下列關(guān)于搜索算法的描述,錯(cuò)誤的是。
A、盲目搜索如DFS或BFS由于沒(méi)有知識(shí)支持,很可能在解空間中找不到最優(yōu)解
B、A*算法如果啟發(fā)函數(shù)滿足可容性和單調(diào)性,一定能在解空間中找到最優(yōu)解
C、蒙特卡洛算法有可能找到最優(yōu)解,但搜索效率比minimax搜索要高
D、貪婪最佳優(yōu)先搜索一定能在解空間中找到最優(yōu)解
正確答案:ACD
3.下列部分屬于基因遺傳算法的有。
A、選擇
B、交叉和變異
C、初始化編碼
D、反向傳播
正確答案:ABC
4.基因遺傳算法的兩個(gè)常用的結(jié)束條件為。
A、達(dá)到一定的迭代次數(shù)
B、達(dá)到一定的交叉次數(shù)
C、達(dá)到一定的變異次數(shù)
D、適應(yīng)度函數(shù)結(jié)果達(dá)到一定的要求
正確答案:AD
三.判斷題
1.在解決函數(shù)優(yōu)化問(wèn)題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。
正確答案:×
2.每次在同一個(gè)搜索樹中進(jìn)行蒙特卡洛搜索的結(jié)果都是一樣的。
正確答案:×
3.仿生算法是一類模擬自然生物進(jìn)化或者群體社會(huì)行為的隨機(jī)搜索方法的統(tǒng)稱。
正確答案:√
2_人工智能
一.單選題
2.如果一個(gè)模型,我們稱它過(guò)擬合。
A、在訓(xùn)練集上表現(xiàn)好,在測(cè)試集上表現(xiàn)也好
B、在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)也不好
C、在訓(xùn)練集上表現(xiàn)好,在測(cè)試集上表現(xiàn)不好
D、在訓(xùn)練集上表現(xiàn)不好,在測(cè)試集上表現(xiàn)好
正確答案:C
4.某線性回歸模型在訓(xùn)練集和測(cè)試集上的性能都較差,這說(shuō)明出現(xiàn)了問(wèn)題。
A、過(guò)擬合
B、欠擬合
C、數(shù)據(jù)泄露
D、泛化能力強(qiáng)
正確答案:B
5.有關(guān)機(jī)器學(xué)習(xí),說(shuō)法錯(cuò)誤的是。
A、可以利用數(shù)據(jù)來(lái)獲取新知識(shí)
B、使用樣本數(shù)據(jù)來(lái)建立模型,處理同源數(shù)據(jù)的能力得以提升
C、從某類數(shù)據(jù)中學(xué)習(xí)規(guī)律,解決所有數(shù)據(jù)的預(yù)測(cè)問(wèn)題
D、模仿人的學(xué)習(xí)行為來(lái)解決問(wèn)題
正確答案:C
6.線性回歸模型的訓(xùn)練目標(biāo)是找到一組參數(shù),使最小。
A、樣本損失值
B、樣本特征值
C、決定系數(shù)
D、損失函數(shù)值
正確答案:D
7.回歸分析的目的是。
A、對(duì)歷史數(shù)據(jù)進(jìn)行統(tǒng)計(jì)
B、對(duì)歷史數(shù)據(jù)進(jìn)行歸類
C、對(duì)當(dāng)前數(shù)據(jù)進(jìn)行歸類
D、對(duì)未知數(shù)據(jù)做出預(yù)測(cè)
正確答案:D
8.進(jìn)行多項(xiàng)式回歸時(shí),以下說(shuō)法錯(cuò)誤。
A、特征構(gòu)建會(huì)生成更多得用于建模的特征值
B、越是高次多項(xiàng)式,生成的衍生特征越多
C、一元多項(xiàng)式回歸一般會(huì)得到一個(gè)曲線模型
D、如果一元線性回歸出現(xiàn)過(guò)擬合,可采用多項(xiàng)式回歸避免過(guò)擬合
正確答案:D
9.對(duì)線性回歸模型進(jìn)行性能評(píng)估時(shí),以下說(shuō)法正確。
A、均方根誤差接近1最好
B、均方根誤差越大越好
C、決定系數(shù)越接近1越好
D、決定系數(shù)越接近0越好
正確答案:C
10.已知各次在電視、微信兩個(gè)渠道投放廣告獲得的收益,利用線性回歸方法為投資和收益關(guān)系建模,可得到的目標(biāo)函數(shù)模型為。
A、A
B、B
C、C
D、D
正確答案:A
11.有關(guān)線性回歸模型的參數(shù),以下說(shuō)法錯(cuò)誤。
A、參數(shù)的數(shù)量跟特征數(shù)量無(wú)關(guān)
B、參數(shù)可以使用梯度下降法求得
C、一元線性回歸模型的參數(shù)大小和正負(fù)說(shuō)明自變量對(duì)因變量的相對(duì)影響大小
D、添加正則化可以使參數(shù)變小
正確答案:A
12.回歸分析通過(guò)對(duì)樣本數(shù)據(jù)的學(xué)習(xí),可以得到一個(gè)來(lái)表示目標(biāo)變量和自變量之間的因果關(guān)系。
A、數(shù)學(xué)模型
B、邏輯推理規(guī)則
C、關(guān)系表
D、決策搜索樹
正確答案:A
二.多選題
1.廣義線性回歸要求以下有一個(gè)是一次的就可以。
A、自變量
B、目標(biāo)變量
C、損失函數(shù)
D、參數(shù)
正確答案:AD
2.在機(jī)器學(xué)習(xí)建模分析時(shí),通常將數(shù)據(jù)集劃分為。
A、訓(xùn)練集
B、預(yù)測(cè)集
C、測(cè)試集
D、回歸集
正確答案:AC
3.以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。
A、匯總
B、回歸
C、聚類
D、排序
正確答案:BC
4.用線性回歸建模時(shí),以下是正確的操作。
A、剔除異常值
B、被預(yù)測(cè)值應(yīng)該在建模的自變量范圍內(nèi)
C、可視化觀察目標(biāo)變量與自變量關(guān)系
D、使用相關(guān)分析把相關(guān)變量合成為一個(gè)或只保留一個(gè)
正確答案:ABCD
三.判斷題
1.把訓(xùn)練數(shù)據(jù)交給線性回歸模型LinearRegression(),它會(huì)自動(dòng)根據(jù)數(shù)據(jù)分布決定用直線擬合還是曲線擬合。
正確答案:×
2.在數(shù)據(jù)集分割時(shí),一般訓(xùn)練集的樣本數(shù)大于測(cè)試集。
正確答案:√
3.線性回歸是一種監(jiān)督學(xué)習(xí)算法。
正確答案:√
4.線性回歸模型能建模多個(gè)特征和目標(biāo)變量的關(guān)系。
正確答案:√
5.測(cè)試集用來(lái)評(píng)估模型,因此不需要數(shù)據(jù)標(biāo)簽。
正確答案:×
6.訓(xùn)練得到的模型如果出現(xiàn)欠擬合,說(shuō)明模型太復(fù)雜。
正確答案:×
6_用邏輯回歸進(jìn)行分類
一.單選題
1.測(cè)試集有800個(gè)樣本,其中正類樣本有600個(gè),若使分類模型的準(zhǔn)確率(Accuracy)至少達(dá)到85%,則該模型預(yù)測(cè)結(jié)果正確的樣本數(shù)目應(yīng)大于等于個(gè)。
A、400
B、480
C、510
D、680
正確答案:D
2.邏輯回歸模型中的損失函數(shù)一般采用。
A、對(duì)數(shù)似然損失函數(shù)
B、均方損失函數(shù)
C、絕對(duì)值損失函數(shù)
D、Logistic函數(shù)
正確答案:A
3.下面對(duì)回歸和分類的描述不正確的是。
A、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型
B、在回歸分析時(shí),學(xué)習(xí)得到一個(gè)函數(shù)將輸入變量映射到連續(xù)輸出空間
C、回歸是一種無(wú)監(jiān)督學(xué)習(xí),分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)
D、在分類時(shí),學(xué)習(xí)得到一個(gè)模型將輸入變量映射到離散輸出空間
正確答案:C
4.用戶針對(duì)同一問(wèn)題建立了四個(gè)分類模型,分別繪制了ROC曲線如圖,說(shuō)明模型最優(yōu)。
A、NT-proBNP
B、CTNI
C、DKMB
D、D-Dimer
正確答案:A
5.保險(xiǎn)公司有客戶購(gòu)買保險(xiǎn)的歷史信息(姓名、性別、生日、收入、孩子數(shù)、房產(chǎn)面積、已購(gòu)保險(xiǎn)品種),若利用這些信息做數(shù)據(jù)分析,下面哪種數(shù)據(jù)分析需要利用機(jī)器學(xué)習(xí)的分類算法。
A、對(duì)老客戶的年齡段進(jìn)行分類(39以下,40-69,70以上)
B、預(yù)測(cè)新客戶購(gòu)買的保險(xiǎn)品種
C、對(duì)老客戶的性別進(jìn)行分類(男、女)
D、預(yù)測(cè)新客戶的房產(chǎn)面積值
正確答案:B
6.在用于分類算法建模的數(shù)據(jù)集合中,。
A、不需要分類標(biāo)簽列
B、是否需要分類標(biāo)簽,根據(jù)集合特點(diǎn)確定
C、一定有多列是分類標(biāo)簽
D、至少有一列是分類標(biāo)簽
正確答案:D
7.評(píng)價(jià)一個(gè)分類模型的性能,召回率計(jì)算公式為。
A、將正類預(yù)測(cè)為正類的樣本數(shù)/所有真正的正類的樣本數(shù)
B、將正類預(yù)測(cè)為正類的樣本數(shù)/所有預(yù)測(cè)為正類的樣本數(shù)
C、所有預(yù)測(cè)正確的樣本數(shù)/總的樣本數(shù)
D、所有真正的正類樣本數(shù)/總的樣本數(shù)
正確答案:A
二.多選題
1.處理數(shù)據(jù)集中的缺失值一般采取以下方法。
A、刪除相關(guān)記錄
B、替換為Nan即可
C、替換為0
D、用估計(jì)的數(shù)據(jù)填充
正確答案:AD
2.邏輯回歸模型建立后,對(duì)于一個(gè)新的未知數(shù)據(jù)進(jìn)行分類,可以通過(guò)實(shí)現(xiàn)。
A、計(jì)算模型輸出的概率值
B、計(jì)算損失函數(shù)值
C、決策邊界計(jì)算
D、Sigmoid函數(shù)計(jì)算
正確答案:AC
3.以下屬于機(jī)器學(xué)習(xí)的任務(wù)是。
A、匯總
B、回歸
C、分類
D、排序
正確答案:BC
4.以下關(guān)于邏輯回歸的說(shuō)法,正確的有。
A、可以實(shí)現(xiàn)二元分類
B、是線性的
C、是非線性的
D、是否線性根據(jù)實(shí)際情況確定
正確答案:AC
5.以下需要使用到分類技術(shù)的應(yīng)用有。
A、根據(jù)客戶消費(fèi)額大小將用戶聚為三類
B、樹木生長(zhǎng)高度預(yù)測(cè)
C、車牌識(shí)別
D、垃圾郵件過(guò)濾
正確答案:CD
6.分類問(wèn)題。
A、是一種預(yù)測(cè),預(yù)測(cè)數(shù)據(jù)所屬的類別
B、有二分類問(wèn)題和多分類問(wèn)題
C、是無(wú)監(jiān)督學(xué)習(xí)問(wèn)題
D、是有監(jiān)督學(xué)習(xí)問(wèn)題
正確答案:ABD
三.判斷題
1.非平衡的二分類問(wèn)題,是指正負(fù)樣本的比例差異大。
正確答案:√
2.邏輯回歸的損失函數(shù)應(yīng)該反映預(yù)測(cè)值與分類標(biāo)簽0和1的距離,因此適合采用交叉熵?fù)p失函數(shù)。
正確答案:√
3.邏輯回歸模型用于二分類(0,1)的輸出結(jié)果是樣本屬于類別1的概率值。
正確答案:√
7_決策樹與隨機(jī)森林
一.單選題
1.信息增益的計(jì)算方法是。
A、信息熵(當(dāng)前集劃分前)-信息熵(當(dāng)前集劃分后)
B、信息熵(當(dāng)前集劃分后)-信息熵(當(dāng)前集劃分前)
C、信息熵(訓(xùn)練集初始熵)-信息熵(葉節(jié)點(diǎn)樣本集信息熵)
D、信息熵(葉節(jié)點(diǎn)樣本集信息熵)-信息熵(訓(xùn)練集初始熵)
正確答案:A
2.隨機(jī)森林算法中,。
A、隨機(jī)的含義是包含決策樹的個(gè)數(shù)是隨機(jī)的
B、樹之間沒(méi)有關(guān)聯(lián),每棵樹單獨(dú)學(xué)習(xí)
C、一棵樹的學(xué)習(xí)結(jié)果作為另一棵樹的輸入
D、隨機(jī)森林的預(yù)測(cè)結(jié)果取決于分類性能最強(qiáng)的那棵決策樹
正確答案:B
3.下面有關(guān)過(guò)擬合的認(rèn)識(shí)錯(cuò)誤的是。
A、過(guò)擬合是因?yàn)橛?xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進(jìn)去了。
B、降低決策樹的復(fù)雜度可以減少過(guò)擬合,例如減少?zèng)Q策樹的深度。
C、判斷模型是否過(guò)擬合可以看隨著訓(xùn)練的增加,訓(xùn)練集的分類精度提高,但測(cè)試集的精度卻下降了。
D、分類算法都可能會(huì)遇到過(guò)擬合現(xiàn)象。
正確答案:A
4.集成學(xué)習(xí)的主要思想是。
A、將多個(gè)數(shù)據(jù)集合集成在一起進(jìn)行訓(xùn)練
B、將多源數(shù)據(jù)(如文本、圖像、聲音等)進(jìn)行融合學(xué)習(xí)
C、通過(guò)聚類算法使數(shù)據(jù)集分為多個(gè)簇
D、將多個(gè)機(jī)器學(xué)習(xí)模型組合起來(lái)解決問(wèn)題
正確答案:D
5.ID3算法使用作為啟發(fā)式信息來(lái)及進(jìn)行特征選擇。
A、信息熵
B、信息增益
C、信息增益比
D、Gini指數(shù)
正確答案:B
6.從歷史數(shù)據(jù)中建立模型分析某人是否適合某個(gè)崗位,以指導(dǎo)招聘人員選撥新員工,這應(yīng)該用
算法解決。
A、分類
B、回歸
C、聚類
D、查詢
正確答案:A
7.決策樹算法。
A、擬合出一個(gè)含有參數(shù)的函數(shù)
B、構(gòu)造出一個(gè)含有參數(shù)的網(wǎng)絡(luò)
C、生成一個(gè)有分枝的決策樹
D、生成一個(gè)有向圖
正確答案:C
8.有關(guān)決策樹與特征工程的關(guān)系,以下說(shuō)法錯(cuò)誤的是。
A、決策樹可以得到對(duì)分類重要的屬性,因此可以作為分類特征獲取的一種方法。
B、如果要了解影響簽署合同快慢的主要因素,可以使用決策樹算法。
C、決策樹獲得的特征可以作為其他算法(例如回歸算法的自變量)輸入的依據(jù)。
D、決策樹可以增強(qiáng)數(shù)據(jù)集獲得更多的特征。
正確答案:D
9.如果從員工的日常表現(xiàn)數(shù)據(jù)預(yù)測(cè)其升職的可能性可以使用下面機(jī)器學(xué)習(xí)方法。
A、關(guān)聯(lián)分析
B、線性回歸
C、聚類
D、分類
正確答案:D
10.ID3用信息增益來(lái)進(jìn)行特征選擇,信息增益。
A、越小越好
B、越大越好
C、為0最好
D、為1最好
正確答案:B
11.在決策樹算法中,如果一個(gè)特征對(duì)于所有樣本都沒(méi)有區(qū)分能力,那么它對(duì)決策。
A、無(wú)用途,可以不考慮
B、仍必須保留在決策樹中
C、最好放在距離根節(jié)點(diǎn)近的位置
D、最好放在距離葉節(jié)點(diǎn)近的位置
正確答案:A
二.多選題
1.理想的決策樹具有特點(diǎn)。
A、樹的高度最高
B、葉子節(jié)點(diǎn)數(shù)最多
C、葉子節(jié)點(diǎn)數(shù)最少
D、葉子節(jié)點(diǎn)深度最小
正確答案:CD
2.決策樹通過(guò)構(gòu)造一棵樹來(lái)實(shí)現(xiàn)分類任務(wù)。它是。
A、一種有監(jiān)督學(xué)習(xí)方法
B、一種無(wú)監(jiān)督學(xué)習(xí)方法
C、樹的葉子節(jié)點(diǎn)對(duì)應(yīng)分類結(jié)果
D、樹的中間節(jié)點(diǎn)對(duì)應(yīng)數(shù)據(jù)特征
正確答案:ACD
3.決策樹中進(jìn)行決策選擇的節(jié)點(diǎn)包括。
A、根節(jié)點(diǎn)
B、中間節(jié)點(diǎn)
C、葉子節(jié)點(diǎn)
D、所有節(jié)點(diǎn)
正確答案:AB
4.構(gòu)建樹結(jié)構(gòu)為多叉樹的決策樹算法有。
A、ID3
B、C4.5
C、Logistic
D、CART
正確答案:AB
5.以下算法屬于決策樹算法。
A、ID3
B、C4.5
C、Logistic
D、CART
正確答案:ABD
三.判斷題
1.決策樹是一種分類模型,不能用于解決回歸問(wèn)題。
正確答案:×
2.一個(gè)集成學(xué)習(xí)分類算法可能包含多個(gè)弱分類器。
正確答案:√
3.在決策樹中,選用較好分類能力的特征對(duì)數(shù)據(jù)集進(jìn)行劃分,各分支中樣本的純度會(huì)比較高。
正確答案:√
4.集成學(xué)習(xí)分類算法AdaBoosting通過(guò)關(guān)注被已有分類器分類錯(cuò)誤的樣本,來(lái)提升新的分類器性能。
正確答案:√
8_用Kmeans進(jìn)行聚類
一.單選題
1.聚類算法屬于。
A、分類問(wèn)題
B、回歸分析
C、有監(jiān)督學(xué)習(xí)
D、無(wú)監(jiān)督學(xué)習(xí)
正確答案:D
2.聚類的目標(biāo)是。
A、已知數(shù)據(jù)類別和特點(diǎn),將其他數(shù)據(jù)分類到和它相似度高的類別中
B、已知數(shù)據(jù)類別和特點(diǎn),將類別進(jìn)一步細(xì)分
C、未知數(shù)據(jù)類別和特點(diǎn),把相似度高和相似度低的樣本分別聚集在一起
D、未知數(shù)據(jù)類別和特點(diǎn),根據(jù)數(shù)據(jù)內(nèi)在性質(zhì)及規(guī)律將其劃分為若干個(gè)子集
正確答案:D
3.K-means聚類的結(jié)果中。
A、類別的個(gè)數(shù)不確定
B、最終的類別之間不能有樣本的交叉
C、最終的類別之間允許有少量樣本的交叉
D、不同類別的元素之間相似度大
正確答案:B
4.K-means算法的結(jié)束條件是。
A、K的值達(dá)到最大
B、每個(gè)簇包含相同個(gè)數(shù)的樣本
C、每個(gè)簇的中心點(diǎn)不再變化
D、某個(gè)簇的樣本相似度最大
正確答案:C
5.K-means算法中如果使用余弦相似度計(jì)算數(shù)據(jù)樣本的相似性,那么計(jì)算結(jié)果。
A、越接近0,相似度越高
B、越接近1,相似度越高
C、越接近-1,相似度越高
D、無(wú)法僅根據(jù)值判斷相似度
正確答案:B
6.如果用K-means算法根據(jù)廣場(chǎng)上的人員分布進(jìn)行聚類,應(yīng)該選擇度量樣本相似性。
A、歐式距離
B、余弦距離
C、漢明距離
D、人員密度
正確答案:A
7.以下對(duì)K-means聚類結(jié)果的解釋,描述錯(cuò)誤的是。
A、最終聚類結(jié)果中,簇內(nèi)凝聚度高,簇間分離度高
B、換不同的K值聚類結(jié)果應(yīng)該一樣
C、每個(gè)樣本數(shù)據(jù)歸屬于與其距離最近的聚類質(zhì)心所在的簇
D、最終聚類結(jié)果中每個(gè)簇中所包含的數(shù)據(jù)差異性最小
正確答案:B
8.K-means算法中的K個(gè)初始中心點(diǎn),通常的選擇方法是。
A、排序后選最大的K個(gè)值
B、排序后選最小的K個(gè)值
C、求均值后,選與均值最接近的K個(gè)值
D、隨機(jī)選擇K個(gè)值
正確答案:D
9.根據(jù)用戶使用移動(dòng)運(yùn)營(yíng)商的數(shù)據(jù),可以為他們?cè)O(shè)計(jì)合適的套餐,使用方法比較合適。
A、聚類
B、回歸
C、匯總
D、分類
正確答案:A
10.下列說(shuō)法錯(cuò)誤的是。
A、在聚類分析中,簇之間的相似性越大,簇內(nèi)樣本的差別越大,聚類的效果就越好
B、聚類分析可以看作是一種非監(jiān)督的樣本分組過(guò)程
C、k均值算法是一種常用的聚類算法,簇的個(gè)數(shù)算法不能自動(dòng)確定
D、k均值算法的計(jì)算耗時(shí)與初始假設(shè)聚類中心的位置有關(guān)
正確答案:A
11.分析營(yíng)銷投入與銷售收入的關(guān)系可以使用數(shù)據(jù)建模方法。
A、匯總
B、聚類
C、回歸
D、分類
正確答案:C
12.在使用Kmeans算法進(jìn)行聚類時(shí),可以利用肘部原理觀察折線圖來(lái)選擇k值。
A、迭代次數(shù)
B、蘭德指數(shù)
C、輪廓系數(shù)
D、歐式距離
正確答案:C
13.在聚類時(shí),根據(jù)衡量樣本是否可以聚為同類。
A、樣本損失
B、樣本數(shù)量
C、樣本維度
D、樣本相似度
正確答案:D
二.多選題
1.下面描述屬于K-means聚類算法特點(diǎn)的有。
A、算法迭代執(zhí)行
B、需要初始化聚類質(zhì)心
C、數(shù)據(jù)需要帶有分類標(biāo)簽
D、需要事先確定聚類數(shù)目
正確答案:ABD
2.有關(guān)機(jī)器學(xué)習(xí)算法選擇的說(shuō)法不正確的有。
A、每種算法都有其使用范圍,因此選擇算法需要考慮具體處理的問(wèn)題
B、判斷機(jī)器學(xué)習(xí)算法好壞在數(shù)據(jù)需求階段就可以確定
C、在分類前可以先做聚類分析
D、對(duì)聚類問(wèn)題可以任選一種聚類算法
正確答案:BD
3.對(duì)移動(dòng)客戶進(jìn)行分組,以便根據(jù)各組的特點(diǎn),策劃不同的營(yíng)銷方案,需要客戶數(shù)據(jù)可能包括
。
A、身高
B、收入
C、年齡
D、客戶長(zhǎng)途市話以及漫游等通話數(shù)據(jù)
正確答案:BCD
4.以下算法需要訓(xùn)練數(shù)據(jù)樣本必須有標(biāo)簽。
A、決策樹
B、邏輯回歸
C、Kmeans聚類
D、線性回歸
正確答案:ABD
5.對(duì)聚類結(jié)果進(jìn)行評(píng)估可以采用輪廓系數(shù),它綜合考慮了。
A、簇內(nèi)凝聚度
B、簇內(nèi)分離度
C、簇間分離度
D、簇間凝聚度
正確答案:AC
三.判斷題
1.對(duì)有標(biāo)簽的數(shù)據(jù)集進(jìn)行聚類結(jié)果的性能評(píng)估,可以利用“調(diào)正蘭德系數(shù)ARI”計(jì)算真實(shí)標(biāo)簽與聚類標(biāo)簽的分布相似性,ARI越接近0越好。
正確答案:×
2.聚類和分類的本質(zhì)是一樣的,都是對(duì)樣本的類別進(jìn)行預(yù)測(cè)。
正確答案:×
9_神經(jīng)網(wǎng)絡(luò)原理與實(shí)現(xiàn)
一.單選題
1.以下算法是基于規(guī)則的分類器。
A、神經(jīng)網(wǎng)絡(luò)
B、k-means
C、邏輯回歸
D、決策樹
正確答案:D
2‘以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是。
A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量
B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則
C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過(guò)程
D、只能用于分類任務(wù)
正確答案:C
3.有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)正確的是。
A、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程是擬合訓(xùn)練數(shù)據(jù)模式的過(guò)程
B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則
C、一個(gè)結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的
D、神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好
正確答案:A
4.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,確定每一個(gè)神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法是。
A、根據(jù)人工經(jīng)驗(yàn)隨機(jī)賦值
B、搜索所有權(quán)重和偏差的組合,直到得到最佳值
C、賦予一個(gè)初始值,然后迭代更新權(quán)重,直至損失函數(shù)取得極小
D、下一層神經(jīng)元繼承上一層神經(jīng)元的權(quán)重和偏差
正確答案:C
5.梯度下降算法的正確計(jì)算步驟是。
1)計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差
2)迭代更新,直到找到最佳權(quán)重
3)把輸入傳入網(wǎng)絡(luò),得到輸出值
4)初始化隨機(jī)權(quán)重和偏差
5)對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變其權(quán)重值以減小誤差
A、1)2)3)4)5)
B、5)4)3)2)1)
C、3)2)1)5)4)
D、4)3)1)5)2)
正確答案:D
6.以下問(wèn)題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。
A、預(yù)測(cè)電信客戶流失的可能性
B、輔助確定是否給銀行的客戶貸款
C、對(duì)基金公司的客戶進(jìn)行分組,了解每組客戶的特點(diǎn)
D、股票走勢(shì)的預(yù)測(cè)
正確答案:C
7.用來(lái)評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小。
A、優(yōu)化函數(shù)
B、梯度下降
C、反向傳播
D、損失函數(shù)
正確答案:D
8.下面對(duì)感知機(jī)網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是。
A、感知機(jī)網(wǎng)絡(luò)沒(méi)有隱藏層
B、感知機(jī)網(wǎng)絡(luò)具有一層隱藏層
C、感知機(jī)網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)
D、感知機(jī)網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)
正確答案:B
9.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面不是神經(jīng)元所能夠完成的功能。
A、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞
B、通過(guò)激活函數(shù)對(duì)加權(quán)累加信息進(jìn)行非線性變換
C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息
D、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加
正確答案:C
10
對(duì)前饋神經(jīng)網(wǎng)絡(luò)的描述是不正確的。
A、層與層之間通過(guò)“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接
B、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)
C、同一層內(nèi)神經(jīng)元之間存在全連接
D、同一層內(nèi)的神經(jīng)元相互不連接
正確答案:C
11
下面圖像是sigmoid激活函數(shù)。
A、圖1
B、圖2
C、圖3
D、圖4
正確答案:A
12
神經(jīng)網(wǎng)絡(luò)的一次誤差反向傳播算法可以。
A、修改一層神經(jīng)元的參數(shù)
B、修改相鄰2層的神經(jīng)元的參數(shù)
C、修改網(wǎng)絡(luò)中所有神經(jīng)元的參數(shù)
D、修改網(wǎng)絡(luò)中所有神經(jīng)元的激活函數(shù)
正確答案:C
13
神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí),數(shù)據(jù)的類別標(biāo)簽可以用獨(dú)熱編碼,編碼中。
A、只有1個(gè)1,其他為0
B、只有1個(gè)0,其他為1
C、只要是二進(jìn)制就可以
D、一般用8位二進(jìn)制數(shù)
正確答案:A14
神經(jīng)網(wǎng)絡(luò)建模步驟一般是。
1)模型評(píng)估
2)網(wǎng)絡(luò)配置
3)模型訓(xùn)練
4)數(shù)據(jù)準(zhǔn)備
5)模型預(yù)測(cè)
A、1)2)3)4)5)
B、3)2)1)5)4)
C、5)4)3)2)1)
D、4)2)3)1)5)
正確答案:D
二.多選題
1.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,下列關(guān)于神經(jīng)元的陳述中是正確的。
A、一個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出
B、一個(gè)神經(jīng)元可以有一個(gè)輸入和多個(gè)輸出
C、一個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出
D、一個(gè)神經(jīng)元只能有一個(gè)輸入和一個(gè)輸出
正確答案:ABC
2.神經(jīng)網(wǎng)絡(luò)的激活函數(shù),通常具有特性。
A、非線性
B、線性
C、可導(dǎo)
D、不可導(dǎo)
正確答案:AC
3.下列可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。
A、隱藏層層數(shù)增加
B、Dropout的比例增加
C、加大學(xué)習(xí)率
D、增加神經(jīng)元的數(shù)量
正確答案:AD
4.訓(xùn)練樣本中,正負(fù)樣本數(shù)量的比例較大,這稱為樣本類別不平衡問(wèn)題,可采用解決。
A、過(guò)采樣,即增加正樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)
B、欠采樣,即去除反例樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)
C、設(shè)置閾值?;谠紨?shù)據(jù)集學(xué)習(xí),當(dāng)使用已訓(xùn)練好的分類器進(jìn)行測(cè)試時(shí),將正負(fù)樣本數(shù)量的比例作為閾值嵌入到?jīng)Q策過(guò)程中
D、改變?cè)u(píng)價(jià)標(biāo)準(zhǔn),用AUC/ROC來(lái)進(jìn)行評(píng)價(jià)
正確答案:ABCD
5.如果神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率太大,。
A、網(wǎng)絡(luò)一定收斂
B、網(wǎng)絡(luò)可能無(wú)法收斂
C、網(wǎng)絡(luò)收斂速度慢
D、網(wǎng)絡(luò)收斂速度快
正確答案:BD
三.判斷題
1.全連接神經(jīng)網(wǎng)絡(luò)輸入層的神經(jīng)元個(gè)數(shù)一般與一個(gè)輸入樣本的特征個(gè)數(shù)相同。
正確答案:√
10_神經(jīng)網(wǎng)絡(luò)應(yīng)用案例與調(diào)優(yōu)
一.單選題
1.實(shí)現(xiàn)二分類任務(wù)的神經(jīng)網(wǎng)絡(luò)中,輸出層激活函數(shù)一般選擇。
A、softmax
B、relu
C、tanh
D、sigmoid
正確答案:D
2.如果神經(jīng)網(wǎng)絡(luò)的性能有表現(xiàn),說(shuō)明出現(xiàn)過(guò)擬合。
A、訓(xùn)練集精度升高、驗(yàn)證集精度升高
B、訓(xùn)練集精度下降、驗(yàn)證集精度下降
C、訓(xùn)練集精度升高、驗(yàn)證集精度下降
D、訓(xùn)練集精度下降、驗(yàn)證集精度升高
正確答案:C
3.實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個(gè)數(shù)一般選擇。
A、與類別數(shù)一致
B、10以內(nèi)
C、2個(gè)
D、類別數(shù)的2倍
正確答案:A
4.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)采用k折交叉驗(yàn)證時(shí),。
A、隨機(jī)選任一份做驗(yàn)證集,其他份做訓(xùn)練集
B、隨機(jī)選任一份做訓(xùn)練集,其他份做驗(yàn)證集
C、依次選一份做驗(yàn)證集,其他份做訓(xùn)練集
D、隨機(jī)選k份做訓(xùn)練集,其他份做驗(yàn)證集
正確答案:C5
實(shí)現(xiàn)標(biāo)量回歸預(yù)測(cè)任務(wù)的神經(jīng)網(wǎng)絡(luò),評(píng)價(jià)指標(biāo)一般選擇。
A、精確率
B、平均絕對(duì)誤差
C、召回率
D、交叉熵
正確答案:B
二.多選題
1.在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,一般需要把訓(xùn)練集再分割為。
A、訓(xùn)練集
B、測(cè)試集
C、驗(yàn)證集
D、備用集
正確答案:AC
2.神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括步驟。
A、將數(shù)據(jù)向量化
B、將數(shù)據(jù)值標(biāo)準(zhǔn)化
C、處理缺失值
D、將數(shù)據(jù)值轉(zhuǎn)化為浮點(diǎn)數(shù)或整數(shù)
正確答案:ABCD
三.判斷題
1.特征工程的目標(biāo)就是減少數(shù)據(jù)集中特征的個(gè)數(shù)。
正確答案:×
2.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練中不應(yīng)該出現(xiàn)過(guò)擬合,這網(wǎng)絡(luò)結(jié)構(gòu)不合理。
正確答案:×
3.上海積累了歷年的氣候大數(shù)據(jù),并使用這些數(shù)據(jù)訓(xùn)練建立了神經(jīng)網(wǎng)絡(luò)模型進(jìn)行天氣預(yù)測(cè),那么這個(gè)模型也可用于其他地區(qū)的天氣預(yù)測(cè)。
正確答案:×
11_卷積神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)視覺(jué)基礎(chǔ)
一.單選題
1.以下情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型。
A、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深
B、輸入層可以接收維度更高的數(shù)據(jù)
C、當(dāng)問(wèn)題是圖形識(shí)別或分類問(wèn)題時(shí)
D、激活函數(shù)更復(fù)雜
正確答案:A
2.卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為。
A、(樣本數(shù),高度,寬度,通道數(shù))
B、(樣本數(shù),高度,寬度)
C、(高度,寬度)
D、(高度*寬度)
正確答案:A
3.深度學(xué)習(xí)算法對(duì)于圖像進(jìn)行特征提取采用的方法是。
A、人為設(shè)計(jì)好特征,由網(wǎng)絡(luò)實(shí)現(xiàn)提取
B、網(wǎng)絡(luò)自動(dòng)提取
C、不需要提取特征
D、根據(jù)特征集合提取
正確答案:B
4.假設(shè)我們需要訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò),來(lái)完成500種圖像分類,類別采用獨(dú)熱編碼。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是。
A、1
B、100
C、250
D、500
正確答案:D
5.CNN網(wǎng)絡(luò)中池化層的作用有。
A、實(shí)現(xiàn)局部特征提取
B、減少過(guò)擬合
C、減少隱層節(jié)點(diǎn)數(shù)
D、獲得分類結(jié)果
正確答案:C
6.下列在神經(jīng)網(wǎng)絡(luò)中引入了非線性。
A、隨機(jī)梯度下降
B、Relu函數(shù)
C、卷積計(jì)算
D、損失函數(shù)
正確答案:B
7.CNN中,是局部連接,所以提取的是局部信息。
A、卷積層
B、池化層
C、全連接層
D、Dropout層
正確答案:A
8.數(shù)據(jù)增強(qiáng)可以有效提升模型質(zhì)量,最好在進(jìn)行數(shù)據(jù)增強(qiáng)。
A、整個(gè)數(shù)據(jù)集
B、訓(xùn)練集
C、驗(yàn)證集
D、測(cè)試集
正確答案:B
9.預(yù)訓(xùn)練模型是指。
A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)
B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練
C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型
D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整
正確答案:C
10
使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是。
A、全連接分類器
B、高層卷積層
C、底層卷積層
D、整個(gè)網(wǎng)絡(luò)
正確答案:A
11.預(yù)訓(xùn)練模型的卷積基一般。
A、只包含卷積層
B、包含卷積層、池化層和全連接層
C、包含卷積層和池化層
D、包含凍結(jié)的卷積層
正確答案:C
12.微調(diào)預(yù)訓(xùn)練模型,一般是指調(diào)整。
A、全連接層
B、高層卷積層
C、底層卷積層
D、任意一個(gè)或幾個(gè)卷積層
正確答案:B
13.要解決的問(wèn)題只有少量的數(shù)據(jù),但幸運(yùn)的是有一個(gè)之前訓(xùn)練過(guò)的針對(duì)類似問(wèn)題的神經(jīng)網(wǎng)絡(luò)模型。最佳方案是。
A、對(duì)于新的數(shù)據(jù)集重新訓(xùn)練模型
B、凍結(jié)除第一層之外的所有層,微調(diào)第一層
C、評(píng)估型每一層的功能,然后選擇其中的某些層
D、凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層
正確答案:D
二.多選題
1.深度全連接神經(jīng)網(wǎng)絡(luò)在圖像處理中有弱點(diǎn)。
A、參數(shù)量太大
B、無(wú)法利用相鄰像素關(guān)聯(lián)
C、模型結(jié)構(gòu)單一
D、過(guò)擬合嚴(yán)重
正確答案:AB
2.通過(guò)數(shù)據(jù)增強(qiáng)可以減少過(guò)擬合的發(fā)生,常用的方法有以下。
A、從數(shù)據(jù)源采集更多的數(shù)據(jù)
B、復(fù)制原有數(shù)據(jù)并添加隨機(jī)噪聲
C、復(fù)制多份一樣的數(shù)據(jù)放在一起
D、根據(jù)現(xiàn)有樣本估計(jì)樣本的分布,然后按照此分布再產(chǎn)生一些樣本
正確答案:ABD
3.CNN網(wǎng)絡(luò)中可能包含層。
A、輸入層
B、卷積層
C、池化層
D、全連接層
正確答案:ABCD
4.CNN網(wǎng)絡(luò)中,卷積核大小一般常采用。
A、3*3
B、5*5
C、100*100
D、1024*1024
正確答案:AB
5.深度學(xué)習(xí)對(duì)的數(shù)據(jù)集沒(méi)有明顯優(yōu)勢(shì)。
A、數(shù)據(jù)集小
B、數(shù)據(jù)集大
C、沒(méi)有局部相關(guān)性
D、有局部相關(guān)性
正確答案:AC
6.在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過(guò)程中,如果泛化能力太差,則可以。
A、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)
B、調(diào)整樣本
C、調(diào)整學(xué)習(xí)率
D、調(diào)整優(yōu)化器
正確答案:ABD
7.Keras的圖片生成器的主要作用是。
A、隨機(jī)動(dòng)態(tài)生成圖像
B、自動(dòng)批量加載磁盤圖像
C、實(shí)現(xiàn)數(shù)據(jù)的轉(zhuǎn)換
D、生成圖像并保存到磁盤
正確答案:BC
8.對(duì)圖片數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)可以采用方法。
A、旋轉(zhuǎn)圖像
B、隨機(jī)裁剪
C、增加噪聲
D、數(shù)據(jù)集中兩個(gè)圖像疊加
正確答案:ABC
9.在微調(diào)預(yù)訓(xùn)練模型時(shí),情況下,凍結(jié)層數(shù)越少。
A、數(shù)據(jù)集越大
B、數(shù)據(jù)集越小
C、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越大
D、數(shù)據(jù)集與原始數(shù)據(jù)集相似性越小
正確答案:AD
三.判斷題
1.CNN網(wǎng)絡(luò)的每個(gè)卷積層之后都有池化層。
正確答案:×
2.CNN中,卷積核的各元素值是神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中自己學(xué)習(xí)得到。
正確答案:×
3.卷積神經(jīng)網(wǎng)絡(luò)卷積核的深度和下層輸入數(shù)據(jù)通道數(shù)相同。
正確答案:×
4.CNN網(wǎng)絡(luò)的一個(gè)卷積核只能提取一種模式。
正確答案:√
5.卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量要遠(yuǎn)遠(yuǎn)小于同樣規(guī)模的全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)量。
正確答案:√
6.卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入完成旋轉(zhuǎn)、錯(cuò)切等變換。
正確答案:×
7.增大卷積核的大小必然會(huì)提高卷積神經(jīng)網(wǎng)絡(luò)的性能。
正確答案:×
12_循環(huán)神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言處理基礎(chǔ)
一.單選題
1.聲音是一種時(shí)序數(shù)據(jù),是對(duì)連續(xù)聲音信號(hào)的進(jìn)行采樣獲得。
A、頻率
B、振幅
C、周期
D、長(zhǎng)度
正確答案:B
2.在使用深度學(xué)習(xí)進(jìn)行文本處理時(shí),一個(gè)文本句子要被理解,首先需要做的是。
A、分詞
B、詞性標(biāo)注
C、命名實(shí)體識(shí)別
D、生成詞嵌入
正確答案:A
3.如果要采用神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)文本進(jìn)行建模,必須先將文本向量化,這一過(guò)程是指。
A、將文本分詞
B、獲得文本類別標(biāo)簽
C、將文本壓縮
D、將文本轉(zhuǎn)換為數(shù)值張量
正確答案:D
4.在經(jīng)過(guò)學(xué)習(xí)獲得的詞嵌入空間中,語(yǔ)法和語(yǔ)義上相近的詞匯。
A、距離更遠(yuǎn)
B、距離更近
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 湖北省鄂州市梁子湖區(qū)2024年六年級(jí)數(shù)學(xué)第一學(xué)期期末考試模擬試題含解析
- 湖北省黃岡市麻城市2025屆數(shù)學(xué)四年級(jí)第一學(xué)期期末達(dá)標(biāo)檢測(cè)試題含解析
- 湖北省十堰市丹江口市2025屆數(shù)學(xué)六上期末統(tǒng)考模擬試題含解析
- 湖北省天門市十一校2024-2025學(xué)年四上數(shù)學(xué)期末質(zhì)量檢測(cè)模擬試題含解析
- 2024-2025學(xué)年江西省高三語(yǔ)文上學(xué)期10月考試卷附答案解析
- 湖北省襄陽(yáng)地區(qū)2025屆數(shù)學(xué)六年級(jí)第一學(xué)期期末達(dá)標(biāo)檢測(cè)模擬試題含解析
- 湖北省宜昌市興山縣2024年六年級(jí)數(shù)學(xué)第一學(xué)期期末綜合測(cè)試模擬試題含解析
- 新滬科版八年級(jí)物理第一章運(yùn)動(dòng)的世界各章節(jié)測(cè)試題(含答案)
- 湖南省邵陽(yáng)市邵東縣2024年六上數(shù)學(xué)期末經(jīng)典試題含解析
- 湖南省岳陽(yáng)市臨湘市2025屆數(shù)學(xué)六年級(jí)第一學(xué)期期末學(xué)業(yè)質(zhì)量監(jiān)測(cè)模擬試題含解析
- 生平簡(jiǎn)介范文
- 2022年油田井下-作業(yè)井控題庫(kù)全集-中(多選題部分)
- 電大法學(xué)??飘厴I(yè)論文
- DB11-T 2034-2022汽車加氣站安全運(yùn)行技術(shù)規(guī)程
- 光電及光化學(xué)轉(zhuǎn)化原理與應(yīng)用電化學(xué)全冊(cè)配套課件
- 醫(yī)院感染目標(biāo)管理責(zé)任書
- 2020網(wǎng)課學(xué)習(xí)記錄0303
- 初識(shí)3D打印機(jī)-課件
- 公共安全教育說(shuō)課課件
- 《創(chuàng)傷的評(píng)估與處理》課件
- 客流系統(tǒng)建設(shè)解決方案
評(píng)論
0/150
提交評(píng)論