人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3-2023-練習(xí)版_第1頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3-2023-練習(xí)版_第2頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3-2023-練習(xí)版_第3頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3-2023-練習(xí)版_第4頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3-2023-練習(xí)版_第5頁
已閱讀5頁,還剩111頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試題說明

本套試題共包括1套試卷

答案和解析在每套試卷后

人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3(500題)

人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3

L[單選題]假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均

值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500*xo那

么這n組數(shù)據(jù)集是否一樣?

A)一樣

B)不一樣

C)無法確定

2.[單選題]強化學(xué)習(xí)屬于()的一種

A)無監(jiān)督學(xué)習(xí)

B)機器學(xué)習(xí)

C)監(jiān)督學(xué)習(xí)

3.[單選題]如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?

A)增大懲罰參數(shù)C的值

B)減小懲罰參數(shù)C的值

C)減小核系數(shù)(gamma參數(shù))

4.[單選題]典型的分類算法是()

A)決策樹

B)k-means

C)BIRCH

5.[單選題]所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的幾率

(odds)為多少?

A)0.5

B)1

C)都不是

6.[單選題]以下哪個操作可能會產(chǎn)生大量小文件

A)mapper數(shù)較多的map-only任務(wù)

B)reduer數(shù)較多的任務(wù)

C)從海量數(shù)據(jù)中過濾出符合條件的少量數(shù)據(jù)

7.[單選題]下面哪些對「類型1(Type-1)J和「類型2(Type-2)J錯誤的描述是錯誤的?

A)類型1通常稱之為假正類,類型2通常稱之為假負類

B)類型2通常稱之為假正類,類型1通常稱之為假負類

C)類型1錯誤通常在其是正確的情況下拒絕假設(shè)而出現(xiàn)

8.[單選題]在回歸模型中,下列哪一項在權(quán)衡欠擬合(under-fitting)和過擬合(over-

fitting)中影響最大?

A)多項式階數(shù)

B)更新權(quán)重w時,使用的是矩陣求逆還是梯度下降

C)使用常數(shù)項

>A.幾何分布

A)指數(shù)分布

B)高斯分布

C)均勻分布

10.[單選題]混淆矩陣對角線上的值()

A)越大越好

B)越小越好

C)無所謂大小

11.[單選題]對于線性回歸,我們應(yīng)該有以下哪些假設(shè)?

A)找到利群點很重要,因為線性回歸對利群點很敏感

B)線性回歸要求所有變量必須符合正態(tài)分布

C)線性回歸假設(shè)數(shù)據(jù)沒有多重線性相關(guān)性

12.[單選題]隨機森林的分類機制是0

A)投票

B)提升

C)概率計算

13.[單選題]計算Numpy中元素個數(shù)的方法是()。

A)np.sqrt()

B)np.size()

C)np.identity()

D)np.nid()

14.[單選題]什么是KDD?

A)數(shù)據(jù)挖掘與知識發(fā)現(xiàn)

B)領(lǐng)域知識發(fā)現(xiàn)

C)文檔知識發(fā)現(xiàn)

D)動態(tài)知識發(fā)現(xiàn)

15.[單選題]下面關(guān)于奇異值分解(SVD)的描述中錯誤的是()。

A)奇異值分解就是把一個線性變換分解成兩個線性變換

B)奇異值往往對應(yīng)著矩陣中隱含的重要信息,且重要性和奇異值大小正相關(guān)

C)SVD是對PCA的改進,其計算成本更低,相同之處是兩者的目標(biāo)都是為了降維

D)奇異值不僅可以應(yīng)用在數(shù)據(jù)壓縮上,還可以對圖像去噪

16.[單選題]下列關(guān)于ndarray對象描述正確的是()。

A)ndarray對象中可以存儲不同類型的元素

B)ndarray對象中存儲元素的類型必須是相同的

C)ndarray對象不支持廣播操作

D)ndarray對象不具備矢量運算能力

17.[單選題]下面關(guān)于回歸過程的說法,錯誤的是

A)收集數(shù)據(jù):采用任意方法收集數(shù)據(jù)

B)分析數(shù)據(jù):繪出數(shù)據(jù)的可視化二維圖將有助于對數(shù)據(jù)做出理解和分析,在采用縮減法求得新回歸

系數(shù)之后,可以將新擬合線繪在圖上作為對比

C)訓(xùn)練算法:找到回歸系數(shù)

D)用算法:使用回歸,可以在給定輸入的時候預(yù)測出一個數(shù)值,這是對分類方法的提升,因為這樣

只可以預(yù)測連續(xù)型數(shù)據(jù)

18.[單選題]變量之間的關(guān)系可以分為()兩大類。

A)函數(shù)關(guān)系與相關(guān)關(guān)系

B)線性相關(guān)關(guān)系和非線性相關(guān)關(guān)系

C)正相關(guān)關(guān)系和負相關(guān)關(guān)系

D)簡單相關(guān)關(guān)系和復(fù)雜相關(guān)關(guān)系

19.[單選題](_)是指對已有數(shù)據(jù)在盡量少的先驗假設(shè)條件下進行探索,并通過作圖,制表等手段探

索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。

A)統(tǒng)計分析

B)驗證性分析

C)數(shù)據(jù)洞見

D)探索性數(shù)據(jù)分析

20.[單選題]在Pandas中以下哪個函數(shù)可以讀取csv文件?()。

A)read_excel()

B)read_csv()

C)read_sql_query()

D)read_text()

21.[單選題]下面不屬于數(shù)據(jù)科學(xué)主要研究內(nèi)容的有(_)。

A)基礎(chǔ)理論

B)數(shù)據(jù)管理

C)數(shù)據(jù)分析

D)數(shù)據(jù)商務(wù)

22.[單選題]機器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()。

A)使用過于復(fù)雜的模型

B)數(shù)據(jù)噪聲較大

0訓(xùn)練數(shù)據(jù)少

D)訓(xùn)練數(shù)據(jù)充足

23.[單選題](_)是指在對數(shù)據(jù)進行正式計算之前,根據(jù)后續(xù)數(shù)據(jù)計算的需求對原始數(shù)據(jù)進行審計、

清洗、變換、集成等一系列處理活動。

A)數(shù)據(jù)加工

B)數(shù)據(jù)預(yù)處理

C)數(shù)據(jù)清洗

D)數(shù)據(jù)挖掘

24.[單選題]下列關(guān)于支持向量回歸說法錯誤的是(_)。

A)支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中

B)支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題

C)同分類算法不同的是,支持向量回歸要最小化一個凹函數(shù)

D)支持向量回歸的解是稀疏的

25.[單選題]有關(guān)推薦算系統(tǒng)的應(yīng)用背景說法正確的是()

A)幫忙用戶找出不需要的信息

B)查找用戶喜歡的商品

C)一種銷售的方法

D)分析用戶的興趣預(yù)測用戶的需求

26.[單選題]LSTM調(diào)整參數(shù)時信息的傳播方向是()。

A)后向傳播

B)前向傳播

C)雙向傳播

D)跳躍傳播

27.[單選題]兩個種子點A(-l,l),B(2,l),其余點為(0,0),(0,2),(1,1),(3,2),(6,0),

(6,2),利用Kmeans算法,點群中心按坐標(biāo)平均計算。最終種子點A需要移動的次

數(shù),種子點B需要移動的次數(shù),屬于種子點A的點數(shù)(不包含A),屬于種子點B的

點數(shù)(不包含B)分別為()

A)2,2,3,3

B)l,1,3,3

01,1,2,4

D)2,2,2,4

28.[單選題]Spark支持的分布式部署方式中哪個是錯誤的()。

A)standalone

B)sparkonmesos

C)sparkonYARN

D)Sparkonlocal

29.[單選題]以下關(guān)于數(shù)據(jù)科學(xué)描述錯誤的是

A)數(shù)據(jù)科學(xué)研究數(shù)據(jù)的共性

B)降低計算量不是數(shù)據(jù)科學(xué)關(guān)心的問題

C)數(shù)據(jù)科學(xué)可以研究非結(jié)構(gòu)化數(shù)據(jù)

D)數(shù)據(jù)科學(xué)需要與其他學(xué)科結(jié)合在一起

30.[單選題]下面屬于Bagging方法的特點是()

A)構(gòu)造訓(xùn)練集時采用Bootstraping的方式

B)每一輪訓(xùn)練時樣本權(quán)重不同

C)分類器必須按順序訓(xùn)練

D)預(yù)測結(jié)果時,分類器的比重不同

31.[單選題]()是并行式集成學(xué)習(xí)方法最著名的代表

A)隨機森林

B)Boosting

C)Bagging

D)AdaBoost

32.[單選題]支持向量機的對偶問題是()

A)線性優(yōu)化問題

B)二次優(yōu)化

C)凸二次優(yōu)化

D)有約束的線性優(yōu)化

33.[單選題]接受者操作特征曲線簡稱(_)。

A)雙曲線

B)ROC曲線

C)科克曲線

D)共軻曲線

34.[單選題]下列不是SVM核函數(shù)的是:

A)多項式核函數(shù)

B)logistic核函數(shù)

C)徑向基核函數(shù)

D)Sigmoid核函數(shù)

35.[單選題]BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是()

A)梯度上升法

B)梯度下降法

C)梯度提升法

D)梯度曲線法

36.[單選題]正常建立一條TCP連接需要()個步驟,正常關(guān)閉一個TCP連接需要()個步驟

A)3,3

B)3,4

04.4

D)4,3

37.[單選題](_)直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價標(biāo)準(zhǔn)。

A)過濾式選擇

B)包裹式選擇

C)嵌入式選擇

D)正則化

38.[單選題]假定你使用了一個很大Y值的RBF核,這意味著:

A)模型將考慮使用遠離超平面的點建模

B)模型僅使用接近超平面的點來建模

C)模型不會被點到超平面的距離所影響

D)以上都不正確

39.[單選題]PCA在做降維處理時,優(yōu)先選取哪些特征()

A)中心化樣本的協(xié)方差矩陣的最大特征值對應(yīng)特征向量

B)最大間隔投影方向

C)最小類內(nèi)聚類

D)最速梯度方向

40.[單選題]以下哪個模型是生成式模型:

A)貝葉斯模型

B)邏輯回歸

OSVM

D)條件隨機場

41.[單選題]機器學(xué)習(xí)是研究如何使用計算機()的一門學(xué)科。

A)模擬生物行為

B)模擬人類解決問題

C)模擬人類學(xué)習(xí)活動

D)模擬人類生產(chǎn)活動

42.[單選題]被廣泛認為AI誕生的標(biāo)志的是(

A)計算機的產(chǎn)生

B)圖靈機的出現(xiàn)

C)達特茅斯會議

D)神經(jīng)網(wǎng)絡(luò)的提出

43.[單選題]一條規(guī)則形如:十-flf2…fL,其中“一"左邊的部分稱為

A)規(guī)則長度

B)規(guī)則頭

C)布爾表達式

D)規(guī)則體

44.[單選題]以下不屬于影響聚類算法結(jié)果的主要因素有()

A)已知類別的樣本質(zhì)量

B)分類準(zhǔn)則

C)特征選取

D)模式相似性測度

45.[單選題]人工智能的目的是讓機器能夠(),以實現(xiàn)人類某些腦力勞動的機械化。

A)具有智能

B)和人一樣工作

C)完全代替人的大腦

D)模擬,延伸和擴展人類的智能

46.[單選題]下列極大似然估計描述錯誤的是

A)極大似然估計先假定其具有某種確定的概率分布形式;

B)極大似然估計沒有確定的概率分布形式;

C)概率模型的訓(xùn)練過程就是參數(shù)估計;

D)貝葉斯學(xué)派認為參數(shù)本身也有分布,是未觀察的隨機變量;

47.[單選題]關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯誤的是

A)單隱層前饋神經(jīng)網(wǎng)絡(luò);

B)隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);

C)輸出層是對隱層神經(jīng)元輸出的非線性組合;

D)可利用BP算法來進行參數(shù)優(yōu)化;

48.[單選題]關(guān)于CNN,以下結(jié)論正確的是()

A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的

參數(shù)

B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行

C)Pooling層用于減少圖片的空間分辨率

D)接近輸出層的filter主要用于提取圖像的邊緣信息

49.[單選題]讀取CSV文件中的數(shù)據(jù)用()包。

A)skiearn

B)Matplotlib

C)Pandas

D)pylab

50.[單選題]下圖是兩個不同BO、Bl對應(yīng)的邏輯回歸模型(綠色和黑色):

關(guān)于兩個邏輯回歸模型中的80、01值,下列說法正確的是?

注意:y=PO+Pl*x,B0是截距,Bl是權(quán)重系數(shù)。

A)綠色模型的81比黑色模型的131大

B)綠色模型的P1比黑色模型的B1小

C)兩個模型的81相同

D)以上說法都不對

51.[單選題]現(xiàn)有4個同時到達的作業(yè)J1,J2,J3和J4,它們的執(zhí)行時間分別是1小時,3小時,5小時,7小

時,系統(tǒng)按單道方式運行且采用短作業(yè)優(yōu)先算法,則平均周轉(zhuǎn)時間是()小時

A)4

B)5

06

D)7.5

52.[單選題]自然語言處理是用()技術(shù)的一種應(yīng)用

A)語音識別

B)虛擬現(xiàn)實

C)人工智能

D)自然語言

53.[單選題]下列對于查準(zhǔn)率的描述,解釋正確的是(_)。

A)統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。

B)先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。

C)預(yù)測為正的樣例中有多少是真正的正樣例

D)樣本中的正例有多少被預(yù)測正確

54.[單選題]下面關(guān)于決策樹學(xué)習(xí)相關(guān)描述不正確的有(_)。

A)決策樹學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過程

B)決策樹的根節(jié)點表示分類的開始

C)中間節(jié)點表示某一個屬性的屬性值

D)從根節(jié)點到葉節(jié)點的路徑表示一個具體的實例

55.[單選題]()的系數(shù)沒有封閉形式(closed-form)的解。

A)Ridge回歸

B)Lasso

C)Ridge回歸和Lasso

D)以上答案都不正確

56.[單選題]中心極限定理是噪聲抑制的中的統(tǒng)計原理,其內(nèi)容是:均值分布總會收斂于一個。。

A)正態(tài)分布

B)泊松分布

C)多項式分布

D)均值分布

57.[單選題]DataFramel和RDDR最大的區(qū)別()

A)科學(xué)統(tǒng)計支持

B)多了多schema

C)存儲方式不一樣

D)外部數(shù)據(jù)源支持

58.[單選題]計算一個任意三角形的面積,S=J(p(p-a)(p-b)(p-c)),p=(a+b+c)/2,以下等價類測試用

例中,不屬于無效等價類的是

A)a=5,b=3,c=6;

B)a=2,b=3,c=5;

C)a=7,b=3,c=3;

D)a=2,b=6,c=3;

59.[單選題](假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分類問題中,當(dāng)測試集的正例

和負例數(shù)量不均衡時,以下評價方案哪個是相對不合理的()

A)Accuracy:(TP+TN)/all

B)F-value:2recallprecision/(recall+precision)

C)G-mean:sqrt(precision*recall)

D)AUC:曲線下面積

60.[單選題]以下哪個度量不屬于數(shù)據(jù)中心趨勢度描述?()

A)均值

B)中位數(shù)

C)眾數(shù)

D)四分位數(shù)

61.[單選題]在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()

A)增加樹的深度

B)增加學(xué)習(xí)率

C)減少樹的深度

D)減少樹的數(shù)量

62.[單選題]機器學(xué)習(xí)訓(xùn)練時,Mini-Batch的大小優(yōu)選為2個的嘉,如256或5120它背后的原因

是什么?

A)Mini-Batch為偶數(shù)的時候,梯度下降算法訓(xùn)練的更快

B)Mini-Batch設(shè)為2的嘉,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理

C)不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的

D)以上說法都不對

63.[單選題]下面有關(guān)可視化原理的說法,錯誤的是哪個()。

A)可視化主要是為滿足人類決策者對視覺信息的敏感性

B)可視化分析的方法論基礎(chǔ)是視覺隱喻,可以對數(shù)據(jù)進行一定的抽象表示

C)高維數(shù)據(jù)可視化需要對數(shù)據(jù)進行變換,抽取有效特征,從而降低維度

D)餅圖可分析數(shù)據(jù)變化的趨勢

64.[單選題]Python不支持的數(shù)據(jù)類型有()。

A)char

B)int

C)float

D)list

65.[單選題]定義域為{飛機,火車,輪船}的離散屬性也可稱為稱為(_)。

A)無序?qū)傩?/p>

B)有序?qū)傩?/p>

C)連續(xù)屬性

D)離散屬性

66.[單選題]下面不屬于NewSQL的有(—)。

A)memsql

B)trafodion

OmariaDB

D)objectivity

67.[單選題]下列中為判別模型的是()

A)高斯混合模型

B)隱含馬爾科夫模型

C)GAN模型

D)邏輯回歸模型

68.[單選題]一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人

o則年級屬性的眾數(shù)是:

A)一年級

B)二年級

C)三年級

D)四年級

69.[單選題]多元線性回歸的訓(xùn)練樣本由(_)個屬性描述。

A)一

B)二

C)三

D)多

70.[單選題]下列神經(jīng)網(wǎng)絡(luò)特點描述錯誤的是

A)適應(yīng)性

B)由簡單單元組成

C)廣泛并行互連的網(wǎng)絡(luò)

D)線性特性

71.[單選題]解決線性不可分情況下的支持向量分類機的最優(yōu)化模型問題時,以下可以保證結(jié)果模型

線性可分的是

A)C=1

B)C=0

OC無限制

D)以上均不正確

72.[單選題]對于投影數(shù)據(jù)為((V2),(0),(V2))o現(xiàn)在如果在二維空間中重建,并將它們視為原始

數(shù)據(jù)點的重建,那么重建誤差是多少?

A)0%

B)10%

C)30%

D)40%

73.[單選題]對于任意值“x”,考慮到

Logistic(x):是任意值"x”的邏輯(Logistic)函數(shù)

Logit(x):是任意值"x”的logit函數(shù)

Logit_inv(x):是任意值“x”的逆邏輯函數(shù)

以下哪一項是正確的?

A)Logistic(x)=Logit(x)

B)Logistic(x)=Logit_inv(x)

C)Logit_inv(x)=Logit(x)

D)都不是

74.[單選題]對抗學(xué)習(xí)中兩個網(wǎng)絡(luò)互相競爭,一個負責(zé)生成樣本,另一個負責(zé)()

A)判別樣本

B)計算樣本

C)統(tǒng)計樣本

D)生成樣本

75.[單選題]給定的數(shù)據(jù)集包括“胡佛塔”和其他一些塔的圖像?,F(xiàn)在要使用PCA(特征臉)和最近鄰

方法來構(gòu)建一個分類器,可以預(yù)測新圖像是否顯示“胡佛塔”。該圖給出了輸入的訓(xùn)練圖像樣本

(a)llooverTbww1(b)Hooveilower2(c)HoowrTcwwr3

(d)OtherTbwer1(e)OthnTower2(f)OtherTower3

alt="">

為了從“特征臉”算法獲得合理的性能,這些圖像將需要什么預(yù)處理步驟?

A)1

B)2

C)1和2

D)都不是

76.[單選題]OLAP技術(shù)的核心是()。

A)在線性

B)對用戶的快速響應(yīng)

C)互操作性

D)多維分析

77.[單選題]在利用矢量形式的圖像數(shù)據(jù)文件中?

A)圖像的分辨率與數(shù)據(jù)文件的大小成正比;

B)如果顯示其中的圖像會有方塊;'

C)圖形由空間分布的像素的集合來表示;

D)不僅有數(shù)據(jù)還有命令;

78.[單選題]有關(guān)機器學(xué)習(xí)分類算法的Precision和Recall,以下定義中正確的是(假定tp=true

positive,tn=truenegative,fp=falsepositive,fn=falsenegative)

A)Precision=

B)Precision

C)Precision

D)Precision

79.[單選題]以下哪種距離會側(cè)重考慮向量的方向()

A)歐式距離

B)海明距離

C)Jaccard距離

D)余弦距離

80.[單選題]下面不是有效的變量名的是。。

A)_demo

B)banana

C)Numbr

D)my-score

81.[單選題]()是二維隨機變量的分布。

A)正態(tài)分布

B)二項分布

C)邊緣分布

D)指數(shù)分布

82.[單選題]抖動技術(shù)可以?

A)改善圖像的空間分辨率;

B)改善圖像的幅度分辨率;

C)利用半輸出技術(shù)實現(xiàn);

D)消除虛假輪廓現(xiàn)象;

83.[單選題]在文本挖掘中,可以使用以下哪項命令完成將文本轉(zhuǎn)換為tokens,然后將其轉(zhuǎn)換為整數(shù)或

浮點向量的操作?

A)CountVectorizer

B)TF-IDF

C)詞袋模型(BagofWords)

D)NERs

84.[單選題]有兩個樣本點,第一個點為正樣本,它的特征向量是(0,T);第二個點為負樣本,它的特

征向量是(2,3),從這兩個樣本點組成的訓(xùn)練集構(gòu)建一個線性SVM分類器的分類面方程是()

A)2x+y=4

B)x+2y=5

C)x+2y=3

D)以上都不對

85.[單選題]集成學(xué)習(xí)采取投票的方式來綜合多個簡單模型的結(jié)果,按bagging投票思想,假設(shè)一

共訓(xùn)練了5個簡單模型,每個模型對分類結(jié)果預(yù)測如下圖,則模型的最終預(yù)測結(jié)果為。類

A)D

B)C

C)B

D)A

86.[單選題]SVM的算法性能取決于()

A)核函數(shù)的選擇

B)核函數(shù)的參數(shù)

C)軟間隔參數(shù)C

D)以上所有

87.[單選題]9.關(guān)于K-均值算法,以下說法不正確的是

A)K-均值算法是一種劃分方法。

B)K-均值算法能發(fā)現(xiàn)任意形狀的簇。

C)K-均值算法不一定收斂于全局最優(yōu)解。

D)比起DBSCAN算法來,K更好

88.[單選題]在n維空間中(n>1),下列哪種方法最適合用來檢測異常值?

A)正態(tài)概率圖

B)箱形圖

C)馬氏距離

D)散點圖

89.[單選題]下列哪個方法不屬于情感分析的評測?

A)COAE評測

B)cifarlO數(shù)據(jù)集評測

C)CCFTCCI評測

D)TAC評測

90.[單選題]多次“采樣”,然后求取平均累積獎賞來作為期望積累獎賞的近似,這稱為(_)。

A)免模型學(xué)習(xí)

B)機器學(xué)習(xí)

C)深度學(xué)習(xí)

D)蒙特卡羅強化學(xué)習(xí)

91.[單選題]在線性回歸中使用正則項,你發(fā)現(xiàn)解的不少coefficient都是0,則這個正則項可能是

()(1).L0-norm;(2).Ll-norm;(3).L2-norm。

A)(1)(2)

B)(2)(3)

0(2)

D)⑶

92.[單選題]隨機試驗所有可能出現(xiàn)的結(jié)果稱為()。

A)基本事件

B)樣本

C)全部事件

D)樣本空間

93.[單選題]哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?

A)無監(jiān)督學(xué)習(xí)

B)監(jiān)督學(xué)習(xí)

C)強化學(xué)習(xí)

D)以上全部

94.[單選題]對于圖像識別問題(比如識別照片中的貓),()神經(jīng)網(wǎng)絡(luò)模型更適合解決這類問題

O

A)感知機

B)循環(huán)神經(jīng)網(wǎng)絡(luò)

C)卷積神經(jīng)網(wǎng)絡(luò)

D)多層感知機

95.[單選題]下圖中主成分的最佳數(shù)量是多少?

P

O0

EL

e00000000000000

-

d

x

w

8

0

9

o

u

o0Z’

e

o

dV

0

。

支0

80

A

q

e

5

E

n

。III

203040

PnncipalComponent

alt="">

A)7

B)30

040

D)不知道

96.[單選題]若svm出現(xiàn)欠擬合,以下合適的做法是

A)使用更powful的kernel

B)增加訓(xùn)練樣本

C)使用L2正規(guī)化

D)做數(shù)據(jù)增強

97.[單選題]以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是。

A)邏輯回歸

B)支持向量機

C)樹形模型

D)神經(jīng)網(wǎng)絡(luò)

98.[單選題]下列關(guān)于冗余特征的說法錯誤的是

A)冗余特征是可以通過其他特征推演出來的特征

B)冗余特征是無用的特征

C)冗余特征有時候可以降低學(xué)習(xí)任務(wù)的難度

D)去除冗余特征可以減輕學(xué)習(xí)過程的負擔(dān)

99.[單選題]下列分類方法中不會用到梯度下降法的是()

A)感知機

B)最小二乘分類器

C)最小距離分類器

D)Logistic回歸

100.[單選題]下列關(guān)于F1值的計算正確的是(_)。

A)F1值=正確率*召回率*/(正確率+召回率)

B)F1值=正確率*召回率*2/(正確率+召回率)

C)F1值=正確率*2/(正確率+召回率)

D)F1值=召回率*2/(正確率+召回率)

101.[單選題]決策樹的基本流程遵循(_)的策略。

A)貪心

B)最優(yōu)化

C)分而治之

D)順序

102.[單選題]LSTM與RNN相比可以解決()。

A)梯度消失

B)訓(xùn)練結(jié)果發(fā)散

C)需要激活函數(shù)

D)無法處理長距離的依賴的問題

103.[單選題]過擬合現(xiàn)象中()

A)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率卻很低

B)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率也很高

C)模型的泛化能力很高

D)通常為線性模型

104.[單選題]CNN常見的Loss函數(shù)不包括以下哪個()

A)softmaxloss

B)sigmoid_loss

C)Contrastive_Loss

D)Siameseloss

105.[單選題](_)是常用的估計參數(shù)隱變量的利器,它是一種迭代的方法。

A)邊際似然

B)EM算法

C)貝葉斯決策

D)貝葉斯分類器

106.[單選題]下列不屬于聚類性能度量外部指標(biāo)的是(_)。

A)Jaccard系數(shù)

B)FM系數(shù)

C)Rand指數(shù)

D)DB指數(shù)

107.[單選題]下面選項中不是雙目攝像頭的內(nèi)參的是()。

A)焦距(Focallength)

B)基礎(chǔ)矩陣(Fundamental

matrix)

C)扭曲值(Distortion)

D)光點中心(Opticalcenter)

108.[單選題]K-Means算法是。的聚類算法

A)無監(jiān)督

B)有監(jiān)督

C)半監(jiān)督

D)以上都不對

109.[單選題]決策樹的父節(jié)點和子節(jié)點的嫡的大小關(guān)系是()。

A)父節(jié)點的嫡更小

B)子節(jié)點的燧更小

C)兩者相等

D)根據(jù)具體情況而定

110.[單選題]將源程序(高級語言編寫)翻譯成計算機可執(zhí)行的目標(biāo)程序,其處理方法是()

A)編譯

B)連接

C)匯編

D)掃描

111.[單選題]()算法是通過智能體不斷與環(huán)境進行交互,通過試錯的方式來獲得最佳策略

A)有監(jiān)督學(xué)習(xí)

B)半監(jiān)督學(xué)習(xí)

C)無監(jiān)督學(xué)習(xí)

D)強化學(xué)習(xí)

112.[單選題]訓(xùn)練集、驗證集和測試集在使用過程中的順序是

A)測試集、訓(xùn)練集、驗證集

B)訓(xùn)練集、測試集、驗證集

C)驗證集、訓(xùn)練集、測試集

D)訓(xùn)練集、驗證集、測試集

113.[單選題]在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,如果出現(xiàn)訓(xùn)練error過高,下列哪種方法不能大幅度降低訓(xùn)練

error()

A)增加一個隱藏層

B)在隱藏層中增加更多神經(jīng)元

C)對訓(xùn)練數(shù)據(jù)進行標(biāo)準(zhǔn)化

D)增加訓(xùn)練數(shù)據(jù)

114.[單選題]sparks中默認的存儲級別()。

A)MEMORY_ONLY

B)MEM0RY_ONLY_SER

OMEMORY_ANDDISK

D)MEM0RY_AND_DISK_SER

115.[單選題]對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為

A)最大一般泛化

B)最小一般泛化

C)最大一般特化

D)最小一般特化

116.[單選題]在深度學(xué)習(xí)中,涉及到大量矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)

三個矩陣的尺寸分別為m*n,n*p,p*q,且水n〈p〈q,以下計算順序效率最高的是:()

A)A(BC)

B)(AB)C

C)(AC)B

D)所有效率都相同

117.[單選題]關(guān)于k-means算法,正確的描述是()

A)能找到任意形狀的聚類

B)初始值不同,最終結(jié)果可能不同

0每次迭代的時間復(fù)雜度是0(n、2),

D)不能使用核函數(shù)

118.[單選題]Matplotlib主要是用哪種語言編寫的?()

正確回答

A)Python

B)java

C)C++

D)C

119.[單選題]以下對半結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(—)。

A)先有數(shù)據(jù),后有結(jié)構(gòu)

B)先有結(jié)構(gòu),后有數(shù)據(jù)

OHTML是半結(jié)構(gòu)化數(shù)據(jù)

D)經(jīng)過一定轉(zhuǎn)換后可以用傳統(tǒng)關(guān)系數(shù)據(jù)庫存儲

120.[單選題]做一個二分類預(yù)測問題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即

1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類

,下面哪一種說法正確是()1.增加閾值不會提高召回率2..增加閾值會提高召回率3..增加閾值不

會降低查準(zhǔn)率4.增加閾值會降低查準(zhǔn)率

A)1

B)2

01、3

D)2、4

121.[單選題]以下哪項關(guān)于決策樹的說法是錯誤的0。

A)冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響

B)子樹可能在決策樹中重復(fù)多次

C)決策樹算法對于噪聲的干擾非常敏感

D)尋找最佳決策樹是NP完全問題

122.[單選題]以下哪種方法不能防止過擬合?

A)交叉驗證

B)低維嵌入

C)剪枝

D)集成學(xué)習(xí)

123.[單選題]()先對數(shù)據(jù)集進行特征選擇,然后再訓(xùn)練學(xué)習(xí)器。

A)過濾式選擇

B)包裹式選擇

C)稀疏表示

D)嵌入式選擇

124.[單選題]多層前饋神經(jīng)網(wǎng)絡(luò)描述錯誤的是

A)輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元;

B)神經(jīng)元之間存在這同層連接以及跨層連接;

C)輸入層僅僅是接收輸入,不進行函數(shù)處理;

D)每層神經(jīng)元上一層與下一層全互連;

125.[單選題]LVW屬于哪種特征選擇方法

A)包裹式

B)啟發(fā)式

C)嵌入式

D)過濾式

126.[單選題]假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7X7,具有零

填充且步幅為1。該層的輸入圖片的維度是224X224X3。那么該層輸出的維度是多少?

A)217x217x3

B)217x217x8

0218x218x5

D)220x220x7

127.[單選題]留出法直接將數(shù)據(jù)集劃分為一個互斥的集合。

A)—

B)二

OS

D)四

128.[單選題]()是交叉驗證法的一種特例。

A)自助法

B)留一法

C)交叉驗證法

D)錯誤率分析

129.[單選題]以下()是Python中的二維圖形包。

A)Matplotlib

B)Pandas

C)NumPy

D)BoKeh

130.[單選題]下列激活函數(shù)中,能夠?qū)崿F(xiàn)將特征限制到區(qū)間的是哪一個

A)Tanh

B)Logistic

OReLU

D)Sigmoid

131.[單選題]決策論中,將“期望損失"稱為(_)。

A)均值

B)方差

C)風(fēng)險

D)概率

132.[單選題]關(guān)于列表數(shù)據(jù)結(jié)構(gòu),下面描述正確的是()o

A)可以不按順序查找元素

B)必須按順序插入元素

C)不支持in運算符

D)所有元素類型必須相同

133.[單選題]關(guān)于LI、L2正則化,下列說法正確的是()。

A)L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點

B)L2正則化技術(shù)又稱為LassoRegularization

C)L1正則化得到的解更加稀疏

D)L2正則化得到的解更加稀疏

134.[單選題]20個阿里巴巴B2B技術(shù)部的員工被安排為4排,每排5個人,我們?nèi)我膺x其中4人送給他們

一人一本《effectiveC++》,那么我們選出的4人都在不同排的概率為:

A)5*4*5!*15!/20!

B)4*5*5!*15!/20!

C)5"4*4!*16!/20!

D)4*5*4!*16!/20!

135.[單選題]()算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體。

A)Find-S

B)KNN

C)概念

D)ID3

136.[單選題]用OpenCV讀取圖像所需要的函數(shù)是()。

A)cv.imshow()

B)cv.inread()

C)cv.imwriteO

D)cv.imread()

137.[單選題]測試集應(yīng)盡可能與訓(xùn)練集

A)相容

B)相等

C)互斥

D)包含

138.[單選題]用于產(chǎn)生詞嵌入的單向語言模型

A)BERT

B)GPT

OELMo

D)Word2Vec

139.[單選題]觀察如下數(shù)據(jù)集:

刪除

A,b,c,d哪個點對擬合回歸線的影響最大?

A)a

B)b

C)c

D)d

140.[單選題]梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。

在RNN中,下面哪種方法可以較好地處理梯度爆炸問題()

A)梯度裁剪

B)所有方法都不行

C)Dropout

D)加入正則項

141.[單選題]在測試一假設(shè)h時,發(fā)現(xiàn)在一包含n=1000個隨機抽取樣例的樣本s上,它出現(xiàn)r=300個錯誤

,計算Errors(h)的標(biāo)準(zhǔn)差()

A)0.0145

B)0.145

01.45

D)14.5

142.[單選題]下列關(guān)于zookeeper自身特性說法正確的是0

A)zookeeper是一個被動協(xié)調(diào)服務(wù)組件

B)zookeeper是一個計算組件

C)zookeeper是一個主動協(xié)調(diào)服務(wù)

D)zookeeper是一個存儲模型

143.[單選題]信息增益即數(shù)據(jù)集的嫡與在某特征條件下的條件嫡之差。關(guān)于信息增益,正確的說法

是:(2.0分)2.0分

A)信息增益越大,說明此特征分類能力越弱

B)信息增益越小,說明此特征克服的不確定性越大,具有更強的分類能力

C)信息增益越大,說明此特征克服的不確定性越大,具有更強的分類能力

D)信息增益越小,說明此特征分類能力越強

144.[單選題]下列有關(guān)SVM和LR說法不正確的是。

A)SVM是分類模型,LR是回歸模型

B)SVM和LR都是分類模型

C)SVM是判別式模型

D)LR判別式模型

145.[單選題]對于下圖,最好的主成分選擇是多少?:

這里寫圖片描述

A)7

B)30

035

D)Can,tSay

146.[單選題]關(guān)于ndarray對象屬性,下列描述錯誤的是()。

A)ndim屬性表示數(shù)組軸的個數(shù)

B)shape屬性表示每個維度上數(shù)組的大小

C)size屬性表示數(shù)組元素的總個數(shù),等于shape屬性元組元素的和

D)dtype屬性表示數(shù)組中元素類型的對象

147.[單選題]假設(shè)你有以下數(shù)據(jù):(0,2)(2,2)(3,1)輸入和輸出都只有一個變量。使用線性回

歸模型(y=wx+b)來擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗證得到的均方誤差是多少

?

A)10/32

B)39/27

049/27

D)55/27

148.[單選題]以下哪項不屬于知識發(fā)現(xiàn)的過程?()

A)數(shù)據(jù)清理

B)數(shù)據(jù)挖掘

C)知識可視化表達

D)數(shù)據(jù)測試

149.[單選題]關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:

A)基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;

B)基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;

C)基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息;

D)基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.

150.[單選題]下列哪種去噪方法能較好的保持圖像邊緣。()

A)中值濾波

B)雙邊濾波

C)均值濾波

D)高斯濾波

151.[單選題]下列方法中,屬于無監(jiān)督學(xué)習(xí)的為()

A)線性回歸

B)K均值

C)神經(jīng)網(wǎng)絡(luò)

D)決策樹

152.[單選題]下面說法錯誤的是()

A)遺傳算法直接以適應(yīng)度作為搜索信息,無需導(dǎo)數(shù)等其他輔助信息

B)決策樹算法對離散屬性和連續(xù)屬性進行建模

OHapfield網(wǎng)絡(luò)不僅有不動點吸引子,也有其它類型的吸引子

D)決策樹是一種混合算法,它綜合了多種不同的創(chuàng)建樹的方法

153.[單選題]在Pandas中tail()這個函數(shù)是做什么的?()0

A)用來創(chuàng)建數(shù)據(jù)

B)用來分析數(shù)據(jù)

C)用來計算數(shù)據(jù)

D)用來展現(xiàn)數(shù)據(jù)

154.[單選題]主成分分析的優(yōu)化目標(biāo)是一個(_)。

A)不含約束條件的二次規(guī)劃問題

B)含有約束條件的二次規(guī)劃問題

C)不含約束條件的線性規(guī)劃問題

D)含有約束條件的線性規(guī)劃問題

155.[單選題]Spark的四大組件下面哪個不是

A)SparkStreaming

B)Mlib

C)Graphx

D)SparkR

156.[單選題]設(shè)乂={1,2,3}是頻繁項集,則可由X產(chǎn)生()個關(guān)聯(lián)規(guī)則

A)4

B)5

C)6

D)7

157.[單選題]機器學(xué)習(xí)的經(jīng)典定義是:()

A)利用技術(shù)進步改善系統(tǒng)自身性能

B)利用技術(shù)進步改善人的能力

C)利用經(jīng)驗改善系統(tǒng)自身的性能

D)利用經(jīng)驗改善人的能力

158.[單選題]下圖是哪一種算法表示()

A)K-近鄰算法

B)貝葉斯

C)一元線性回歸

D)多項式回歸

159.[單選題]關(guān)于梯度下降,以下說法中不合適的是:

A)應(yīng)該沿著梯度反方向調(diào)整參數(shù)

B)應(yīng)該沿著梯度同方向調(diào)整參數(shù)

C)對損失函數(shù)而言,梯度向量的反方向是其函數(shù)值下降最快的方向

D)調(diào)整的步長由學(xué)習(xí)率控制

160.[單選題]支持向量回歸與傳統(tǒng)回歸模型的差別是()。

A)模型輸出與真實值相同

B)模型輸出與真實值存在e偏差

C)模型輸出大于真實值

D)模型輸出小于真實值

161.[單選題](_)是指能夠通過數(shù)據(jù)來幫助用戶實現(xiàn)其某一個目標(biāo)的產(chǎn)品。

A)數(shù)據(jù)產(chǎn)品

B)電子產(chǎn)品

C)數(shù)據(jù)系統(tǒng)

D)電子系統(tǒng)

162.[單選題]二分類任務(wù)中,有三個分類器hl,h2,h3,三個測試樣本xl,x2,x3。假設(shè)1表示分類結(jié)果正

確,0表示錯誤,hl在xl,x2,x3的結(jié)果分別(l,l,0),h2,h3分別為(0,1,1),(1,0,1),按投票法集成三個

分類器,下列說法正確的是()(注:0,1不是類別標(biāo)簽,而是模型預(yù)測結(jié)果是正確還是錯誤的意思)

A)集成提高了性能

B)集成沒有效果

C)集成降低了性能

D)集成效果不能確定

163.[單選題]在概率模型中,利用已知變量推測未知變量的分布稱為?

A)推論

B)推斷

C)推演

D)推算

164.[單選題]在HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接

進行參數(shù)估計()

A)EM算法

B)維特比算法

C)前向后向算法

D)極大似然估計

165.[單選題]概念分層圖是()圖

A)無向無環(huán)

B)有向無環(huán)

C)有向有環(huán)

D)無向有環(huán)

166.[單選題]以下有關(guān)機器學(xué)習(xí)理解不正確的是()。

A)查詢大量的操作數(shù)據(jù)去發(fā)現(xiàn)新的信息

B)從大量的業(yè)務(wù)數(shù)據(jù)中分析有興趣的新穎知識輔助決策的過程

C)機器學(xué)習(xí)的結(jié)果不一定能輔助決策

D)需要借助統(tǒng)計學(xué)或機器學(xué)習(xí)的一些算法

167.[單選題]在線性模型y=wlxl+w2x2+…+wnxn中,[wl,w2,…,wn]值代表()

A)預(yù)測值

B)特征值

C)輸入值

D)模型參數(shù)

168.[單選題]回歸方程判定系數(shù)的計算公式1?2=5$口/5$丁=1-55£/55丁,對判定系數(shù)描述錯誤的是()。

A)式中的SSE指殘差平方和

B)式中的SSR指總離差平方和

C)判定系數(shù)用來衡量回歸方程的擾合優(yōu)度

D)判定系數(shù)R2等于相關(guān)系數(shù)的平方

169.[單選題]p尾法確定圖像分割的閾值,適用于(_)的情況。

A)已知閾值范圍

B)已知圖像灰度范圍

C)已知目標(biāo)所占全圖象百分比

D)圖像類間方差最大化

170.[單選題]關(guān)于OLAP的特性,下面正確的是:(1)快速性(2)可分析性(3)多維性(4)信息性

(5)共享性

A)(2)(3)

B)(3)(4)

0(2)(3)(4)

D)(2)(3)(4)(5)

171.[單選題]以下對Volume相關(guān)描述不正確的是(___)0

A)Volume是指數(shù)據(jù)量大

B)就目前而言,當(dāng)數(shù)據(jù)量達到拍字節(jié)以上時,一般稱為大數(shù)據(jù)

C)大數(shù)據(jù)時間分布是均勻的

D)數(shù)據(jù)量大是相對計算與存儲能力而定的

172.[單選題]學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為_。

A)錯誤率

B)精度

C)誤差

D)查準(zhǔn)率

173.[單選題]對于正態(tài)密度的貝葉斯分類器,各類協(xié)方差矩陣相同時,決策函數(shù)為()

A)線性決策函數(shù)

B)非線性決策函數(shù)

C)最小距離分類器

D)以上都有可能

174.[單選題]以下不屬于數(shù)據(jù)科學(xué)的研究目的的是(__)o

A)大數(shù)據(jù)及其運動規(guī)律的揭示

B)從數(shù)據(jù)到智慧的轉(zhuǎn)化

C)數(shù)據(jù)解釋

D)數(shù)據(jù)驅(qū)動型決策支持

175.[單選題]你在20K文檔的輸入數(shù)據(jù)上為機器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-term

matrix)?以下哪項可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization);(2)潛在語義

索引(LatentSemanticIndexing);(3)隱狄利克雷分布(LatentDirichletAllocation).

A)只有(1)

B)(2)(3)

0(1)(3)

D)(1)(2)(3)

176.[單選題]假設(shè)我們使用kNN訓(xùn)練模型,其中訓(xùn)練數(shù)據(jù)具有較少的觀測數(shù)據(jù)(下圖是兩個屬性

x、y和兩個標(biāo)記為"+”和"o”的訓(xùn)練數(shù)據(jù))?,F(xiàn)在令k=1,則圖中的Leave-One-Out交

叉驗證錯誤率是多少?

A)0%

B)20%

C)50%

D)100%

177.[單選題]以下哪種NLP模型的準(zhǔn)確性最高?

A)BERT

B)XLNET

C)GPT-2

D)ELMo

178.[單選題]關(guān)于ZooKeeper臨時節(jié)點的說法正確的是0

A)創(chuàng)建臨時節(jié)點的命令為:create-s/tmpmyvalue

B)一旦會話結(jié)束,臨時節(jié)點將被自動刪除

C)臨時節(jié)點不能手動刪除

D)臨時節(jié)點允許有子節(jié)點

179.[單選題]k近鄰算法在()的情況下效果較好。

A)樣本較多但典型性不好

B)樣本較少但典型性好

C)樣本呈團狀分布

D)樣本呈鏈狀分布

180.[單選題]下列表述中,在k-fold交叉驗證中關(guān)于選擇K說法正確的是:

A)較大的K并不總是好的,選擇較大的K可能需要較長的時間來評估你的結(jié)果

B)相對于期望誤差來說,選擇較大的K會導(dǎo)致低偏差(因為訓(xùn)練folds會變得與整個數(shù)據(jù)集相似)

C)在交叉驗證中通過最小化方差法來選擇K值

D)以上都正確

181.[單選題]使用high(infinite)regularisation時偏差會如何變化?

alt="">

有散點圖“a”和“b”兩類(藍色為正,紅色為負)。在散點圖“a”中,使用了邏輯回歸(黑線是決策

邊界)對所有數(shù)據(jù)點進行了正確分類。

A)偏差很大

B)偏差很小

C)不確定

D)都不是

182.[單選題]有如下數(shù)據(jù)集,分別使用1-最近鄰,3-最近鄰,對數(shù)據(jù)點x=5.0分類,則:

XOS3J045464.952S3ss7。95

Y?■?*

class="fr-ficfr-dibcursor-hover"

A)最近鄰:+;3-最近鄰:-

B)最近鄰:+;3-最近鄰:+

C)最近鄰:-;3-最近鄰:-

D)最近鄰:-;3-最近鄰:+

183.[單選題]因為文本數(shù)據(jù)在可用的數(shù)據(jù)中是非常無結(jié)構(gòu)的,它內(nèi)部會包含很多不同類型的噪點,所

以要做數(shù)據(jù)預(yù)處理。以下不是自然語言數(shù)據(jù)預(yù)處理過程的是:

A)詞匯規(guī)范化

B)詞匯關(guān)系統(tǒng)一化

C)對象標(biāo)準(zhǔn)化

D)噪聲移除

184.[單選題]下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系

A)同父結(jié)構(gòu)

B)選擇結(jié)構(gòu)

C)順序結(jié)構(gòu)

D)V型結(jié)構(gòu)

185.[單選題]下圖顯示了三個邏輯回歸模型的AUC-ROC曲線。不同的顏色表示不同超參數(shù)值的曲線。

以下哪個AUC-ROC會給出最佳果?

style="width:295px;"class="fr-ficfr-filfr-dibcursor-hover">

A)黃色

B)粉紅色

C)黑色

D)都相同

186.[單選題]以下有關(guān)隨機森林算法的說法錯誤的是:

A)隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高

B)隨機森林算法對異常值和缺失值不敏感

C)隨機森林算法不需要考慮過擬合問題

D)決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型分類效果越好

187.[單選題]任何一個核函數(shù)都隱式地定義了一個(__)空間。

A)希爾伯特空間

B)再生希爾伯特空間

1

09

08

07

06

0

6

0

-4

03

02

01

0

OO1O2O3OO7

Falseposith/erata

c)再生核希爾伯特空間

D)歐式空間

188.[單選題]下面哪項不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式。()

A)單輸出

B)多輸出

C)同步多輸出

D)異步多輸出

189.[單選題]下面關(guān)于SVM算法敘述不正確的是()

A)SVM在解決小樣本、非線性及高維模式識別問題中具有優(yōu)勢

B)SVM是一種基于經(jīng)驗風(fēng)險最小化準(zhǔn)則的算法

C)SVM求得的解為全局唯一最優(yōu)解

D)SVM最終分類結(jié)果只與少數(shù)支持向量有關(guān)

190.[單選題]對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個標(biāo)記,最常見的結(jié)合策略是

(_)0

A)投票法

B)平均法

C)學(xué)習(xí)法

D)排序法

191.[單選題](一)度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度。

A)偏差

B)方差

C)均方差

D)泛化誤差

192.[單選題]tf.nn.rnn_ceH.BasicLSTMCell(n.hidden,forget_bias=l.0,

state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。

A)神經(jīng)元個數(shù)

B)遺忘系數(shù)

C)返回狀態(tài)

D)神經(jīng)元類型

193.[單選題]以下名稱中不屬于“屬性張成的空間”的是(—)。

A)屬性空間

B)樣本空間

C)輸入空間

D)對偶空間

194.[單選題]下面是交叉驗證的幾種方法:

1/Bootstrap

2/留一法交叉驗證

3/5折交叉驗證

4/重復(fù)使用兩次5折交叉驗證

請對上面四種方法的執(zhí)行時間進行排序,樣本數(shù)量為1000。

A)1>2>3>4

B)2>4>3>1

C)4>1>2>3

D)2>4>3>1

195.[單選題]下列關(guān)于支持向量機優(yōu)化性問題的形式說法正確的是

A)它是一個凸二次規(guī)劃問題

B)它是一個凸一次規(guī)劃問題

C)它是一個凹二次規(guī)劃問題

D)它是一個凹一次規(guī)劃問題

196.[單選題]關(guān)于機器學(xué)習(xí)算法正確的是0

A)LR模型在加入正則化項后Variance將增大

B)線性SVM是尋找最小邊緣的超平面的一個分類器

C)xgboost和GDBT都是屬于boosting算法

D)xgboost和隨機森林都是屬于bagging算法

197.[單選題]下列關(guān)于L1正則化與L2正則化的描述,錯誤的是0。

A)L1范數(shù)正則化有助于降低過擬合風(fēng)險

B)L2范數(shù)正則化有助于降低過擬合風(fēng)險

C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解

D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解

198.[單選題]以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:

A)嵌入

B)過濾

C)包裝

D)抽樣

199.[單選題]假正率是指(_)o

A)正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)

B)被預(yù)測為負的正樣本結(jié)果數(shù)/正樣本實際數(shù)

C)被預(yù)測為正的負樣本結(jié)果數(shù)/負樣本實際數(shù)

D)負樣本預(yù)測結(jié)果數(shù)/負樣本實際數(shù)

200.[單選題]以下集合是凸集的是

A){(x,y)|y=x+l}

B){(x,y)|x的平方+y的平方=1}

C){(x,y)|x的平方+y的平方>1}

D){(x,y)|x=ly=l}

201.[單選題]下列哪項不是目前深度學(xué)習(xí)的必備技術(shù)()

A)卷積可視化解釋

B)反向傳播算法

0非線性激活函數(shù)

D)深度神經(jīng)網(wǎng)絡(luò)

202.[單選題]有四個整數(shù)a、b、c、d,且c>

D,貝11"a>b"是"a-c>b-d”的:()

A)必要不充分條件

B)充分不必要條件

C)充要條件

D)既不充分也不必要條件

203.[單選題]歸納推理是()推理

A)從一般到個別

B)從個別到一般

C)從個別到個別

D)從一般到一般

204.[單選題]一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)識別獄警、小偷、送餐員

、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。

A)二分類問題

B)層次聚類問題

C)多分類問題

D)回歸問題

205.[單選題]關(guān)于引入模塊的方式,錯誤的是()o

A)importmath

B)fromfibimportFibonacci

C)frommathimport*

D)from*importfib

206.[單選題]現(xiàn)在有一個tcp服務(wù)端監(jiān)聽了80端口,問最多同時能建立多少連接

A)1023

B)65534

064511

D)非常多基本和內(nèi)存大小相關(guān)

207.[單選題]假定你使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實際數(shù)據(jù)集上后,其訓(xùn)練

準(zhǔn)確率和測試準(zhǔn)確率均為100機現(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),

會發(fā)生以下哪種情況()

A)過擬合

B)欠擬合

C)什么都不會發(fā)生,因為模型準(zhǔn)確率已經(jīng)到達極限

D)以上都不對

208.[單選題]我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()

A)增加樹的深度

B)增加學(xué)習(xí)率

C)減少樹的深度

D)減少樹的數(shù)量

209.[單選題]下列關(guān)于半監(jiān)督支持向量機說法錯誤的是(_)。

A)半監(jiān)督支持向量機是針對二分類問題的學(xué)習(xí)算法

B)半監(jiān)督支持向量機尋求一個在所有樣本上間隔最小化的劃分超平面

C)半監(jiān)督支持向量機采用局部搜索來迭代地尋找其優(yōu)化問題的近似解

D)半監(jiān)督支持向量機試圖考慮對未標(biāo)記樣本進行各種可能的標(biāo)記指派

210.[單選題]下面不屬于后臺自動化的有(_)。

A)hyperscience

B)datafox

C)aptricity

D)appzen

211.[單選題]關(guān)于Hadoop技術(shù)描述錯誤的是?()

A)HDFS是一個分布式文件系統(tǒng)

B)聯(lián)盟鏈

0HDFS適合存儲大量的小文件

D)HDFS存儲空間由數(shù)據(jù)節(jié)點數(shù)決定

212.[單選題]協(xié)同過濾算法解決的是數(shù)據(jù)挖掘中的哪類問題?()

A)分類問題

B)聚類問題

C)推薦問題

D)自然語言處理問題

213.[單選題]考慮如下數(shù)據(jù)集,其中CustomerID(顧客id),TransactionID(事務(wù)id),Items

Bought(購買項)。如果將每個事務(wù)id看成一個購物籃,計算項集{e},{b,d},{b,

D,e}的支持度:

A)s({e})=0.8s({b,d})=0.2s({b,

D,e})=0.2

B)s({e})=0.7s({b,d})=0.3s({b,

D,e})=0.3

C)s({e})=0.6s({b,d})=0.4s({b,

D,e})=0.3

D)s({e})=0.8s({b,d})=0.ls({b,

D,e})=0.1

214.[單選題]以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是()

A)邏輯回歸

B)支持向量機

C)樹形模型

D)神經(jīng)網(wǎng)絡(luò)

215.[單選題]下面關(guān)于非監(jiān)督學(xué)習(xí)算法的說法正確的是

A)數(shù)據(jù)要是成對的

B)算法準(zhǔn)確率非常高

C)沒有經(jīng)驗數(shù)據(jù)可供學(xué)習(xí)

D)需要一定的經(jīng)驗數(shù)據(jù)

216.[單選題]互為對偶的兩個線性規(guī)劃問題的解存在關(guān)系()

A)原問題無可行解,對偶問題也無可行解

B)對偶問題有可行解,原問題可能無可行解

C)若最優(yōu)解存在,則最優(yōu)解相同

D)一個問題無可行解,則另一個問題具有無界解

217.[單選題]()屬于SVM應(yīng)用。

A)文本和超文本分類

B)圖像分類

C)新文章聚類

D)以上均是

218.[單選題]當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時,可以使用0促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分

離。

A)分類

B)聚類

C)關(guān)聯(lián)分析

D)隱馬爾可夫鏈

219.[單選題]專家系統(tǒng)中知識庫的知識可以獲取的來源是()???

A)領(lǐng)域?qū)<?/p>

B)專家系統(tǒng)的用戶

C)計算機系統(tǒng)管理員

D)專家系統(tǒng)程序的開發(fā)者

220.[單選題](_)是指樣本空間中具有代表性的點。

A)樣本點

B)原點

C)原型

D)實例

221.[單選題]請閱讀下列一段程序:

Arr=np.arange(12).reshape(3,4)

Arr.shape

運行上述程序,它最終執(zhí)行的結(jié)果為()。

A)3

B)4

0(3,4)

D)(1,2)

222.[單選題]以下哪項是非線性降維方法

A)PCA(主成分分析)

B)LDA(線性判別)

C)ICA(獨立成分分析)

D)KPCA(核化線性降維)

223.[單選題]下面不屬于農(nóng)業(yè)的有(_)。

A)farmers

B)farmlogs

C)prospera

D)uber

224.[單選題]以下哪項不屬于圖像分割的目的。()

A)把不同類標(biāo)分開。

B)提取不同區(qū)域的特征。

C)識別圖像內(nèi)容,或?qū)D像進行分類。

D)對未處理噪聲的圖像進行平滑。

225.[單選題]假設(shè)已經(jīng)使用python第三方庫sklearn創(chuàng)建線性模型實例linear_model,則

linear_model.coef中,屬性coef的作用是()

A)sigmoid函數(shù)

B)激活函數(shù)

C)模型的參數(shù)

D)以上都不是

226.[單選題]關(guān)于梯度下降,以下說法中不合適的是:

A)應(yīng)該沿著梯度反方向調(diào)整參數(shù)

B)應(yīng)該沿著梯度同方向調(diào)整參數(shù)

C)調(diào)整的步長由學(xué)習(xí)率控制

D)對損失函數(shù)而言,梯度向量的反方向是其函數(shù)值下降最快的方向

227.[單選題]避免直接的復(fù)雜非線性變換,采用線性手段實現(xiàn)非線性學(xué)習(xí)的方法是()

A)核函數(shù)方法

B)集成學(xué)習(xí)

C)線性鑒別分析

D)Logistic回歸

228.[單選題]在邏輯回歸輸出與目標(biāo)對比的情況下,以下評估指標(biāo)中()不適用。

A)AUC-R0C

B)準(zhǔn)確度

C)Logloss

D)均方誤差

229.[單選題]如右圖所示無向圖,節(jié)點G的馬爾可夫毯為()

A){D,E)

B){I,J}

0{D.E.I.J)

D){D,E,F,H,I,J}

230.[單選題]以下對智慧描述不正確的是(—)。

A)智慧是人類超出知識的那一部分能力

B)智慧是人類的創(chuàng)造性設(shè)計、批判性思考和好奇性提問的結(jié)果

C)智慧是從信息中發(fā)現(xiàn)的共性規(guī)律、模型、模式、理論、方法等

D)智慧運用知識并結(jié)合經(jīng)驗創(chuàng)造性的預(yù)測、解釋和發(fā)現(xiàn)

231.[單選題]下列是機器學(xué)習(xí)中降維任務(wù)的準(zhǔn)確描述的為

A)依據(jù)某個準(zhǔn)則對項目進行排序

B)將其映射到低維空間來簡化輸入

C)預(yù)測每個項目的實際值

D)對數(shù)據(jù)對象進行分組

232.[單選題]下面關(guān)于深度學(xué)習(xí)相關(guān)描述不正確的有(_)。

A)深度學(xué)習(xí)是一種特征學(xué)習(xí)方法

B)深度學(xué)習(xí)通過足夠多的簡單轉(zhuǎn)換函數(shù)及其組合方式來學(xué)習(xí)一個復(fù)雜的目標(biāo)函數(shù)

C)深度學(xué)習(xí)的關(guān)鍵在于計算觀測書記的分層特征及其表示

D)ANN不是深度學(xué)習(xí)

233.[單選題]當(dāng)訓(xùn)練樣本近似線性可分時,通過(),學(xué)習(xí)一個()。

A)硬間隔,最大化非線性支持向量機

B)軟間隔,最大化線性支持向量機

C)硬間隔,最大化線性支持向量機

D)軟間隔,最大化非線性支持向量機

234.[單選題]以下哪個模型不是分類模型()

A)最近鄰

B)K均值

C)樸素貝葉斯

D)邏輯回歸

235.[單選題]若設(shè)1.啟動,2.診斷,3.建立,4.行動,5.學(xué)習(xí),則DMM模型中的順序為(_

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論