版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
試題說明
本套試題共包括1套試卷
答案和解析在每套試卷后
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3(500題)
人工智能機器學(xué)習(xí)技術(shù)練習(xí)練習(xí)題及答案3
L[單選題]假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均
值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500*xo那
么這n組數(shù)據(jù)集是否一樣?
A)一樣
B)不一樣
C)無法確定
2.[單選題]強化學(xué)習(xí)屬于()的一種
A)無監(jiān)督學(xué)習(xí)
B)機器學(xué)習(xí)
C)監(jiān)督學(xué)習(xí)
3.[單選題]如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?
A)增大懲罰參數(shù)C的值
B)減小懲罰參數(shù)C的值
C)減小核系數(shù)(gamma參數(shù))
4.[單選題]典型的分類算法是()
A)決策樹
B)k-means
C)BIRCH
5.[單選題]所謂幾率,是指發(fā)生概率和不發(fā)生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的幾率
(odds)為多少?
A)0.5
B)1
C)都不是
6.[單選題]以下哪個操作可能會產(chǎn)生大量小文件
A)mapper數(shù)較多的map-only任務(wù)
B)reduer數(shù)較多的任務(wù)
C)從海量數(shù)據(jù)中過濾出符合條件的少量數(shù)據(jù)
7.[單選題]下面哪些對「類型1(Type-1)J和「類型2(Type-2)J錯誤的描述是錯誤的?
A)類型1通常稱之為假正類,類型2通常稱之為假負類
B)類型2通常稱之為假正類,類型1通常稱之為假負類
C)類型1錯誤通常在其是正確的情況下拒絕假設(shè)而出現(xiàn)
8.[單選題]在回歸模型中,下列哪一項在權(quán)衡欠擬合(under-fitting)和過擬合(over-
fitting)中影響最大?
A)多項式階數(shù)
B)更新權(quán)重w時,使用的是矩陣求逆還是梯度下降
C)使用常數(shù)項
>A.幾何分布
A)指數(shù)分布
B)高斯分布
C)均勻分布
10.[單選題]混淆矩陣對角線上的值()
A)越大越好
B)越小越好
C)無所謂大小
11.[單選題]對于線性回歸,我們應(yīng)該有以下哪些假設(shè)?
A)找到利群點很重要,因為線性回歸對利群點很敏感
B)線性回歸要求所有變量必須符合正態(tài)分布
C)線性回歸假設(shè)數(shù)據(jù)沒有多重線性相關(guān)性
12.[單選題]隨機森林的分類機制是0
A)投票
B)提升
C)概率計算
13.[單選題]計算Numpy中元素個數(shù)的方法是()。
A)np.sqrt()
B)np.size()
C)np.identity()
D)np.nid()
14.[單選題]什么是KDD?
A)數(shù)據(jù)挖掘與知識發(fā)現(xiàn)
B)領(lǐng)域知識發(fā)現(xiàn)
C)文檔知識發(fā)現(xiàn)
D)動態(tài)知識發(fā)現(xiàn)
15.[單選題]下面關(guān)于奇異值分解(SVD)的描述中錯誤的是()。
A)奇異值分解就是把一個線性變換分解成兩個線性變換
B)奇異值往往對應(yīng)著矩陣中隱含的重要信息,且重要性和奇異值大小正相關(guān)
C)SVD是對PCA的改進,其計算成本更低,相同之處是兩者的目標(biāo)都是為了降維
D)奇異值不僅可以應(yīng)用在數(shù)據(jù)壓縮上,還可以對圖像去噪
16.[單選題]下列關(guān)于ndarray對象描述正確的是()。
A)ndarray對象中可以存儲不同類型的元素
B)ndarray對象中存儲元素的類型必須是相同的
C)ndarray對象不支持廣播操作
D)ndarray對象不具備矢量運算能力
17.[單選題]下面關(guān)于回歸過程的說法,錯誤的是
A)收集數(shù)據(jù):采用任意方法收集數(shù)據(jù)
B)分析數(shù)據(jù):繪出數(shù)據(jù)的可視化二維圖將有助于對數(shù)據(jù)做出理解和分析,在采用縮減法求得新回歸
系數(shù)之后,可以將新擬合線繪在圖上作為對比
C)訓(xùn)練算法:找到回歸系數(shù)
D)用算法:使用回歸,可以在給定輸入的時候預(yù)測出一個數(shù)值,這是對分類方法的提升,因為這樣
只可以預(yù)測連續(xù)型數(shù)據(jù)
18.[單選題]變量之間的關(guān)系可以分為()兩大類。
A)函數(shù)關(guān)系與相關(guān)關(guān)系
B)線性相關(guān)關(guān)系和非線性相關(guān)關(guān)系
C)正相關(guān)關(guān)系和負相關(guān)關(guān)系
D)簡單相關(guān)關(guān)系和復(fù)雜相關(guān)關(guān)系
19.[單選題](_)是指對已有數(shù)據(jù)在盡量少的先驗假設(shè)條件下進行探索,并通過作圖,制表等手段探
索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。
A)統(tǒng)計分析
B)驗證性分析
C)數(shù)據(jù)洞見
D)探索性數(shù)據(jù)分析
20.[單選題]在Pandas中以下哪個函數(shù)可以讀取csv文件?()。
A)read_excel()
B)read_csv()
C)read_sql_query()
D)read_text()
21.[單選題]下面不屬于數(shù)據(jù)科學(xué)主要研究內(nèi)容的有(_)。
A)基礎(chǔ)理論
B)數(shù)據(jù)管理
C)數(shù)據(jù)分析
D)數(shù)據(jù)商務(wù)
22.[單選題]機器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()。
A)使用過于復(fù)雜的模型
B)數(shù)據(jù)噪聲較大
0訓(xùn)練數(shù)據(jù)少
D)訓(xùn)練數(shù)據(jù)充足
23.[單選題](_)是指在對數(shù)據(jù)進行正式計算之前,根據(jù)后續(xù)數(shù)據(jù)計算的需求對原始數(shù)據(jù)進行審計、
清洗、變換、集成等一系列處理活動。
A)數(shù)據(jù)加工
B)數(shù)據(jù)預(yù)處理
C)數(shù)據(jù)清洗
D)數(shù)據(jù)挖掘
24.[單選題]下列關(guān)于支持向量回歸說法錯誤的是(_)。
A)支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中
B)支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題
C)同分類算法不同的是,支持向量回歸要最小化一個凹函數(shù)
D)支持向量回歸的解是稀疏的
25.[單選題]有關(guān)推薦算系統(tǒng)的應(yīng)用背景說法正確的是()
A)幫忙用戶找出不需要的信息
B)查找用戶喜歡的商品
C)一種銷售的方法
D)分析用戶的興趣預(yù)測用戶的需求
26.[單選題]LSTM調(diào)整參數(shù)時信息的傳播方向是()。
A)后向傳播
B)前向傳播
C)雙向傳播
D)跳躍傳播
27.[單選題]兩個種子點A(-l,l),B(2,l),其余點為(0,0),(0,2),(1,1),(3,2),(6,0),
(6,2),利用Kmeans算法,點群中心按坐標(biāo)平均計算。最終種子點A需要移動的次
數(shù),種子點B需要移動的次數(shù),屬于種子點A的點數(shù)(不包含A),屬于種子點B的
點數(shù)(不包含B)分別為()
A)2,2,3,3
B)l,1,3,3
01,1,2,4
D)2,2,2,4
28.[單選題]Spark支持的分布式部署方式中哪個是錯誤的()。
A)standalone
B)sparkonmesos
C)sparkonYARN
D)Sparkonlocal
29.[單選題]以下關(guān)于數(shù)據(jù)科學(xué)描述錯誤的是
A)數(shù)據(jù)科學(xué)研究數(shù)據(jù)的共性
B)降低計算量不是數(shù)據(jù)科學(xué)關(guān)心的問題
C)數(shù)據(jù)科學(xué)可以研究非結(jié)構(gòu)化數(shù)據(jù)
D)數(shù)據(jù)科學(xué)需要與其他學(xué)科結(jié)合在一起
30.[單選題]下面屬于Bagging方法的特點是()
A)構(gòu)造訓(xùn)練集時采用Bootstraping的方式
B)每一輪訓(xùn)練時樣本權(quán)重不同
C)分類器必須按順序訓(xùn)練
D)預(yù)測結(jié)果時,分類器的比重不同
31.[單選題]()是并行式集成學(xué)習(xí)方法最著名的代表
A)隨機森林
B)Boosting
C)Bagging
D)AdaBoost
32.[單選題]支持向量機的對偶問題是()
A)線性優(yōu)化問題
B)二次優(yōu)化
C)凸二次優(yōu)化
D)有約束的線性優(yōu)化
33.[單選題]接受者操作特征曲線簡稱(_)。
A)雙曲線
B)ROC曲線
C)科克曲線
D)共軻曲線
34.[單選題]下列不是SVM核函數(shù)的是:
A)多項式核函數(shù)
B)logistic核函數(shù)
C)徑向基核函數(shù)
D)Sigmoid核函數(shù)
35.[單選題]BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是()
A)梯度上升法
B)梯度下降法
C)梯度提升法
D)梯度曲線法
36.[單選題]正常建立一條TCP連接需要()個步驟,正常關(guān)閉一個TCP連接需要()個步驟
A)3,3
B)3,4
04.4
D)4,3
37.[單選題](_)直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評價標(biāo)準(zhǔn)。
A)過濾式選擇
B)包裹式選擇
C)嵌入式選擇
D)正則化
38.[單選題]假定你使用了一個很大Y值的RBF核,這意味著:
A)模型將考慮使用遠離超平面的點建模
B)模型僅使用接近超平面的點來建模
C)模型不會被點到超平面的距離所影響
D)以上都不正確
39.[單選題]PCA在做降維處理時,優(yōu)先選取哪些特征()
A)中心化樣本的協(xié)方差矩陣的最大特征值對應(yīng)特征向量
B)最大間隔投影方向
C)最小類內(nèi)聚類
D)最速梯度方向
40.[單選題]以下哪個模型是生成式模型:
A)貝葉斯模型
B)邏輯回歸
OSVM
D)條件隨機場
41.[單選題]機器學(xué)習(xí)是研究如何使用計算機()的一門學(xué)科。
A)模擬生物行為
B)模擬人類解決問題
C)模擬人類學(xué)習(xí)活動
D)模擬人類生產(chǎn)活動
42.[單選題]被廣泛認為AI誕生的標(biāo)志的是(
A)計算機的產(chǎn)生
B)圖靈機的出現(xiàn)
C)達特茅斯會議
D)神經(jīng)網(wǎng)絡(luò)的提出
43.[單選題]一條規(guī)則形如:十-flf2…fL,其中“一"左邊的部分稱為
A)規(guī)則長度
B)規(guī)則頭
C)布爾表達式
D)規(guī)則體
44.[單選題]以下不屬于影響聚類算法結(jié)果的主要因素有()
A)已知類別的樣本質(zhì)量
B)分類準(zhǔn)則
C)特征選取
D)模式相似性測度
45.[單選題]人工智能的目的是讓機器能夠(),以實現(xiàn)人類某些腦力勞動的機械化。
A)具有智能
B)和人一樣工作
C)完全代替人的大腦
D)模擬,延伸和擴展人類的智能
46.[單選題]下列極大似然估計描述錯誤的是
A)極大似然估計先假定其具有某種確定的概率分布形式;
B)極大似然估計沒有確定的概率分布形式;
C)概率模型的訓(xùn)練過程就是參數(shù)估計;
D)貝葉斯學(xué)派認為參數(shù)本身也有分布,是未觀察的隨機變量;
47.[單選題]關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯誤的是
A)單隱層前饋神經(jīng)網(wǎng)絡(luò);
B)隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);
C)輸出層是對隱層神經(jīng)元輸出的非線性組合;
D)可利用BP算法來進行參數(shù)優(yōu)化;
48.[單選題]關(guān)于CNN,以下結(jié)論正確的是()
A)在同樣層數(shù)、每層神經(jīng)元數(shù)量一樣的情況下,CNN比全連接網(wǎng)絡(luò)擁有更多的
參數(shù)
B)CNN可以用于非監(jiān)督學(xué)習(xí),但是普通神經(jīng)網(wǎng)絡(luò)不行
C)Pooling層用于減少圖片的空間分辨率
D)接近輸出層的filter主要用于提取圖像的邊緣信息
49.[單選題]讀取CSV文件中的數(shù)據(jù)用()包。
A)skiearn
B)Matplotlib
C)Pandas
D)pylab
50.[單選題]下圖是兩個不同BO、Bl對應(yīng)的邏輯回歸模型(綠色和黑色):
關(guān)于兩個邏輯回歸模型中的80、01值,下列說法正確的是?
注意:y=PO+Pl*x,B0是截距,Bl是權(quán)重系數(shù)。
A)綠色模型的81比黑色模型的131大
B)綠色模型的P1比黑色模型的B1小
C)兩個模型的81相同
D)以上說法都不對
51.[單選題]現(xiàn)有4個同時到達的作業(yè)J1,J2,J3和J4,它們的執(zhí)行時間分別是1小時,3小時,5小時,7小
時,系統(tǒng)按單道方式運行且采用短作業(yè)優(yōu)先算法,則平均周轉(zhuǎn)時間是()小時
A)4
B)5
06
D)7.5
52.[單選題]自然語言處理是用()技術(shù)的一種應(yīng)用
A)語音識別
B)虛擬現(xiàn)實
C)人工智能
D)自然語言
53.[單選題]下列對于查準(zhǔn)率的描述,解釋正確的是(_)。
A)統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。
B)先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。
C)預(yù)測為正的樣例中有多少是真正的正樣例
D)樣本中的正例有多少被預(yù)測正確
54.[單選題]下面關(guān)于決策樹學(xué)習(xí)相關(guān)描述不正確的有(_)。
A)決策樹學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過程
B)決策樹的根節(jié)點表示分類的開始
C)中間節(jié)點表示某一個屬性的屬性值
D)從根節(jié)點到葉節(jié)點的路徑表示一個具體的實例
55.[單選題]()的系數(shù)沒有封閉形式(closed-form)的解。
A)Ridge回歸
B)Lasso
C)Ridge回歸和Lasso
D)以上答案都不正確
56.[單選題]中心極限定理是噪聲抑制的中的統(tǒng)計原理,其內(nèi)容是:均值分布總會收斂于一個。。
A)正態(tài)分布
B)泊松分布
C)多項式分布
D)均值分布
57.[單選題]DataFramel和RDDR最大的區(qū)別()
A)科學(xué)統(tǒng)計支持
B)多了多schema
C)存儲方式不一樣
D)外部數(shù)據(jù)源支持
58.[單選題]計算一個任意三角形的面積,S=J(p(p-a)(p-b)(p-c)),p=(a+b+c)/2,以下等價類測試用
例中,不屬于無效等價類的是
A)a=5,b=3,c=6;
B)a=2,b=3,c=5;
C)a=7,b=3,c=3;
D)a=2,b=6,c=3;
59.[單選題](假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分類問題中,當(dāng)測試集的正例
和負例數(shù)量不均衡時,以下評價方案哪個是相對不合理的()
A)Accuracy:(TP+TN)/all
B)F-value:2recallprecision/(recall+precision)
C)G-mean:sqrt(precision*recall)
D)AUC:曲線下面積
60.[單選題]以下哪個度量不屬于數(shù)據(jù)中心趨勢度描述?()
A)均值
B)中位數(shù)
C)眾數(shù)
D)四分位數(shù)
61.[單選題]在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()
A)增加樹的深度
B)增加學(xué)習(xí)率
C)減少樹的深度
D)減少樹的數(shù)量
62.[單選題]機器學(xué)習(xí)訓(xùn)練時,Mini-Batch的大小優(yōu)選為2個的嘉,如256或5120它背后的原因
是什么?
A)Mini-Batch為偶數(shù)的時候,梯度下降算法訓(xùn)練的更快
B)Mini-Batch設(shè)為2的嘉,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理
C)不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的
D)以上說法都不對
63.[單選題]下面有關(guān)可視化原理的說法,錯誤的是哪個()。
A)可視化主要是為滿足人類決策者對視覺信息的敏感性
B)可視化分析的方法論基礎(chǔ)是視覺隱喻,可以對數(shù)據(jù)進行一定的抽象表示
C)高維數(shù)據(jù)可視化需要對數(shù)據(jù)進行變換,抽取有效特征,從而降低維度
D)餅圖可分析數(shù)據(jù)變化的趨勢
64.[單選題]Python不支持的數(shù)據(jù)類型有()。
A)char
B)int
C)float
D)list
65.[單選題]定義域為{飛機,火車,輪船}的離散屬性也可稱為稱為(_)。
A)無序?qū)傩?/p>
B)有序?qū)傩?/p>
C)連續(xù)屬性
D)離散屬性
66.[單選題]下面不屬于NewSQL的有(—)。
A)memsql
B)trafodion
OmariaDB
D)objectivity
67.[單選題]下列中為判別模型的是()
A)高斯混合模型
B)隱含馬爾科夫模型
C)GAN模型
D)邏輯回歸模型
68.[單選題]一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人
o則年級屬性的眾數(shù)是:
A)一年級
B)二年級
C)三年級
D)四年級
69.[單選題]多元線性回歸的訓(xùn)練樣本由(_)個屬性描述。
A)一
B)二
C)三
D)多
70.[單選題]下列神經(jīng)網(wǎng)絡(luò)特點描述錯誤的是
A)適應(yīng)性
B)由簡單單元組成
C)廣泛并行互連的網(wǎng)絡(luò)
D)線性特性
71.[單選題]解決線性不可分情況下的支持向量分類機的最優(yōu)化模型問題時,以下可以保證結(jié)果模型
線性可分的是
A)C=1
B)C=0
OC無限制
D)以上均不正確
72.[單選題]對于投影數(shù)據(jù)為((V2),(0),(V2))o現(xiàn)在如果在二維空間中重建,并將它們視為原始
數(shù)據(jù)點的重建,那么重建誤差是多少?
A)0%
B)10%
C)30%
D)40%
73.[單選題]對于任意值“x”,考慮到
Logistic(x):是任意值"x”的邏輯(Logistic)函數(shù)
Logit(x):是任意值"x”的logit函數(shù)
Logit_inv(x):是任意值“x”的逆邏輯函數(shù)
以下哪一項是正確的?
A)Logistic(x)=Logit(x)
B)Logistic(x)=Logit_inv(x)
C)Logit_inv(x)=Logit(x)
D)都不是
74.[單選題]對抗學(xué)習(xí)中兩個網(wǎng)絡(luò)互相競爭,一個負責(zé)生成樣本,另一個負責(zé)()
A)判別樣本
B)計算樣本
C)統(tǒng)計樣本
D)生成樣本
75.[單選題]給定的數(shù)據(jù)集包括“胡佛塔”和其他一些塔的圖像?,F(xiàn)在要使用PCA(特征臉)和最近鄰
方法來構(gòu)建一個分類器,可以預(yù)測新圖像是否顯示“胡佛塔”。該圖給出了輸入的訓(xùn)練圖像樣本
(a)llooverTbww1(b)Hooveilower2(c)HoowrTcwwr3
(d)OtherTbwer1(e)OthnTower2(f)OtherTower3
alt="">
為了從“特征臉”算法獲得合理的性能,這些圖像將需要什么預(yù)處理步驟?
A)1
B)2
C)1和2
D)都不是
76.[單選題]OLAP技術(shù)的核心是()。
A)在線性
B)對用戶的快速響應(yīng)
C)互操作性
D)多維分析
77.[單選題]在利用矢量形式的圖像數(shù)據(jù)文件中?
A)圖像的分辨率與數(shù)據(jù)文件的大小成正比;
B)如果顯示其中的圖像會有方塊;'
C)圖形由空間分布的像素的集合來表示;
D)不僅有數(shù)據(jù)還有命令;
78.[單選題]有關(guān)機器學(xué)習(xí)分類算法的Precision和Recall,以下定義中正確的是(假定tp=true
positive,tn=truenegative,fp=falsepositive,fn=falsenegative)
A)Precision=
B)Precision
C)Precision
D)Precision
79.[單選題]以下哪種距離會側(cè)重考慮向量的方向()
A)歐式距離
B)海明距離
C)Jaccard距離
D)余弦距離
80.[單選題]下面不是有效的變量名的是。。
A)_demo
B)banana
C)Numbr
D)my-score
81.[單選題]()是二維隨機變量的分布。
A)正態(tài)分布
B)二項分布
C)邊緣分布
D)指數(shù)分布
82.[單選題]抖動技術(shù)可以?
A)改善圖像的空間分辨率;
B)改善圖像的幅度分辨率;
C)利用半輸出技術(shù)實現(xiàn);
D)消除虛假輪廓現(xiàn)象;
83.[單選題]在文本挖掘中,可以使用以下哪項命令完成將文本轉(zhuǎn)換為tokens,然后將其轉(zhuǎn)換為整數(shù)或
浮點向量的操作?
A)CountVectorizer
B)TF-IDF
C)詞袋模型(BagofWords)
D)NERs
84.[單選題]有兩個樣本點,第一個點為正樣本,它的特征向量是(0,T);第二個點為負樣本,它的特
征向量是(2,3),從這兩個樣本點組成的訓(xùn)練集構(gòu)建一個線性SVM分類器的分類面方程是()
A)2x+y=4
B)x+2y=5
C)x+2y=3
D)以上都不對
85.[單選題]集成學(xué)習(xí)采取投票的方式來綜合多個簡單模型的結(jié)果,按bagging投票思想,假設(shè)一
共訓(xùn)練了5個簡單模型,每個模型對分類結(jié)果預(yù)測如下圖,則模型的最終預(yù)測結(jié)果為。類
A)D
B)C
C)B
D)A
86.[單選題]SVM的算法性能取決于()
A)核函數(shù)的選擇
B)核函數(shù)的參數(shù)
C)軟間隔參數(shù)C
D)以上所有
87.[單選題]9.關(guān)于K-均值算法,以下說法不正確的是
A)K-均值算法是一種劃分方法。
B)K-均值算法能發(fā)現(xiàn)任意形狀的簇。
C)K-均值算法不一定收斂于全局最優(yōu)解。
D)比起DBSCAN算法來,K更好
88.[單選題]在n維空間中(n>1),下列哪種方法最適合用來檢測異常值?
A)正態(tài)概率圖
B)箱形圖
C)馬氏距離
D)散點圖
89.[單選題]下列哪個方法不屬于情感分析的評測?
A)COAE評測
B)cifarlO數(shù)據(jù)集評測
C)CCFTCCI評測
D)TAC評測
90.[單選題]多次“采樣”,然后求取平均累積獎賞來作為期望積累獎賞的近似,這稱為(_)。
A)免模型學(xué)習(xí)
B)機器學(xué)習(xí)
C)深度學(xué)習(xí)
D)蒙特卡羅強化學(xué)習(xí)
91.[單選題]在線性回歸中使用正則項,你發(fā)現(xiàn)解的不少coefficient都是0,則這個正則項可能是
()(1).L0-norm;(2).Ll-norm;(3).L2-norm。
A)(1)(2)
B)(2)(3)
0(2)
D)⑶
92.[單選題]隨機試驗所有可能出現(xiàn)的結(jié)果稱為()。
A)基本事件
B)樣本
C)全部事件
D)樣本空間
93.[單選題]哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?
A)無監(jiān)督學(xué)習(xí)
B)監(jiān)督學(xué)習(xí)
C)強化學(xué)習(xí)
D)以上全部
94.[單選題]對于圖像識別問題(比如識別照片中的貓),()神經(jīng)網(wǎng)絡(luò)模型更適合解決這類問題
O
A)感知機
B)循環(huán)神經(jīng)網(wǎng)絡(luò)
C)卷積神經(jīng)網(wǎng)絡(luò)
D)多層感知機
95.[單選題]下圖中主成分的最佳數(shù)量是多少?
P
O0
EL
e00000000000000
-
d
x
w
8
0
9
o
u
o0Z’
e
o
dV
0
。
」
支0
80
A
q
e
5
E
n
。III
203040
PnncipalComponent
alt="">
A)7
B)30
040
D)不知道
96.[單選題]若svm出現(xiàn)欠擬合,以下合適的做法是
A)使用更powful的kernel
B)增加訓(xùn)練樣本
C)使用L2正規(guī)化
D)做數(shù)據(jù)增強
97.[單選題]以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是。
A)邏輯回歸
B)支持向量機
C)樹形模型
D)神經(jīng)網(wǎng)絡(luò)
98.[單選題]下列關(guān)于冗余特征的說法錯誤的是
A)冗余特征是可以通過其他特征推演出來的特征
B)冗余特征是無用的特征
C)冗余特征有時候可以降低學(xué)習(xí)任務(wù)的難度
D)去除冗余特征可以減輕學(xué)習(xí)過程的負擔(dān)
99.[單選題]下列分類方法中不會用到梯度下降法的是()
A)感知機
B)最小二乘分類器
C)最小距離分類器
D)Logistic回歸
100.[單選題]下列關(guān)于F1值的計算正確的是(_)。
A)F1值=正確率*召回率*/(正確率+召回率)
B)F1值=正確率*召回率*2/(正確率+召回率)
C)F1值=正確率*2/(正確率+召回率)
D)F1值=召回率*2/(正確率+召回率)
101.[單選題]決策樹的基本流程遵循(_)的策略。
A)貪心
B)最優(yōu)化
C)分而治之
D)順序
102.[單選題]LSTM與RNN相比可以解決()。
A)梯度消失
B)訓(xùn)練結(jié)果發(fā)散
C)需要激活函數(shù)
D)無法處理長距離的依賴的問題
103.[單選題]過擬合現(xiàn)象中()
A)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率卻很低
B)訓(xùn)練樣本的測試誤差最小,測試樣本的正確識別率也很高
C)模型的泛化能力很高
D)通常為線性模型
104.[單選題]CNN常見的Loss函數(shù)不包括以下哪個()
A)softmaxloss
B)sigmoid_loss
C)Contrastive_Loss
D)Siameseloss
105.[單選題](_)是常用的估計參數(shù)隱變量的利器,它是一種迭代的方法。
A)邊際似然
B)EM算法
C)貝葉斯決策
D)貝葉斯分類器
106.[單選題]下列不屬于聚類性能度量外部指標(biāo)的是(_)。
A)Jaccard系數(shù)
B)FM系數(shù)
C)Rand指數(shù)
D)DB指數(shù)
107.[單選題]下面選項中不是雙目攝像頭的內(nèi)參的是()。
A)焦距(Focallength)
B)基礎(chǔ)矩陣(Fundamental
matrix)
C)扭曲值(Distortion)
D)光點中心(Opticalcenter)
108.[單選題]K-Means算法是。的聚類算法
A)無監(jiān)督
B)有監(jiān)督
C)半監(jiān)督
D)以上都不對
109.[單選題]決策樹的父節(jié)點和子節(jié)點的嫡的大小關(guān)系是()。
A)父節(jié)點的嫡更小
B)子節(jié)點的燧更小
C)兩者相等
D)根據(jù)具體情況而定
110.[單選題]將源程序(高級語言編寫)翻譯成計算機可執(zhí)行的目標(biāo)程序,其處理方法是()
A)編譯
B)連接
C)匯編
D)掃描
111.[單選題]()算法是通過智能體不斷與環(huán)境進行交互,通過試錯的方式來獲得最佳策略
A)有監(jiān)督學(xué)習(xí)
B)半監(jiān)督學(xué)習(xí)
C)無監(jiān)督學(xué)習(xí)
D)強化學(xué)習(xí)
112.[單選題]訓(xùn)練集、驗證集和測試集在使用過程中的順序是
A)測試集、訓(xùn)練集、驗證集
B)訓(xùn)練集、測試集、驗證集
C)驗證集、訓(xùn)練集、測試集
D)訓(xùn)練集、驗證集、測試集
113.[單選題]在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,如果出現(xiàn)訓(xùn)練error過高,下列哪種方法不能大幅度降低訓(xùn)練
error()
A)增加一個隱藏層
B)在隱藏層中增加更多神經(jīng)元
C)對訓(xùn)練數(shù)據(jù)進行標(biāo)準(zhǔn)化
D)增加訓(xùn)練數(shù)據(jù)
114.[單選題]sparks中默認的存儲級別()。
A)MEMORY_ONLY
B)MEM0RY_ONLY_SER
OMEMORY_ANDDISK
D)MEM0RY_AND_DISK_SER
115.[單選題]對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為
A)最大一般泛化
B)最小一般泛化
C)最大一般特化
D)最小一般特化
116.[單選題]在深度學(xué)習(xí)中,涉及到大量矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)
三個矩陣的尺寸分別為m*n,n*p,p*q,且水n〈p〈q,以下計算順序效率最高的是:()
A)A(BC)
B)(AB)C
C)(AC)B
D)所有效率都相同
117.[單選題]關(guān)于k-means算法,正確的描述是()
A)能找到任意形狀的聚類
B)初始值不同,最終結(jié)果可能不同
0每次迭代的時間復(fù)雜度是0(n、2),
D)不能使用核函數(shù)
118.[單選題]Matplotlib主要是用哪種語言編寫的?()
正確回答
A)Python
B)java
C)C++
D)C
119.[單選題]以下對半結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(—)。
A)先有數(shù)據(jù),后有結(jié)構(gòu)
B)先有結(jié)構(gòu),后有數(shù)據(jù)
OHTML是半結(jié)構(gòu)化數(shù)據(jù)
D)經(jīng)過一定轉(zhuǎn)換后可以用傳統(tǒng)關(guān)系數(shù)據(jù)庫存儲
120.[單選題]做一個二分類預(yù)測問題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即
1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類
,下面哪一種說法正確是()1.增加閾值不會提高召回率2..增加閾值會提高召回率3..增加閾值不
會降低查準(zhǔn)率4.增加閾值會降低查準(zhǔn)率
A)1
B)2
01、3
D)2、4
121.[單選題]以下哪項關(guān)于決策樹的說法是錯誤的0。
A)冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響
B)子樹可能在決策樹中重復(fù)多次
C)決策樹算法對于噪聲的干擾非常敏感
D)尋找最佳決策樹是NP完全問題
122.[單選題]以下哪種方法不能防止過擬合?
A)交叉驗證
B)低維嵌入
C)剪枝
D)集成學(xué)習(xí)
123.[單選題]()先對數(shù)據(jù)集進行特征選擇,然后再訓(xùn)練學(xué)習(xí)器。
A)過濾式選擇
B)包裹式選擇
C)稀疏表示
D)嵌入式選擇
124.[單選題]多層前饋神經(jīng)網(wǎng)絡(luò)描述錯誤的是
A)輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元;
B)神經(jīng)元之間存在這同層連接以及跨層連接;
C)輸入層僅僅是接收輸入,不進行函數(shù)處理;
D)每層神經(jīng)元上一層與下一層全互連;
125.[單選題]LVW屬于哪種特征選擇方法
A)包裹式
B)啟發(fā)式
C)嵌入式
D)過濾式
126.[單選題]假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7X7,具有零
填充且步幅為1。該層的輸入圖片的維度是224X224X3。那么該層輸出的維度是多少?
A)217x217x3
B)217x217x8
0218x218x5
D)220x220x7
127.[單選題]留出法直接將數(shù)據(jù)集劃分為一個互斥的集合。
A)—
B)二
OS
D)四
128.[單選題]()是交叉驗證法的一種特例。
A)自助法
B)留一法
C)交叉驗證法
D)錯誤率分析
129.[單選題]以下()是Python中的二維圖形包。
A)Matplotlib
B)Pandas
C)NumPy
D)BoKeh
130.[單選題]下列激活函數(shù)中,能夠?qū)崿F(xiàn)將特征限制到區(qū)間的是哪一個
A)Tanh
B)Logistic
OReLU
D)Sigmoid
131.[單選題]決策論中,將“期望損失"稱為(_)。
A)均值
B)方差
C)風(fēng)險
D)概率
132.[單選題]關(guān)于列表數(shù)據(jù)結(jié)構(gòu),下面描述正確的是()o
A)可以不按順序查找元素
B)必須按順序插入元素
C)不支持in運算符
D)所有元素類型必須相同
133.[單選題]關(guān)于LI、L2正則化,下列說法正確的是()。
A)L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點
B)L2正則化技術(shù)又稱為LassoRegularization
C)L1正則化得到的解更加稀疏
D)L2正則化得到的解更加稀疏
134.[單選題]20個阿里巴巴B2B技術(shù)部的員工被安排為4排,每排5個人,我們?nèi)我膺x其中4人送給他們
一人一本《effectiveC++》,那么我們選出的4人都在不同排的概率為:
A)5*4*5!*15!/20!
B)4*5*5!*15!/20!
C)5"4*4!*16!/20!
D)4*5*4!*16!/20!
135.[單選題]()算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體。
A)Find-S
B)KNN
C)概念
D)ID3
136.[單選題]用OpenCV讀取圖像所需要的函數(shù)是()。
A)cv.imshow()
B)cv.inread()
C)cv.imwriteO
D)cv.imread()
137.[單選題]測試集應(yīng)盡可能與訓(xùn)練集
A)相容
B)相等
C)互斥
D)包含
138.[單選題]用于產(chǎn)生詞嵌入的單向語言模型
A)BERT
B)GPT
OELMo
D)Word2Vec
139.[單選題]觀察如下數(shù)據(jù)集:
刪除
A,b,c,d哪個點對擬合回歸線的影響最大?
A)a
B)b
C)c
D)d
140.[單選題]梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。
在RNN中,下面哪種方法可以較好地處理梯度爆炸問題()
A)梯度裁剪
B)所有方法都不行
C)Dropout
D)加入正則項
141.[單選題]在測試一假設(shè)h時,發(fā)現(xiàn)在一包含n=1000個隨機抽取樣例的樣本s上,它出現(xiàn)r=300個錯誤
,計算Errors(h)的標(biāo)準(zhǔn)差()
A)0.0145
B)0.145
01.45
D)14.5
142.[單選題]下列關(guān)于zookeeper自身特性說法正確的是0
A)zookeeper是一個被動協(xié)調(diào)服務(wù)組件
B)zookeeper是一個計算組件
C)zookeeper是一個主動協(xié)調(diào)服務(wù)
D)zookeeper是一個存儲模型
143.[單選題]信息增益即數(shù)據(jù)集的嫡與在某特征條件下的條件嫡之差。關(guān)于信息增益,正確的說法
是:(2.0分)2.0分
A)信息增益越大,說明此特征分類能力越弱
B)信息增益越小,說明此特征克服的不確定性越大,具有更強的分類能力
C)信息增益越大,說明此特征克服的不確定性越大,具有更強的分類能力
D)信息增益越小,說明此特征分類能力越強
144.[單選題]下列有關(guān)SVM和LR說法不正確的是。
A)SVM是分類模型,LR是回歸模型
B)SVM和LR都是分類模型
C)SVM是判別式模型
D)LR判別式模型
145.[單選題]對于下圖,最好的主成分選擇是多少?:
這里寫圖片描述
A)7
B)30
035
D)Can,tSay
146.[單選題]關(guān)于ndarray對象屬性,下列描述錯誤的是()。
A)ndim屬性表示數(shù)組軸的個數(shù)
B)shape屬性表示每個維度上數(shù)組的大小
C)size屬性表示數(shù)組元素的總個數(shù),等于shape屬性元組元素的和
D)dtype屬性表示數(shù)組中元素類型的對象
147.[單選題]假設(shè)你有以下數(shù)據(jù):(0,2)(2,2)(3,1)輸入和輸出都只有一個變量。使用線性回
歸模型(y=wx+b)來擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗證得到的均方誤差是多少
?
A)10/32
B)39/27
049/27
D)55/27
148.[單選題]以下哪項不屬于知識發(fā)現(xiàn)的過程?()
A)數(shù)據(jù)清理
B)數(shù)據(jù)挖掘
C)知識可視化表達
D)數(shù)據(jù)測試
149.[單選題]關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:
A)基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;
B)基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;
C)基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息;
D)基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.
150.[單選題]下列哪種去噪方法能較好的保持圖像邊緣。()
A)中值濾波
B)雙邊濾波
C)均值濾波
D)高斯濾波
151.[單選題]下列方法中,屬于無監(jiān)督學(xué)習(xí)的為()
A)線性回歸
B)K均值
C)神經(jīng)網(wǎng)絡(luò)
D)決策樹
152.[單選題]下面說法錯誤的是()
A)遺傳算法直接以適應(yīng)度作為搜索信息,無需導(dǎo)數(shù)等其他輔助信息
B)決策樹算法對離散屬性和連續(xù)屬性進行建模
OHapfield網(wǎng)絡(luò)不僅有不動點吸引子,也有其它類型的吸引子
D)決策樹是一種混合算法,它綜合了多種不同的創(chuàng)建樹的方法
153.[單選題]在Pandas中tail()這個函數(shù)是做什么的?()0
A)用來創(chuàng)建數(shù)據(jù)
B)用來分析數(shù)據(jù)
C)用來計算數(shù)據(jù)
D)用來展現(xiàn)數(shù)據(jù)
154.[單選題]主成分分析的優(yōu)化目標(biāo)是一個(_)。
A)不含約束條件的二次規(guī)劃問題
B)含有約束條件的二次規(guī)劃問題
C)不含約束條件的線性規(guī)劃問題
D)含有約束條件的線性規(guī)劃問題
155.[單選題]Spark的四大組件下面哪個不是
A)SparkStreaming
B)Mlib
C)Graphx
D)SparkR
156.[單選題]設(shè)乂={1,2,3}是頻繁項集,則可由X產(chǎn)生()個關(guān)聯(lián)規(guī)則
A)4
B)5
C)6
D)7
157.[單選題]機器學(xué)習(xí)的經(jīng)典定義是:()
A)利用技術(shù)進步改善系統(tǒng)自身性能
B)利用技術(shù)進步改善人的能力
C)利用經(jīng)驗改善系統(tǒng)自身的性能
D)利用經(jīng)驗改善人的能力
158.[單選題]下圖是哪一種算法表示()
A)K-近鄰算法
B)貝葉斯
C)一元線性回歸
D)多項式回歸
159.[單選題]關(guān)于梯度下降,以下說法中不合適的是:
A)應(yīng)該沿著梯度反方向調(diào)整參數(shù)
B)應(yīng)該沿著梯度同方向調(diào)整參數(shù)
C)對損失函數(shù)而言,梯度向量的反方向是其函數(shù)值下降最快的方向
D)調(diào)整的步長由學(xué)習(xí)率控制
160.[單選題]支持向量回歸與傳統(tǒng)回歸模型的差別是()。
A)模型輸出與真實值相同
B)模型輸出與真實值存在e偏差
C)模型輸出大于真實值
D)模型輸出小于真實值
161.[單選題](_)是指能夠通過數(shù)據(jù)來幫助用戶實現(xiàn)其某一個目標(biāo)的產(chǎn)品。
A)數(shù)據(jù)產(chǎn)品
B)電子產(chǎn)品
C)數(shù)據(jù)系統(tǒng)
D)電子系統(tǒng)
162.[單選題]二分類任務(wù)中,有三個分類器hl,h2,h3,三個測試樣本xl,x2,x3。假設(shè)1表示分類結(jié)果正
確,0表示錯誤,hl在xl,x2,x3的結(jié)果分別(l,l,0),h2,h3分別為(0,1,1),(1,0,1),按投票法集成三個
分類器,下列說法正確的是()(注:0,1不是類別標(biāo)簽,而是模型預(yù)測結(jié)果是正確還是錯誤的意思)
A)集成提高了性能
B)集成沒有效果
C)集成降低了性能
D)集成效果不能確定
163.[單選題]在概率模型中,利用已知變量推測未知變量的分布稱為?
A)推論
B)推斷
C)推演
D)推算
164.[單選題]在HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接
進行參數(shù)估計()
A)EM算法
B)維特比算法
C)前向后向算法
D)極大似然估計
165.[單選題]概念分層圖是()圖
A)無向無環(huán)
B)有向無環(huán)
C)有向有環(huán)
D)無向有環(huán)
166.[單選題]以下有關(guān)機器學(xué)習(xí)理解不正確的是()。
A)查詢大量的操作數(shù)據(jù)去發(fā)現(xiàn)新的信息
B)從大量的業(yè)務(wù)數(shù)據(jù)中分析有興趣的新穎知識輔助決策的過程
C)機器學(xué)習(xí)的結(jié)果不一定能輔助決策
D)需要借助統(tǒng)計學(xué)或機器學(xué)習(xí)的一些算法
167.[單選題]在線性模型y=wlxl+w2x2+…+wnxn中,[wl,w2,…,wn]值代表()
A)預(yù)測值
B)特征值
C)輸入值
D)模型參數(shù)
168.[單選題]回歸方程判定系數(shù)的計算公式1?2=5$口/5$丁=1-55£/55丁,對判定系數(shù)描述錯誤的是()。
A)式中的SSE指殘差平方和
B)式中的SSR指總離差平方和
C)判定系數(shù)用來衡量回歸方程的擾合優(yōu)度
D)判定系數(shù)R2等于相關(guān)系數(shù)的平方
169.[單選題]p尾法確定圖像分割的閾值,適用于(_)的情況。
A)已知閾值范圍
B)已知圖像灰度范圍
C)已知目標(biāo)所占全圖象百分比
D)圖像類間方差最大化
170.[單選題]關(guān)于OLAP的特性,下面正確的是:(1)快速性(2)可分析性(3)多維性(4)信息性
(5)共享性
A)(2)(3)
B)(3)(4)
0(2)(3)(4)
D)(2)(3)(4)(5)
171.[單選題]以下對Volume相關(guān)描述不正確的是(___)0
A)Volume是指數(shù)據(jù)量大
B)就目前而言,當(dāng)數(shù)據(jù)量達到拍字節(jié)以上時,一般稱為大數(shù)據(jù)
C)大數(shù)據(jù)時間分布是均勻的
D)數(shù)據(jù)量大是相對計算與存儲能力而定的
172.[單選題]學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為_。
A)錯誤率
B)精度
C)誤差
D)查準(zhǔn)率
173.[單選題]對于正態(tài)密度的貝葉斯分類器,各類協(xié)方差矩陣相同時,決策函數(shù)為()
A)線性決策函數(shù)
B)非線性決策函數(shù)
C)最小距離分類器
D)以上都有可能
174.[單選題]以下不屬于數(shù)據(jù)科學(xué)的研究目的的是(__)o
A)大數(shù)據(jù)及其運動規(guī)律的揭示
B)從數(shù)據(jù)到智慧的轉(zhuǎn)化
C)數(shù)據(jù)解釋
D)數(shù)據(jù)驅(qū)動型決策支持
175.[單選題]你在20K文檔的輸入數(shù)據(jù)上為機器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-term
matrix)?以下哪項可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization);(2)潛在語義
索引(LatentSemanticIndexing);(3)隱狄利克雷分布(LatentDirichletAllocation).
A)只有(1)
B)(2)(3)
0(1)(3)
D)(1)(2)(3)
176.[單選題]假設(shè)我們使用kNN訓(xùn)練模型,其中訓(xùn)練數(shù)據(jù)具有較少的觀測數(shù)據(jù)(下圖是兩個屬性
x、y和兩個標(biāo)記為"+”和"o”的訓(xùn)練數(shù)據(jù))?,F(xiàn)在令k=1,則圖中的Leave-One-Out交
叉驗證錯誤率是多少?
A)0%
B)20%
C)50%
D)100%
177.[單選題]以下哪種NLP模型的準(zhǔn)確性最高?
A)BERT
B)XLNET
C)GPT-2
D)ELMo
178.[單選題]關(guān)于ZooKeeper臨時節(jié)點的說法正確的是0
A)創(chuàng)建臨時節(jié)點的命令為:create-s/tmpmyvalue
B)一旦會話結(jié)束,臨時節(jié)點將被自動刪除
C)臨時節(jié)點不能手動刪除
D)臨時節(jié)點允許有子節(jié)點
179.[單選題]k近鄰算法在()的情況下效果較好。
A)樣本較多但典型性不好
B)樣本較少但典型性好
C)樣本呈團狀分布
D)樣本呈鏈狀分布
180.[單選題]下列表述中,在k-fold交叉驗證中關(guān)于選擇K說法正確的是:
A)較大的K并不總是好的,選擇較大的K可能需要較長的時間來評估你的結(jié)果
B)相對于期望誤差來說,選擇較大的K會導(dǎo)致低偏差(因為訓(xùn)練folds會變得與整個數(shù)據(jù)集相似)
C)在交叉驗證中通過最小化方差法來選擇K值
D)以上都正確
181.[單選題]使用high(infinite)regularisation時偏差會如何變化?
alt="">
有散點圖“a”和“b”兩類(藍色為正,紅色為負)。在散點圖“a”中,使用了邏輯回歸(黑線是決策
邊界)對所有數(shù)據(jù)點進行了正確分類。
A)偏差很大
B)偏差很小
C)不確定
D)都不是
182.[單選題]有如下數(shù)據(jù)集,分別使用1-最近鄰,3-最近鄰,對數(shù)據(jù)點x=5.0分類,則:
XOS3J045464.952S3ss7。95
Y?■?*
class="fr-ficfr-dibcursor-hover"
A)最近鄰:+;3-最近鄰:-
B)最近鄰:+;3-最近鄰:+
C)最近鄰:-;3-最近鄰:-
D)最近鄰:-;3-最近鄰:+
183.[單選題]因為文本數(shù)據(jù)在可用的數(shù)據(jù)中是非常無結(jié)構(gòu)的,它內(nèi)部會包含很多不同類型的噪點,所
以要做數(shù)據(jù)預(yù)處理。以下不是自然語言數(shù)據(jù)預(yù)處理過程的是:
A)詞匯規(guī)范化
B)詞匯關(guān)系統(tǒng)一化
C)對象標(biāo)準(zhǔn)化
D)噪聲移除
184.[單選題]下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴關(guān)系
A)同父結(jié)構(gòu)
B)選擇結(jié)構(gòu)
C)順序結(jié)構(gòu)
D)V型結(jié)構(gòu)
185.[單選題]下圖顯示了三個邏輯回歸模型的AUC-ROC曲線。不同的顏色表示不同超參數(shù)值的曲線。
以下哪個AUC-ROC會給出最佳果?
style="width:295px;"class="fr-ficfr-filfr-dibcursor-hover">
A)黃色
B)粉紅色
C)黑色
D)都相同
186.[單選題]以下有關(guān)隨機森林算法的說法錯誤的是:
A)隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高
B)隨機森林算法對異常值和缺失值不敏感
C)隨機森林算法不需要考慮過擬合問題
D)決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型分類效果越好
187.[單選題]任何一個核函數(shù)都隱式地定義了一個(__)空間。
A)希爾伯特空間
B)再生希爾伯特空間
1
09
08
07
06
0
6
0
-4
03
02
01
0
OO1O2O3OO7
Falseposith/erata
c)再生核希爾伯特空間
D)歐式空間
188.[單選題]下面哪項不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式。()
A)單輸出
B)多輸出
C)同步多輸出
D)異步多輸出
189.[單選題]下面關(guān)于SVM算法敘述不正確的是()
A)SVM在解決小樣本、非線性及高維模式識別問題中具有優(yōu)勢
B)SVM是一種基于經(jīng)驗風(fēng)險最小化準(zhǔn)則的算法
C)SVM求得的解為全局唯一最優(yōu)解
D)SVM最終分類結(jié)果只與少數(shù)支持向量有關(guān)
190.[單選題]對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個標(biāo)記,最常見的結(jié)合策略是
(_)0
A)投票法
B)平均法
C)學(xué)習(xí)法
D)排序法
191.[單選題](一)度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度。
A)偏差
B)方差
C)均方差
D)泛化誤差
192.[單選題]tf.nn.rnn_ceH.BasicLSTMCell(n.hidden,forget_bias=l.0,
state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。
A)神經(jīng)元個數(shù)
B)遺忘系數(shù)
C)返回狀態(tài)
D)神經(jīng)元類型
193.[單選題]以下名稱中不屬于“屬性張成的空間”的是(—)。
A)屬性空間
B)樣本空間
C)輸入空間
D)對偶空間
194.[單選題]下面是交叉驗證的幾種方法:
1/Bootstrap
2/留一法交叉驗證
3/5折交叉驗證
4/重復(fù)使用兩次5折交叉驗證
請對上面四種方法的執(zhí)行時間進行排序,樣本數(shù)量為1000。
A)1>2>3>4
B)2>4>3>1
C)4>1>2>3
D)2>4>3>1
195.[單選題]下列關(guān)于支持向量機優(yōu)化性問題的形式說法正確的是
A)它是一個凸二次規(guī)劃問題
B)它是一個凸一次規(guī)劃問題
C)它是一個凹二次規(guī)劃問題
D)它是一個凹一次規(guī)劃問題
196.[單選題]關(guān)于機器學(xué)習(xí)算法正確的是0
A)LR模型在加入正則化項后Variance將增大
B)線性SVM是尋找最小邊緣的超平面的一個分類器
C)xgboost和GDBT都是屬于boosting算法
D)xgboost和隨機森林都是屬于bagging算法
197.[單選題]下列關(guān)于L1正則化與L2正則化的描述,錯誤的是0。
A)L1范數(shù)正則化有助于降低過擬合風(fēng)險
B)L2范數(shù)正則化有助于降低過擬合風(fēng)險
C)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解
D)L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解
198.[單選題]以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:
A)嵌入
B)過濾
C)包裝
D)抽樣
199.[單選題]假正率是指(_)o
A)正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)
B)被預(yù)測為負的正樣本結(jié)果數(shù)/正樣本實際數(shù)
C)被預(yù)測為正的負樣本結(jié)果數(shù)/負樣本實際數(shù)
D)負樣本預(yù)測結(jié)果數(shù)/負樣本實際數(shù)
200.[單選題]以下集合是凸集的是
A){(x,y)|y=x+l}
B){(x,y)|x的平方+y的平方=1}
C){(x,y)|x的平方+y的平方>1}
D){(x,y)|x=ly=l}
201.[單選題]下列哪項不是目前深度學(xué)習(xí)的必備技術(shù)()
A)卷積可視化解釋
B)反向傳播算法
0非線性激活函數(shù)
D)深度神經(jīng)網(wǎng)絡(luò)
202.[單選題]有四個整數(shù)a、b、c、d,且c>
D,貝11"a>b"是"a-c>b-d”的:()
A)必要不充分條件
B)充分不必要條件
C)充要條件
D)既不充分也不必要條件
203.[單選題]歸納推理是()推理
A)從一般到個別
B)從個別到一般
C)從個別到個別
D)從一般到一般
204.[單選題]一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)識別獄警、小偷、送餐員
、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。
A)二分類問題
B)層次聚類問題
C)多分類問題
D)回歸問題
205.[單選題]關(guān)于引入模塊的方式,錯誤的是()o
A)importmath
B)fromfibimportFibonacci
C)frommathimport*
D)from*importfib
206.[單選題]現(xiàn)在有一個tcp服務(wù)端監(jiān)聽了80端口,問最多同時能建立多少連接
A)1023
B)65534
064511
D)非常多基本和內(nèi)存大小相關(guān)
207.[單選題]假定你使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實際數(shù)據(jù)集上后,其訓(xùn)練
準(zhǔn)確率和測試準(zhǔn)確率均為100機現(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),
會發(fā)生以下哪種情況()
A)過擬合
B)欠擬合
C)什么都不會發(fā)生,因為模型準(zhǔn)確率已經(jīng)到達極限
D)以上都不對
208.[單選題]我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()
A)增加樹的深度
B)增加學(xué)習(xí)率
C)減少樹的深度
D)減少樹的數(shù)量
209.[單選題]下列關(guān)于半監(jiān)督支持向量機說法錯誤的是(_)。
A)半監(jiān)督支持向量機是針對二分類問題的學(xué)習(xí)算法
B)半監(jiān)督支持向量機尋求一個在所有樣本上間隔最小化的劃分超平面
C)半監(jiān)督支持向量機采用局部搜索來迭代地尋找其優(yōu)化問題的近似解
D)半監(jiān)督支持向量機試圖考慮對未標(biāo)記樣本進行各種可能的標(biāo)記指派
210.[單選題]下面不屬于后臺自動化的有(_)。
A)hyperscience
B)datafox
C)aptricity
D)appzen
211.[單選題]關(guān)于Hadoop技術(shù)描述錯誤的是?()
A)HDFS是一個分布式文件系統(tǒng)
B)聯(lián)盟鏈
0HDFS適合存儲大量的小文件
D)HDFS存儲空間由數(shù)據(jù)節(jié)點數(shù)決定
212.[單選題]協(xié)同過濾算法解決的是數(shù)據(jù)挖掘中的哪類問題?()
A)分類問題
B)聚類問題
C)推薦問題
D)自然語言處理問題
213.[單選題]考慮如下數(shù)據(jù)集,其中CustomerID(顧客id),TransactionID(事務(wù)id),Items
Bought(購買項)。如果將每個事務(wù)id看成一個購物籃,計算項集{e},{b,d},{b,
D,e}的支持度:
A)s({e})=0.8s({b,d})=0.2s({b,
D,e})=0.2
B)s({e})=0.7s({b,d})=0.3s({b,
D,e})=0.3
C)s({e})=0.6s({b,d})=0.4s({b,
D,e})=0.3
D)s({e})=0.8s({b,d})=0.ls({b,
D,e})=0.1
214.[單選題]以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是()
A)邏輯回歸
B)支持向量機
C)樹形模型
D)神經(jīng)網(wǎng)絡(luò)
215.[單選題]下面關(guān)于非監(jiān)督學(xué)習(xí)算法的說法正確的是
A)數(shù)據(jù)要是成對的
B)算法準(zhǔn)確率非常高
C)沒有經(jīng)驗數(shù)據(jù)可供學(xué)習(xí)
D)需要一定的經(jīng)驗數(shù)據(jù)
216.[單選題]互為對偶的兩個線性規(guī)劃問題的解存在關(guān)系()
A)原問題無可行解,對偶問題也無可行解
B)對偶問題有可行解,原問題可能無可行解
C)若最優(yōu)解存在,則最優(yōu)解相同
D)一個問題無可行解,則另一個問題具有無界解
217.[單選題]()屬于SVM應(yīng)用。
A)文本和超文本分類
B)圖像分類
C)新文章聚類
D)以上均是
218.[單選題]當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時,可以使用0促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分
離。
A)分類
B)聚類
C)關(guān)聯(lián)分析
D)隱馬爾可夫鏈
219.[單選題]專家系統(tǒng)中知識庫的知識可以獲取的來源是()???
A)領(lǐng)域?qū)<?/p>
B)專家系統(tǒng)的用戶
C)計算機系統(tǒng)管理員
D)專家系統(tǒng)程序的開發(fā)者
220.[單選題](_)是指樣本空間中具有代表性的點。
A)樣本點
B)原點
C)原型
D)實例
221.[單選題]請閱讀下列一段程序:
Arr=np.arange(12).reshape(3,4)
Arr.shape
運行上述程序,它最終執(zhí)行的結(jié)果為()。
A)3
B)4
0(3,4)
D)(1,2)
222.[單選題]以下哪項是非線性降維方法
A)PCA(主成分分析)
B)LDA(線性判別)
C)ICA(獨立成分分析)
D)KPCA(核化線性降維)
223.[單選題]下面不屬于農(nóng)業(yè)的有(_)。
A)farmers
B)farmlogs
C)prospera
D)uber
224.[單選題]以下哪項不屬于圖像分割的目的。()
A)把不同類標(biāo)分開。
B)提取不同區(qū)域的特征。
C)識別圖像內(nèi)容,或?qū)D像進行分類。
D)對未處理噪聲的圖像進行平滑。
225.[單選題]假設(shè)已經(jīng)使用python第三方庫sklearn創(chuàng)建線性模型實例linear_model,則
linear_model.coef中,屬性coef的作用是()
A)sigmoid函數(shù)
B)激活函數(shù)
C)模型的參數(shù)
D)以上都不是
226.[單選題]關(guān)于梯度下降,以下說法中不合適的是:
A)應(yīng)該沿著梯度反方向調(diào)整參數(shù)
B)應(yīng)該沿著梯度同方向調(diào)整參數(shù)
C)調(diào)整的步長由學(xué)習(xí)率控制
D)對損失函數(shù)而言,梯度向量的反方向是其函數(shù)值下降最快的方向
227.[單選題]避免直接的復(fù)雜非線性變換,采用線性手段實現(xiàn)非線性學(xué)習(xí)的方法是()
A)核函數(shù)方法
B)集成學(xué)習(xí)
C)線性鑒別分析
D)Logistic回歸
228.[單選題]在邏輯回歸輸出與目標(biāo)對比的情況下,以下評估指標(biāo)中()不適用。
A)AUC-R0C
B)準(zhǔn)確度
C)Logloss
D)均方誤差
229.[單選題]如右圖所示無向圖,節(jié)點G的馬爾可夫毯為()
A){D,E)
B){I,J}
0{D.E.I.J)
D){D,E,F,H,I,J}
230.[單選題]以下對智慧描述不正確的是(—)。
A)智慧是人類超出知識的那一部分能力
B)智慧是人類的創(chuàng)造性設(shè)計、批判性思考和好奇性提問的結(jié)果
C)智慧是從信息中發(fā)現(xiàn)的共性規(guī)律、模型、模式、理論、方法等
D)智慧運用知識并結(jié)合經(jīng)驗創(chuàng)造性的預(yù)測、解釋和發(fā)現(xiàn)
231.[單選題]下列是機器學(xué)習(xí)中降維任務(wù)的準(zhǔn)確描述的為
A)依據(jù)某個準(zhǔn)則對項目進行排序
B)將其映射到低維空間來簡化輸入
C)預(yù)測每個項目的實際值
D)對數(shù)據(jù)對象進行分組
232.[單選題]下面關(guān)于深度學(xué)習(xí)相關(guān)描述不正確的有(_)。
A)深度學(xué)習(xí)是一種特征學(xué)習(xí)方法
B)深度學(xué)習(xí)通過足夠多的簡單轉(zhuǎn)換函數(shù)及其組合方式來學(xué)習(xí)一個復(fù)雜的目標(biāo)函數(shù)
C)深度學(xué)習(xí)的關(guān)鍵在于計算觀測書記的分層特征及其表示
D)ANN不是深度學(xué)習(xí)
233.[單選題]當(dāng)訓(xùn)練樣本近似線性可分時,通過(),學(xué)習(xí)一個()。
A)硬間隔,最大化非線性支持向量機
B)軟間隔,最大化線性支持向量機
C)硬間隔,最大化線性支持向量機
D)軟間隔,最大化非線性支持向量機
234.[單選題]以下哪個模型不是分類模型()
A)最近鄰
B)K均值
C)樸素貝葉斯
D)邏輯回歸
235.[單選題]若設(shè)1.啟動,2.診斷,3.建立,4.行動,5.學(xué)習(xí),則DMM模型中的順序為(_
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年版供水用不銹鋼水箱購銷合同2篇
- 機械課程設(shè)計干啥的啊
- 智能核儀器基礎(chǔ)課程設(shè)計
- 稅收法制教育課程設(shè)計
- 編曲音樂創(chuàng)作課程設(shè)計
- 羽毛球上課課程設(shè)計
- 機械設(shè)計課程設(shè)計記錄
- 聯(lián)接軸課程設(shè)計
- 網(wǎng)站前段課課程設(shè)計
- 自動掃地機課程設(shè)計
- 二線干部工作總結(jié)
- 土石方挖運工程承包合同范本
- 山東省濟南市七年級上學(xué)期期末英語試卷(附答案)
- 心身疾病的心理與康復(fù)治療
- 2024年02月四川省省直機關(guān)2024年度公開遴選和公開選調(diào)公務(wù)員筆試參考題庫附帶答案詳解
- 2024安吉桃花源萌寵露營節(jié)活動方案
- 壯醫(yī)藥水蛭療法
- 2024年高考語文備考之語用新題“語境+語義”專練
- 生產(chǎn)計劃實施考核管理辦法
- 200句搞定中考英語詞匯
- 2024年型材切割機市場需求分析報告
評論
0/150
提交評論