版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
試卷科目:人工智能機器學習技術(shù)練習人工智能機器學習技術(shù)練習(習題卷29)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學習技術(shù)練習第1部分:單項選擇題,共58題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.以下哪項是解決NLP用例(如語義相似性、閱讀理解和常識推理)的更好選擇?A)ELMoB)OpenAI?sGPTC)ULMFit答案:B解析:[單選題]2.如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?A)增大懲罰參數(shù)C的值B)減小懲罰參數(shù)C的值C)減小核系數(shù)(gamma參數(shù))答案:A解析:[單選題]3.使用小括號定義的數(shù)據(jù)類型是(A)列表B)集合C)字典D)元組答案:D解析:[單選題]4.主成分分析是一種常用的(__)方法。A)降維B)分類C)回歸D)聚類答案:A解析:[單選題]5.()是以樣本統(tǒng)計量作為未知總體參數(shù)的估計量,并通過對樣本單位的實際觀察取得樣本數(shù)據(jù),計算樣本統(tǒng)計量的取值作為被估計參數(shù)的估計值。A)參數(shù)估計B)邏輯分析C)方差分析D)回歸分析答案:A解析:參數(shù)估計是統(tǒng)計推斷的一種。根據(jù)從總體中抽取的隨機樣本來估計總體分布中未知參數(shù)的過程。[單選題]6.緩解過擬合的一個辦法是允許支持向量機在一些樣本上出錯,()形式適合這種方法。A)硬間隔支持向量機B)軟間隔支持向量機C)線性核函數(shù)支持向量機D)多項式核函數(shù)支持向量機答案:B解析:軟間隔允許某些樣本不滿足約束,可緩解過擬合。[單選題]7.有關(guān)數(shù)據(jù)倉庫的開發(fā)特點,不正確的描述是A)數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā)B)數(shù)據(jù)倉庫使用的需求在開發(fā)出去就要明確C)數(shù)據(jù)倉庫的開發(fā)是一個不斷循環(huán)的過程,是啟發(fā)式的開發(fā)D)在數(shù)據(jù)倉庫環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉庫中數(shù)據(jù)分析和處理更靈活,且沒有固定的模式答案:A解析:[單選題]8.bootstrap數(shù)據(jù)是什么意思?(提示:考?bootstrap?和?boosting?區(qū)別)A)有放回地從總共M個特征中抽樣m個特征B)無放回地從總共M個特征中抽樣m個特征C)有放回地從總共N個樣本中抽樣n個樣本D)無放回地從總共N個樣本中抽樣n個樣本答案:C解析:[單選題]9.在給定文件中查找與設(shè)定條件相符字符串的命令A(yù))gzipB)grepC)lsD)find答案:B解析:[單選題]10.在同一個問題中,錯誤率和精度的關(guān)系是(__)。A)錯誤率等于精度值加1B)錯誤率加精度等于1C)精度減錯誤率等于1D)兩者之間沒有關(guān)系答案:B解析:[單選題]11.核矩陣是()的。A)沒有規(guī)律B)半正定C)正定D)樣本矩陣答案:B解析:只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,它就能作為核函數(shù)使用。[單選題]12.下圖中主成分的最佳數(shù)量是多少?alt="">A)7B)30C)40D)不知道答案:B解析:可以在上圖中看到,主成分的數(shù)量為30時以最小的數(shù)量得到最大的方差。[單選題]13.普通反向傳播算法和隨時間的反向傳播算法(BPTT)有什么技術(shù)上的不同()A)與普通反向傳播不同的是,BPTT會在每個時間步長內(nèi)減去所有對應(yīng)權(quán)重的梯度B)與普通反向傳播不同的是,BPTT會在每個時間步長內(nèi)疊加所有對應(yīng)權(quán)重的梯度C)BPTT使用的是二階梯度D)沒有差別答案:B解析:[單選題]14.()算法是通過智能體不斷與環(huán)境進行交互,通過試錯的方式來獲得最佳策略A)有監(jiān)督學習B)半監(jiān)督學習C)無監(jiān)督學習D)強化學習答案:D解析:[單選題]15.有如下數(shù)據(jù)集,分別使用1-最近鄰,3-最近鄰,對數(shù)據(jù)點x=5.0分類,則:class="fr-ficfr-dibcursor-hover"A)最近鄰:+;3-最近鄰:-B)最近鄰:+;3-最近鄰:+C)最近鄰:-;3-最近鄰:-D)最近鄰:-;3-最近鄰:+答案:A解析:[單選題]16.邏輯回歸的以下模型:P(y=1|x,w)=g(w0+w1x)其中g(shù)(z)是邏輯函數(shù)。在上述等式中,通過改變參數(shù)w可以得到的P(y=1|x;w)被視為x的函數(shù)。在上面的問題中,你認為哪個函數(shù)會產(chǎn)生(0,1)之間的p?A)邏輯函數(shù)B)對數(shù)似然函數(shù)C)兩者的復(fù)合函數(shù)D)都不會答案:A解析:對于從-∞到+∞的實數(shù)范圍內(nèi)的x的值。邏輯函數(shù)將給出(0,1)的輸出。[單選題]17.自然語言處理包括語言識別、語音合成和()A)語言翻譯B)語言理解C)語言交流D)語言訓練答案:B解析:[單選題]18.tf.nn.rnn_cell.MultiRNNCell()函數(shù)的作用是()。A)生成卷積神經(jīng)網(wǎng)絡(luò)B)生成LSTMC)生成池化層D)生成多層RNN網(wǎng)絡(luò)答案:D解析:[單選題]19.下列誤差和錯誤中,哪一項是由于訓練樣本的錯誤而導(dǎo)致?A)泛化誤差B)偏差C)方差D)噪聲答案:D解析:[單選題]20.數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是A)數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內(nèi)容;B)捕捉到的新數(shù)據(jù)會覆蓋原來的快照;C)數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;D)數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進行重新綜合.答案:C解析:[單選題]21.有關(guān)TensorFlowAPI,以下說法中正確的是:()A)tf.Variable和一般編程語言中?變量(Variable)?的含義完全相同。B)tf.placeholder定義的對象,對應(yīng)于深度神經(jīng)網(wǎng)絡(luò)中的?超參數(shù)(Hyperparameter)?。C)通過tf.constant定義的對象,因為是常量,所以,在session.run()運行前就可以用eval()方法獲得對象的值。D)session.run()運行一個訓練過程時,TensorFlow會使用符號執(zhí)行(SymbolicExecution)對計算圖進行優(yōu)化。答案:D解析:[單選題]22.CART決策樹通常采用()剪枝方法。A)REP(錯誤率降低)B)CCP(代價復(fù)雜度)C)PEP(悲觀剪枝)D)預(yù)剪枝答案:B解析:[單選題]23.兩個種子點A(-1,1),B(2,1),其余點為(0,0),(0,2),(1,1),(3,2),(6,0),(6,2),利用Kmeans算法,點群中心按坐標平均計算。最終種子點A需要移動的次數(shù),種子點B需要移動的次數(shù),屬于種子點A的點數(shù)(不包含A),屬于種子點B的點數(shù)(不包含B)分別為()A)2,2,3,3B)1,1,3,3C)1,1,2,4D)2,2,2,4答案:A解析:[單選題]24.(__)是指對已有數(shù)據(jù)在盡量少的先驗假設(shè)條件下進行探索,并通過作圖,制表等手段探索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。A)統(tǒng)計分析B)驗證性分析C)數(shù)據(jù)洞見D)探索性數(shù)據(jù)分析答案:D解析:[單選題]25.(__)不屬于機器學習理論基礎(chǔ)。A)數(shù)據(jù)科學B)哲學C)心理學D)人工智能答案:A解析:[單選題]26.對應(yīng)GradientBoostingtree算法,以下說法正確的是:A)2和4B)2和3C)1和3D)1和4答案:C解析:最小樣本分裂個數(shù)是用來控制?過擬合?參數(shù)。太高的值會導(dǎo)致?欠擬合?,這個參數(shù)應(yīng)該用交叉驗證來調(diào)節(jié)。第二點是靠bias和variance概念的。[單選題]27.()算法的訓練數(shù)據(jù)集部分有特征有標簽,部分有特征無標簽A)有監(jiān)督學習B)半監(jiān)督學習C)無監(jiān)督學習D)強化學習答案:B解析:[單選題]28.有關(guān)決策樹的說法哪個是錯誤的()A)可以轉(zhuǎn)化為決策規(guī)則B)對新樣本起到分類預(yù)測的作用C)決策樹的深度越大越好D)決策樹的算法和神經(jīng)網(wǎng)絡(luò)的原理不一樣答案:C解析:[單選題]29.喚醒功能作為麥克風陣列技術(shù)中重要的一環(huán),誤喚醒率指標是低于()次/天?[]*A)1B)2C)3D)0.5答案:A解析:[單選題]30.7.以下哪個不是原型聚類算法()A)K均值算法B)學習向量量化LVQC)高斯混合聚類D)PCA算法答案:D解析:[單選題]31.(__)是一系列為達到某既定目標所需完成的實踐,包括對應(yīng)的工具、方法、資源和人。A)關(guān)鍵過程B)平臺與架構(gòu)C)數(shù)據(jù)治理D)數(shù)據(jù)管理策略答案:A解析:[單選題]32.隨機森林相比Bagging,進一步在決策樹的訓練過程中引入了()選擇A)隨機屬性B)重點屬性C)最優(yōu)屬性D)集成屬性答案:A解析:[單選題]33.下面不屬于數(shù)據(jù)科學平臺的有(__)。A)dataikuB)endorC)knimeD)alpine答案:B解析:[單選題]34.從1,2,...,15中小明和小紅兩人各任取一個數(shù)字,現(xiàn)已知小明取到的數(shù)字是5的倍數(shù),請問小明取到的數(shù)大于小紅取到的數(shù)的概率是多少A)7/14B)8/14C)9/14D)10/14答案:C解析:[單選題]35.下列不屬于無監(jiān)督學習方法的是()A)K-meansB)線性降維C)DBSCAND)支持向量機答案:D解析:[單選題]36.當決策樹很小時,訓練和檢驗誤差都很大,這種情況稱作(___)。A)模型擬合不足B)模型過擬合C)泛化能力好D)模型擬合適當答案:A解析:[單選題]37.(__)試圖學得一個線性模型以盡可能準確地預(yù)測實值輸出標記。A)決策樹B)線性回歸C)貝葉斯分類器D)神經(jīng)網(wǎng)絡(luò)答案:B解析:[單選題]38.OpenCV提供圖像文件讀寫的模塊是()。A)coreB)imgcodecsC)imgprocD)highgui答案:B解析:[單選題]39.處理文本數(shù)據(jù),循環(huán)神經(jīng)網(wǎng)絡(luò)與前饋神經(jīng)網(wǎng)絡(luò)相比有()的優(yōu)點。A)不會梯度消失B)訓練結(jié)果不會發(fā)散C)不需要激活函數(shù)D)可以接受有序的輸入序列答案:D解析:[單選題]40.關(guān)于K-Means和DBSCAN的比較,以下說法不正確的是()。A)K-Means丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象B)K-Means使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C)K-Means很難處理非球形的簇和不同大小的簇,而DBSCAN可以處理不同形狀和不同大小的簇D)K-Means可以發(fā)現(xiàn)不是明顯分離的簇,即使簇有重疊它也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇答案:A解析:[單選題]41.(__)是將數(shù)據(jù)轉(zhuǎn)換為產(chǎn)品的藝術(shù)。A)數(shù)據(jù)柔術(shù)B)數(shù)據(jù)處理C)數(shù)據(jù)加工D)數(shù)據(jù)設(shè)計答案:A解析:[單選題]42.關(guān)于貝葉斯網(wǎng)的學習描述錯誤的為A)貝葉斯的學習過程為對訓練樣本計數(shù);B)估計出每個結(jié)點的條件概率;C)網(wǎng)絡(luò)結(jié)構(gòu)為已知;D)評分搜索為求解的常用辦法;答案:C解析:[單選題]43.為了允許支持向量機在一些樣本上出錯,引入()的概念。A)軟間隔B)硬間隔C)間隔D)誤差答案:A解析:[單選題]44.人工神經(jīng)網(wǎng)絡(luò)的特點和優(yōu)越性不包括______。A)自學習功能B)自動識別功能C)高速尋找優(yōu)化解的能力D)聯(lián)想存儲功能答案:B解析:[單選題]45.編譯程序是一種A)翻譯程序B)目標程序C)匯編程序D)解釋程序答案:A解析:[單選題]46.K-Means算法中的初始中心點()A)可隨意設(shè)置B)必須在每個簇的真實中心點的附近C)必須足夠分散D)直接影響算法的收斂結(jié)果答案:D解析:[單選題]47.Spark的四大組件下面哪個不是A)SparkStreamingB)MlibC)GraphxD)SparkR答案:D解析:[單選題]48.圖像識別常用softmax函數(shù)接在模型的輸出上,其作用為:()。A)增加不同類別之間的區(qū)分度B)突出輸出向量中類標的對應(yīng)的維度C)對輸出歸一化,同時以概率的更好解釋輸出向量D)過濾無用的環(huán)境信息答案:C解析:[單選題]49.以下集合是凸集的是A){(x,y)|y=x+1}B){(x,y)|x的平方+y的平方=1}C){(x,y)|x的平方+y的平方>1}D){(x,y)|x=1|y=1}答案:A解析:凸集,實數(shù)R上(或復(fù)數(shù)C上)的向量空間中,如果集合S中任兩點的連線上的點都在S內(nèi),則稱集合S為凸集。所以直線是凸集,A正確。{(x,y)|x^2+y^2<=1}是凸集。C選項恰好是圓形外面的區(qū)域,而任意兩點連線上的點在圓形。D選項是兩條直線。[單選題]50.下列的哪種方法可以用來降低深度學習模型的過擬合問題?1增加更多的數(shù)據(jù);2使用數(shù)據(jù)擴增技術(shù)(dataaugmentation);3使用歸納性更好的架構(gòu);4正規(guī)化數(shù)據(jù);5降低架構(gòu)的復(fù)雜度.A)145B)123C)1345D)所有項目都有用答案:D解析:[單選題]51.20世紀70年代開始,人工智能進入首次低谷期的原因不包括A計算機內(nèi)存有限A)計算機內(nèi)存有限B)攝像設(shè)備沒有出現(xiàn)C)計算機處理速度不夠快D)理論基礎(chǔ)薄弱答案:B解析:[單選題]52.一般,KNN最近鄰方法在()的情況下效果較好?A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團狀分布D)樣本呈鏈狀分布答案:B解析:[單選題]53.下面對屬性進行離散化的方法為()A)preprocessing.scale()B)pd.qcut()C)pd.shapeD)pgroupby()答案:B解析:[單選題]54.以下關(guān)于數(shù)據(jù)科學描述錯誤的是A)數(shù)據(jù)科學研究數(shù)據(jù)的共性B)降低計算量不是數(shù)據(jù)科學關(guān)心的問題C)數(shù)據(jù)科學可以研究非結(jié)構(gòu)化數(shù)據(jù)D)數(shù)據(jù)科學需要與其他學科結(jié)合在一起答案:B解析:[單選題]55.下面關(guān)于Adaboost算法的描述中,錯誤的是()A)是弱分類器的線性組合B)提升樹是以分類樹或者回歸樹為基本分類器的提升辦法C)該算法實際上是前向分步算法的一個實現(xiàn),在這個方法里,模型是加法模型,損失函數(shù)是指數(shù)損失,算法是前向分步算法。D)同時獨立地學習多個弱分類器答案:D解析:[單選題]56.在線性模型y=w1x1+w2x2+…+wnxn中,y值代表()A)預(yù)測值B)特征值C)權(quán)重值D)模型參數(shù)答案:A解析:[單選題]57.在下圖中,數(shù)據(jù)集被聚類算法聚集成了()個類別A)1B)2C)3D)4答案:C解析:[單選題]58.以下哪個模型不是分類模型()A)最近鄰B)K均值C)樸素貝葉斯D)邏輯回歸答案:B解析:第2部分:多項選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.預(yù)剪枝使得決策樹的很多分子都沒有展開,會導(dǎo)致()。A)顯著減少訓練時間開銷B)顯著減少測試時間開銷C)降低過擬合風險D)提高欠擬合風險答案:ABCD解析:預(yù)剪枝使得決策樹的很多分支都沒有展開,這不僅降低了過擬合的風險,還顯著減少了決策樹的訓練時間開銷和測試時間開銷。但另一方面,有些分支的當前劃分雖不能提升泛化性能,其至可能導(dǎo)致泛化性能暫時下降,但在其基礎(chǔ)上進行的后續(xù)劃分卻有可能導(dǎo)致性能顯著提高;預(yù)剪枝基于貪心原則,禁止這些分支展開,提高了欠擬合的風險。[多選題]60.我們想要減少數(shù)據(jù)集中的特征數(shù)即降維,以下方案合適的是()。A)使用前向特征選擇方法B)使用后向特征排除方法C)我們先,把所有特征都使用,去訓練一個模型,得到測試集上的表現(xiàn)。然后我們?nèi)サ粢粋€特征,再去訓練,用交叉驗證看看測試集上的表現(xiàn)。如果表現(xiàn)比原來還要好,我們可以去除這個特征D)查看相關(guān)性表,去除相關(guān)性最高的一些特征答案:ABCD解析:前向特征選擇方法和后向特征排除方法是特征選擇的常用方法。如果前向特征選擇方法和后向特征排除方法在大數(shù)據(jù)上不活用,可以用這里C中方法。用相關(guān)性的度量去刪除多余特征也是一個可行的方法。[多選題]61.缺失數(shù)據(jù)的處理主要涉及的關(guān)鍵活動包括().A)缺失數(shù)據(jù)的識別B)缺失數(shù)據(jù)的分析C)刪除或插補缺失數(shù)據(jù)D)缺失數(shù)據(jù)的溯源答案:ABC解析:[多選題]62.支持向量機可能解決的問題()A)線性分類B)非線性分類C)回歸分析D)BP算法答案:ABC解析:[多選題]63.下面關(guān)于數(shù)據(jù)產(chǎn)品開發(fā)相關(guān)描述正確的有(__)。A)?數(shù)據(jù)產(chǎn)品?在數(shù)據(jù)科學中是統(tǒng)稱B)數(shù)據(jù)產(chǎn)品開發(fā)是數(shù)據(jù)科學的重要研究任務(wù)之一C)數(shù)據(jù)產(chǎn)品開發(fā)是數(shù)據(jù)科學區(qū)別于其他學科的重要研究任務(wù)D)數(shù)據(jù)科學的學習目的之一是提升自己的數(shù)據(jù)產(chǎn)品開發(fā)能力答案:ABCD解析:[多選題]64.從不同的學習場景看,半監(jiān)督學習可大致分為四大類A)半監(jiān)督分類B)半監(jiān)督回歸C)半監(jiān)督聚類D)半監(jiān)督降維答案:ABCD解析:[多選題]65.深度學習的主要過程包括()A)選擇適合問題的網(wǎng)絡(luò)結(jié)構(gòu)B)選擇適合網(wǎng)絡(luò)結(jié)構(gòu)的問題C)用大量數(shù)據(jù)訓練網(wǎng)絡(luò)對權(quán)重初始化D)優(yōu)化網(wǎng)絡(luò)答案:ABCD解析:[多選題]66.數(shù)據(jù)戰(zhàn)略的基本問題有(__)。A)數(shù)據(jù)戰(zhàn)略的定位B)數(shù)據(jù)戰(zhàn)略的目標C)數(shù)據(jù)戰(zhàn)略的側(cè)重點D)數(shù)據(jù)戰(zhàn)略的范疇答案:ABCD解析:[多選題]67.(__)可以幫助解決訓練集在特征空間中線性不可分的問題。A)硬間隔B)軟間隔C)核函數(shù)D)拉格朗日乘子法答案:BC解析:[多選題]68.SVM常用的核函數(shù)有()A)h次多項式核函數(shù)B)高斯徑向基函數(shù)核函數(shù)C)Sigmoid型核函數(shù)D)拉普拉斯核函數(shù)答案:ABCD解析:[多選題]69.數(shù)據(jù)加工是一種數(shù)據(jù)轉(zhuǎn)換的過程,可分為(__)。A)單維度轉(zhuǎn)換B)高維度轉(zhuǎn)換C)低維度轉(zhuǎn)換D)多維度轉(zhuǎn)換答案:AD解析:[多選題]70.下列關(guān)于包裹式選擇的描述正確的是(__)。A)包裹式特征選擇方法直接針對給定學習器進行優(yōu)化B)從最終學習器性能來看,包裹式特征選擇比過濾式特征選擇更好C)包裹式特征選擇的計算開銷通常比過濾式特征選擇大得多D)包裹式特征選擇的典型算法:LVW算法,其特征子集搜索采用了隨機策略答案:ABCD解析:[多選題]71.ID3算法從功能上看有哪兩點明顯不足?A)預(yù)測目標值只能為連續(xù)實數(shù)值,不能是離散值,因此只能處理回歸問題,不能處理分類問題B)預(yù)測目標值只能為離散值,不能是連續(xù)實數(shù)值,因此只能處理分類問題,不能處理回歸問題C)實例各特征的取值必須是離散值,而不能是連續(xù)實數(shù)值D)實例各特征的取值必須是連續(xù)實數(shù)值,而不能是離散值答案:BC解析:[多選題]72.Zookeeper運行的模式可以為()A)StandAloneB)StooolC)StandUpD)集群模式答案:AD解析:[多選題]73.(__)主要關(guān)注的是過去。A)描述性分析B)診斷性分析C)預(yù)測性分析D)規(guī)范性分析答案:AB解析:[多選題]74.()是關(guān)鍵詞提取的算法。A)TF-IDFB)TextRankC)LDAD)PCA答案:ABC解析:[多選題]75.分析工具包括(__)和商務(wù)智能可視化、垂直分析、統(tǒng)計計算、數(shù)據(jù)服務(wù)、語音與自然語言理解、搜索等。A)數(shù)據(jù)分析平臺B)數(shù)據(jù)科學平臺C)機器學習D)人工智能答案:ABCD解析:第3部分:判斷題,共16題,請判斷題目是否正確。[判斷題]76.傳統(tǒng)的機器學習方法的表現(xiàn)主要算法,目前的機器學習主要是強化學習,具有自學習能力A)正確B)錯誤答案:對解析:[判斷題]77.邏輯回歸算法又叫做對數(shù)幾率回歸,作為一種分類算法,在統(tǒng)計學中屬于廣義的線性模型A)正確B)錯誤答案:對解析:[判斷題]78.分類學習的目的是從給定的人工標注的分類訓練樣本數(shù)據(jù)集中學習出一個分類函數(shù)或者分類模型,也常常稱作分類器A)正確B)錯誤答案:對解析:[判斷題]79.貝葉斯網(wǎng)學習而言,模型就是一個貝葉斯網(wǎng),每個貝葉斯網(wǎng)描述了一個在訓練數(shù)據(jù)上的概率分布A)正確;B)錯誤;答案:對解析:[判斷題]80.信息熵是度量樣本集合純度最常用的一種指標。信息熵的值越大,說明樣本集合的純度越高。A)正確B)錯誤答案:錯解析:[判斷題]81.在機器學習算法中,沒有最好的算法,只有?更適合?解決當前任務(wù)的算法A)正確B)錯誤答案:對解析:[判斷題]82.分類是預(yù)測數(shù)據(jù)對象的離散類別,預(yù)測是用于數(shù)據(jù)對象的連續(xù)取值A(chǔ))正確B)錯誤答案:對解析:[判斷題]83.Softmax回歸可以處理多元分類問題,Logistic回歸只能處理二元分類問題A)正確B)錯誤答案:對解析:[判斷題]84.使用已訓練好的模型對測試集中的實例進行分類預(yù)測。如果要調(diào)用sklearn中的某個函數(shù)來評價預(yù)測的準確率,應(yīng)該選擇accuracy_score,而不應(yīng)該選擇mean_squared_errorA)正確B)錯誤答案:對解析:[判斷題]85.精確率越高,意味著誤報率越低,因此,當誤報的成本較高時,精確率指標有助于判斷模型的好壞。A)正確B)錯誤答案:對解析:[判斷題]86.基于VC維的泛化誤差界是是分布無關(guān)、數(shù)據(jù)獨立的A)正確B)錯誤答案:對解析:
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 水閘門操作知識培訓課件
- 肥料元素知識培訓課件
- 二零二五年度增資擴股合同模板:資本實力增強協(xié)議3篇
- 二零二五年度房屋質(zhì)量保修檢測合同范本3篇
- 祖沖之的平生與貢獻
- 走向有管理的市場化:中國醫(yī)療體制改革的戰(zhàn)略性選擇
- 二零二五年度房產(chǎn)交易貸款合同模板6篇
- 《撒哈拉的故事》讀書分享
- “雙減”政策背景下如何安放家長的教育焦慮-基于幼小銜接的分析
- 2024文旅景區(qū)暖冬圍爐煮茶(圍爐話茶事主題)活動策劃方案-39正式版
- 國民經(jīng)濟行業(yè)分類和代碼表(電子版)
- 安全員年終總結(jié)報告
- 《客房服務(wù)與管理》課程標準課程內(nèi)容與要求
- 營銷中心建設(shè)實施方案
- 工程竣工驗收(消防查驗)報告
- 能源中國學習通超星期末考試答案章節(jié)答案2024年
- 中學美育(藝術(shù)教育)工作發(fā)展年度報告
- 農(nóng)業(yè)經(jīng)理人職業(yè)技能大賽考試題及答案
- GB/T 44679-2024叉車禁用與報廢技術(shù)規(guī)范
- 疼痛患者評估及護理
- 2024年精神文明建設(shè)實施方案
評論
0/150
提交評論