人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷8)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共62題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.聚類算法屬于()的一種A)無監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)監(jiān)督學(xué)習(xí)答案:A解析:[單選題]2.下面哪些對(duì)「類型1(Type-1)」和「類型2(Type-2)」錯(cuò)誤的描述是錯(cuò)誤的?A)類型1通常稱之為假正類,類型2通常稱之為假負(fù)類B)類型2通常稱之為假正類,類型1通常稱之為假負(fù)類C)類型1錯(cuò)誤通常在其是正確的情況下拒絕假設(shè)而出現(xiàn)答案:B解析:在統(tǒng)計(jì)學(xué)假設(shè)測(cè)試中,I類錯(cuò)誤即錯(cuò)誤地拒絕了正確的假設(shè)即假正類錯(cuò)誤,II類錯(cuò)誤通常指錯(cuò)誤地接受了錯(cuò)誤的假設(shè)即假負(fù)類錯(cuò)誤。[單選題]3.給定測(cè)試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個(gè)訓(xùn)練樣本,然后基于這k個(gè)樣本的信息來進(jìn)行預(yù)測(cè)。這種學(xué)習(xí)算法稱為(__)。A)k-meansB)k近鄰學(xué)習(xí)C)隨機(jī)森林D)決策樹答案:B解析:[單選題]4.以下說法正確的是:A)一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的B)如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低C)如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低D)我們不可以使用聚類?類別id?作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)答案:C解析:考的是過擬合和欠擬合的問題。[單選題]5.請(qǐng)閱讀下列一段程序:Arr=np.arange(12).reshape(3,4)Arr.shape運(yùn)行上述程序,它最終執(zhí)行的結(jié)果為()。A)3B)4C)(3,4)D)(1,2)答案:C解析:[單選題]6.關(guān)于梯度下降,以下說法中不合適的是:A)應(yīng)該沿著梯度反方向調(diào)整參數(shù)B)應(yīng)該沿著梯度同方向調(diào)整參數(shù)C)調(diào)整的步長(zhǎng)由學(xué)習(xí)率控制D)對(duì)損失函數(shù)而言,梯度向量的反方向是其函數(shù)值下降最快的方向答案:B解析:[單選題]7.在支持向量機(jī)中,()允許支持向量機(jī)在一些樣本上出錯(cuò)。A)硬間隔B)軟間隔C)核函數(shù)D)拉格朗日乘子法答案:B解析:在支持向量機(jī)中,軟間隔允許支持向量機(jī)在一些樣本上出錯(cuò)。[單選題]8.下面關(guān)于參數(shù)估計(jì)相關(guān)描述不正確的有(__)。A)參數(shù)估計(jì)是根據(jù)樣本的統(tǒng)計(jì)量來估計(jì)總體的參數(shù)B)相關(guān)分析是參數(shù)估計(jì)C)點(diǎn)估計(jì)是參數(shù)估計(jì)D)利用樣本均值估計(jì)總體均值是參數(shù)估計(jì)答案:B解析:[單選題]9.嵌入式選擇是一種(__)算法。A)聚類B)特征選擇C)分類D)回歸答案:B解析:[單選題]10.從給定的句子、段落中識(shí)別人名、組織名的過程稱為?A)詞干提取(Stemming)B)詞形還原(Lemmatization)C)停用詞消除(StopWordRemoval)D)命名實(shí)體識(shí)別(NamedEntityRecognition)答案:D解析:[單選題]11.(__)是決策樹學(xué)習(xí)算法對(duì)付過擬合的主要手段。A)剪枝B)連續(xù)值處理C)信息增益D)數(shù)據(jù)預(yù)處理答案:A解析:[單選題]12.下列選項(xiàng)中,關(guān)于fillna()方法描述正確的是()。A)fillna()方法只能填充替換值為NaN的數(shù)據(jù)B)只支持前向填充方式C)默認(rèn)可支持填充的最大數(shù)量為1D)fillna()方法可以填充替換值為NaN和None的數(shù)據(jù)答案:D解析:[單選題]13.()分類方法可以較好地避免樣本的不平衡問題。A)KNNB)SVMC)BayesD)神經(jīng)網(wǎng)絡(luò)答案:A解析:KNN只是取了最近的幾個(gè)樣本點(diǎn)做平均,離預(yù)測(cè)數(shù)據(jù)較遠(yuǎn)的訓(xùn)練數(shù)據(jù)對(duì)預(yù)測(cè)結(jié)果不會(huì)造成影響,但是SVM、Baves和KNN的每一個(gè)訓(xùn)練樣本結(jié)果都會(huì)對(duì)預(yù)測(cè)結(jié)果產(chǎn)生影響。[單選題]14.在k近鄰學(xué)習(xí)算法中,隨著k的增加,上界將逐漸降低,當(dāng)k區(qū)域無窮大時(shí),上界和下界碰到一起,k近鄰法就達(dá)到了()。A)貝葉斯錯(cuò)誤率B)漸進(jìn)錯(cuò)誤率C)最優(yōu)值D)上界答案:A解析:[單選題]15.()是基于規(guī)則的分類器。A)C4.5B)KNNC)NaiveBayesD)ANN答案:A解析:基于規(guī)則的分類器有決策樹、隨機(jī)森林、Aprior,C4.5屬于決策樹算法。[單選題]16.你在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-termmatrix)。以下哪項(xiàng)可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNormalization);(2)潛在語義索引(LatentSemanticIndexing);(3)隱狄利克雷分布(LatentDirichletAllocation).A)只有(1)B)(2)(3)C)(1)(3)D)(1)(2)(3)答案:D解析:[單選題]17.下面關(guān)于基礎(chǔ)理論相關(guān)描述正確的有(__)。A)基礎(chǔ)理論等于理論基礎(chǔ)B)基礎(chǔ)理論在數(shù)據(jù)科學(xué)研究邊界之外C)理論基礎(chǔ)在數(shù)據(jù)科學(xué)研究邊界之內(nèi)D)基礎(chǔ)理論包含理念、理論、方法、技術(shù)等答案:D解析:[單選題]18.在一個(gè)n維的空間中,最好的檢測(cè)outlier(離群點(diǎn))的方法是:A)作正態(tài)分布概率圖B)作盒形圖C)馬氏距離D)作散點(diǎn)圖答案:C解析:馬氏距離是基于卡方分布的,度量多元outlier離群點(diǎn)的統(tǒng)計(jì)方法。[單選題]19.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A)探索性數(shù)據(jù)分析B)建模描述C)預(yù)測(cè)建模D)尋找模式和規(guī)則答案:B解析:[單選題]20.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來保證得到的模型是線性可分離的?A)C=0B)C=1C)C正無窮大D)C負(fù)無窮大答案:C解析:[單選題]21.當(dāng)分析顧客消費(fèi)行業(yè),以便有針對(duì)性的向其推薦感興趣的服務(wù),屬于什么問題?()A)分類B)聚類C)關(guān)聯(lián)規(guī)則D)主成分分析答案:C解析:[單選題]22.下列機(jī)器學(xué)習(xí)算法中,不需要?dú)w一化處理的是()。A)DecisionTreeB)SVMC)K-meansD)LogisticRegression答案:A解析:DecisionTree屬于概率模型,不需要?dú)w一化處理;SVM、K-means和LogisticRegression之類的最優(yōu)化問題需要?dú)w一化處理。[單選題]23.當(dāng)(__)過高,會(huì)出現(xiàn)過擬合現(xiàn)象A)偏差B)方差C)噪聲D)泛化誤差答案:B解析:[單選題]24.下面說法錯(cuò)誤的是()A)遺傳算法直接以適應(yīng)度作為搜索信息,無需導(dǎo)數(shù)等其他輔助信息B)決策樹算法對(duì)離散屬性和連續(xù)屬性進(jìn)行建模C)Hapfield網(wǎng)絡(luò)不僅有不動(dòng)點(diǎn)吸引子,也有其它類型的吸引子D)決策樹是一種混合算法,它綜合了多種不同的創(chuàng)建樹的方法答案:B解析:[單選題]25.下列哪種去噪方法能較好的保持圖像邊緣。()A)中值濾波B)雙邊濾波C)均值濾波D)高斯濾波答案:A解析:[單選題]26.下面哪個(gè)操作是窄依賴()。A)joinB)filterC)groupD)Sort答案:B解析:[單選題]27.下面不屬于維歸約方法的是(__)。A)PCAB)SVDC)DWTD)KNN答案:D解析:[單選題]28.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?(C)A)把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層B)對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C)只對(duì)最后幾層進(jìn)行調(diào)參(finetune)D)對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用答案:C解析:如果有個(gè)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),就相當(dāng)于網(wǎng)絡(luò)各參數(shù)有個(gè)很靠譜的先驗(yàn)代替隨機(jī)初始化.若新的少量數(shù)據(jù)來自于先前訓(xùn)練數(shù)據(jù)(或者先前訓(xùn)練數(shù)據(jù)量很好地描述了數(shù)據(jù)分布,而新數(shù)據(jù)采樣自完全相同的分布),則凍結(jié)前面所有層而重新訓(xùn)練最后一層即可;但一般情況下,新數(shù)據(jù)分布跟先前訓(xùn)練集分布有所偏差,所以先驗(yàn)網(wǎng)絡(luò)不足以完全擬合新數(shù)據(jù)時(shí),可以凍結(jié)大部分前層網(wǎng)絡(luò),只對(duì)最后幾層進(jìn)行訓(xùn)練調(diào)參(這也稱之為finetune)。[單選題]29.ILP系統(tǒng)通常采用()的規(guī)則生成策略A)自底而上B)自頂而下C)自大而小D)自小而大答案:A解析:[單選題]30.決策樹中的葉結(jié)點(diǎn)對(duì)應(yīng)于()A)屬性B)樣本C)決策結(jié)果D)標(biāo)簽值答案:C解析:[單選題]31.池化層的作用是()。A)標(biāo)準(zhǔn)化處理輸入特征B)對(duì)特征圖進(jìn)行特征選擇和信息過濾C)對(duì)提取的特征進(jìn)行非線性組合以得到輸出D)直接輸出每個(gè)像素的分類結(jié)果答案:B解析:[單選題]32.在多元線性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。A)異方差B)序列相關(guān)C)多重共線性D)高擬合優(yōu)度答案:C解析:[單選題]33.請(qǐng)閱讀下面一段程序:ImportnumpyasnpNp.arange(1,10,3)運(yùn)行程序,最終執(zhí)行的結(jié)果是()。A)array([1,4,7,10])B)array([1,4,7])C)array([2,5,8])D)array([3,6,9])答案:B解析:[單選題]34.設(shè)q(n,m)是將正整數(shù)n劃分成最大加數(shù)不大于m的若干不同正整數(shù)之和的劃分?jǐn)?shù),則q(n,m)為()。class="fr-ficfr-dibcursor-hover"A)①B)②C)③D)④答案:B解析:[單選題]35.下面關(guān)于增強(qiáng)學(xué)習(xí)描述不正確的是(__)。A)增強(qiáng)學(xué)習(xí)主要研究如何協(xié)助自治Agent的學(xué)習(xí)活動(dòng)B)增強(qiáng)學(xué)習(xí)基本思路是當(dāng)Agent在環(huán)境中做出每個(gè)動(dòng)作時(shí),施教者會(huì)提供獎(jiǎng)賞或者懲罰信息,以表示結(jié)果狀態(tài)的正確與否C)增強(qiáng)學(xué)習(xí)中的Agent需要具備環(huán)境交互能力和自治能力D)基于馬爾可夫決策不屬于增強(qiáng)學(xué)習(xí)答案:D解析:[單選題]36.影響深度卷積神經(jīng)網(wǎng)絡(luò)算法的關(guān)鍵參數(shù)是()A)網(wǎng)站數(shù)量B)網(wǎng)絡(luò)深度C)網(wǎng)絡(luò)結(jié)構(gòu)D)網(wǎng)絡(luò)主體答案:B解析:[單選題]37.以下選項(xiàng)不包含在DIKW金字塔中的是()。A)信息B)數(shù)值C)知識(shí)D)智慧答案:B解析:[單選題]38.(__)采用圖表或數(shù)學(xué)方法描述數(shù)據(jù)的統(tǒng)計(jì)特征。A)描述統(tǒng)計(jì)B)洞見統(tǒng)計(jì)C)推斷統(tǒng)計(jì)D)歸納統(tǒng)計(jì)答案:A解析:[單選題]39.對(duì)于低通和高通巴特沃斯濾波器敘述不正確的是?A)均有相同的截止頻率;B)均能減弱振鈴效應(yīng);C)處理后的圖像均比用理想低通和高通處理的要過渡光滑一些;D)都可用于消除虛假輪廓;答案:A解析:[單選題]40.四個(gè)點(diǎn)坐標(biāo)為(1,1),(1,0),(-1,-1),(-1,0),用SVM分類的決策邊界是A)y=xB)x=0C)y=-xD)y=0答案:B解析:[單選題]41.(__)是分類正確的樣本數(shù)占樣本總數(shù)的比例。A)精度B)錯(cuò)誤率C)偏差D)誤差答案:A解析:[單選題]42.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?A)變量代換B)離散化C)聚集D)估計(jì)遺漏值答案:D解析:[單選題]43.對(duì)一幅100'100像元的圖象,若每像元用8bit表示其灰度值,經(jīng)霍夫曼編碼后壓縮圖象的數(shù)據(jù)量為40000bit,則圖象的壓縮比為?A)2:1B)3:1C)4:1D)1:2答案:A解析:[單選題]44.采用主成分分析法映射到低維空間,將最小的d-d′個(gè)特征向量舍棄,產(chǎn)生的影響是()。A)使樣本采樣密度增大B)丟失最優(yōu)解C)增大噪聲D)使樣本采樣密度減小答案:A解析:低維空間與原始高維空間必有不同,因?yàn)閷?duì)應(yīng)于最小的d-d'個(gè)特征值的特征向量被舍棄了,這是降維導(dǎo)致的結(jié)果。但舍棄這部分信息往往是必要的:一方面舍棄這部分信息之后能使樣本的采樣密度增大,這正是降維的重要?jiǎng)訖C(jī);另一方面,當(dāng)數(shù)據(jù)受到噪聲影響時(shí),最小的特征值所對(duì)應(yīng)的特征向量往往與噪聲有關(guān)。將它們舍棄能在一定程度上起到去噪的效果。[單選題]45.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A)隨機(jī)梯度下降B)修正線性單元(ReLU)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]46.下面關(guān)于數(shù)據(jù)科學(xué)與機(jī)器學(xué)習(xí)的關(guān)系描述不正確的有(__)。A)機(jī)器學(xué)習(xí)為數(shù)據(jù)科學(xué)中充分發(fā)揮計(jì)算機(jī)的自動(dòng)數(shù)據(jù)處理能力提供了重要的手段B)機(jī)器學(xué)習(xí)是數(shù)據(jù)科學(xué)的主要理論基礎(chǔ)之一C)機(jī)器學(xué)習(xí)為數(shù)據(jù)科學(xué)中擴(kuò)展人的數(shù)據(jù)處理能力提供了重要的手段D)機(jī)器學(xué)習(xí)的基礎(chǔ)理論包含數(shù)據(jù)科學(xué)答案:D解析:[單選題]47.互為對(duì)偶的兩個(gè)線性規(guī)劃問題的解存在關(guān)系()A)原問題無可行解,對(duì)偶問題也無可行解B)對(duì)偶問題有可行解,原問題可能無可行解C)若最優(yōu)解存在,則最優(yōu)解相同D)一個(gè)問題無可行解,則另一個(gè)問題具有無界解答案:B解析:[單選題]48.下面不屬于數(shù)據(jù)科學(xué)中特有的管理方法有(__)。A)關(guān)系數(shù)據(jù)庫B)NewSQLC)NoSQLD)關(guān)系云答案:A解析:[單選題]49.關(guān)于正態(tài)分布,下列說法錯(cuò)誤的是:A)正態(tài)分布具有集中性和對(duì)稱性B)正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C)正態(tài)分布的偏度為0,峰度為1D)標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1答案:C解析:[單選題]50.二項(xiàng)分布的數(shù)學(xué)期望為()。A)n(1-n)pB)np(1-p)C)npD)n(1-p)答案:C解析:二項(xiàng)分布即重復(fù)n次的伯努利試驗(yàn)。如果事件發(fā)生的概率是p,則不發(fā)生的概率q=1-p.則期望為np,方差為npq。[單選題]51.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎()A)可以B)不能C)不好說D)不一定答案:B解析:[單選題]52.由于不同類別的關(guān)鍵詞對(duì)排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,以下哪一類不屬于此關(guān)鍵詞類型的是()。A)引用詞B)普通關(guān)鍵詞C)高頻詞匯D)擴(kuò)展關(guān)鍵詞答案:C解析:[單選題]53.以下選項(xiàng)中zookeeper的功能正確的是()。A)實(shí)現(xiàn)元數(shù)據(jù)持久化B)存儲(chǔ)HA模式下狀態(tài)信息C)存儲(chǔ)namenode生成的editlogD)監(jiān)控namenode節(jié)點(diǎn)的主備狀態(tài)答案:B解析:[單選題]54.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m?n,n?p,p?q,且m<n<p<q,以下計(jì)算順序效率最高的是()A)(AB)CB)AC(B)C)A(BC)D)所以效率都相同答案:A解析:[單選題]55.以下關(guān)于數(shù)據(jù)科學(xué)描述正確的是()A)數(shù)據(jù)科學(xué)是統(tǒng)計(jì)學(xué)的一部分B)數(shù)據(jù)科學(xué)就是機(jī)器學(xué)習(xí)C)天文學(xué)與數(shù)據(jù)科學(xué)無關(guān)D)數(shù)據(jù)科學(xué)家傾向于用探索數(shù)據(jù)的方式來看待周圍的世界答案:D解析:[單選題]56.將數(shù)據(jù)集D進(jìn)行適當(dāng)處理,產(chǎn)生出訓(xùn)練集S和測(cè)試集T,有哪些常見的做法:A)留出法B)交叉驗(yàn)證法C)自助法D)以上都是答案:D解析:[單選題]57.(___)是對(duì)象的性質(zhì)或特性。A)變量B)維度C)樣本D)屬性答案:D解析:[單選題]58.CART決策樹使用?基尼指數(shù)?來選擇劃分屬性時(shí),使劃分后基尼指數(shù)()的屬性為最優(yōu)劃分屬性。A)最大B)最小C)隨機(jī)選擇D)按序選擇答案:B解析:第2部分:多項(xiàng)選擇題,共17題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.噪聲數(shù)據(jù)的主要表現(xiàn)形式有().A)錯(cuò)誤數(shù)據(jù)B)虛假數(shù)據(jù)C)異常數(shù)據(jù)D)缺失數(shù)據(jù)答案:ABC解析:[多選題]60.下面哪幾項(xiàng)適應(yīng)于深度學(xué)習(xí)的訓(xùn)練?A)監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)遷移學(xué)習(xí)D)機(jī)器學(xué)習(xí)答案:ABC解析:[多選題]61.圖像識(shí)別技術(shù)的過程分以下幾步:信息的獲取、(__)、(__)、分類器設(shè)計(jì)和分類決策。A)辨認(rèn)B)預(yù)處理C)統(tǒng)計(jì)D)特征抽取和選擇答案:BD解析:[多選題]62.交叉驗(yàn)證可用于(__)、(__)和(__)。A)分類B)參數(shù)選擇C)模型選擇D)特征選擇答案:BCD解析:[多選題]63.半監(jiān)督學(xué)習(xí)中,對(duì)未標(biāo)記樣本所揭示的數(shù)據(jù)分布信息與類別標(biāo)記相聯(lián)系的假設(shè)的有(__)和(__)。A)歸納假設(shè)B)聚類假設(shè)C)流形假設(shè)D)基本假設(shè)答案:BC解析:[多選題]64.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()A)語音識(shí)別B)語音建模C)機(jī)器翻譯D)圖像識(shí)別答案:ABC解析:[多選題]65.下列哪些是面向?qū)ο蠹夹g(shù)的特征()A)封裝B)繼承C)多態(tài)D)分布性答案:ABC解析:[多選題]66.以下哪幾項(xiàng)屬于漢語未登錄詞的類型?()A)存在于詞典但出現(xiàn)頻率較少的詞B)新出現(xiàn)的普通詞匯C)專有名詞D)專業(yè)名詞和研究領(lǐng)域名稱答案:BCD解析:[多選題]67.邏輯回歸可解決以下哪些問題?A)判斷一封郵件是否是垃圾郵件B)基于用戶行為,判斷用戶的性別C)基于西瓜數(shù)據(jù)集,判斷某個(gè)西瓜是好瓜還是壞瓜D)基于西瓜數(shù)據(jù)集,預(yù)測(cè)某個(gè)西瓜的甜度值答案:ABC解析:[多選題]68.下列關(guān)于Eureka和ZooKeeper的區(qū)別說法對(duì)的是()?A)Eureka保證的是CPB)Eureka保證的是APC)ZooKeeper保證的是CPD)ZooKeeper有Leader和Follower角色答案:BCD解析:[多選題]69.(__)是常用的圖像識(shí)別方法。A)統(tǒng)計(jì)法B)句法識(shí)別法C)神經(jīng)網(wǎng)絡(luò)法D)模板匹配法答案:ABCD解析:[多選題]70.下列可以用來評(píng)估線性回歸模型的指標(biāo)有()。A)R-SquaredB)AdjustedR-SquaredC)FStatisticsD)RMSE/MSE/MAE答案:ABCD解析:R-Squared、AdjustedR-Squared、FStatistics和RMSE/MSE/MAE指標(biāo)均可以評(píng)估線性回歸模型。[多選題]71.下列屬于DBSCAN算法的特點(diǎn)的是(__)。A)對(duì)噪音敏感B)能發(fā)現(xiàn)任意形狀的簇C)對(duì)參數(shù)的設(shè)置敏感D)DBSCAN使用固定的參數(shù)識(shí)別聚類答案:BCD解析:[多選題]72.常見的特征選擇方法有哪些A)過濾式B)包裹式C)啟發(fā)式D)嵌入式答案:ABD解析:[多選題]73.下列哪些現(xiàn)象屬于乘性噪聲。()A)電視光柵的退化B)二值圖像上的胡椒鹽噪聲C)信道傳輸受擾D)膠片材料的退化答案:AD解析:[多選題]74.從方法體系看,數(shù)據(jù)可視化方法可以分為三個(gè)不同的層次(__)。A)領(lǐng)域方法B)基礎(chǔ)方法C)方法論D)智能方法答案:ABC解析:[多選題]75.線性模型的基本形式有()。A)線性回歸B)對(duì)數(shù)幾率回歸(二分類問題)C)線性判別分析(Fisher判別分析)D)多分類學(xué)習(xí)答案:ABCD解析:第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.簇內(nèi)相似度高且簇間相似度低的聚類結(jié)果比較好A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.類腦人工智能是指模擬人類大腦的人工智能A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]78.ID3依據(jù)信息增益做特征選擇,而C4.5依據(jù)信息增益比做特征選擇A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.聚類屬于有監(jiān)督式學(xué)習(xí)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.聚類和分類的區(qū)別在于用于聚類的訓(xùn)練樣本的類標(biāo)記是未知的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.后驗(yàn)概率是指事情已經(jīng)發(fā)生,要求出這件事情發(fā)生的原因是由某個(gè)因素引起的可能性的大小A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.監(jiān)督學(xué)習(xí)的學(xué)習(xí)數(shù)據(jù)既有特征(feature),也有標(biāo)簽(label)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.回歸問題和分類問題都有可能發(fā)生過擬合A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.PCA是有監(jiān)督學(xué)習(xí),是有參數(shù)限制的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]85.多變量決策樹亦稱為斜決策樹。__A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.??硬間隔?是指SVM允許分類時(shí)出現(xiàn)一定范圍的誤差A(yù))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]87.K近鄰算法的缺點(diǎn)在于當(dāng)訓(xùn)練集數(shù)據(jù)量比較大時(shí),預(yù)測(cè)過程的效率很低A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共9題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問答題]88.一個(gè)DataFrame對(duì)象的屬性values和ndim分別指數(shù)據(jù)元素和()。答案:維度解析:[問答題]89.寫出一個(gè)你知道的線性降維方法:()答案:PCA主成分分析解析:LDA判別分析[問答題]90.簡(jiǎn)述sigmoid激活函數(shù)的優(yōu)缺點(diǎn)答案:優(yōu)點(diǎn):1.便于求導(dǎo)的平滑函數(shù);2.能壓縮數(shù)據(jù),保證數(shù)據(jù)幅度不會(huì)有問題;3.適合用于前向傳播。缺點(diǎn):1.容易出現(xiàn)梯度消失(gradientvani

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論