人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第1頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第2頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第3頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第4頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)_第5頁
已閱讀5頁,還剩20頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機器學(xué)習(xí)技術(shù)練習(xí)人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共62題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.樣本生成的目的是為了()A)樣本準(zhǔn)確性B)樣本完整性C)樣本可信性答案:B解析:[單選題]2.下面哪個/些超參數(shù)的增加可能會造成隨機森林?jǐn)?shù)據(jù)過擬合?A)樹的數(shù)量B)樹的深度C)學(xué)習(xí)速率答案:B解析:通常情況下,我們增加樹的深度有可能會造成模型過擬合。學(xué)習(xí)速率并不是隨機森林的超參數(shù)。增加樹的數(shù)量可能會造成欠擬合。[單選題]3.下列關(guān)于線性模型的描述錯誤的是()。A)支持向量機的判別函數(shù)一定屬于線性函數(shù)B)在樣本為某些分布情況時,線性判別函數(shù)可以成為最小錯誤率或最小風(fēng)險意義下的最優(yōu)分類器C)在一般情況下,線性分類器只能是次優(yōu)分類器D)線性分類器簡單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛答案:A解析:支持向量機的判別函數(shù)不一定是線性函數(shù)。[單選題]4.Boosting是一可將弱學(xué)習(xí)器提升為強學(xué)習(xí)器的算法,最著名的代表是____。A)BaggingB)隨機森林C)AdaBoostD)決策樹答案:C解析:[單選題]5.以下哪種激活函數(shù)可以導(dǎo)致梯度消失()A)ReLUB)TanhC)LeakyReLUD)其他都不是答案:B解析:[單選題]6.()是表現(xiàn)數(shù)據(jù)分布對稱性的指標(biāo)。A)斜率B)偏斜度C)偏度D)偏離度答案:B解析:偏斜度是對統(tǒng)計數(shù)據(jù)分布偏斜方向及程度的度量。在偏態(tài)分布中,當(dāng)偏斜度為正值時,分布正偏,即眾數(shù)位于算術(shù)平均數(shù)的左側(cè);當(dāng)偏斜度為負值時,分布負偏,即眾數(shù)位于算術(shù)平均數(shù)的右側(cè)。[單選題]7.下面是三個散點圖(A,B,C,從左到右)和和手繪的邏輯回歸決策邊界。alt="">假設(shè)上述決策邊界是針對不同的正則化(regularization)值生成的。那么其中哪一個顯示最大正則化?A)AB)BC)CD)都具有相同的正則化答案:A解析:因為正則化意味著更多的罰值和圖A所示的較簡單的決策界限。[單選題]8.下列方法中,屬于無監(jiān)督學(xué)習(xí)的為()A)線性回歸B)K均值C)神經(jīng)網(wǎng)絡(luò)D)決策樹答案:B解析:[單選題]9.能夠直觀顯示出學(xué)習(xí)器在樣本總體上的查全率、查準(zhǔn)率的圖是()。A)ROC曲線B)誤差曲線C)方差曲線D)P-R曲線答案:D解析:[單選題]10.線性回歸的基本假設(shè)不包括()。A)隨機誤差項是一個期望值為0的隨機變量B)對于解釋變量的所有觀測值,隨機誤差項有相同的方差C)隨機誤差項彼此相關(guān)D)解釋變量是確定性變量不是隨機變量,與隨機誤差項之間相互獨立答案:C解析:線性回歸的基本假設(shè):(1)線性關(guān)系假設(shè)。(2)正態(tài)性假設(shè),指回歸分析中的Y服從正態(tài)分布。(3)獨立性假設(shè),包含兩個意思:①與某一個X對應(yīng)的一組Y和與另一個X對應(yīng)的一組Y之間沒有關(guān)系,彼此獨立;②誤差項獨立,不同的X所產(chǎn)生的誤差之間應(yīng)相互獨立,無自相關(guān)。(4)誤差等分散性假設(shè):特定X水平的誤差,除了應(yīng)呈隨機化的常態(tài)分配,其變異量也應(yīng)相等,稱為誤差等分散性。[單選題]11.針對下面的代碼,說法不正確的是();importnumpyasnpa=np.array([0,1,2,3,4])importpandasaspdb=pd.Series([0,1,2,3,4])A)a和b是不同的數(shù)字類型,他們之間不能直接進行運算。B)a和b表達同樣的數(shù)據(jù)內(nèi)容C)a和b都是一維數(shù)據(jù)D)a參與運算的執(zhí)行速度明顯比b快答案:D解析:[單選題]12.下列關(guān)于缺失值檢測的說法中,正確的是()。A)null()和notnull()可以對缺失值進行處理B)dropna()方法既可以刪除觀測記錄,也可以刪除特征C)fillna()方法中用來替換缺失值的值只能是DataFrame對象D)Pandas庫中的interpolate模塊包含了多種插值方法答案:B解析:[單選題]13.隱馬爾可夫模型(HiddenMarkovModel,簡稱HMM)是結(jié)構(gòu)最簡單的()?A)動態(tài)貝葉斯網(wǎng)B)動態(tài)馬爾科夫網(wǎng)C)動態(tài)拉普拉斯網(wǎng)D)靜態(tài)馬爾可夫網(wǎng)答案:A解析:[單選題]14.建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A)根據(jù)內(nèi)容檢索B)建模描述C)預(yù)測建模D)尋找模式和規(guī)則答案:C解析:[單選題]15.()情況下,LDA會失敗。A)如果有辨識性的信息不是平均值,而是數(shù)據(jù)的方差B)如果有辨識性的信息是平均值,而不是數(shù)據(jù)方差C)如果有辨識性的信息是數(shù)據(jù)的均值和方差D)以上答案都不正確答案:A解析:LDA的思想是投影后類內(nèi)方差最小、類間方差最大。[單選題]16.關(guān)于機器學(xué)習(xí)算法正確的是()A)LR模型在加入正則化項后Variance將增大B)線性SVM是尋找最小邊緣的超平面的一個分類器C)xgboost和GDBT都是屬于boosting算法D)xgboost和隨機森林都是屬于bagging算法答案:C解析:[單選題]17.隱馬爾可夫模型(HMM),設(shè)其觀察值空間為狀態(tài)空間為alt="">如果用維特比算法(Viterbialgorithm)進行解碼,時間復(fù)雜度為()A)O(NK)B)O(NK^2)C)O(N^2K)D)以上都不是答案:D解析:alt=""class="fr-ficfr-dii">[單選題]18.下列選項中,用于刪除缺失值的方法是()。A)isnull()B)delete()C)dropna()D)fillna()答案:C解析:isnull方法用于檢測,當(dāng)返回結(jié)果中有True時,表示有重復(fù)的數(shù)據(jù);fillna方法用于填充缺失數(shù)據(jù)。[單選題]19.移動端開發(fā)中常用的數(shù)據(jù)庫是A)MySQLB)OracleC)SQLiteD)MongoDB答案:C解析:[單選題]20.下列關(guān)于基于層次的聚類方法的描述不正確的是()A)按照層次聚類的過程分為自底向上和自頂向下2大類方法B)如果一直重復(fù)聚類過程的話,所有的樣品最后可以歸為一類C)自底向上的聚類方法是一種分裂聚類方法D)無論類間距離采用哪種計算方法,最終都是將最小距離的2個簇合并答案:C解析:[單選題]21.Python的基本語法僅支持整型、浮點型和復(fù)數(shù)類型,而NumPy和Pandas包支持int64/int32/int16/int8等20余種數(shù)字類型,下列選項中,()說法是不正確的。A)科學(xué)計算可能涉及很多數(shù)據(jù),對存儲和性能有較高要求,因此支持多種數(shù)字類型B)NumPy包底層是采用C語言實現(xiàn)的,因此,天然支持了多種數(shù)字類型C)程序員必須精確指定數(shù)字類型,因此,會給編程帶來一定負擔(dān)D)對元素類型進行精確定義,有助于NumPy和Pandas包更合理地優(yōu)化存儲空間答案:C解析:[單選題]22.(__)主要為組織機構(gòu)提供企業(yè)級應(yīng)用技術(shù)或工具。A)人力資本B)行業(yè)應(yīng)用C)企業(yè)應(yīng)用D)B2B營銷答案:C解析:[單選題]23.精確推斷的實質(zhì)是一類()規(guī)劃算法,它利用圖模型所描述的條件獨立性來削減計算目標(biāo)概率值所需的計算量。A)靜態(tài)B)動態(tài)C)偽靜態(tài)D)一階答案:B解析:[單選題]24.()表達了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達到的期望泛化誤差的下界,即刻畫了學(xué)習(xí)問題本身的難度。A)偏差B)方差C)噪聲D)泛化誤差答案:C解析:泛化誤差可分解為偏差、方差與噪聲之和。偏差度量了學(xué)習(xí)算法的期望預(yù)測與真實結(jié)果的偏離程度,即刻畫了學(xué)習(xí)算法本身的擬合能力;方差度量了同樣大小的訓(xùn)練集的變動所導(dǎo)致的學(xué)習(xí)性能的變化,即刻畫了數(shù)據(jù)擾動所造成的影響;噪聲則表達了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達到的期望泛化誤差的F界,即刻畫了學(xué)習(xí)問題本身的難度。[單選題]25.下列哪種嵌入方式支持雙向上下文(BidirectionalContext)?A)Word2VecB)BERTC)GloVeD)以上所有答案:B解析:[單選題]26.關(guān)于線性回歸模型及模型參數(shù),不正確的說法是:A)均方誤差即所有實例預(yù)測值與實際值誤差平方的均值B)線性回歸模型的訓(xùn)練目標(biāo)是找到使得損失函數(shù)最大化的模型參數(shù)C)線性回歸模型的訓(xùn)練目標(biāo)是找到使得損失函數(shù)最小化的模型參數(shù)D)線性回歸模型通常使用均方誤差(MSE)作為損失函數(shù)答案:B解析:[單選題]27.英文如何分詞?()A)利用空格對句子分詞B)利用逗號分詞C)根據(jù)英文短語分詞D)根據(jù)詞性分詞答案:A解析:[單選題]28.()屬于SVM應(yīng)用。A)文本和超文本分類B)圖像分類C)新文章聚類D)以上均是答案:D解析:SVM可用于分類與回歸,文本和超文本分類、圖像分類、新文章聚類。[單選題]29.一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個大小為2×2的不重疊最大池化層,輸出()。A)(28,28,8)B)(16,16,8)C)(28,28,3)D)(16,16,3)答案:D解析:[單選題]30.在Pandas中tail()這個函數(shù)是做什么的?()。A)用來創(chuàng)建數(shù)據(jù)B)用來分析數(shù)據(jù)C)用來計算數(shù)據(jù)D)用來展現(xiàn)數(shù)據(jù)答案:D解析:[單選題]31.作為分布式消息隊列,既有非常優(yōu)秀的吞吐量,又有較高的可靠性和擴展性,同時接受SparkStreaming的請求,將流量日志按序發(fā)送給SparkStreaming集群是()A)FlumeB)ZookeeperC)KafkaD)Sparkstreaming答案:C解析:[單選題]32.對數(shù)據(jù)進行數(shù)據(jù)清理、集成、變換、規(guī)約是數(shù)據(jù)挖掘哪個步驟的任務(wù)?()A)頻繁模式挖掘B)分類和預(yù)測C)數(shù)據(jù)預(yù)處理D)噪聲檢測答案:C解析:[單選題]33.下列關(guān)于支持向量機的說法錯誤的是(__)。A)硬間隔支持向量機易出現(xiàn)過擬合的情況B)軟間隔支持向量機的目標(biāo)函數(shù)不是一個二次規(guī)劃問題C)松弛變量可用來解決線性不可分問題D)支持向量機可用來進行數(shù)據(jù)的分類答案:B解析:[單選題]34.(__)是M-P神經(jīng)元,也稱為?閾值邏輯單元?。A)輸入層B)輸出層C)第一層D)第二層答案:B解析:[單選題]35.L表示模糊分類器的特征關(guān)鍵詞,由T推導(dǎo)出模糊集F,以下哪個算法可以計算不同F(xiàn)之間的關(guān)聯(lián)度?()A)SVMB)EWCC)SRD)EM答案:C解析:[單選題]36.支持向量機的對偶問題是()A)線性優(yōu)化問題B)二次優(yōu)化C)凸二次優(yōu)化D)有約束的線性優(yōu)化答案:C解析:[單選題]37.貝葉斯模型平均基于后驗概率來為不同的模型賦予權(quán)重,可視為(__)的一種特殊實現(xiàn)。A)加權(quán)平均法B)投票法C)排序法D)學(xué)習(xí)法答案:A解析:[單選題]38.下列極大似然估計描述錯誤的是A)極大似然估計先假定其具有某種確定的概率分布形式;B)極大似然估計沒有確定的概率分布形式;C)概率模型的訓(xùn)練過程就是參數(shù)估計;D)貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機變量;答案:B解析:[單選題]39.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A)總離差B)組間誤差C)抽樣誤差D)組內(nèi)誤差答案:D解析:組內(nèi)誤差是來自樣本內(nèi)部數(shù)據(jù)之間的隨機誤差,它反映了樣本數(shù)據(jù)自身的差異程度;組間誤差由因子的不同處理造成的處理誤差和抽樣的隨機誤差組成,反映了不同樣本之間數(shù)據(jù)的差異程度。[單選題]40.以下關(guān)于數(shù)據(jù)產(chǎn)品特征的描述不正確的是A)數(shù)據(jù)產(chǎn)品往往能達到極高的準(zhǔn)確度,并且保持穩(wěn)定B)數(shù)據(jù)產(chǎn)品所使用的數(shù)據(jù)包含很多差數(shù)據(jù)C)數(shù)據(jù)產(chǎn)品會隨著環(huán)境的改變發(fā)生變化D)數(shù)據(jù)產(chǎn)品的決策會直接影響業(yè)務(wù)的表現(xiàn)答案:A解析:[單選題]41.數(shù)據(jù)產(chǎn)品開發(fā)的關(guān)鍵環(huán)節(jié)是(__)。A)數(shù)據(jù)加工B)數(shù)據(jù)柔術(shù)C)數(shù)據(jù)歸約D)數(shù)據(jù)清洗答案:A解析:[單選題]42.點擊率預(yù)測是一個正負樣本不平衡問題(例如99%的沒有點擊,只有1%點擊)。假如在這個非平衡的數(shù)據(jù)集上建立一個模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?A)模型正確率很高,不需要優(yōu)化模型了B)模型正確率并不高,應(yīng)該建立更好的模型C)無法對模型做出好壞評價D)以上說法都不對答案:B解析:這一題延續(xù)了上題中準(zhǔn)確率和召回率的知識點,考查了正負樣本分布不均問題。模型訓(xùn)練過程中正負樣本分布不均是常見的問題。這時候不能單獨只看預(yù)測正確率。對于此題來說,如果我們預(yù)測的結(jié)果是100%沒有點擊,0%點擊,那么可以說正確率是99%,因為只有1%的點擊預(yù)測錯誤。但是,我們其實更關(guān)心的那1%的點擊率并沒有預(yù)測出來??梢哉f這樣的模型是沒有任何意義的。對應(yīng)正負樣本不平衡的情況需要做一些數(shù)據(jù)處理,主要包括:采樣、數(shù)據(jù)合成、懲罰因子加權(quán)、一分類。其中,一分類即是在正負樣本分布極不平衡的時候,把它看做一分類(OneClassLearning)或異常檢測(NoveltyDetection)問題。這類方法的重點不在于捕捉類間的差別,而是為其中一類進行建模,經(jīng)典的工作包括One-classSVM等。[單選題]43.(__)先將數(shù)據(jù)集中的每個樣本看做一個初始聚類簇,然后在算法運行的每一步找到距離最近的兩個聚類簇進行合并,該過程不端重復(fù),直至達到預(yù)設(shè)的聚類簇個數(shù)。A)原型聚類B)密度聚類C)層次聚類D)AGNES答案:D解析:[單選題]44.一般來說,下列哪種方法常用來預(yù)測連續(xù)獨立變量?A)線性回歸B)邏輯回顧C)線性回歸和邏輯回歸都行D)以上說法都不對答案:A解析:線性回歸一般用于實數(shù)預(yù)測,邏輯回歸一般用于分類問題。[單選題]45.哪些文本分析技術(shù)可被用于名詞短語檢測、動詞短語檢測、主語檢測和賓語檢測?A)詞性標(biāo)注(PartofSpeechTagging)B)SkipGram和N-Gram提取C)連續(xù)性詞袋(BagofWords)D)依存句法分析(DependencyParsing)和成分句法分析(ConstituencyParsing)答案:D解析:[單選題]46.在模型評估與度量的方法中,(__)直接將數(shù)據(jù)集劃分為兩個互斥的集合,一個作為訓(xùn)練集,另一個作為測試集。A)自助法B)留出法C)交叉驗證法D)錯誤率分析答案:B解析:[單選題]47.機器學(xué)習(xí)研究的目標(biāo)有三個,不包括(A)人類學(xué)習(xí)與過程的認(rèn)知模型B)通用學(xué)習(xí)算法C)構(gòu)造面問仕務(wù)的專用學(xué)習(xí)系統(tǒng)D)制作長相接近人類的機器系統(tǒng)答案:D解析:[單選題]48.異常檢測過程查找基于()組標(biāo)準(zhǔn)值偏差的異常個案。A)單體B)分類C)聚類D)回歸答案:C解析:異常檢測過程查找基于聚類組標(biāo)準(zhǔn)值偏差的異常個案。該過程設(shè)計為在探索性數(shù)據(jù)分析步驟中,快速檢測到用于數(shù)據(jù)審核的異常個案,并優(yōu)先于任何推論性數(shù)據(jù)分析。[單選題]49.關(guān)于KNN最近鄰分類算法的過程:①計算訓(xùn)練樣本和測試樣本中每個樣本點的距離(常見的距離度量有歐式距離、馬氏距離等);②對上面所有的距離值進行排序;③選前k個最小距離的樣本;④根據(jù)這k個樣本的標(biāo)簽進行投票,得到最后的分類類別。正確的排序為A)①③②④B)②④③①C)①②③④D)①②④③答案:C解析:[單選題]50.以下對Value相關(guān)描述不正確的是()。A)Value是指應(yīng)用價值高B)Value是指我們淹沒在知識海洋,卻忍受著知識的饑渴C)如何從海量數(shù)據(jù)中洞見出有價值的數(shù)據(jù)是數(shù)據(jù)科學(xué)的重要課題之一D)大數(shù)據(jù)中,數(shù)據(jù)價值與數(shù)據(jù)量之間不一定存在線性關(guān)系答案:A解析:[單選題]51.?文檔?是待處理的數(shù)據(jù)對象,它由一組詞組成,這些詞在文檔中不計順序的額,例如一篇論文、一個網(wǎng)頁都可以看做一個文檔;這樣的表示方式稱為?A)語句B)詞袋C)詞海D)詞塘答案:B解析:[單選題]52.(__)是指抽取情感文本中有價值的情感信息,其要判斷一個單詞或詞組在情感表達中扮演的角色,包括情感表達者識別,評價對象識別,情感觀點詞識別等任務(wù)。A)情感分類B)情感檢索C)情感抽取D)情感分析答案:C解析:[單選題]53.概率模型的訓(xùn)練過程就是()過程。A)分類B)聚類C)參數(shù)估計D)參數(shù)選擇答案:C解析:[單選題]54.下列對于查準(zhǔn)率的描述,解釋正確的是(__)。A)統(tǒng)計分類器預(yù)測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B)先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C)預(yù)測為正的樣例中有多少是真正的正樣例D)樣本中的正例有多少被預(yù)測正確答案:C解析:[單選題]55.考慮值集{12243324556826},其四分位數(shù)極差是:A)31B)24C)55D)3答案:A解析:[單選題]56.如果將均勻噪聲的定義范圍增加一倍,則其方差?A)不變B)增加為兩倍C)增加為四倍D)增加為八倍答案:B解析:[單選題]57.請閱讀下列一段示例程序:ImportnumpyasnpArr1=np.array([[0],[1],[2]])Arr2=np.array([1,2])Result=arr1+arr2Print(result.shape)運行上述程序,那么最終輸出的結(jié)果為()。A)(3,2)B)(2,3)C)(3,0)D)(2,0)答案:A解析:[單選題]58.輸入圖像為32x32,經(jīng)過步長為1,不進行padding,卷積核為5x5的卷積層后,得到的特征圖尺寸是多少?()A)28x28B)27x27C)29x29D)32x32答案:A解析:第2部分:多項選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.下列關(guān)于密度聚類說法,錯誤的是()。A)DBSCAN是一種著名的密度聚類算法B)密度聚類從樣本數(shù)量的角度來考察樣本之間的可連接性C)密度聚類基于不可連接樣本不斷擴展聚類簇,以獲得最終的聚類結(jié)果D)密度直達關(guān)系通常滿足對稱性答案:BCD解析:密度聚類從樣本密度的角度來考察樣本之間的可連接性;密度聚類基于可連接樣本不斷擴展聚類簇,以獲得最終的聚類結(jié)果;密度直達關(guān)系通常不滿足對稱性;密度可達關(guān)系滿足直遞性,但不滿足對稱性;密度相連關(guān)系滿足對稱性。[多選題]60.下列哪些是特征選擇方法A)AIC赤池信息準(zhǔn)則B)LARS嵌入式特征選擇方法C)LVW包裹式特征選擇方法D)Relief過濾式特征選擇方法答案:BCD解析:[多選題]61.根據(jù)學(xué)習(xí)形式,數(shù)據(jù)科學(xué)中機器學(xué)習(xí)可分為(__)。A)人工神經(jīng)網(wǎng)絡(luò)和增強學(xué)習(xí)B)基于實例學(xué)習(xí)C)遺傳算法D)貝葉斯學(xué)習(xí)答案:ABCD解析:[多選題]62.下列關(guān)于核函數(shù)的說法正確的是(__)。A)任何一個函數(shù)都可以作為核函數(shù)B)只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,它就能作為核函數(shù)使用C)任何一個核函數(shù)都隱式地定義了一個再生核希爾伯特空間D)核函數(shù)可將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分答案:BC解析:[多選題]63.知識圖譜構(gòu)建過程中涉及下列哪些內(nèi)容?()**A)知識獲取B)知識融合C)知識驗證D)知識分析答案:ABC解析:[多選題]64.數(shù)據(jù)治理包括哪些類型A)應(yīng)對型治理B)主動型治理C)被動型治理D)安全型治理答案:AB解析:[多選題]65.邏輯回歸的一般過程是()A)擬合sigmoidfunctionB)某個樣本的sigmoidfunction的計算結(jié)果看做是這個樣本屬于類別1的概率C)其它樣本的sigmoidfunction的計算結(jié)果看做是樣本屬于類別0的概率D)將sigmoidfunction的計算結(jié)果大于等于0.5的歸屬為類別1,小于0.5的歸為類別0答案:ABD解析:[多選題]66.人工智能的研究包括()A)機器人B)語言識別C)圖像識別D)自然語言處理答案:ABCD解析:[多選題]67.一個回歸模型存在多重共線問題。在不損失過多信息的情況下,你該怎么做()A)移除共線的兩個變量B)移除共線的兩個變量其中一個C)我們可以計算方差膨脹因子(varianceinflationfactor)來檢查存在的多重共線性并采取相應(yīng)的措施D)移除相關(guān)變量可能會導(dǎo)致信息的丟失,為了保留這些變量,我們可以使用嶺回歸(ridge)或lasso等回歸方法對模型進行懲罰答案:BCD解析:為了檢查多重共線性,我們可以創(chuàng)建相關(guān)系數(shù)矩陣來辨別和移除相關(guān)系數(shù)大于75%的變量(閾值根據(jù)情況設(shè)定),除此之外,我們可以使用VIF方法來檢查當(dāng)前存在的共線變量。VIF<=4表明沒有多種共線,VIF>=10表明有著嚴(yán)重的多重共線性。當(dāng)然,我們也可以使用公差(tolerance)作為評估指標(biāo)。但是,移除相關(guān)變量可能導(dǎo)致信息的丟失,為了保留這些變量,我們可以使用帶懲罰的回歸方法。我們也可以在相關(guān)變量之間隨機加入噪音,使得變量之間存在差異。但增加噪音可能影響準(zhǔn)確度,因此這種方法應(yīng)該小心使用。[多選題]68.現(xiàn)實應(yīng)用中使用的模型經(jīng)常是()和()的結(jié)合?A)馬爾可夫網(wǎng)B)馬爾可夫隨機場C)拉普拉斯D)貝葉斯答案:BD解析:[多選題]69.影響聚類算法效果的主要原因有()。A)特征選取B)模式相似性測度C)分類準(zhǔn)則D)已知類別的樣本質(zhì)量答案:ABC解析:聚類算法是無監(jiān)督的學(xué)習(xí)算法,訓(xùn)練樣本的標(biāo)記信息是未知的。[多選題]70.自助法在__時很有用。A)數(shù)據(jù)集較小B)數(shù)據(jù)集較大C)難以劃分有效訓(xùn)練集D)難以劃分有效測試集答案:ACD解析:[多選題]71.要對受孤立噪聲點影響的圖像進行平滑濾波。不能達到效果的濾波器是?A)中值濾波器:B)領(lǐng)域平均濾波器;C)高頻增強濾波器;D)線性銳化濾波器;答案:CD解析:[多選題]72.讓學(xué)習(xí)器不依賴外界交互、自動地利用未標(biāo)記樣本來提升學(xué)習(xí)性能的有哪些?A)圖半監(jiān)督學(xué)習(xí)B)半監(jiān)督SVMC)半監(jiān)督聚類D)直推學(xué)習(xí)答案:ABCD解析:[多選題]73.特征選擇在子集生成與搜索方面引入了人工智能搜索技術(shù)和子集評價方法。其中人工智能搜索技術(shù)有()。A)分支界限法B)浮動搜索法C)信息熵D)AIC答案:ABCD解析:特征選擇在子集生成與搜索方面引入了很多人工智能搜索技術(shù),如分支界限法、浮動搜索法等;在子集評價方法則采用了很多源于信息論的準(zhǔn)則,如信息熵、AIC等。[多選題]74.關(guān)于搜索與求解,描述正確的是()**A)搜索是為了達到某一目標(biāo)而多次進行某種操作、運算、推理或計B)所有的智能活動過程,都可以看作或者抽象為一個基于搜索的問題C)搜索是人在求解問題時不知現(xiàn)成解法的情況下所采取的一種普遍方D)搜索可以看作人類和其他生物所具有的一種元知識答案:ABCD解析:[多選題]75.下列關(guān)于子集搜索方法的描述正確的是A)前向搜索是從單特征子集開始,每次嘗試逐漸增加相關(guān)特征B)后向搜索是從完整的特征集合開始,每次嘗試去掉一個無關(guān)特征C)雙向搜索是每輪逐漸增加相關(guān)特征、同時減少無關(guān)特征D)子集搜索方法的策略都是貪心的答案:ABCD解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.一個事件的概率(odds)指該事件發(fā)生的概率與該事件不發(fā)生的概率的比值。A)正確B)錯誤答案:對解析:[判斷題]77.無監(jiān)督學(xué)習(xí)任務(wù)中研究最多、應(yīng)用最廣的是聚類A)正確B)錯誤答案:對解析:[判斷題]78.任何一個有效的機器學(xué)習(xí)算法必須有其歸納偏好A)正確B)錯誤答案:對解析:[判斷題]79.通用函數(shù)會對數(shù)組中的每一個元素都進行操作。A)正確B)錯誤答案:錯解析:[判斷題]80.深度學(xué)習(xí)是機器學(xué)習(xí)研究領(lǐng)域的子集A)正確B)錯誤答案:錯解析:[判斷題]81.平方損失函數(shù)適合二分類或多分類的場景,而交叉熵損失則更適合輸出為連續(xù)的場景。()A)正確B)錯誤答案:錯解析:[判斷題]82.編碼矩陣的三元碼將每個類別分別制定為正類、反類、停用類。__A)正確B)錯誤答案:對解析:[判斷題]83.KNN沒有顯示的訓(xùn)練過程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來,訓(xùn)練時間開銷為0,等收到測試樣本后進行處理。A)正確B)錯誤答案:對解析:[判斷題]84.樸素貝葉算法不需要樣本特征之間的獨立同分布A)正確B)錯誤答案:錯解析:[判斷題]85.聚類需要從沒有標(biāo)簽的一組輸入向量中尋找數(shù)據(jù)的模型和規(guī)律。A)正確B)錯誤答案:對解析:[判斷題]86.一般來說,查準(zhǔn)率高時,查全率也高。A)正確B)錯誤答案:錯解析:[判斷題]87.隨機森林的兩個隨機指的是隨機選取樣本和隨機選取屬性A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.給定6維分類樣本C=(A,B,A,B,A,A),D=(B,B,A,B,B,A),試求:樣本間相似性的簡單匹配系數(shù)答案:A的編碼為0、B的編碼為1;所以簡單匹配系數(shù)d(AB)=(2+2)/(2+2+0+2)=2/3解析:[問答題]89.屬性shape返回的是()。答案:維度解析:[問答題]90.邏輯回歸是()學(xué)習(xí)答案:有監(jiān)督解析:[問答題]91.訓(xùn)練誤差較大,測試誤差較大,是指模型出現(xiàn)了()的情況答案:欠擬合解析:[問答題]92.Numpy中的random模塊中的函數(shù)shuffle的功能是對一個序列進行()。答案:隨機排序解析:[問答題]93.衛(wèi)生部調(diào)查孕婦吸煙對嬰兒健康的影響.模型設(shè)定如下:b=β_0+β_1cigs+μ,其中,b表示嬰兒體重(盎司),作為嬰兒健康程度的替代變量;c

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論