大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)_第1頁
大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)_第2頁
大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)_第3頁
大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)_第4頁
大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:大數(shù)據(jù)挖掘技術(shù)練習(xí)大數(shù)據(jù)挖掘技術(shù)練習(xí)(習(xí)題卷22)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages大數(shù)據(jù)挖掘技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共51題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.可視化時(shí)間空間數(shù)據(jù)的技術(shù)不包括A)等高線圖B)餅圖C)曲面圖D)矢量場圖答案:B解析:[單選題]2.在MySQL中,對于字段值為空值(NULL)敘述正確的是______。A)空值等同于空字符串B)空值表示字段還沒有確定值C)不支持字段值為空值D)空值等同于數(shù)值0答案:B解析:[單選題]3.假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對屬性income的73600元將被轉(zhuǎn)化為:A)0.821B)1.224C)1.458D)0.716答案:D解析:[單選題]4.OLAP系統(tǒng)按照其數(shù)據(jù)在存儲器中的存儲格式可以分為()三種類型。A)關(guān)系OLAP、對象OLAP、混合型OLAPB)關(guān)系OLAP、混合型OLAP、多維OLAPC)對象OLAP、混合型OLAP、多維OLAPD)關(guān)系OLAP、對象OLAP、多維OLAP答案:B解析:[單選題]5.以下哪些不是業(yè)務(wù)質(zhì)量指標(biāo)KQIA)頁面響應(yīng)成功率B)視頻下載速率C)及時(shí)通信接入時(shí)延D)Attach成功率答案:D解析:[單選題]6.在數(shù)據(jù)預(yù)處理中,將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)整合到一個(gè)一致的數(shù)據(jù)存儲(如數(shù)據(jù)倉庫)中,這一過程稱為A)數(shù)據(jù)提取B)數(shù)據(jù)集成C)數(shù)據(jù)清理D)數(shù)據(jù)加載答案:B解析:[單選題]7.NLTK最適用于哪種類型的任務(wù)A)語言處理B)圖像處理C)聲音處理D)文字處理答案:A解析:[單選題]8.因子分析的主要作用有()A)對變量進(jìn)行降維B)對變量進(jìn)行判別C)對變量進(jìn)行聚類D)以上都不對答案:A解析:[單選題]9.關(guān)于方差的描述錯(cuò)誤的是()A)用于兩個(gè)或兩個(gè)以上樣本均數(shù)差異的顯著性檢驗(yàn)。B)原假設(shè)是無差異。C)對立假設(shè)是無差異D)在概率論和統(tǒng)計(jì)方差衡量隨機(jī)變量或一組數(shù)據(jù)時(shí)離散程度的度量答案:C解析:[單選題]10.文件重命名的方法為()A)writeB)renameC)readD)open答案:B解析:Open是打開文件Read的按自己讀取數(shù)據(jù)Rename是重命名Write是寫文件[單選題]11.LTE中,對于頻分雙工(FDD)的操作,定義了4中隨機(jī)接入的前導(dǎo)格式,其中格式3的Tcp()μsA)203.13B)406.26C)101.3D)684.38答案:D解析:[單選題]12.當(dāng)新業(yè)務(wù)、行為出現(xiàn)或目標(biāo)跟蹤業(yè)務(wù)出現(xiàn)新版本時(shí),DPI設(shè)備應(yīng)能在()周之內(nèi)具備新業(yè)務(wù)或新版本的識別能力。A)1B)2C)3D)4答案:A解析:[單選題]13.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A)嵌入B)過濾C)包裝D)抽樣答案:D解析:[單選題]14.描述一組對稱(或正態(tài))分布數(shù)據(jù)的離散程度時(shí),最適宜選擇的指標(biāo)是()A)極差B)標(biāo)準(zhǔn)差C)均值D)變異系數(shù)答案:B解析:[單選題]15.已知:A){'a':0,'b':[1,2,3]}B){'a':0,'b':[1,2]}C)[1,2]D)[1,2,3]答案:D解析:setdefault函數(shù)向字典中添加鍵和值,如果沒有,則首先將該鍵值對加入,并將對應(yīng)的值作為默認(rèn)值,然后返回該默認(rèn)值;如果字典中鍵已經(jīng)有了,那么取回該鍵對應(yīng)的默認(rèn)值。[單選題]16.下述哪個(gè)參數(shù)用于UE從GSM/UMTS網(wǎng)絡(luò)重選到LTE網(wǎng)絡(luò)過程中的位置更新請求A)GUTIB)OldGUTIC)PTMSI/RAID)OldPTMSI/RAI答案:A解析:[單選題]17.下面哪些功能網(wǎng)絡(luò)爬蟲做不到?A)分析教務(wù)系統(tǒng)網(wǎng)絡(luò)接口,用程序在網(wǎng)上搶最熱門的課。B)爬取某個(gè)人電腦中的數(shù)據(jù)和文件。C)爬取網(wǎng)絡(luò)公開的用戶信息,并匯總出售。D)持續(xù)關(guān)注某個(gè)人的微博或朋友圈,自動(dòng)為新發(fā)布的內(nèi)容點(diǎn)贊。答案:B解析:題型:[單選題]18.正則表達(dá)式字符集中,()表示空白字符。A)\dB)\DC)\sD)\w答案:C解析:[單選題]19.用于分類與回歸應(yīng)用的主要算法有(C)。A)K均值法、SOM神經(jīng)網(wǎng)絡(luò)B)Apriori算法、HotSpot算法C)決策樹、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯D)RBF神經(jīng)網(wǎng)絡(luò)、K均值法、決策樹答案:C解析:[單選題]20.考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含A)1,2,3,4B)1,2,3,5C)1,2,4,5D)1,3,4,5答案:C解析:[單選題]21.以下______函數(shù)不是字符串裁剪函數(shù)?A)lpad()B)left()C)ltrim()D)right()答案:A解析:[單選題]22.k-均值算法是一種()算法。A)關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B)聚類C)分類D)自然語言處理答案:B解析:[單選題]23.以下有關(guān)貝葉斯信念網(wǎng)絡(luò)(BBN)的敘述中錯(cuò)誤的是()A)BBN是一個(gè)有向無環(huán)圖B)BBN中每個(gè)結(jié)點(diǎn)代表一個(gè)隨機(jī)變量C)BBN中每條有向邊表示變量之間的依賴關(guān)系D)BBN中最多只有一個(gè)輸出結(jié)點(diǎn)答案:D解析:[單選題]24.下列是數(shù)據(jù)挖掘的是()A)看到醫(yī)院戴口罩人數(shù)增多,斷定近期患病人數(shù)多B)從大量的數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程C)分析得知價(jià)格高的茶葉銷量低,價(jià)格低的茶葉銷量高D)看到地面上有黃金和黏土,判斷黃金更珍貴撿起黃金答案:B解析:[單選題]25.下列哪一個(gè)TCP層指標(biāo)不反應(yīng)S1口以下的質(zhì)差問題?A)RTT上行時(shí)延B)RTT下行時(shí)延C)TCP下行重傳率D)TCP上行重傳率答案:A解析:[單選題]26.在進(jìn)行數(shù)據(jù)挖掘任務(wù)的時(shí)候,通常面臨樣本數(shù)據(jù)特征過多的情況,我們可以通過Filter過濾法選擇那些對我們分析任務(wù)更有幫助的特征,下列方法哪個(gè)不是用來做特征過濾的()A)卡方檢驗(yàn)B)F檢驗(yàn)C)互信息法D)奇異值分解答案:D解析:[單選題]27.業(yè)務(wù)請求次數(shù)為統(tǒng)計(jì)一定的時(shí)間粒度及網(wǎng)元粒度下,ProcedureType為()的S1-MME接口XDR的個(gè)數(shù)A)2B)3C)4D)5答案:A解析:[單選題]28.FTP服務(wù)器使用的熟知端口是()A)20B)21C)22D)23答案:A解析:[單選題]29.利用tree.DecisionTreeClassifier()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第二個(gè)參數(shù)是()。A)樣本特征XB)樣本標(biāo)簽YC)判斷標(biāo)準(zhǔn)D)設(shè)置結(jié)點(diǎn)的最小樣本數(shù)量答案:B解析:[單選題]30.下列請求報(bào)頭中,可以記載用戶信息實(shí)現(xiàn)模擬登錄的是()。A)User-AgentB)CookieC)ConnectionD)Host答案:A解析:[單選題]31.《個(gè)人信息保護(hù)法》發(fā)布執(zhí)行時(shí)間()。A)2021年9月1日;B)2021年10月1日;C)2021年11月1日D)2021年12月1日答案:C解析:[單選題]32.數(shù)據(jù)正規(guī)化(DataNormalization)是在知識發(fā)掘處理(KnowledgeDiscoveryProcess)中的哪一個(gè)階段進(jìn)行?A)數(shù)據(jù)清洗B)數(shù)據(jù)選擇C)數(shù)據(jù)編碼D)數(shù)據(jù)擴(kuò)充答案:C解析:[單選題]33.()是Google提出的用于處理海量數(shù)據(jù)的并行編程模式和大規(guī)模數(shù)據(jù)集的并行運(yùn)算的軟件架構(gòu)。A)GFSB)MapReduceC)ChubbyD)BitTable答案:B解析:[單選題]34.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生____個(gè)關(guān)聯(lián)規(guī)則。A)4B)5C)6D)7答案:C解析:[單選題]35.居民區(qū)4G&寬帶網(wǎng)絡(luò)能力全景分析的指標(biāo)采集最小粒度不包括A)月粒度B)地市粒度C)居民區(qū)粒度D)SAEGW網(wǎng)元粒度答案:D解析:[單選題]36.哪個(gè)選項(xiàng)是下列代碼的執(zhí)行結(jié)果?S='PYTHON'Print("{0:3}".format(s))A)PYTHB)PYTHOC)PYTHOND)PYT答案:C解析:[單選題]37.下列說法不正確的是()A)訓(xùn)練誤差是指模型在訓(xùn)練集上的錯(cuò)分樣本比率,說白了就是在訓(xùn)練集上訓(xùn)練完畢后在訓(xùn)練集本身上進(jìn)行預(yù)測得到了錯(cuò)分率B)泛化誤差是指模型在未知記錄上的期望誤差,說白了就是在訓(xùn)練集上沒見過的數(shù)據(jù)的錯(cuò)分樣本比率C)在樣本集劃分時(shí),如果得到的訓(xùn)練集與測試集的數(shù)據(jù)沒有交集,此時(shí)測試誤差基本等同于泛化誤差D)偏差大:擬合不足/過擬合;方差大:欠擬合答案:D解析:[單選題]38.數(shù)據(jù)挖掘工具箱中數(shù)據(jù)可視化技術(shù)的組件不包括A)histogramsB)scatterplotsC)distributionchartsD)caseselection答案:D解析:[單選題]39.通過代碼?fromsklearnimporttree?引入決策樹模塊,并通過代碼?clf=tree.DecisionTreeClassifier()?構(gòu)造分類器對象后,訓(xùn)練時(shí)要調(diào)用的方法是(),在訓(xùn)練后做預(yù)測時(shí)要調(diào)用的方法是()。A)clf.fit()B)clf.predict()C)clf.train()D)clf.learn()答案:A解析:[單選題]40.在潛在購機(jī)用戶挖掘時(shí),與以下哪個(gè)因素?zé)o關(guān)A)上一次購機(jī)時(shí)間B)用戶偏好的APP使用情況C)終端品牌D)套餐消費(fèi)情況答案:B解析:[單選題]41.以下不是Python數(shù)據(jù)類型的是:A)實(shí)數(shù)B)整數(shù)C)列表D)字符串答案:A解析:實(shí)數(shù)是數(shù)學(xué)中的概念,在Python中對應(yīng)浮點(diǎn)數(shù)。[單選題]42.終端品牌與以下哪個(gè)用戶特征無關(guān)A)性別B)ARPUC)上網(wǎng)習(xí)慣D)生活所在地理位置答案:C解析:[單選題]43.可通過以下信令消息中的哪個(gè)字段,識別手機(jī)是否支持VOLTEA)VoicePreferforE-UTRANB)VoicedomainforE-UTRANC)VoiceFirstforE-UTRAND)VoiceCallforE-UTRAN答案:B解析:[單選題]44.下面有關(guān)分類算法的準(zhǔn)確率、召回率、F1值的描述,錯(cuò)誤的是()A)準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B)召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C)正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D)為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)答案:C解析:[單選題]45.當(dāng)用戶發(fā)起附著時(shí),如該用戶的imsi號段信息在MME上并沒有制作相應(yīng)數(shù)據(jù),則MME將A)拒絕該用戶附著請求B)仍允許該用戶附著請求C)轉(zhuǎn)發(fā)該用戶附著請求至HLR/HSS進(jìn)行鑒權(quán)D)匹配默認(rèn)規(guī)則答案:A解析:[單選題]46.有一組數(shù)據(jù)其均值是20,對其中的每一個(gè)數(shù)據(jù)都加上10,那么得到的這組新數(shù)據(jù)的均值是()。A)20B)10C)15D)30答案:D解析:[單選題]47.IP地址表示什么A)本地broadcastB)直接multicastC)本地networkD)本地loopback答案:A解析:[單選題]48.模型把數(shù)據(jù)學(xué)習(xí)的太徹底,以至于把噪聲數(shù)據(jù)的特征也學(xué)習(xí)到了,這樣就會導(dǎo)致在后期測試的時(shí)候不能夠很好地識別數(shù)據(jù),模型泛化能力太差,這是()的原因A)欠擬合B)泛化誤差C)過擬合D)經(jīng)驗(yàn)誤差答案:C解析:[單選題]49.在基本DBSCAN的參數(shù)選擇方法中,點(diǎn)到它的K個(gè)最近鄰的距離中的K選作為哪一個(gè)參數(shù)()A)EpsB)MinPtsC)質(zhì)心D)邊界答案:B解析:[單選題]50.()的目的縮小數(shù)據(jù)的取值范圍,使其更適合于數(shù)據(jù)挖掘算法的需要,并且能夠得到和原始數(shù)據(jù)相同的分析結(jié)果A)數(shù)據(jù)清洗B)數(shù)據(jù)集成C)數(shù)據(jù)變換D)數(shù)據(jù)歸約答案:D解析:[單選題]51.如果允許一條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對相應(yīng)類的一次投票,然后計(jì)票確定測試記錄的類標(biāo)號,稱為A)無序規(guī)則B)窮舉規(guī)則C)互斥規(guī)則D)有序規(guī)則答案:A解析:第2部分:多項(xiàng)選擇題,共17題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]52.偽分布模式中的注意點(diǎn)?A)偽分布式適用于開發(fā)和測試環(huán)境B)所有守護(hù)進(jìn)程都在同一臺機(jī)器上運(yùn)行C)守護(hù)進(jìn)程在不同的機(jī)器上運(yùn)行D)偽分布模式不能用于開發(fā)分布式代碼答案:AB解析:[多選題]53.以下哪些指標(biāo)可以通過網(wǎng)優(yōu)平臺獲???()A)無線接通率B)IMS初始注冊成功率C)空口上下行流量D)E-RAB建立成功率答案:ACD解析:[多選題]54.()都屬于分裂的層次聚類算法。A)二分K均值B)MSTC)ChameleonD)組平均答案:AB解析:[多選題]55.層次聚類主要有()類型A)凝集層次聚類B)凝聚層次聚類C)分散層次聚類D)分裂層次聚類答案:BD解析:[多選題]56.()都屬于簇有效性的監(jiān)督度量。A)輪廓系數(shù)B)共性分類相關(guān)系數(shù)C)熵D)F度量答案:CD解析:[多選題]57.利用Apriori算法計(jì)算頻繁項(xiàng)集可以有效降低計(jì)算頻繁集的時(shí)間復(fù)雜度。在以下的購物籃中產(chǎn)生支持度不小于3的候選3-項(xiàng)集,在候選2-項(xiàng)集中需要剪枝的是()TID項(xiàng)集1面包、牛奶2面包、尿布、啤酒、雞蛋3牛奶、尿布、啤酒、可樂4面包、牛奶、尿布、啤酒5面包、牛奶、尿布、可樂A)啤酒、尿布B)啤酒、面包C)面包、尿布D)啤酒、牛奶答案:BD解析:[多選題]58.S-GW的功能包括A)尋呼消息的發(fā)送B)數(shù)據(jù)的路由和傳播C)用戶面數(shù)據(jù)的加密D)NAC層信令的加密答案:BC解析:[多選題]59.聯(lián)機(jī)分析處理包括()基本分析功能。A)聚類B)切片C)轉(zhuǎn)軸D)切塊答案:BCD解析:[多選題]60.智能翻譯可以實(shí)現(xiàn)的功能為()A)多種語言翻譯B)語音翻譯C)方言翻譯D)拍照翻譯答案:ABCD解析:[多選題]61.產(chǎn)生過度擬合數(shù)據(jù)問題的原因有()A)樣本里的噪音數(shù)據(jù)干擾過大,大到模型過分記住了噪音特征,反而忽略了真實(shí)的輸入輸出間的關(guān)系B)樣本抽取錯(cuò)誤,包括樣本數(shù)量太少,抽樣方法錯(cuò)誤,抽樣時(shí)沒有足夠正確考慮業(yè)務(wù)場景或業(yè)務(wù)特點(diǎn)等C)建模時(shí)使用了樣本中太多無關(guān)的輸入變量D)在決策樹模型搭建中,使用的算法對于決策樹的生長沒有合理的限制和修剪,決策樹的自由生長有可能每片葉子里只包含單純的事件數(shù)據(jù)答案:ABCD解析:[多選題]62.數(shù)據(jù)挖掘的算法,根據(jù)算法分析數(shù)據(jù)的方式可分為:A)假設(shè)檢驗(yàn)型算法(Top-Down)B)知識發(fā)現(xiàn)型算法(Bottom-Up)C)掃描類比型算法(Left-Right)D)排除干擾型算法(Noise-Clean)答案:AB解析:[多選題]63.以下sklearn中的模型,哪些是解決回歸分析的?()A)LinearRegressionB)SVRC)LogisticRegressionD)Ridge答案:ABD解析:[多選題]64.hbase有哪些特點(diǎn)?A)hbase支持隨機(jī)查詢B)hbase支持?jǐn)?shù)據(jù)修改C)hbase支持多表鏈接D)hbase支持多master答案:ABD解析:[多選題]65.在《居民區(qū)4G&寬帶網(wǎng)絡(luò)能力全景分析》應(yīng)用中,建立常駐用戶與居民區(qū)的關(guān)聯(lián)模型方法有()A)基于信令識別用戶常駐居民區(qū)B)基于MR打點(diǎn)法識別用戶常駐居民區(qū)C)基于語音話單識別用戶常駐居民區(qū)D)基于用戶寬帶開戶信息識別答案:ABCD解析:[多選題]66.《實(shí)時(shí)業(yè)務(wù)質(zhì)量監(jiān)控保障》落地手冊中提出的實(shí)時(shí)數(shù)據(jù)處理架構(gòu),給出了哪些參考架構(gòu)A)基于開源框架的流數(shù)據(jù)處理架構(gòu)B)基于自主研發(fā)的精簡XDR架構(gòu)C)基于MPP數(shù)據(jù)庫架構(gòu)D)基于Spark框架架構(gòu)答案:AB解析:[多選題]67.根據(jù)《中國移動(dòng)大數(shù)據(jù)安全管控分類分級實(shí)施指南》,以下哪些屬于敏感級數(shù)據(jù)A)實(shí)體身份證明B)自然人身份標(biāo)識C)網(wǎng)絡(luò)身份標(biāo)識D)終端設(shè)備標(biāo)識答案:BC解析:[多選題]68.數(shù)據(jù)挖掘工具選取需要考慮的因素有()A)可產(chǎn)生的模式種類的數(shù)量B)解決復(fù)雜問題的能力C)操縱性能D)數(shù)據(jù)存取能力E)和其他產(chǎn)品的接口答案:ABCDE解析:第3部分:判斷題,共20題,請判斷題目是否正確。[判斷題]69.登錄網(wǎng)站時(shí),只有瀏覽器發(fā)送的請求才能獲得響應(yīng)內(nèi)容。A)正確B)錯(cuò)誤答案:對解析:[判斷題]70.醫(yī)生根據(jù)患者的癥狀判斷所患疾病類型屬于聚類任務(wù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]71.Python字符串方法replace()對字符串進(jìn)行原地修改。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]72.假設(shè)已成功導(dǎo)入os和sys標(biāo)準(zhǔn)庫,那么表達(dá)式os.path.dirname(sys.executable)的值為Python安裝目錄。A)正確B)錯(cuò)誤答案:對解析:[判斷題]73.通常有些網(wǎng)站返回的數(shù)據(jù)會出現(xiàn)亂碼,肯定是客戶端沒有反饋正確的編碼導(dǎo)致的。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]74.在SELECT語句中,消除出現(xiàn)重復(fù)記錄的關(guān)鍵字是DISTINCT。A)正確B)錯(cuò)誤答案:對解析:[判斷題]75.已知x={1:1,2:2},那么語句x[3]=3無法正常執(zhí)行。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]76.一個(gè)關(guān)聯(lián)規(guī)則既要滿足最小支持度,又要滿足最小置信度。A)正確B)錯(cuò)誤答案:對解析:[判斷題]77.預(yù)測性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生商業(yè)價(jià)值。A)正確B)錯(cuò)誤答案:對解析:[判斷題]78.數(shù)據(jù)倉庫中間層OLAP服務(wù)器只能采用關(guān)系型OLAP()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.每個(gè)網(wǎng)站都有robots.txt文件A)正確B)錯(cuò)誤答案:錯(cuò)解析:不是每個(gè)網(wǎng)站都有robots文件[判斷題]80.已知A和B是兩個(gè)集合,并且表達(dá)式A<B的值為False,那么表達(dá)式A>B的值一定為True。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]81.特征提取技術(shù)并不依賴于特定的領(lǐng)域。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]82.回歸分析與分類都屬于有監(jiān)督學(xué)習(xí),解決問題的過程相同,都是先通過訓(xùn)練數(shù)據(jù)集進(jìn)行學(xué)習(xí),以得到一個(gè)模型然后利用模型進(jìn)行預(yù)測。A)正確B)錯(cuò)誤答案:對解析:[判斷題]83.具體來講,若一個(gè)項(xiàng)集X的支持度大于用戶給定的一個(gè)最小支持度閾值,則X被稱為頻繁項(xiàng)集(或頻繁模式)。A)正確B)錯(cuò)誤答案:對解析:[判斷題]84.可視化技術(shù)正確于分析的數(shù)據(jù)類型通常不是專用性的。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]85.在決策樹中,隨著樹中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]86.如果兩個(gè)變量不獨(dú)立,那這兩者的相關(guān)系數(shù)必然不等于0。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]87.DIKW金字塔理論揭示的是數(shù)據(jù)、信息、智慧、知識的遞增關(guān)系。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]88.刪除列表中重復(fù)元素最簡單的方法是將其轉(zhuǎn)換為集合后再重新轉(zhuǎn)換為列表。A)正確B)錯(cuò)誤答案:對解析:第4部分:問答題,共12題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]89.聚集的目的是什么?答案:1、數(shù)據(jù)約減2、改變尺度3、提高

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論