2019年公需科目考試信息檢索+數(shù)據(jù)挖掘答案_第1頁(yè)
2019年公需科目考試信息檢索+數(shù)據(jù)挖掘答案_第2頁(yè)
2019年公需科目考試信息檢索+數(shù)據(jù)挖掘答案_第3頁(yè)
2019年公需科目考試信息檢索+數(shù)據(jù)挖掘答案_第4頁(yè)
2019年公需科目考試信息檢索+數(shù)據(jù)挖掘答案_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、精選優(yōu)質(zhì)文檔-傾情為你奉上信息檢索所有檢索策略都包含三個(gè)要素,以下選項(xiàng)中不屬于三要素的一項(xiàng)是() A、匹配函數(shù) B、排序函數(shù) C、文檔表示 D、查詢表示答案:B在向量模型中,不可以通過(guò)()來(lái)衡量文檔和查詢之間的相似度。 A、向量間距離 B、向量?jī)?nèi)積 C、向量間夾角大小 D、向量間正切值答案:DT1、T2、T3表示特征項(xiàng),D1、D2、D3、D4為文檔向量,Q為查詢向量,其中,D1=4T1+2T2+3T3,D2=T1+4T2+2T3,D3=5T1+2T3,D4= T2+3T3,Q=T1+0T2+2T3 。以上文檔中和Q

2、最大可能相關(guān)的是() A、D1 B、D2 C、D3 D、D4答案:A以下選項(xiàng)中屬于概率模型的優(yōu)點(diǎn)的是() A、模型具有內(nèi)在的相關(guān)反饋機(jī)制,將文檔根據(jù)相關(guān)概率按遞減順序排列 B、模型最初將文檔分成相關(guān)的集合和不相關(guān)的集合 C、模型中所有的權(quán)值都是二值的 D、模型假設(shè)標(biāo)引詞相互獨(dú)立答案:A信息檢索模型中,神經(jīng)網(wǎng)絡(luò)模型屬于() A、布爾模型 B、向量模型 C、概率模型 D、結(jié)構(gòu)化模型答案:B以下關(guān)于網(wǎng)絡(luò)爬蟲(chóng)的描述中,錯(cuò)誤的一項(xiàng)是() A、在爬蟲(chóng)開(kāi)始的時(shí)候,需要給爬蟲(chóng)輸送一

3、個(gè)URL列表,作為爬蟲(chóng)的起始位置 B、根據(jù)某種抓取策略爬行新發(fā)現(xiàn)的URL,如此重復(fù)下去 C、爬蟲(chóng)程序會(huì)抓取所有網(wǎng)頁(yè),以保證搜索正確性 D、對(duì)于商業(yè)搜索引擎來(lái)說(shuō),分布式爬蟲(chóng)是必須采用的技術(shù)答案:C在實(shí)際的搜索引擎系統(tǒng)中,通過(guò)存儲(chǔ)()來(lái)存儲(chǔ)文檔信息 A、文檔地址 B、文檔簡(jiǎn)化序號(hào) C、文檔編號(hào) D、文檔編號(hào)差值答案:D下面方法中,不是建立索引的方法的是() A、兩邊文檔遍歷法 B、排序法 C、歸并法 D、HITS答案:D關(guān)于PageRank標(biāo)準(zhǔn)算法與簡(jiǎn)化算法正確的是() A、Pa

4、geRank簡(jiǎn)化算法對(duì)G中的每一個(gè)節(jié)點(diǎn)n,設(shè)定其初始值均為1/n B、PageRank簡(jiǎn)化算法可以保證迭代過(guò)程中的PageRank值之和為1 C、PageRank標(biāo)準(zhǔn)算法不考慮沒(méi)有超鏈接網(wǎng)頁(yè)的情況D、在實(shí)際運(yùn)算過(guò)程中,由于節(jié)點(diǎn)數(shù)n的值巨大,因此通常采用適用于稀疏矩陣運(yùn)算的PageRank標(biāo)準(zhǔn)算法來(lái)對(duì)運(yùn)算過(guò)程進(jìn)行改善答案:A關(guān)于HITS算法描述正確的是(C) A、算法最后輸出的是按照內(nèi)容權(quán)威度排序的結(jié)果列表 B、如果在原有的擴(kuò)展網(wǎng)頁(yè)集合內(nèi)添加刪除個(gè)別網(wǎng)頁(yè)或者改變少數(shù)鏈接關(guān)系,HITS算法的排名結(jié)果不會(huì)有非常大的改變C、HITS算法核心思想是對(duì)網(wǎng)頁(yè)兩個(gè)方面的

5、權(quán)威程度進(jìn)行評(píng)價(jià),一個(gè)是內(nèi)容權(quán)威度,另一個(gè)是鏈接權(quán)威度,兩者具有相互增強(qiáng)的關(guān)系 D、HITS是與查詢相關(guān)的算法,計(jì)算效率較高答案:C網(wǎng)頁(yè)重定向?qū)儆谙铝心姆N作弊方式(C) A、內(nèi)容作弊 B、鏈接作弊 C、隱藏作弊 D、Web2.0作弊答案:C對(duì)網(wǎng)頁(yè)進(jìn)行兩次抓取,第一次是正常的搜索引擎爬蟲(chóng)抓取,第二次以模擬人工訪問(wèn)頁(yè)面的方式抓取,如果兩次抓取到的內(nèi)容差異較大,則認(rèn)為是作弊頁(yè)面,這屬于() A、識(shí)別網(wǎng)頁(yè)重定向 B、識(shí)別頁(yè)面隱藏 C、反內(nèi)容作弊 D、鏈接反作弊答案:B以下不是搜索引擎的主要功能模塊的一項(xiàng)是()&#

6、160;A、網(wǎng)絡(luò)爬蟲(chóng) B、搜索引擎索引 C、PageRank D、搜索排序答案:C以下選項(xiàng)中描述不正確的是() A、爬蟲(chóng)的作用是為搜索引擎抓取大量的數(shù)據(jù),抓取的對(duì)象是整個(gè)互聯(lián)網(wǎng)上的網(wǎng)頁(yè) B、根據(jù)具體應(yīng)用的不同,可以將爬蟲(chóng)分為兩種類(lèi)型,即增量型爬蟲(chóng)和垂直型爬蟲(chóng) C、暗網(wǎng)是一些垂直領(lǐng)域網(wǎng)站,它們通常是網(wǎng)站提供組合查詢界面,用戶按照需求輸入查詢之后,才能獲取相關(guān)數(shù)據(jù) D、倒排列表是指記載出現(xiàn)過(guò)某個(gè)單詞的所有文檔的文檔列表、以及單詞在該文檔中出現(xiàn)的位置信息答案:B以下選項(xiàng)中描述正確的是() A、動(dòng)態(tài)索引包含2個(gè)關(guān)鍵的索引結(jié)

7、構(gòu):倒排索引、臨時(shí)索引 B、查準(zhǔn)率是衡量系統(tǒng)在實(shí)施某一作業(yè)時(shí)檢出相關(guān)文獻(xiàn)能力的一種測(cè)度指標(biāo),是對(duì)檢索遺漏程度的度量。 C、中文分詞技術(shù)采用了基于符號(hào)的方法來(lái)識(shí)別D、機(jī)器學(xué)習(xí)的四個(gè)步驟中,文檔特征抽取是指利用抽取算法抽取查詢?cè)~TF/IDF信息、文檔長(zhǎng)度、網(wǎng)頁(yè)P(yáng)ageRank值、網(wǎng)頁(yè)入鏈/出鏈數(shù)量等答案:D以下關(guān)于推薦系統(tǒng)和搜索引擎的說(shuō)法中,錯(cuò)誤的是() A、推薦系統(tǒng)和搜索引擎都是為了解決信息過(guò)載的問(wèn)題 B、搜索引擎需要用戶提供明確的需求 C、推薦系統(tǒng)是由用戶主導(dǎo)的 D、搜索引擎注重結(jié)果之間的排序答案:C下列關(guān)于推薦系統(tǒng)評(píng)測(cè)中在線實(shí)驗(yàn)的說(shuō)

8、法,錯(cuò)誤的是() A、可以公平獲得不同算法實(shí)際在線時(shí)的性能指標(biāo) B、成本較低,容易部署 C、可以獲得商業(yè)上關(guān)注的指標(biāo),如轉(zhuǎn)化率、點(diǎn)擊率等 D、周期較長(zhǎng),需要進(jìn)行長(zhǎng)期的實(shí)驗(yàn)才能得到可靠的結(jié)果答案:B為了覆蓋用戶的不同興趣領(lǐng)域,我們需要提高推薦結(jié)果的() A、驚喜度 B、滿意度 C、多樣性 D、準(zhǔn)確率答案:C下列各項(xiàng)中為工業(yè)界更關(guān)注的評(píng)測(cè)指標(biāo)的是() A、點(diǎn)擊率 B、驚喜度 C、新穎性 D、準(zhǔn)確率答案:A從商家角度看,推薦系統(tǒng)受歡迎的原因有() A、拓寬了用戶獲取知識(shí)的

9、方式 B、可以增加用戶信任度和粘性,增加營(yíng)收 C、可以幫助用戶發(fā)現(xiàn)喜歡的新事物 D、可以增強(qiáng)用戶體驗(yàn)答案:B下列選項(xiàng)中是顯性反饋數(shù)據(jù)的是() A、用戶觀看了某個(gè)視頻 B、用戶對(duì)某個(gè)視頻的評(píng)分 C、用戶觀看視頻的日志 D、用戶在某個(gè)視頻的停留時(shí)長(zhǎng)答案:B下列關(guān)于基于用戶的協(xié)同過(guò)濾算法的說(shuō)法中,錯(cuò)誤的是() A、隨著網(wǎng)站的用戶數(shù)目越來(lái)越大,計(jì)算用戶興趣相似度矩陣將越來(lái)越困難 B、基于用戶的協(xié)同過(guò)濾算法相對(duì)于基于物品的協(xié)同過(guò)濾算法來(lái)說(shuō)更個(gè)性化,反映了用戶自己的興趣傳承 C、基于用戶的協(xié)同過(guò)濾算法可以使

10、用余弦相似度來(lái)評(píng)測(cè)兩個(gè)用戶之間的聯(lián)系 D、新用戶剛加入系統(tǒng)時(shí),基于用戶的協(xié)同過(guò)濾算法沒(méi)有辦法馬上對(duì)該用戶進(jìn)行個(gè)性化推薦答案:B下列關(guān)于推薦算法的說(shuō)法中,錯(cuò)誤的是() A、隱語(yǔ)義模型很難實(shí)現(xiàn)實(shí)時(shí)推薦 B、基于物品的協(xié)同過(guò)濾算法著重于維護(hù)用戶的歷史興趣 C、使用基于內(nèi)容的推薦算法進(jìn)行個(gè)性化推薦時(shí),由于非結(jié)構(gòu)化特征難以利用,我們通常直接將其舍棄 D、基于用戶的協(xié)同過(guò)濾算法更社會(huì)化,著重于反映和用戶興趣相似的小群體的熱點(diǎn)答案:C針對(duì)用戶冷啟動(dòng)問(wèn)題,下列選項(xiàng)中做法錯(cuò)誤的是() A、利用用戶的人口統(tǒng)計(jì)學(xué)信息 B、推薦熱門(mén)商品 

11、C、引導(dǎo)用戶勾選感興趣的標(biāo)簽 D、利用用戶手機(jī)中其它應(yīng)用的日志文件分析用戶的興趣點(diǎn)答案:D下列選項(xiàng)中不是冷啟動(dòng)問(wèn)題解決方案的是() A、推薦熱門(mén)商品給新用戶 B、請(qǐng)專(zhuān)家對(duì)商品進(jìn)行標(biāo)注 C、推薦冷門(mén)物品給用戶 D、雇傭少量用戶試用新商品并給出評(píng)分答案:C數(shù)據(jù)挖掘以下哪項(xiàng)不屬于知識(shí)發(fā)現(xiàn)的過(guò)程?( ) A、數(shù)據(jù)清理 B、數(shù)據(jù)挖掘 C、知識(shí)可視化表達(dá) D、數(shù)據(jù)測(cè)試答案:D以下哪些不屬于數(shù)據(jù)挖掘的內(nèi)容?( ) A、分類(lèi) B、聚類(lèi) C、離群點(diǎn)檢測(cè) D、遞歸分析答案:D以下哪個(gè)不

12、是常見(jiàn)的屬性類(lèi)型? ( ) A、A標(biāo)稱屬性 B、數(shù)值屬性 C、高維屬性 D、序數(shù)屬性答案:C以下哪個(gè)度量屬于數(shù)據(jù)散度的描述? ( ) A、均值 B、中位數(shù) C、標(biāo)準(zhǔn)差 D、眾數(shù)答案:C以下哪個(gè)度量不屬于數(shù)據(jù)中心趨勢(shì)度描述?( D ) A、A均值 B、中位數(shù) C、眾數(shù) D、四分位數(shù)答案:D對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)清理、集成、變換、規(guī)約是數(shù)據(jù)挖掘哪個(gè)步驟的任務(wù)?( ) A、頻繁模式挖掘 B、分類(lèi)和預(yù)測(cè) C、數(shù)據(jù)預(yù)處理 D、噪聲檢測(cè)答案:C聚類(lèi)分析是數(shù)

13、據(jù)挖掘的一種重要技術(shù),以下哪個(gè)算法不屬于聚類(lèi)算法?( ) A、K-Means B、DBSCAN C、SVM D、EM答案:C建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?( ) A、根據(jù)內(nèi)容檢索 B、建模描述 C、預(yù)測(cè)建模 D、尋找模式和規(guī)則答案:C當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí). 可以使用哪種技術(shù)促使帶同類(lèi)標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?( ) A、分類(lèi) B、聚類(lèi) C、關(guān)聯(lián)分析 D、隱馬爾可夫鏈答案:B在構(gòu)造決策樹(shù)時(shí),以下哪種不是選擇屬

14、性的度量的方法? ( ) A、信息增益 B、信息增益率 C、基尼指數(shù) D、距離答案:D知識(shí)發(fā)現(xiàn)流程最核心的步驟是什么? ( ) A、數(shù)據(jù)挖掘 B、數(shù)據(jù)預(yù)處理 C、模式評(píng)估 D、知識(shí)表示答案:A將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?( ) A、頻繁模式挖掘 B、分類(lèi)和預(yù)測(cè) C、數(shù)據(jù)預(yù)處理 D、數(shù)據(jù)流挖掘答案:C以下哪個(gè)度量屬于數(shù)據(jù)中心性的描述? ( ) A、均值 B、極差 C、眾數(shù) D、標(biāo)準(zhǔn)差答案:A類(lèi)分析是

15、數(shù)據(jù)挖掘的一種重要技術(shù),以下哪個(gè)算法不屬于聚類(lèi)算法?( ) A、K-Means B、DBSCAN C、KNN D、EM答案:C某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘的哪類(lèi)問(wèn)題? ( ) A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn) B、聚類(lèi) C、分類(lèi) D、自然語(yǔ)言處理答案:A以下哪些算法是分類(lèi)算法?( ) A、DBSCAN B、C4.5 C、K-Mean D、EM答案:BK-means算法的缺點(diǎn)不包括?( ) A、K必須是事先給定的 B、選擇初

16、始聚類(lèi)中心 C、對(duì)于“噪聲”和孤立點(diǎn)數(shù)據(jù)是敏感的 D、可伸縮、高效答案:D機(jī)器學(xué)習(xí)中,下面哪些方法不可以避免分類(lèi)中的過(guò)擬合問(wèn)題?( ) A、增加樣本數(shù)量 B、增加模型復(fù)雜度 C、去除噪聲 D、正則化答案:B下面那個(gè)不屬于知識(shí)發(fā)現(xiàn)過(guò)程。( ) A、數(shù)據(jù)清理與集成 B、數(shù)據(jù)統(tǒng)計(jì) C、數(shù)據(jù)挖掘 D、模式評(píng)估和知識(shí)表示答案:B在構(gòu)造決策樹(shù)時(shí),以下那個(gè)不屬于選擇屬性的度量? ( ) A、信息增益 B、信息增益率 C、基尼指數(shù) D、信息熵答案:D關(guān)于頻繁模式,下面哪一個(gè)陳述是正確的? ( ) A、K項(xiàng)集頻繁則K-1項(xiàng)則必定不頻繁 B、K項(xiàng)集頻繁則K-1項(xiàng)則必定頻繁 C、K項(xiàng)集不頻繁則K-1項(xiàng)則必定頻繁 D、以上都不正確答案:BDBSCAN算法最大的挑戰(zhàn)是? ( ) A、確定聚類(lèi)個(gè)數(shù) B、確定聚類(lèi)形狀 C、確定半徑及MINPTS 

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論