大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第1頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第2頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第3頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第4頁
大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)_第5頁
已閱讀5頁,還剩196頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

PAGEPAGE201大數(shù)據(jù)和人工智能知識考試題庫600題(含答案)一、單選題1.下面不屬于大數(shù)據(jù)4V特性有(____)。A、容量大B、類型多C、速度快D、應用價值高答案:D解析:數(shù)據(jù)科學理論與實踐2.線性模型試圖學得一個屬性的(__)來進行預測的函數(shù)。A、線性組合B、非線性組合C、取值D、維度答案:A解析:機器學習3.給定測試樣本,基于某種距離度量找出訓練集中與其最靠近的k個訓練樣本,然后基于這k個樣本的信息來進行預測。這種學習算法稱為(__)。A、k-meansB、k近鄰學習C、隨機森林D、決策樹答案:B解析:機器學習4.馬爾可夫隨機場是典型的馬爾可夫網(wǎng),這是一種著名的(__)模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖答案:A解析:機器學習5.(__)算法是一種挖掘關聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。A、AprioriB、EMC、PCAD、PAC答案:A解析:https://baike.baidu./item/APRIORI/20007466.(__)是根據(jù)數(shù)據(jù)采樣來估計概率分布參數(shù)的經(jīng)典方法。A、貝葉斯判定準則B、貝葉斯決策論C、貝葉斯分類器D、極大似然估計答案:D解析:機器學習P1497.讓學習器不依賴外界交互、自動地利用未標記樣本來提升學習性能,就是(__)。A、有監(jiān)督學習B、全監(jiān)督學習C、無監(jiān)督學習D、半監(jiān)督學習答案:D解析:機器學習P2948.支持向量機優(yōu)化問題的形式是(__)。A、一個不含約束的二次規(guī)劃問題B、一個含有等式約束的二次規(guī)劃問題C、一個含有不等式約束的二次規(guī)劃問題D、一個含有不等式約束的線性規(guī)劃問題答案:C解析:機器學習P121-1229.貝葉斯網(wǎng)借助(__)來刻畫屬性之間的依賴關系。A、有向圖B、無環(huán)圖C、有向無環(huán)圖D、歐拉圖答案:C解析:機器學習P15610.下列哪項具體任務不屬于情感分析?()A、情感分類B、觀點抽取C、觀點問答D、段落匹配答案:D解析:統(tǒng)計自然語言處理文本分類與情感分類P66011.以下內(nèi)容符合物體識別任務的是()。A、不能對圖像進行壓縮或剪裁B、遵守誤差最小準則和最佳近似準則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B解析:圖像處理、分析與機器視覺物體識別P27712.在支持向量機中,軟間隔支持向量機的目標函數(shù)比硬間隔支持向量機多了一個(__)。A、偏置項bB、系數(shù)C、松弛變量D、兩種情況的目標函數(shù)相同答案:C解析:機器學習P13113.LasVegasWrapper在拉斯維加斯方法框架下使用(__)策略來進行子集搜索。A、貪心B、最優(yōu)化C、隨機D、順序答案:C解析:機器學習14.中值濾波對(__)的表現(xiàn)較差。A、泊松噪聲B、高斯噪聲C、乘性噪聲D、椒鹽噪聲答案:B解析:https://.cnblogs./vincentcheng/p/9261557.html15.下面對線性模型中偏置值b的說法正確的是(__)。A、無任何意義B、決定超平面的位置C、決定的超平面的方向D、是樣本點到超平面上的映射答案:B解析:模式識別16.(__)的基本想法是適當考慮一部分屬性間的相互依賴信息,從而既不需要進行完全聯(lián)合概率計算,又不至于徹底忽略了比較強的屬性依賴關系。A、貝葉斯判定準則B、貝葉斯決策論C、樸素貝葉斯分類器D、半樸素貝葉斯分類器答案:D解析:機器學習P15417.下面不屬于數(shù)據(jù)科學家的主要職責有(__)。A、設計和評價數(shù)據(jù)工程師的工作B、定義和驗證“研究假設”C、進行“探索型數(shù)據(jù)分析”D、實現(xiàn)“數(shù)據(jù)算法”答案:D解析:數(shù)據(jù)科學理論與實踐18.概率密度函數(shù)服從正態(tài)分布的噪聲,叫做(__)。A、泊松噪聲B、高斯噪聲C、乘性噪聲D、椒鹽噪聲答案:B解析:/lk3030/article/details/84175871#_519.下面關于數(shù)據(jù)加工相關描述不正確的有(__)。A、數(shù)據(jù)加工是數(shù)據(jù)科學中關注的新問題之一B、數(shù)據(jù)加工是為了提升數(shù)據(jù)質(zhì)量、降低數(shù)據(jù)計算復雜度C、數(shù)據(jù)科學中數(shù)據(jù)加工就是傳統(tǒng)數(shù)據(jù)處理D、數(shù)據(jù)脫敏屬于數(shù)據(jù)加工答案:C解析:數(shù)據(jù)科學理論與實踐20.以下可以用于處理決策樹歸納中的過擬合的方法(__)。A、先剪枝B、使用確認集C、結(jié)合模型復雜度D、使用再代入估計答案:A解析:數(shù)據(jù)挖掘?qū)д揚11321.LSTM中門的輸出是()之間的實數(shù)向量。A、0到1B、1到-1C、0到-1D、1到2答案:A解析:/m0epnwstyk4/article/details/7912480022.以下描述不正確的是(__)。A、平滑處理是為了去掉噪聲B、聚集是進行粗粒度計算C、標準化是用區(qū)間或概念標簽表示數(shù)據(jù)D、特征構(gòu)造是構(gòu)造出新的特征答案:C解析:數(shù)據(jù)科學理論與實踐23.下面對范數(shù)規(guī)則化描述錯誤的是(__)。A、L0是指向量中0的元素的個數(shù)B、L1范數(shù)是指向量中各個元素絕對值之和C、L2范數(shù)向量元素絕對值的平方和再開平方D、L0是指向量中非0的元素的個數(shù)答案:A解析:/oTengYue/article/details/8964417024.Dave于2012年發(fā)布(__)首次全面地刻畫了當時快速發(fā)展的大數(shù)據(jù)技術(shù)體系。A、大數(shù)據(jù)產(chǎn)業(yè)網(wǎng)絡B、大數(shù)據(jù)產(chǎn)業(yè)全景圖C、大數(shù)據(jù)產(chǎn)業(yè)D、大數(shù)據(jù)網(wǎng)絡答案:B解析:數(shù)據(jù)科學理論與實踐25.當往往一本書中其實通常使用到的詞匯表是非常小的,這就會導致一本書的表示向量中存在大量的0.這樣的向量稱為()。A、零向量B、滿秩向量C、稀疏向量D、普通向量答案:C解析:/u011630575/article/details/8289412026.Keras主要用于哪一方面A、神經(jīng)網(wǎng)絡B、非結(jié)構(gòu)化數(shù)據(jù)存儲C、數(shù)據(jù)可視化D、數(shù)據(jù)管理答案:A解析:數(shù)據(jù)科學理論與實踐P10627.以下哪個不屬于數(shù)據(jù)治理的內(nèi)容A、理解自己的數(shù)據(jù)B、行為規(guī)范的制定C、崗位職責的定義D、獲得更多的數(shù)據(jù)答案:D解析:數(shù)據(jù)科學理論與實踐P18328.下列對于查準率的描述,解釋正確的是(__)。A、統(tǒng)計分類器預測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預測正確答案:C解析:/program_developer/article/details/7993729129.數(shù)據(jù)戰(zhàn)略的目標是(__)。A、數(shù)據(jù)本身的管理B、培育數(shù)據(jù)驅(qū)動組織或文化C、增強組織機構(gòu)的敏捷性D、提高組織機構(gòu)的核心競爭力答案:B解析:數(shù)據(jù)科學理論與實踐30.(__)不是常用的噪聲處理方法。A、聚類B、回歸C、分類D、分箱答案:C解析:數(shù)據(jù)科學理論與實踐31.詞袋模型是在自然語言處理和信息檢索中的一種簡單假設。在這種模型中,文本(段落或者文檔)被看作是()的詞匯集合,忽略語法甚至是單詞的順序。A、無序B、有序C、無意義D、規(guī)范答案:A解析:/u011630575/article/details/8289412032.使用交互式的和可視化的技術(shù),對數(shù)據(jù)進行探索屬于數(shù)據(jù)挖掘的哪一類任務?A、探索性數(shù)據(jù)分析B、建模描述C、預測建模D、尋找模式和規(guī)則答案:A解析:數(shù)據(jù)科學理論與實踐P8633.L表示模糊分類器的特征關鍵詞,由T推導出模糊集F,以下哪個算法可以計算不同F(xiàn)之間的關聯(lián)度?()A、SVMB、EWCC、SRD、EM答案:C解析:統(tǒng)計自然語言處理模糊分類器P67834.下列關于數(shù)據(jù)標準化的說法中,不正確的是()A、Z-Score標準化適用于特征最大值和最小值未知,數(shù)據(jù)較分散的情況B、聚類算法要求數(shù)據(jù)集無量綱化C、Logistic標準化函數(shù)σ(x)滿足σ(0)=1D、Min-Max標準化易受離群值影響答案:C解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P7435.雙邊濾波能夠較好的保留圖像的(__)。A、邊緣信息B、色彩信息C、亮度信息D、高頻信息答案:A解析:https://.cnblogs./vincentcheng/p/9261557.html36.考察一個由三個卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少?()A、903400B、2800C、180200D、720400答案:A解析:深度學習201卷積網(wǎng)絡37.1特征分析,2影響分析,3原因分析,4數(shù)據(jù)審計,5忽略,6刪除,7插值。以下順序符合缺失數(shù)據(jù)處理過程的有(__)。A、416B、1236C、457D、2357答案:A解析:數(shù)據(jù)科學理論與實踐38.以下對信息描述不正確的是(____)。A、信息與能源、材料屬于同一層次的概念B、信息是客觀的存在C、信息是人類社會賴以生存和發(fā)展的三大資源之一D、信息是對數(shù)據(jù)進行計量形成的記錄答案:D解析:數(shù)據(jù)科學理論與實踐39.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達了屬性的(__)。A、相互制約性B、條件獨立性C、取值D、含義答案:B解析:機器學習P15740.最早被提出的循環(huán)神經(jīng)網(wǎng)絡門控算法是什么。()A、長短期記憶網(wǎng)絡B、門控循環(huán)單元網(wǎng)絡C、堆疊循環(huán)神經(jīng)網(wǎng)絡D、雙向循環(huán)神經(jīng)網(wǎng)絡答案:A解析:深度學習LSTMP24841.Relief的時間開銷隨采樣次數(shù)以及原始特征數(shù)(__)。A、線性增長B、指數(shù)型增長C、快速增長D、負增長答案:A解析:機器學習42.(__)是一種著名的密度聚類算法,它基于一組“鄰域”參數(shù)來刻畫樣本的緊密程度。A、DBSCANB、原型聚類C、密度聚類D、層次聚類答案:A解析:機器學習43.(__)試圖學得一個線性模型以盡可能準確地預測實值輸出標記。A、決策樹B、線性回歸C、貝葉斯分類器D、神經(jīng)網(wǎng)絡答案:B解析:機器學習44.以下描述中不正確的是(___)。A、整個數(shù)據(jù)集可以稱作一個樣本B、樣本不可以是單個示例C、一個樣本可以稱為一個“特征向量”D、樣本中反映事件或?qū)ο笤谀撤矫娴谋憩F(xiàn)或性質(zhì)的事項,可以稱為“特征”答案:B解析:機器學習P245.以下描述不正確的是(____)。A、信息是客觀的存在B、數(shù)據(jù)等于數(shù)值C、顯性知識能夠清晰的表述和有效的轉(zhuǎn)移D、智慧是人類超出知識的那一部分能力答案:B解析:數(shù)據(jù)科學理論與實踐46.TF-IDF與該詞在整個語言中的出現(xiàn)次數(shù)成(__)。A、正比B、反比C、無關D、冪次答案:B解析:/zhaomengszu/article/details/8145290747.卷積神經(jīng)網(wǎng)絡調(diào)整參數(shù)時信息的傳播方向是()。A、后向傳播B、前向傳播C、雙向傳播D、跳躍傳播答案:B解析:https://.cnblogs./neo-T/p/6445227.html48.下面不屬于探索性統(tǒng)計中常用集中趨勢統(tǒng)計量的是(__)。A、和B、方差C、平均數(shù)D、四分位數(shù)答案:B解析:數(shù)據(jù)科學理論與實踐49.當閔可夫斯基距離公式中的系數(shù)p值為2時,可得到(__)的公式。A、歐氏距離B、曼哈頓距離C、街區(qū)距離D、切比雪夫距離答案:A解析:機器學習P20050.中心極限定理是噪聲抑制的中的統(tǒng)計原理,其內(nèi)容是:均值分布總會收斂于一個()。A、正態(tài)分布B、泊松分布C、多項式分布D、均值分布答案:A解析:圖像處理、分析與機器視覺噪聲抑制統(tǒng)計原理P9751.下列哪項方法不屬于圖像分割方法()。A、邊緣檢測法B、閾值分割法C、區(qū)域分割法D、特征提取法答案:D解析:圖像處理、分析與機器視覺分割基礎知識P12552.以查準率為縱軸、查全率為橫軸作圖,就得到了查準率-查全率曲線,簡稱(__)。A、雙曲線B、P-R曲線C、科克曲線D、共軛曲線答案:B解析:機器學習P3153.(__)是廣義線性模型在g(·)=ln(·)時的特例。A、線性模型B、線性回歸C、線性判別分析D、對數(shù)線性回歸答案:D解析:機器學習54.(__)表達了在當前任務上任何學習算法所能達到的期望泛化誤差的下界,即刻畫了學習問題本身的難度。A、偏差B、方差C、噪聲D、泛化誤差答案:C解析:機器學習P4655.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()。A、圖像輸入B、進行卷積C、進行池化D、圖像輸出答案:B解析:/qq_35370018/article/details/7951979156.F1參數(shù)(__),說明模型越穩(wěn)定。A、越小B、越大C、越趨近于某一特定值D、F1參數(shù)和模型穩(wěn)定性沒有關系答案:B解析:https://zhidao.baidu./question/1500844852433214179.html57.以下關于數(shù)據(jù)科學相關描述不正確的是(____)。A、數(shù)據(jù)科學是數(shù)據(jù),尤其是大數(shù)據(jù)背后的科學B、“數(shù)據(jù)”是一門科學,答案就在“大數(shù)據(jù)”手中C、在數(shù)據(jù)科學出現(xiàn)之前,我們關注的是數(shù)據(jù)主動的一面,而在數(shù)據(jù)科學中我們更加重視的是被動作用。D、數(shù)據(jù)科學的最終研究目標是實現(xiàn)數(shù)據(jù)、物質(zhì)和能量之間的轉(zhuǎn)換。答案:C解析:數(shù)據(jù)科學理論與實踐58.下面不屬于維歸約方法的是(__)。A、PCAB、SVDC、DWTD、KNN答案:D解析:數(shù)據(jù)科學理論與實踐59.(__)不是遺傳算法基本算子。A、選擇B、感染C、突變D、交叉答案:B解析:數(shù)據(jù)科學理論與實踐60.(__)是指為最小化總體風險,只需在每個樣本上選擇能使特定條件風險最小的類別標記。A、支持向量機B、間隔最大化C、線性分類器D、貝葉斯判定準則答案:D解析:機器學習61.隱馬爾可夫模型是一種著名的(__)模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖答案:B解析:機器學習P31962.K-搖臂賭博機屬于(__)算法。A、機器學習B、深度學習C、強化學習D、有監(jiān)督學習答案:C解析:機器學習63.以下不屬于數(shù)據(jù)治理工作的主要內(nèi)容的有(__)。A、理解自己的數(shù)據(jù)B、數(shù)據(jù)部門的建立C、有效監(jiān)督與動態(tài)優(yōu)化D、崗位工資的定義答案:D解析:數(shù)據(jù)科學理論與實踐64.池化層的作用是()。A、標準化處理輸入特征B、對特征圖進行特征選擇和信息過濾C、對提取的特征進行非線性組合以得到輸出D、直接輸出每個像素的分類結(jié)果答案:B解析:深度學習卷積網(wǎng)絡P20265.(__)可以理解為對數(shù)據(jù)管理的管理。A、數(shù)據(jù)治理B、數(shù)據(jù)統(tǒng)治C、數(shù)據(jù)宰相D、數(shù)據(jù)戰(zhàn)略答案:A解析:數(shù)據(jù)科學理論與實踐66.關于EDA與統(tǒng)計學中驗證性分析的相關描述不正確的有(__)。A、EDA無需事先假設,驗證性分析需要事先假設B、探索分析在后,驗證性分析在前C、EDA中采取的方法往往比驗證分析簡單D、基于EDA是數(shù)據(jù)計算工作可以分為2個部分:探索性分析和驗證性分析答案:B解析:數(shù)據(jù)科學理論與實踐67.IDF采用了IWF的幾次平方?()A、一次B、二次C、三次D、四次答案:A解析:統(tǒng)計自然語言處理語言模型自適應方法P190,特征權(quán)重計算方法P67368.英文如何分詞?()A、利用空格對句子分詞B、利用逗號分詞C、根據(jù)英文短語分詞D、根據(jù)詞性分詞答案:A解析:統(tǒng)計自然語言處理自動分詞、命名實體識別與詞性標注P23669.以下描述正確的是(____)。A、非結(jié)構(gòu)化數(shù)據(jù)是先有結(jié)構(gòu),后有數(shù)據(jù)B、XML是非結(jié)構(gòu)化數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)是先有數(shù)據(jù),后有結(jié)構(gòu)D、非結(jié)構(gòu)化數(shù)據(jù)是數(shù)據(jù)科學與傳統(tǒng)數(shù)據(jù)管理的主要區(qū)別答案:D解析:數(shù)據(jù)科學理論與實踐70.若1.數(shù)據(jù)加工、2.數(shù)據(jù)化、3.數(shù)據(jù)整齊化、4.數(shù)據(jù)分析,則在數(shù)據(jù)科學的基本流程順序是(__)。A、1234B、2134C、2314D、3214答案:B解析:數(shù)據(jù)科學理論與實踐71.下列有關KNN算法的流程順序,描述正確的是()①確定K的大小,和距離的計算方法②根據(jù)K個樣本的所屬類別,投票決定測試樣本的類別歸屬③計算訓練集樣本與測試樣本的距離,選出K個與測試樣本最相似的樣本A、①②③B、③②①C、①③②D、②①③答案:C解析:數(shù)據(jù)科學理論與實踐P4272.數(shù)據(jù)科學是一門以“數(shù)據(jù)”,尤其是“大數(shù)據(jù)”為研究對象,并以數(shù)據(jù)統(tǒng)計、機器學習、數(shù)據(jù)可視化等為理論基礎,主要研究數(shù)據(jù)加工、數(shù)據(jù)管理、數(shù)據(jù)計算等活動的(____)。A、新興科學B、交叉性學科C、獨立學科D、一整套知識體系答案:B解析:數(shù)據(jù)科學理論與實踐73.核主成分分析是一種(__)方法。A、非線性降維B、線性降維C、分類D、回歸答案:A解析:機器學習P23274.數(shù)據(jù)科學是一門以實現(xiàn)“從數(shù)據(jù)到信息”“從數(shù)據(jù)到知識”“從數(shù)據(jù)到智慧”的轉(zhuǎn)化為主要研究目的,以“數(shù)據(jù)驅(qū)動”“數(shù)據(jù)業(yè)務化”“數(shù)據(jù)洞見”“數(shù)據(jù)產(chǎn)品研發(fā)”為主要研究任務的(____)。A、新興科學B、交叉性學科C、獨立學科D、一整套知識體系答案:C解析:數(shù)據(jù)科學理論與實踐75.LSTM與RNN相比可以解決()。A、梯度消失B、訓練結(jié)果發(fā)散C、需要激活函數(shù)D、無法處理長距離的依賴的問題答案:D解析:/m0epnwstyk4/article/details/7912480076.(__)先將數(shù)據(jù)集中的每個樣本看做一個初始聚類簇,然后在算法運行的每一步找到距離最近的兩個聚類簇進行合并,該過程不端重復,直至達到預設的聚類簇個數(shù)。A、原型聚類B、密度聚類C、層次聚類D、AGNES答案:D解析:機器學習77.卷積神經(jīng)網(wǎng)絡中池化層的作用是()。A、尋找圖像中的細節(jié)特征B、輸入圖片C、減少下一層的計算,防止過擬合D、輸出圖片答案:C解析:/xiaodong_11/article/details/8198570078.下列關于線性模型的描述錯誤的是(__)。A、支持向量機的判別函數(shù)一定屬于線性函數(shù)B、在樣本為某些分布情況時,線性判別函數(shù)可以成為最小錯誤率或最小風險意義下的最優(yōu)分類器C、在一般情況下,線性分類器只能是次優(yōu)分類器D、線性分類器簡單而且在很多期情況下效果接近最優(yōu),所以應用比較廣泛答案:A解析:模式識別79.下列圖像邊緣檢測算子中抗噪性能最好的是()。A、梯度算子B、Prewitt算子C、Roberts算子D、Laplacian算子答案:B解析:圖像處理、分析與機器視覺邊緣檢測算子P9580.下面關于數(shù)據(jù)產(chǎn)品開發(fā)相關描述正確的有(__)。A、數(shù)據(jù)科學家的主要職責是“數(shù)據(jù)的管理”B、數(shù)據(jù)科學家一定是科學家C、“數(shù)據(jù)碼農(nóng)”可以勝任數(shù)據(jù)科學家D、數(shù)據(jù)科學家是為解決現(xiàn)實世界中問題提供直接指導、依據(jù)或參考的高級專家答案:D解析:數(shù)據(jù)科學理論與實踐81.下面不屬于云計算技術(shù)的有(__)。A、HadoopB、SparkC、YARND、集中式計算答案:D解析:數(shù)據(jù)科學理論與實踐82.以下對Value相關描述不正確的是(____)。A、Value是指應用價值高B、Value是指我們淹沒在知識海洋,卻忍受著知識的饑渴C、如何從海量數(shù)據(jù)中洞見出有價值的數(shù)據(jù)是數(shù)據(jù)科學的重要課題之一D、大數(shù)據(jù)中,數(shù)據(jù)價值與數(shù)據(jù)量之間不一定存在線性關系答案:A解析:數(shù)據(jù)科學理論與實踐83.當原始數(shù)據(jù)的存在形式不符合目標算法的要求時,需要對原始數(shù)據(jù)進行(__)。A、數(shù)據(jù)變換B、數(shù)據(jù)加工C、數(shù)據(jù)清洗D、數(shù)據(jù)集成答案:A解析:數(shù)據(jù)科學理論與實踐84.長短時記憶神經(jīng)網(wǎng)絡通過什么來緩解梯度消失問題?()A、增加網(wǎng)絡深度B、減少網(wǎng)絡神經(jīng)元C、使用雙向的網(wǎng)絡結(jié)構(gòu)D、增加一個用來保存長期狀態(tài)的單元答案:D解析:深度學習LSTMP24885.以下對Variety相關描述不正確的是(____)。A、Variety是指類型多B、結(jié)構(gòu)化數(shù)據(jù)在各類數(shù)據(jù)中占比最多C、類型多是指大數(shù)據(jù)涉及多種數(shù)據(jù)D、大數(shù)據(jù)種類包括結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)答案:B解析:數(shù)據(jù)科學理論與實踐86.以下關于機器學習的發(fā)展歷程描述錯誤的是(___)。A、要使機器具有智能,就必須設法使機器擁有知識B、從二十世紀七十年代中期開始,人工智能研究進入了“知識期”C、二十世紀五十年代中后期,基于神經(jīng)網(wǎng)絡的“符號主義”學習開始出現(xiàn)D、二十世紀八十年代是機器學習稱為一個獨立的學科領域、各種機器學習技術(shù)百花初綻的時期答案:C解析:機器學習P10,1187.(__)中基學習器的多樣性不僅來自樣本擾動,還來自屬性擾動。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:B解析:機器學習P18088.處理文本數(shù)據(jù),循環(huán)神經(jīng)網(wǎng)絡與前饋神經(jīng)網(wǎng)絡相比有()的優(yōu)點。A、不會梯度消失B、訓練結(jié)果不會發(fā)散C、不需要激活函數(shù)D、可以接受有序的輸入序列答案:D解析:https://.jianshu./p/554b420c9e6489.根據(jù)DIKW信息、數(shù)據(jù)、知識、智慧模型,以下說法錯誤的是A、數(shù)據(jù)是記錄下來可以被鑒別的符號,它是最原始的素材,未被加工解釋,沒有回答特定的問題,沒有任何意義B、信息是已經(jīng)被處理、具有邏輯關系的數(shù)據(jù),是對數(shù)據(jù)的解釋,這種信息對其接收者具有意義C、知識是從相關信息中過濾、提煉及加工而得到的有用資料,不能從知識中產(chǎn)生新的知識D、智慧是人類所表現(xiàn)出來的一種獨有的能力,主要表現(xiàn)為收集、加工、應用、傳播知識的能力,以及對事物發(fā)展的前瞻性看法答案:C解析:數(shù)據(jù)科學理論與實踐P290.在支持向量機中,(__)允許支持向量機在一些樣本上出錯。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:B解析:機器學習P12991.主成分分析的優(yōu)化目標是一個(__)。A、不含約束條件的二次規(guī)劃問題B、含有約束條件的二次規(guī)劃問題C、不含約束條件的線性規(guī)劃問題D、含有約束條件的線性規(guī)劃問題答案:B解析:機器學習P23092.下面不屬于數(shù)據(jù)科學平臺的有(__)。A、dataikuB、endorC、knimeD、alpine答案:B解析:數(shù)據(jù)科學理論與實踐93.以下哪項不屬于圖像分割的目的。()A、把不同類標分開。B、提取不同區(qū)域的特征。C、識別圖像內(nèi)容,或?qū)D像進行分類。D、對未處理噪聲的圖像進行平滑。答案:D解析:圖像處理、分析與機器視覺分割P12594.以下對大數(shù)據(jù)“涌現(xiàn)”描述不正確的是(____)。A、安全涌現(xiàn)是大數(shù)據(jù)涌現(xiàn)現(xiàn)象B、小數(shù)據(jù)可能沒價值,但是小數(shù)據(jù)組成的大數(shù)據(jù)卻很有價值,這叫做價值涌現(xiàn)C、小數(shù)據(jù)可能質(zhì)量沒問題,但是大數(shù)據(jù)質(zhì)量會出現(xiàn)問題這叫質(zhì)量涌現(xiàn)D、小數(shù)據(jù)可能不涉及隱私,但是大數(shù)據(jù)可能嚴重威脅個人隱私,這叫隱私涌現(xiàn)答案:C解析:數(shù)據(jù)科學理論與實踐95.一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個大小為2×2的不重疊最大池化層,輸出()。A、(28,28,8)B、(16,16,8)C、(28,28,3)D、(16,16,3)答案:D解析:/xiaodong_11/article/details/8198570096.可用信息增益來進行決策樹的(__)。A、樹高B、葉子結(jié)點數(shù)C、總結(jié)點數(shù)D、劃分屬性選擇答案:D解析:機器學習P7597.(__)度量了學習算法的期望預測與真實結(jié)果的偏離程度。A、偏差B、方差C、均方差D、泛化誤差答案:A解析:機器學習P4598.TF-IDF與一個詞在文檔中的出現(xiàn)次數(shù)成(__)。A、正比B、反比C、無關D、冪次答案:A解析:/zhaomengszu/article/details/8145290799.下列關于支持向量回歸說法錯誤的是(__)。A、支持向量回歸是將支持向量的方法應用到回歸問題中B、支持向量回歸同樣可以應用核函數(shù)求解線性不可分的問題C、同分類算法不同的是,支持向量回歸要最小化一個凹函數(shù)D、支持向量回歸的解是稀疏的答案:C解析:支持向量機導論100.預剪枝是指在決策樹生成過程中,對每個結(jié)點在劃分(__)進行估計。A、前B、中C、后D、不估計答案:A解析:機器學習P79101.(__)對基決策樹的每個結(jié)點,先從該結(jié)點的屬性集合中隨機選擇一個包含k個屬性的子集,然后再從這個子集中選擇一個最優(yōu)屬性進行劃分。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:B解析:機器學習102.下面關于參數(shù)估計相關描述不正確的有(__)。A、參數(shù)估計是根據(jù)樣本的統(tǒng)計量來估計總體的參數(shù)B、相關分析是參數(shù)估計C、點估計是參數(shù)估計D、利用樣本均值估計總體均值是參數(shù)估計答案:B解析:數(shù)據(jù)科學理論與實踐103.以下描述不正確的是(__)。A、描述性分析主要采用描述性統(tǒng)計分析方法B、診斷性分析主要采用關聯(lián)分析C、預測性分析主要采用因果分析D、規(guī)范性分析主要采用運籌學,模擬與仿真技術(shù)答案:C解析:數(shù)據(jù)科學理論與實踐104.圖像識別常用softmax函數(shù)接在模型的輸出上,其作用為:()。A、增加不同類別之間的區(qū)分度B、突出輸出向量中類標的對應的維度C、對輸出歸一化,同時以概率的更好解釋輸出向量D、過濾無用的環(huán)境信息答案:C解析:深度學習深度前饋網(wǎng)絡P105105.做卷積運算的缺點是,卷積圖像的大小會不斷縮小,另外圖像的左上角的元素只被一個輸出所使用,所以在圖像邊緣的像素在輸出中采用較少,也就意味著你丟掉了很多圖像邊緣的信息。為了解決這個問題,在卷積過程中引入了()。A、poolingB、paddingC、convolutionD、FC答案:B解析:/ice_actor/article/details/78648780106.邊界跟蹤技術(shù)技術(shù)屬于哪一類分割方法。()A、閾值分割法B、邊緣分割法C、區(qū)域分割法D、特征分區(qū)法答案:B解析:圖像處理、分析與機器視覺分割P35107.支持向量機的優(yōu)化問題是最小化<w·w>的平方,這實現(xiàn)了(__)。A、幾何間隔為1/<w·w>的最大間隔超平面B、幾何間隔為<w·w>的最大間隔超平面C、幾何間隔為1/<w·w>的最小間隔超平面D、幾何間隔為<w·w>的最小間隔超平面答案:A解析:支持向量機導論108.一個輸入為(32,32,3)的數(shù)據(jù)集,通過一個卷積核個數(shù)為8,大小為5*5,步長為1的卷積層,輸出()。A、(28,28,8)B、(27,27,8)C、(28,28,3)D、(27,27,3)答案:A解析:/ice_actor/article/details/78648780109.與卷積神經(jīng)網(wǎng)絡相比,循環(huán)神經(jīng)網(wǎng)絡可以學習()。A、細節(jié)信息B、文章長度C、單詞之間的長距離依賴關系D、歧義答案:C解析:https://.jianshu./p/554b420c9e64110.下面不屬于NoSQL的有(__)。A、ORACLEB、RedislabsC、couchbaseD、paradigm4答案:D解析:數(shù)據(jù)科學理論與實踐111.(__)是指對已有數(shù)據(jù)在盡量少的先驗假設條件下進行探索,并通過作圖,制表等手段探索數(shù)據(jù)結(jié)構(gòu)和規(guī)律的一種方法。A、統(tǒng)計分析B、驗證性分析C、數(shù)據(jù)洞見D、探索性數(shù)據(jù)分析答案:D解析:數(shù)據(jù)科學理論與實踐112.LasVegasWrapper是一種典型的(__)算法。A、過濾式選擇B、嵌入式選擇C、包裹式選擇D、正則化答案:C解析:機器學習P251113.下面不屬于數(shù)據(jù)科學中常用的開源技術(shù)框架的有(__)。A、hadoopmapreduceB、mapillaryC、hiveD、scipy答案:B解析:數(shù)據(jù)科學理論與實踐114.(__)不屬于相關分析。A、正相關B、負相關C、線性相關D、誤差相關答案:D解析:數(shù)據(jù)科學理論與實踐115.剪枝是決策樹學習算法對付(__)的主要手段。A、欠擬合B、過擬合C、樣本數(shù)過多D、特征數(shù)過多答案:B解析:機器學習P79116.下面關于數(shù)據(jù)科學中機器學習思路相關描述不正確的有(__)。A、測試集為輸入B、機器學習算法來學習C、用函數(shù)比較算法估計目標函數(shù)D、現(xiàn)有或部分數(shù)據(jù)為訓練集答案:A解析:數(shù)據(jù)科學理論與實踐117.以下名稱中不屬于“屬性張成的空間”的是(___)。A、屬性空間B、樣本空間C、輸入空間D、對偶空間答案:D解析:機器學習P2118.線性模型中的權(quán)重w值可以看做各個屬性x的(__)。A、正則化系數(shù)B、對最終決策結(jié)果的“貢獻度”C、高維映射D、取值答案:B解析:機器學習P53119.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。A、神經(jīng)元個數(shù)B、遺忘系數(shù)C、返回狀態(tài)D、神經(jīng)元類型答案:B解析:/kyang624823/article/details/79037495120.以下對智慧描述不正確的是(____)。A、智慧是人類超出知識的那一部分能力B、智慧是人類的創(chuàng)造性設計、批判性思考和好奇性提問的結(jié)果C、智慧是從信息中發(fā)現(xiàn)的共性規(guī)律、模型、模式、理論、方法等D、智慧運用知識并結(jié)合經(jīng)驗創(chuàng)造性的預測、解釋和發(fā)現(xiàn)答案:C解析:數(shù)據(jù)科學理論與實踐121.后剪枝是先從訓練集生成一顆完整的決策樹,然后(__)地對非葉結(jié)點進行考察。A、自上至下B、自左至右C、自右至左D、自底向上答案:D解析:機器學習122.建立一個模型,通過這個模型根據(jù)已知的變量值來預測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務?A、根據(jù)內(nèi)容檢索B、建模描述C、預測建模D、尋找模式和規(guī)則答案:C解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P69123.TF-IDF模型中IDF是指(__)。A、詞頻數(shù)B、逆文檔頻率C、詞頻率D、逆文檔頻數(shù)答案:B解析:/zhaomengszu/article/details/81452907124.tensorflow中的tf.nn.max_pool()函數(shù)中的padding參數(shù),作用是()。A、池化方法B、是否要在邊緣補零C、是否要排序D、該層的名稱答案:B解析:/qq_35370018/article/details/79519791125.在訓練集上每學到一條規(guī)則,就將該規(guī)則覆蓋的訓練樣例去除,然后以剩下的訓練樣例組成訓練集重復上述步驟。這個過程稱為(__)。A、規(guī)則學習B、直推學習C、強化學習D、序貫覆蓋答案:D解析:機器學習P349126.下面不屬于數(shù)據(jù)科學家的主要職責有(__)。A、制定“數(shù)據(jù)戰(zhàn)略”B、研發(fā)“數(shù)據(jù)產(chǎn)品”C、模擬“數(shù)據(jù)學習”D、構(gòu)建“數(shù)據(jù)生態(tài)系統(tǒng)”答案:C解析:數(shù)據(jù)科學理論與實踐127.下列關于半監(jiān)督支持向量機說法錯誤的是(__)。A、半監(jiān)督支持向量機是針對二分類問題的學習算法B、半監(jiān)督支持向量機尋求一個在所有樣本上間隔最小化的劃分超平面C、半監(jiān)督支持向量機采用局部搜索來迭代地尋找其優(yōu)化問題的近似解D、半監(jiān)督支持向量機試圖考慮對未標記樣本進行各種可能的標記指派答案:B解析:機器學習P298128.以下對非結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、不能用關系數(shù)據(jù)庫存儲和管理的數(shù)據(jù)B、沒有統(tǒng)一的結(jié)構(gòu)C、圖像是非結(jié)構(gòu)化數(shù)據(jù)D、HTML是非結(jié)構(gòu)化數(shù)據(jù)答案:D解析:數(shù)據(jù)科學理論與實踐129.現(xiàn)實中往往會遇到“不完整”的訓練樣本,在這種存在屬性變量值未知的情形下,可用(__)。A、邊際似然B、EM算法C、貝葉斯決策D、貝葉斯分類器答案:B解析:機器學習130.下列不屬于聚類性能度量外部指標的是(__)。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、DB指數(shù)答案:D解析:機器學習P198131.下面關于假設檢驗相關描述不正確的有(__)。A、先對總體均值進行假設,然后利用樣本來檢驗假設是否成立這屬于假設檢驗B、區(qū)間估計不是假設檢驗C、非參數(shù)假設檢驗是假設檢驗D、點估計是假設檢驗答案:D解析:數(shù)據(jù)科學理論與實踐132.(__)不僅可用于多層前饋神經(jīng)網(wǎng)絡,還可用于其他類型的神經(jīng)網(wǎng)絡。A、感知機B、神經(jīng)元C、神經(jīng)系統(tǒng)D、誤差逆?zhèn)鞑ゴ鸢福篋解析:機器學習133.(__)是具有適應性的簡單單元組成的廣泛并行互聯(lián)的網(wǎng)絡。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡C、神經(jīng)元D、感知機答案:B解析:機器學習P97134.(__)是指樣本空間中具有代表性的點。A、樣本點B、原點C、原型D、實例答案:C解析:機器學習135.概率模型的訓練過程就是(__)過程。A、分類B、聚類C、參數(shù)估計D、參數(shù)選擇答案:C解析:機器學習136.若對于數(shù)據(jù)分布D和概率密度函數(shù)p(?),錯誤率與精度可分別描述為(__)。A、若測試數(shù)據(jù)集的精度高或錯誤率小,則模型的泛化能力強;反之,則泛化能力弱。B、若測試數(shù)據(jù)集的精度低或錯誤率小,則模型的泛化能力強;反之,則泛化能力弱。C、若測試數(shù)據(jù)集的精度高或錯誤率高,則模型的泛化能力強;反之,則泛化能力弱。D、若測試數(shù)據(jù)集的精度小或錯誤率高,則模型的泛化能力強;反之,則泛化能力弱。答案:A解析:https://cloud.tencent./developer/news/319385137.(__)是事先將訓練樣本存儲下來,然后每當遇到一個新增樣本,學習系統(tǒng)分析此樣本與以前存儲樣本之間的關系,并據(jù)此把一個目標函數(shù)值賦給新增樣本。A、基于實例學習B、遺傳算法C、人工神經(jīng)網(wǎng)絡D、歸納學習答案:A解析:數(shù)據(jù)科學理論與實踐138.下列關于特征編碼的敘述中,不正確的是()A、特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法B、數(shù)字編碼與特征的排序無關C、One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會產(chǎn)生n列新特征D、啞變量編碼解決了One-Hot編碼中存在線性關系的問題答案:B解析:數(shù)據(jù)科學理論與實踐P70139.下面哪個不屬于卷積神經(jīng)網(wǎng)絡的一部分()。A、輸入層B、過濾層C、池化層D、全連接層答案:B解析:深度學習卷積網(wǎng)絡P201140.線性判別分析是一種經(jīng)典的(__)學習方法。A、線性B、非線性C、聚類D、降維答案:A解析:機器學習141.下列關于數(shù)據(jù)轉(zhuǎn)換,正確的是()A、json內(nèi)的取值只能有統(tǒng)一格式B、pdf文件在不同平臺上打開顯示不同C、可以通過python將csv文件轉(zhuǎn)換成Excel格式D、excel存儲數(shù)據(jù)的量無限制答案:C解析:數(shù)據(jù)科學理論與實踐P107142.嵌入式選擇是一種(__)算法。A、聚類B、特征選擇C、分類D、回歸答案:B解析:機器學習143.(__)主要包括數(shù)據(jù)科學中的新理念、理論、方法、技術(shù)和工具以及數(shù)據(jù)科學的研究目的、研究內(nèi)容、基本流程、主要原則等。A、理論基礎B、數(shù)據(jù)管理C、基礎理論D、數(shù)據(jù)產(chǎn)品答案:C解析:數(shù)據(jù)科學理論與實踐144.貝葉斯模型平均基于后驗概率來為不同的模型賦予權(quán)重,可視為(__)的一種特殊實現(xiàn)。A、加權(quán)平均法B、投票法C、排序法D、學習法答案:A解析:機器學習P185145.卷積神經(jīng)網(wǎng)絡中說的梯度下降,是指()的梯度。A、參數(shù)本身B、激活函數(shù)C、損失函數(shù)D、圖像大小答案:C解析:https://.cnblogs./neo-T/p/6445227.html146.(__)度量了同樣大小的訓練集的變動所導致的學習性能的變化。A、偏差B、方差C、均方差D、泛化誤差答案:B解析:機器學習147.大數(shù)據(jù)產(chǎn)業(yè)全景圖中包含以下選項(__):1.基礎設施;2.企業(yè)應用;3.分析工具;4.行業(yè)行為;5.開源工具;6.數(shù)據(jù)資源;7.跨平臺基礎設施和分析工具;8.數(shù)據(jù)源和APPs。A、1234B、12345678C、2345678D、5678答案:B解析:數(shù)據(jù)科學理論與實踐148.(__)是指捕獲人們的生活、業(yè)務或社會活動,并將其轉(zhuǎn)換為數(shù)據(jù)的過程。A、數(shù)據(jù)化B、數(shù)據(jù)可視化C、數(shù)據(jù)存儲D、數(shù)據(jù)加工答案:A解析:數(shù)據(jù)科學理論與實踐149.以下哪一個不是長短時記憶神經(jīng)網(wǎng)絡三個門中中的一個門?()A、輸入門B、輸出門C、遺忘門D、進化門答案:D解析:深度學習LSTMP248150.下面不屬于對學習器的泛化誤差進行評估的方法是(__)A、留出法B、交叉驗證法C、自助法D、網(wǎng)格搜索法答案:D解析:機器學習151.一般地,”人“與”馬“分別與”人馬“相似,但”人“與”馬“很不相似;要達到這個目的,可以令”人“”馬“與”人馬“之間的距離都比較小,但”人“與”馬“之間的距離很大,此時該距離不滿足(__)。A、非負性B、同一性C、對稱性D、直遞性答案:D解析:機器學習P199-201152.卷積神經(jīng)網(wǎng)絡中的dropout模塊的作用是()。A、防止結(jié)果發(fā)散B、防止梯度消失C、防止報錯D、防止過擬合答案:D解析:/qq_35370018/article/details/79519791153.主成分分析是一種常用的(__)方法。A、降維B、分類C、回歸D、聚類答案:A解析:機器學習154.分詞中的正向最大匹配算法是(__)掃描字符串。A、從左到右B、從右到左C、兩邊同時進行D、從一個指定的字符發(fā)散答案:A解析:https://baike.baidu./item/%E4%B8%AD%E6%96%87%E5%88%86%E8%AF%8D/371496155.(__)是交叉驗證法的一種特例。A、自助法B、留一法C、交叉驗證法D、錯誤率分析答案:B解析:機器學習P26156.下面關于決策樹學習相關描述不正確的有(__)。A、決策樹學習的本質(zhì)是一種逼近離散值目標函數(shù)的過程B、決策樹的根節(jié)點表示分類的開始C、中間節(jié)點表示某一個屬性的屬性值D、從根節(jié)點到葉節(jié)點的路徑表示一個具體的實例答案:C解析:數(shù)據(jù)科學理論與實踐157.(__)是指能夠通過數(shù)據(jù)來幫助用戶實現(xiàn)其某一個目標的產(chǎn)品。A、數(shù)據(jù)產(chǎn)品B、電子產(chǎn)品C、數(shù)據(jù)系統(tǒng)D、電子系統(tǒng)答案:A解析:數(shù)據(jù)科學理論與實踐158.(__)不是描述統(tǒng)計的基本類型。A、集中趨勢分析B、無關分析C、相關分析D、離中趨勢分析答案:B解析:數(shù)據(jù)科學理論與實踐159.根據(jù)某個詞所連接所有詞匯的權(quán)重,重新計算該詞匯的權(quán)重,然后把重新計算的權(quán)重傳遞下去。直到這種變化達到均衡態(tài),權(quán)重數(shù)值不再發(fā)生改變。這種關鍵詞提取算法叫做()。A、TF-IDFB、TextRankC、LDAD、PCA答案:B解析:/qq_29573871/article/details/81390109160.以下不屬于數(shù)據(jù)科學的研究目的的是(____)。A、大數(shù)據(jù)及其運動規(guī)律的揭示B、從數(shù)據(jù)到智慧的轉(zhuǎn)化C、數(shù)據(jù)解釋D、數(shù)據(jù)驅(qū)動型決策支持答案:C解析:數(shù)據(jù)科學理論與實踐161.tensorflow中的tf.nn.max_pool()的函數(shù),其作用是()。A、圖像輸入B、進行卷積C、進行池化D、圖像輸出答案:C解析:/qq_35370018/article/details/79519791162.下面不屬于NewSQL的有(__)。A、memsqlB、trafodionC、mariaDBD、objectivity答案:D解析:數(shù)據(jù)科學理論與實踐163.聚類算法的性能度量可稱為(__)。A、密度估計B、異常檢測C、有效性指標D、分布結(jié)構(gòu)答案:C解析:機器學習164.多次“采樣”,然后求取平均累積獎賞來作為期望積累獎賞的近似,這稱為(__)。A、免模型學習B、機器學習C、深度學習D、蒙特卡羅強化學習答案:D解析:機器學習P383165.常用的圖像分割方法是把圖像(__)分成不同等級。A、顏色B、灰度C、大小D、亮度信息答案:B解析:數(shù)字圖像處理166.在同一個問題中,錯誤率和精度的關系是(__)。A、錯誤率等于精度值加1B、錯誤率加精度等于1C、精度減錯誤率等于1D、兩者之間沒有關系答案:B解析:機器學習P29167.(__)就是把已知物體的模板與圖像中所有未知物體進行比較,如果某一未知物體與該模板匹配,則該物體被檢測出來,并被認為是與模板相同的物體。A、統(tǒng)計法B、句法識別法C、神經(jīng)網(wǎng)絡法D、模板匹配法答案:D解析:/wcl0617/article/details/79034683168.從加工程度看,數(shù)據(jù)產(chǎn)品可以包含的選項有(__);1.內(nèi)容,2.情感,3.服務,4.應用,5.決策,6.智慧。A、1234B、1356C、1345D、3456答案:B解析:數(shù)據(jù)科學理論與實踐169.下列不屬于大數(shù)據(jù)4V特性的是().A、大量B、多樣C、高速D、快捷答案:D解析:數(shù)據(jù)科學理論與實踐P35170.維納濾波器的作用通常是()。A、去噪B、減小圖像動態(tài)范圍C、復原圖像D、圖像模糊答案:C解析:圖像處理、分析與機器視覺圖像復原技術(shù)P115171.(__)不屬于基本分析方法。A、回歸分析B、分類分析C、聚類分析D、元分析答案:D解析:數(shù)據(jù)科學理論與實踐172.當訓練數(shù)據(jù)很多時,一種更為強大的結(jié)合策略是使用(__),通過另一個學習器來進行結(jié)合。A、投票法B、平均法C、學習法D、排序法答案:C解析:機器學習173.(__)是將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程。A、數(shù)據(jù)化B、數(shù)據(jù)整理C、數(shù)據(jù)加工D、數(shù)據(jù)整齊化答案:C解析:數(shù)據(jù)科學理論與實踐174.(__)的學習目的是生成一顆泛化能力強,即處理未見示例能力強的決策樹。A、線性回歸B、貝葉斯分類器C、神經(jīng)網(wǎng)絡D、決策樹答案:D解析:機器學習175.從學科定位來看,數(shù)據(jù)科學處于(__)三大領域的重疊之處。A、統(tǒng)計學B、黑客精神與技能C、數(shù)學與統(tǒng)計知識D、領域務實知識答案:A解析:數(shù)據(jù)科學理論與實踐176.文本向量的每個元素表示該詞的()。A、順序B、頻率C、含義D、語義關系答案:B解析:/u010213393/article/details/40987945177.計算機初始狀態(tài)能識別(__)上的基本信息。A、像素點B、每個物體C、背景D、前景答案:A解析:/andylanzhiyong/article/details/73555259178.下面不屬于位置智能的有(__)。A、foursquareB、placeIQC、MapillaryD、bloomberg答案:D解析:數(shù)據(jù)科學理論與實踐179.與科學可視化相比,(__)更關注抽象且應用層次的可視化問題。A、信息可視化B、可視化理論C、可視分析學D、數(shù)據(jù)可視化答案:A解析:數(shù)據(jù)科學理論與實踐180.(__)是決策樹學習算法對付過擬合的主要手段。A、剪枝B、連續(xù)值處理C、信息增益D、數(shù)據(jù)預處理答案:A解析:機器學習P79181.(__)是將特征選擇過程與學習器訓練過程融為一體,兩者在同一個優(yōu)化過程中完成,即在學習器訓練過程中自動地進行了特征選擇。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:C解析:機器學習P252182.線性模型有很好的(__)。A、可描述性B、分類結(jié)果C、可解釋性D、聚類結(jié)果答案:C解析:機器學習P53183.當決策樹很小時,訓練和檢驗誤差都很大,這種情況稱作(___)。A、模型擬合不足B、模型過擬合C、泛化能力好D、模型擬合適當答案:A解析:數(shù)據(jù)挖掘?qū)д?84.(__)是M-P神經(jīng)元,也稱為“閾值邏輯單元”。A、輸入層B、輸出層C、第一層D、第二層答案:B解析:機器學習185.任何一個核函數(shù)都隱式地定義了一個(__)空間。A、希爾伯特空間B、再生希爾伯特空間C、再生核希爾伯特空間D、歐式空間答案:C解析:機器學習P128186.多元線性回歸的訓練樣本由(__)個屬性描述。A、一B、二C、三D、多答案:D解析:機器學習187.在IBM提出的企業(yè)管理范疇中,企業(yè)數(shù)據(jù)不包含(__)。A、元數(shù)據(jù)B、主數(shù)據(jù)C、關系數(shù)據(jù)D、業(yè)務數(shù)據(jù)答案:D解析:數(shù)據(jù)科學理論與實踐188.長短時記憶神經(jīng)網(wǎng)絡被設計用來解決什么問題?()A、傳統(tǒng)RNN存在的梯度消失/爆炸問題B、傳統(tǒng)RNN計算量大的問題C、傳統(tǒng)RNN速度較慢的問題D、傳統(tǒng)RNN容易過過擬合的問題答案:A解析:深度學習LSTMP249189.以下關于機器學習描述錯誤的是(__)。A、機器學習的目標是使學得的模型能很好地適用于“新樣本”B、學得模型適用于新樣本的能力,稱為“泛化”能力C、具有強泛化能力的模型不能很好地適用于整個樣本空間D、一般認為,數(shù)據(jù)樣本越多,獲得的模型的泛化能力越強答案:C解析:機器學習P3190.(__)是指抽取情感文本中有價值的情感信息,其要判斷一個單詞或詞組在情感表達中扮演的角色,包括情感表達者識別,評價對象識別,情感觀點詞識別等任務。A、情感分類B、情感檢索C、情感抽取D、情感分析答案:C解析:/weixin_42398658/article/details/85222547191.下面哪種不屬于池化操作()。A、連接池化B、一般池化C、重疊池化D、金字塔池化答案:A解析:深度學習卷積網(wǎng)絡P203192.(__)由兩層神經(jīng)元組成。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡C、神經(jīng)元D、感知機答案:D解析:機器學習193.從訓練數(shù)據(jù)中學習出一組能用于對未見示例進行判別的規(guī)則,這個過程稱為(__)。A、機器學習B、規(guī)則學習C、直推學習D、主動學習答案:B解析:機器學習194.RNN不同于其它神經(jīng)網(wǎng)絡的地方在于()。A、實現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建答案:A解析:深度學習序列建模P227195.(__)的目的是為給定學習器選擇最有利于其性能、“量身定做”的特征子集。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:B解析:機器學習196.下面不屬于商業(yè)的有(__)。A、howgoodB、stitchfixC、instacartD、cyence答案:D解析:數(shù)據(jù)科學理論與實踐197.將閔可夫斯基距離和(__)結(jié)合即可處理混合屬性。A、ValueDifferenceMectricB、k-meansC、k近鄰D、SVM答案:A解析:機器學習198.給定詞匯表如下:{"Bob","ok","like","football","car"}。則下面句子“Botlikesfootball"的詞袋模型表示為:A、[11100]B、[10110]C、[10010]D、[01101]答案:B解析:統(tǒng)計自然語言處理語言模型P162,命名實體翻譯P585199.數(shù)據(jù)科學是一門將“現(xiàn)實世界”映射到“數(shù)據(jù)世界”,在“數(shù)據(jù)層次”上研究“現(xiàn)實世界”的問題,并根據(jù)“數(shù)據(jù)世界”的分析結(jié)果,對“現(xiàn)實世界”進行預測、解釋或決策的(____)。A、新興科學B、交叉性學科C、獨立學科D、一整套知識體系答案:A解析:數(shù)據(jù)科學理論與實踐200.下面關于貝葉斯學習相關描述正確的有(__)。A、貝葉斯學習等價于頻數(shù)概率B、頻數(shù)概率引入先驗知識和邏輯推理來處理不確定問題C、貝葉斯學習只從數(shù)據(jù)本身獲得結(jié)論D、貝葉斯學習是一種以貝葉斯法則為基礎的,并通過概率手段進行學習的方法答案:D解析:數(shù)據(jù)科學理論與實踐201.k近鄰學習是一種(__)。A、監(jiān)督學習方法B、半監(jiān)督學習方法C、無監(jiān)督學習方法D、測試方法答案:A解析:機器學習P225202.下列關于TF-IDF說法正確的是?A、該值與特征項在文檔中出現(xiàn)的頻率成反比B、該值與特征項在文檔中出現(xiàn)的頻率成正比C、該值與在整個語料庫中出現(xiàn)該特征項的文檔庫成正比D、該值與特征項在文檔中出現(xiàn)的頻率無關答案:B解析:統(tǒng)計自然語言處理語言模型自適應方法P190,特征權(quán)重計算方法P673203.下面關于“領域務實知識”相關描述不正確的有(__)。A、“領域務實知識”是對數(shù)據(jù)科學家的特殊要求B、領域務實知識具有顯著的面向領域性C、領域務實知識是數(shù)據(jù)科學的理論基礎D、在組建團隊時,不需重視領域?qū)<业膮⑴c答案:D解析:數(shù)據(jù)科學理論與實踐204.下列對于精度的描述,解釋正確的是(__)。A、統(tǒng)計分類器預測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預測正確答案:B解析:/program_developer/article/details/79937291205.(__)不屬于基于實例學習方法。A、KNNB、局部加權(quán)回歸算法C、基于案例的推理D、決策樹算法答案:D解析:數(shù)據(jù)科學理論與實踐206.(__)用于將非線性引入神經(jīng)網(wǎng)絡。它會將值縮小到較小的范圍內(nèi)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、目標函數(shù)答案:C解析:/jinyuan7708/article/details/82466653207.(__)直接把最終將要使用的學習器的性能作為特征子集的評價標準。A、過濾式選擇B、包裹式選擇C、嵌入式選擇D、正則化答案:B解析:機器學習208.決策樹中的葉結(jié)點對應于(__)。A、屬性B、樣本C、決策結(jié)果D、標簽值答案:C解析:機器學習P74209.若學習算法不依賴于環(huán)境建模,則稱為(__)A、免模型學習B、機器學習C、深度學習D、蒙特卡羅強化學習答案:A解析:機器學習210.下列哪個方法不屬于情感分析的評測?A、COAE評測B、cifar10數(shù)據(jù)集評測C、CCFTCCI評測D、TAC評測答案:B解析:統(tǒng)計自然語言處理情感分析技術(shù)評測P737211.一切以數(shù)據(jù)作為驅(qū)動或者核心的產(chǎn)品叫做()A、創(chuàng)新性產(chǎn)品B、數(shù)據(jù)產(chǎn)品C、風控產(chǎn)品D、核心產(chǎn)品答案:B解析:數(shù)據(jù)科學理論與實踐P157212.核矩陣是(__)的。A、沒有規(guī)律B、半正定C、正定D、樣本矩陣答案:B解析:機器學習213.在馬爾科夫隨機場中,(__)個變量之間的聯(lián)合概率分布能基于團分解為多個因子的乘積。A、2B、3C、4D、多答案:D解析:機器學習P322214.以下對結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、結(jié)構(gòu)化數(shù)據(jù)可以直接用傳統(tǒng)關系數(shù)據(jù)庫進行存儲B、先有結(jié)構(gòu),后有數(shù)據(jù)C、語音數(shù)據(jù)是結(jié)構(gòu)化數(shù)據(jù)D、XML不是結(jié)構(gòu)化數(shù)據(jù)答案:C解析:數(shù)據(jù)科學理論與實踐215.事件A在另外一個事件B已經(jīng)發(fā)生條件下的發(fā)生概率,稱為(__)。A、先驗概率B、后驗概率C、條件概率D、統(tǒng)計概率答案:C解析:/qq_17073497/article/details/81076250216.以下選項不包含在DIKW金字塔中的是(____)。A、信息B、數(shù)值C、知識D、智慧答案:B解析:數(shù)據(jù)科學理論與實踐217.決策樹的生成是一個(__)過程。A、循環(huán)B、迭代C、遞歸D、排序答案:C解析:機器學習218.信息熵是度量(__)最常用的一種指標。A、樣本的個數(shù)B、樣本的維度C、樣本的純度D、樣本的冗余度答案:C解析:機器學習P75219.輸入圖像為32x32,經(jīng)過步長為1,不進行padding,卷積核為5x5的卷積層后,得到的特征圖尺寸是多少?()A、28x28B、27x27C、29x29D、32x32答案:A解析:深度學習201卷積網(wǎng)絡220.下面不屬于農(nóng)業(yè)的有(__)。A、farmersB、farmlogsC、prosperaD、uber答案:D解析:數(shù)據(jù)科學理論與實踐221.(__)主要面向自然科學,尤其是地理、物理、化學、醫(yī)學等領域。A、信息可視化B、科學可視化C、可視分析學D、數(shù)據(jù)可視化答案:B解析:數(shù)據(jù)科學理論與實踐222.Relief的擴展變體Relief-F能夠處理(__)問題。A、二分類B、多分類C、回歸D、降維答案:B解析:機器學習223.(__)是神經(jīng)網(wǎng)絡的基本單位。A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡C、神經(jīng)元D、感知機答案:C解析:機器學習P97224.“給定訓練樣例集,設法將樣例投影到一條直線上,使得同類樣例的投影點盡可能接近、異類樣例的投影點盡可能遠離”,這說的是(__)算法。A、PCAB、SVMC、K-meansD、LDA答案:D解析:機器學習P60225.所有預測模型在廣義上都可稱為一個或一組(__)。A、公式B、邏輯C、命題D、規(guī)則答案:D解析:機器學習P348226.(__)在劃分屬性時是在當前結(jié)點的屬性集合中選擇一個最優(yōu)屬性。A、AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹答案:D解析:機器學習P179227.(__)不屬于離中趨勢分析。A、極差B、平均差C、誤差D、標準差答案:C解析:數(shù)據(jù)科學理論與實踐228.在模型評估與度量的方法中,(__)直接將數(shù)據(jù)集劃分為兩個互斥的集合,一個作為訓練集,另一個作為測試集。A、自助法B、留出法C、交叉驗證法D、錯誤率分析答案:B解析:機器學習P25229.()是一門以可視交互為基礎,綜合運用圖形學、數(shù)據(jù)挖掘和人機交互等技術(shù)等多個學科領域的知識,以實現(xiàn)人機協(xié)同完成可視化任務為主要目的分析推理性學科。A、科學可視化B、可視分析學C、數(shù)據(jù)可視化D、信息可視化答案:B解析:數(shù)據(jù)挖掘:概念與技術(shù)(第三版)P37230.下面不屬于探索性統(tǒng)計中常用離散程度統(tǒng)計量的是(__)。A、平均數(shù)B、方差C、標準差D、極大值答案:A解析:數(shù)據(jù)科學理論與實踐231.遺忘門的作用是()。A、保留重要信息B、去除不重要信息C、信息增加D、輸出答案:B解析:/qq_32241189/article/details/80461635232.數(shù)據(jù)治理任務通常有三個部分不包含(__)。A、主動定義或序化規(guī)則B、接觸數(shù)據(jù)的業(yè)務流程C、為數(shù)據(jù)利益相關者提供持續(xù)D、跨界的保護、服務和應對并解決因不遵守規(guī)則而產(chǎn)生的問題答案:B解析:數(shù)據(jù)科學理論與實踐233.圖像平滑從信號處理的角度看就是去除其中的(__)。A、高頻信息B、低頻信息C、噪聲D、亮度信息答案:A解析:https://.cnblogs./vincentcheng/p/9261557.html234.感知機只有(__)神經(jīng)元進行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A、輸入層B、輸出層C、第一層D、第二層答案:B解析:機器學習P99235.決策論中,將“期望損失”稱為(__)。A、均值B、方差C、風險D、概率答案:C解析:機器學習236.下列關于泛化誤差與偏差、方差和噪音之間的關系,表述正確的是(__)。A、泛化誤差=偏差+方差-噪音B、泛化誤差=偏差-方差+噪音C、泛化誤差=偏差-方差-噪音D、泛化誤差=偏差+方差+噪音答案:D解析:機器學習237.在k均值算法中,假定聚類簇數(shù)k=3,則在算法開始時隨機選?。╛_)個樣本作為初始均值向量A、1B、2C、3D、任意答案:C解析:機器學習P203238.(__)代表的是生成數(shù)據(jù)的機構(gòu)。A、數(shù)據(jù)資源B、數(shù)據(jù)源C、數(shù)據(jù)端D、數(shù)據(jù)站答案:A解析:數(shù)據(jù)科學理論與實踐239.(__)是從海量文本中查詢到觀點信息,根據(jù)主題相關度和觀點傾向性對結(jié)果排序。A、情感分類B、情感檢索C、情感抽取D、情感分析答案:B解析:/weixin_42398658/article/details/85222547240.(__)是一類用圖來表達變量相關關系的概率模型。A、神經(jīng)元模型B、感知機模型C、概率圖模型D、SVM答案:C解析:機器學習241.信息熵的值越小,則該樣本集合的純度(__)。A、越低B、越高C、沒有影響D、自由變化答案:B解析:機器學習242.下面對屬性進行離散化的方法為()A、preprocessing.scale()B、pd.qcut()C、pd.shapeD、pgroupby()答案:B解析:數(shù)據(jù)科學理論與實踐P106243.下列對于查全率的描述,解釋正確的是(__)。A、統(tǒng)計分類器預測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預測正確答案:D解析:/program_developer/article/details/79937291244.(__)又稱情感傾向性分析,是指對給定的文本,識別其中主觀性文本的傾向是肯定還是否定的,或者說是正面還是負面的,是情感分析領域研究最多的A、情感分類B、情感檢索C、情感抽取D、情感分析答案:A解析:/weixin_42398658/article/details/85222547245.下面不屬于數(shù)據(jù)科學家應具備的能力有(__)。A、掌握機器學習B、數(shù)量掌握數(shù)據(jù)科學中常用的技術(shù)與工具C、有良好的身體素質(zhì)D、有豐富的編程經(jīng)驗答案:C解析:數(shù)據(jù)科學理論與實踐246.以下對半結(jié)構(gòu)化數(shù)據(jù)描述不正確的是(____)。A、先有數(shù)據(jù),后有結(jié)構(gòu)B、先有結(jié)構(gòu),后有數(shù)據(jù)C、HTML是半結(jié)構(gòu)化數(shù)據(jù)D、經(jīng)過一定轉(zhuǎn)換后可以用傳統(tǒng)關系數(shù)據(jù)庫存儲答案:B解析:數(shù)據(jù)科學理論與實踐247.下列不屬于數(shù)據(jù)預處理的操作是(__)。A、抽樣B、特征子集選擇C、特征變換D、訓練答案:D解析:數(shù)據(jù)挖掘?qū)д揚27248.LSTM的全稱是()。A、卷積神經(jīng)網(wǎng)絡B、長短時記憶C、區(qū)域神經(jīng)網(wǎng)絡D、循環(huán)神經(jīng)網(wǎng)絡答案:B解析:/qq_32241189/article/details/80461635249.(__)試圖學得一個屬性的線性組合來進行預測的函數(shù)。A、決策樹B、貝葉斯分類器C、神經(jīng)網(wǎng)絡D、線性模型答案:D解析:機器學習P53250.下面不屬于數(shù)據(jù)科學中常用的開源技術(shù)統(tǒng)計工具的有(__)。A、scipyB、numpyC、scalalabD、sentry答案:D解析:數(shù)據(jù)科學理論與實踐251.(__)是將“現(xiàn)實生活中的問題”轉(zhuǎn)換為“數(shù)據(jù)世界中的問題”,然后采用數(shù)據(jù)科學的理念、原則、方法、技術(shù)、工具,通過將數(shù)據(jù)、尤其的大數(shù)據(jù),轉(zhuǎn)換為知識和智慧。A、數(shù)據(jù)工程師B、數(shù)據(jù)碼農(nóng)C、數(shù)據(jù)科學家D、科學家答案:C解析:數(shù)據(jù)科學理論與實踐252.(__)采用概率模型來表達聚類原型。A、k均值算法B、學習向量量化C、高斯混合聚類密度聚類D、密度聚類答案:C解析:機器學習P206253.()是基于TopicModel的關鍵詞抽取。A、TF-IDFB、TextRankC、LDAD、PCA答案:C解析:/albertyzy/article/details/80534246254.隨機森林是在(__)上的一個擴展變體。A、BoostingB、AdaBoostC、RFD、Bagging答案:D解析:機器學習255.真負率是指(__)。A、正樣本預測結(jié)果數(shù)/正樣本實際數(shù)B、被預測為負的正樣本結(jié)果數(shù)/正樣本實際數(shù)C、被預測為正的負樣本結(jié)果數(shù)/負樣本實際數(shù)D、負樣本預測結(jié)果數(shù)/負樣本實際數(shù)答案:D解析:/s/blog_710435680100oca1.html256.TF-IDF模型中TF是指(__)。A、詞頻數(shù)B、逆文檔頻率C、詞頻率D、逆文檔頻數(shù)答案:C解析:/zhaomengszu/article/details/81452907257.馬爾可夫隨機場有一組(__),這是定義在變量子集上的非負實函數(shù),主要用于定義概率分布函數(shù)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、勢函數(shù)答案:D解析:機器學習258.把詞典中的詞按照由長到短遞減的順序逐字搜索整個待處理的材料,一直到把全部的詞切分出來為止。不論分詞詞典多大,被處理的材料多么小,都得把這個分詞詞典匹配一遍。這種方法叫(__)。A、正向最大匹配法B、逆向最大匹配法C、逐詞遍歷法D、隱馬爾科夫模型答案:C解析:/devcloud/article/details/94554190259.假設一共有10篇文檔,其中某個詞A在其中10篇文章中都出現(xiàn)過,另一個詞B只在其中3篇出現(xiàn)。根據(jù)逆文檔頻率,()比較關鍵。A、無B、AC、BD、A和B答案:C解析:http://.sohu./a/209627800_750788260.假正率是指(__)。A、正樣本預測結(jié)果數(shù)/正樣本實際數(shù)B、被預測為負的正樣本結(jié)果數(shù)/正樣本實際數(shù)C、被預測為正的負樣本結(jié)果數(shù)/負樣本實際數(shù)D、負樣本預測結(jié)果數(shù)/負樣本實際數(shù)答案:C解析:/s/blog_710435680100oca1.html261.下列哪個不是專門用于可視化時間空間數(shù)據(jù)的技術(shù):A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B解析:數(shù)據(jù)科學理論與實踐P86262.循環(huán)神經(jīng)網(wǎng)絡適合處理什么數(shù)據(jù)。()A、節(jié)點數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B解析:深度學習序列建模P227263.下列關于軟支持向量機的說法正確的是(__)。A、軟間隔支持向量機不可應用拉格朗日乘子法求解B、軟間隔支持向量機和硬間隔支持向量機完全相同C、軟間隔支持向量機只能使用Hinge損失函數(shù)D、軟間隔支持向量機的目標函數(shù)仍是一個二次規(guī)劃問題答案:D解析:機器學習264.F1參數(shù)的大小反映了模型的(__)。A、準確度B、誤差C、穩(wěn)定性D、偏差答案:C解析:https://zhidao.baidu./question/1500844852433214179.html265.下面不屬于數(shù)據(jù)加工的有(__)。A、數(shù)據(jù)脫敏B、數(shù)據(jù)脫質(zhì)C、數(shù)據(jù)規(guī)約D、數(shù)據(jù)標注答案:B解析:數(shù)據(jù)科學理論與實踐266.如果LASSO模型中的懲罰項變大,下列說法正確的是()A、部分回歸系數(shù)會變?yōu)?B、部分回歸系數(shù)會趨近于0,但不會取值為0C、A和B的表述都正確D、以上說法都不正確答案:A解析:數(shù)據(jù)科學理論與實踐P42267.下面不屬于數(shù)據(jù)科學中特有的管理方法有(__)。A、關系數(shù)據(jù)庫B、NewSQLC、NoSQLD、關系云答案:A解析:數(shù)據(jù)科學理論與實踐268.(__)訓練好之后可以通過一些屬性變量的觀測值來推測其他屬性變量的取值。A、貝葉斯決策B、貝葉斯分類器C、貝葉斯網(wǎng)D、結(jié)構(gòu)答案:C解析:機器學習269.由于不同類別的關鍵詞對排序的貢獻不同,檢索算法一般把查詢關鍵詞分為幾類,以下哪一類不屬于此關鍵詞類型的是()。A、引用詞B、普通關鍵詞C、高頻詞匯D、擴展關鍵詞答案:C解析:統(tǒng)計自然語言處理問答系統(tǒng)P714270.以下對Velocity相關描述不正確的是(____)。A、Velocity是指速度快B、實時分析數(shù)據(jù)處理要求速度快C、大數(shù)據(jù)中所說的“速度”包括兩種:增長速度和處理速度D、通常而言,處理速度比增長速度快答案:D解析:數(shù)據(jù)科學理論與實踐271.下面算法屬于局部處理的是()。A、灰度線性變換B、二值化C、傅里葉變換D、中值濾波答案:D解析:圖像處理、分析與機器視覺圖像平滑P90272.若設1.啟動,2.診斷,3.建立,4.行動,5.學習,則DMM模型中的順序為(__)。A、12345B、12354C、13254D、13245答案:A解析:數(shù)據(jù)科學理論與實踐273.(__)是一門以可視化交互為基礎,綜合運用圖形學、數(shù)據(jù)挖掘和人機交互等多個領域的知識,以實現(xiàn)人機協(xié)同完成可視化任務為主要目的的分析推理性學科。A、信息可視化B、科學可視化C、可視分析學D、數(shù)據(jù)可視化答案:C解析:數(shù)據(jù)科學理論與實踐274.CART決策樹使用“基尼指數(shù)”來選擇劃分屬性時,使劃分后基尼指數(shù)()的屬性為最優(yōu)劃分屬性。A、最大B、最小C、隨機選擇D、按序選擇答案:B解析:機器學習P75275.(__)主要為數(shù)據(jù)科學和大數(shù)據(jù)產(chǎn)業(yè)鏈提供大數(shù)據(jù)分析類的技術(shù)支持。A、分析工具B、基礎設施C、數(shù)據(jù)科學平臺D、機器學習答案:A解析:數(shù)據(jù)科學理論與實踐276.(__)通過構(gòu)建并結(jié)合多個學習器來完成學習任務。A、支持向量機B、貝葉斯分類器C、神經(jīng)網(wǎng)絡D、集成學習答案:D解析:機器學習P171277.圖像降噪的作用(__)。A、改變圖像大小B、將圖像分成多個小單位C、去除干擾信號D、使圖像變得更加豐富答案:C解析:https://wenku.baidu./view/cd5619586d85ec3a87c24028915f804d2b1687ec.html278.下面不屬于臟數(shù)據(jù)的是(__)。A、有缺失值B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、無序數(shù)據(jù)答案:D解析:數(shù)據(jù)科學理論與實踐279.以下描述中不正確的是(___)。A、若欲預測的是離散值,則此學習任務稱為分類B、若預測的是連續(xù)值,則此類學習任務稱為回歸C、學得的模型適用于新樣本的能力,稱訓練能力D、從數(shù)據(jù)中學得模型的過程稱為學習答案:C解析:機器學習P2,3280.下列對于錯誤率的公式,解釋正確的是(__)。A、統(tǒng)計分類器預測出來的結(jié)果與真實結(jié)果不相同的個數(shù),然后除以總的樣例集D的個數(shù)。B、先統(tǒng)計分類正確的樣本數(shù),然后除以總的樣例集D的個數(shù)。C、預測為正的樣例中有多少是真正的正樣例D、樣本中的正例有多少被預測正確答案:A解析:/program_developer/article/details/79937291281.以下關于歸納偏好描述錯誤的是(___)。A、不是每一個有效的機器學習算法必有其歸納偏好B、歸納偏好可看做學習算法自身在一個可能很龐大的假設空間中對假設進行選擇的啟發(fā)式或“價值觀”C、歸納偏好對應了學習算法本身所做出的的關于“什么樣的模型更好”的假設D、如果沒有歸納偏好,學習算法在每次進行預測時將隨機抽選訓練集上的等效假設答案:A解析:機器學習P6,7282.(__)是在不影響數(shù)據(jù)分析結(jié)果準確性的前提下,對原始數(shù)據(jù)進行一定的變換操作,對其中的個人(組織)敏感數(shù)據(jù)進行替換或刪除操作。A、數(shù)據(jù)加工B、數(shù)據(jù)保護C、數(shù)據(jù)脫敏D、數(shù)據(jù)清洗答案:C解析:數(shù)據(jù)科學理論與實踐283.下面不屬于數(shù)據(jù)歸約方法有(__)。A、維歸約B、度歸約C、值歸約D、數(shù)據(jù)壓縮答案:B解析:數(shù)據(jù)科學理論與實踐284.以下描述不正確的是(__)。A、耐抗性是指對于數(shù)據(jù)局部不良反應的非敏感性B、殘差是指一個總括統(tǒng)計量或模型擬合值減去數(shù)據(jù)C、重新表達是指找到合適的尺度或數(shù)據(jù)表達方式進行一定的轉(zhuǎn)換,使得有利于數(shù)據(jù)分析D、啟示是指通過探索性分析,發(fā)現(xiàn)新的瑰麗,問題和啟迪,進而滿足數(shù)據(jù)加工和數(shù)據(jù)分析的需要答案:B解析:數(shù)據(jù)科學理論與實踐285.決策樹的基本流程遵循(__)的策略。A、貪心B、最優(yōu)化C、分而治之D、順序答案:C解析:機器學習P74286.Relief是為(__)問題設計的。A、二分類B、多分類C、回歸D、降維答案:A解析:機器學習287.(__)采用圖表或數(shù)學方法描述數(shù)據(jù)的統(tǒng)計特征。A、描述統(tǒng)計B、洞見統(tǒng)計C、推斷統(tǒng)計D、歸納統(tǒng)計答案:A解析:數(shù)據(jù)科學理論與實踐288.數(shù)據(jù)戰(zhàn)略的側(cè)重點是(__)。A、數(shù)據(jù)密集型問題B、計算密集型問題C、人才密集型問題D、模型密集型問題答案:A解析:數(shù)據(jù)科學理論與實踐289.規(guī)則生成本質(zhì)上是一個(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論