2023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)_第1頁(yè)
2023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)_第2頁(yè)
2023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)_第3頁(yè)
2023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)_第4頁(yè)
2023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)_第5頁(yè)
已閱讀5頁(yè),還剩147頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1522023年大數(shù)據(jù)應(yīng)用技能競(jìng)賽全題庫(kù)-下(多選、判斷題匯總)多選題1.隨機(jī)森林的隨機(jī)性主要體現(xiàn)在()。A、決策樹(shù)選擇的隨機(jī)性B、數(shù)據(jù)集的隨機(jī)性C、待選特征的隨機(jī)性D、參數(shù)選擇的隨機(jī)性答案:BC2.有兩種策略常用來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合,分別是()和()。A、晚停B、早停C、正則化D、加入損失函數(shù)答案:BC3.Python支持運(yùn)行的平臺(tái)有()。A、WindowsB、MacOSC、CentOSD、Ubuntu答案:ABCD4.傳統(tǒng)關(guān)系數(shù)據(jù)庫(kù)的優(yōu)點(diǎn)包括()。A、數(shù)據(jù)一致性高B、數(shù)據(jù)冗余度低C、簡(jiǎn)單處理的效率高D、產(chǎn)品成熟度高答案:ABD5.關(guān)于Hive的說(shuō)法正確的是()。A、Hive是基于Hadoop的數(shù)據(jù)倉(cāng)庫(kù)工具B、Hive可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫(kù)表C、最初,Hive由Google開(kāi)源,用于解決海量結(jié)構(gòu)化日志數(shù)據(jù)統(tǒng)計(jì)問(wèn)題D、Hive的主要應(yīng)用場(chǎng)景是離線分析答案:ABD6.Python的模塊符合以下哪些說(shuō)法()。A、模塊讓你能夠有邏輯地組織你的Python代碼段B、Python擁有豐富的模塊,不支持自定義模塊C、把相關(guān)的代碼分配到一個(gè)模塊里能讓你的代碼更好用,更易懂D、模塊能定義函數(shù),類(lèi)和變量,模塊里也能包含可執(zhí)行的代碼。答案:ACD7.關(guān)于神經(jīng)網(wǎng)絡(luò),下列說(shuō)法正確的是()A、增加網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試集分類(lèi)錯(cuò)誤率B、增加網(wǎng)絡(luò)層數(shù),一定會(huì)增加訓(xùn)練集分類(lèi)錯(cuò)誤率C、減少網(wǎng)絡(luò)層數(shù),可能會(huì)減少測(cè)試集分類(lèi)錯(cuò)誤率D、減少網(wǎng)絡(luò)層數(shù),一定會(huì)減少訓(xùn)練集分類(lèi)錯(cuò)誤率答案:AC8.Flume特點(diǎn)包括()。A、分布式B、高可靠C、高容錯(cuò)D、易于定制和擴(kuò)展答案:ABCD9.下面哪些是spark比Mapreduce計(jì)算快的原因()。A、基于內(nèi)存的計(jì)算;B、基于DAG的調(diào)度框架;C、基于Lineage的容錯(cuò)機(jī)制;D、基于分布式計(jì)算的框架;答案:ABC10.Spark容錯(cuò)性的方式有哪些()。A、數(shù)據(jù)檢查點(diǎn);B、存儲(chǔ)原始數(shù)據(jù);C、記錄數(shù)據(jù)的更新;D、自建數(shù)據(jù)版本;答案:AC11.關(guān)于Python組合數(shù)據(jù)類(lèi)型,以下選項(xiàng)中描述正確的是()。A、Python的strtuple和list類(lèi)型都屬于序列類(lèi)型B、Python組合數(shù)據(jù)類(lèi)型能夠?qū)⒍鄠€(gè)同類(lèi)型或不同類(lèi)型的數(shù)據(jù)組織起來(lái),通過(guò)單一的表示使數(shù)據(jù)操作更有序更容易C、組合數(shù)據(jù)類(lèi)型可以分為3類(lèi):序列類(lèi)型集合類(lèi)型和映射類(lèi)型D、序列類(lèi)型是二維元素向量,元素之間存在先后關(guān)系,通過(guò)序號(hào)訪問(wèn)答案:ABC12.基于Hadoop開(kāi)源大數(shù)據(jù)平臺(tái)主要提供了針對(duì)數(shù)據(jù)分布式計(jì)算和存儲(chǔ)能力,如下屬于分布式存儲(chǔ)組件的有()。A、MRB、SparkC、HDFSD、Hbase答案:CD13.關(guān)于Python分隔代碼塊描述錯(cuò)誤的是()。A、內(nèi)嵌代碼的每一行,都比外面的if語(yǔ)句的縮進(jìn)更多B、代碼以“begin”開(kāi)頭,“end”結(jié)尾C、每行代碼的縮進(jìn)都一致D、代碼塊被封裝在花括號(hào)中答案:BCD14.深度學(xué)習(xí)的實(shí)質(zhì)及其與淺層學(xué)習(xí)的說(shuō)法正確的是(__)。A、DL強(qiáng)調(diào)模型深度B、DL突出特征學(xué)習(xí)的重要性.特征變換+非人工C、沒(méi)有區(qū)別D、以上答案都不正確答案:AB15.plt.axhline(y=0.0,c="r",ls="--",lw=2),對(duì)這句代碼說(shuō)法正確的是()。A、在0.0處添加豎直參考線B、添加水平參考線C、參考線是虛線形式D、網(wǎng)格線是紅色的答案:BC16.字符串的格式化可以使用()。A、%B、formatC、inputD、+答案:AB17.以下()是scipy.stats可實(shí)現(xiàn)的連續(xù)隨機(jī)變量方法。A、rvsB、pdfC、ppfD、cdf答案:ABCD18.如何在監(jiān)督式學(xué)習(xí)中使用聚類(lèi)算法()A、首先,可以創(chuàng)建聚類(lèi),然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B、在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類(lèi)別ID作為特征空間中的一個(gè)額外的特征C、在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類(lèi)D、在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類(lèi)別ID作為特征空間中的一個(gè)額外的特征答案:AB19.以下()屬于數(shù)據(jù)統(tǒng)計(jì)分析工具。A、WekaB、SASC、SPSSD、Matlab答案:ABCD20.關(guān)于TF-IDF模型描述正確的有()。A、TF意思是詞頻B、IDF是逆文本頻率C、該模型基于統(tǒng)計(jì)方法D、在信息檢索中應(yīng)用較少答案:ABC21.a=np.array([1,2,3,4,5,6,7,8])以下()命令可以使輸出結(jié)果為([5,6,7])。A、a[4:7]B、a[5:8]C、a[4:-1]D、a[5:]答案:AC22.在Windows系統(tǒng)中通過(guò)Geany編寫(xiě)Python程序,運(yùn)行Python程序的常用步驟是()。A、菜單Build>ExecuteB、菜單Execute>BuildC、按F5D、按F10答案:AC23.Python中jieba庫(kù)的基本實(shí)現(xiàn)原理是什么()。A、利用中文詞庫(kù),分析漢字與漢字之間的關(guān)聯(lián)幾率B、還有分析漢字詞組的關(guān)聯(lián)幾率C、還可以根據(jù)用戶(hù)自定義的詞組進(jìn)行分析D、還可以分析漢字與英文之間關(guān)聯(lián)幾率答案:ABC24.聚類(lèi)性能度量外部指標(biāo)包括()。A、Jaccard系數(shù)B、FM指數(shù)C、Dunn指數(shù)D、Rand指數(shù)答案:ABD25.(__)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問(wèn)題。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:BC26.在建立模型時(shí),需要用到()。A、訓(xùn)練數(shù)據(jù)B、測(cè)試數(shù)據(jù)C、原始數(shù)據(jù)D、驗(yàn)證數(shù)據(jù)答案:ABD27.下面哪些是基于核的機(jī)器學(xué)習(xí)算法(__)。A、最大期望算法B、徑向基核函數(shù)C、線性判別分析法D、支持向量機(jī)答案:BCD28.以下關(guān)于CSV文件的描述,正確的選項(xiàng)是()。A、CSV文件可用于不同工具間進(jìn)行數(shù)據(jù)交換B、CSV文件格式是一種通用的,相對(duì)簡(jiǎn)單的文件格式,應(yīng)用于程序之間轉(zhuǎn)移表格數(shù)據(jù)。CC、SV文件通過(guò)多種編碼表示字符D、CSV文件的每一行是一維數(shù)據(jù),可以使用Python中的列表類(lèi)型表示答案:ABD29.Analytics1.0的主要特點(diǎn)有()。A、分析活動(dòng)滯后于數(shù)據(jù)的生成B、重視結(jié)構(gòu)化數(shù)據(jù)的分析C、以對(duì)歷史數(shù)據(jù)的理解為主要目的D、注重描述性分析答案:ABCD30.Spark的技術(shù)架構(gòu)可以分為哪幾層()。A、資源管理層;B、Spark核心層;C、應(yīng)用層;D、服務(wù)層;答案:ABD31.完整性約束通常包括()A、實(shí)體完整性B、域完整性C、參照完整性D、用戶(hù)定義完整性答案:ABCD32.EDA(探索性數(shù)據(jù)分析)方法與傳統(tǒng)統(tǒng)計(jì)學(xué)的驗(yàn)證性分析方法的區(qū)別有()。A、EDA需要事先提出假設(shè),而驗(yàn)證性分析不需要B、EDA中采用的方法往往比驗(yàn)證性分析簡(jiǎn)單C、在一般數(shù)據(jù)科學(xué)項(xiàng)目中,探索性分析在先,驗(yàn)證性分析在后D、EDA更為簡(jiǎn)單、易學(xué)和易用答案:BCD33.以下關(guān)于HTML標(biāo)簽嵌套規(guī)則的說(shuō)法,正確的是()。A、塊元素可以包含內(nèi)聯(lián)元素或某些塊元素,但內(nèi)聯(lián)元素也可以包含塊元素B、HTML標(biāo)簽包括塊級(jí)元素和內(nèi)嵌元素C、內(nèi)嵌元素一般用在網(wǎng)站內(nèi)容之中的某些細(xì)節(jié)或部位,用以“強(qiáng)調(diào)區(qū)分樣式上標(biāo)下標(biāo)錨點(diǎn)”等,通常包括:aabbrbbrfontiimginputkbdlabelqsselectsmallspansubttuvar等D、其中塊級(jí)元素一般用來(lái)搭建網(wǎng)絡(luò)架構(gòu)布局承載內(nèi)容,通常包括的標(biāo)簽有:addressdirdivdldtddformh1~h6hrisindexmenunoframesnoscriptolppretableul等答案:BCD34.下列哪些指標(biāo)可以用來(lái)評(píng)估線性回歸模型(多選)()A、R-SquaredB、AdjustedR-SquaredC、FStatisticsD、RMSE/MSE/MAE答案:ABCD35.關(guān)于分析學(xué)習(xí)和歸納學(xué)習(xí)的比較,說(shuō)法正確的是()。A、歸納學(xué)習(xí)擬合數(shù)據(jù)假設(shè),分析學(xué)習(xí)擬合領(lǐng)域理論的假設(shè)B、歸納學(xué)習(xí)論證方式為統(tǒng)計(jì)推理,分析學(xué)習(xí)為演繹推理C、歸納學(xué)習(xí)不需要隱式的先驗(yàn)知識(shí)D、訓(xùn)練數(shù)據(jù)不足時(shí)歸納學(xué)習(xí)可能會(huì)失敗答案:ABCD36.常見(jiàn)的聚類(lèi)性能度量外部指標(biāo)有()。A、Jaccard系數(shù)B、DB指數(shù)C、FM指數(shù)D、以上答案都正確答案:AC37.數(shù)據(jù)增值存在于哪些過(guò)程中()。A、數(shù)據(jù)對(duì)象的封裝B、數(shù)據(jù)系統(tǒng)的研發(fā)C、數(shù)據(jù)的集成應(yīng)用D、基于數(shù)據(jù)的創(chuàng)新答案:ABCD38.下面是文件基本操作的函數(shù)()。A、closeB、readC、renameD、remove答案:ABCD39.以下哪些方法是tf-idf的變種()。A、TFCB、EWCC、ITCD、IG答案:AC40.下列關(guān)于spark中的RDD描述正確的有()。A、RDD(ResilientDistributedDataset)叫做彈性分布式數(shù)據(jù)集,是spark中最基本的數(shù)據(jù)抽象;B、Resilient:表示彈性的;C、Destributed:分布式,可以并行在集群計(jì)算;D、Dataset:就是一個(gè)集合,用于存放數(shù)據(jù)的;答案:ABCD41.Python的優(yōu)點(diǎn)有()。A、變量不用預(yù)定義類(lèi)型B、數(shù)據(jù)結(jié)構(gòu)功能強(qiáng)大C、語(yǔ)言可解釋性強(qiáng)D、變量類(lèi)型固定答案:ABC42.K均值聚類(lèi)和層次聚類(lèi)在一些方面有重大差異。以下哪些說(shuō)法是正確的()A、在K均值聚類(lèi)中,必須在運(yùn)行算法前選定想要的簇的個(gè)數(shù)B、在k均值聚類(lèi)中,可以在運(yùn)行算法后選定想要的簇的個(gè)數(shù)C、在層次聚類(lèi)中,可以在運(yùn)行算法后選定想要的簇的個(gè)數(shù)D、k均值聚類(lèi)算法所需的計(jì)算量比層次聚類(lèi)算法小得多答案:ACD43.影響聚類(lèi)算法效果的主要原因有:()A、特征選取B、模式相似性測(cè)度C、分類(lèi)準(zhǔn)則D、已知類(lèi)別的樣本質(zhì)量答案:ABC44.直方圖修正法包括()。A、直方圖統(tǒng)計(jì)B、直方圖均衡C、直方圖過(guò)濾D、直方圖規(guī)定化;答案:BD45.特征選擇的目的:()。A、減少特征數(shù)量、降維B、使模型泛化能力更強(qiáng)C、增強(qiáng)模型擬合能力D、減少過(guò)擬合。答案:ABD46.基于Boosting的集成學(xué)習(xí)代表算法有()。A、AdaboostB、GBDTC、XGBOOSTD、隨機(jī)森林答案:ABC47.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()A、翻譯語(yǔ)言B、語(yǔ)音識(shí)別C、圖像識(shí)別D、股票預(yù)測(cè)答案:ABD48.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的活動(dòng)包括()。A、模式/模型的應(yīng)用及維護(hù)B、模式/模型的洞見(jiàn)C、結(jié)果的可視化與文檔化D、模式/模型的驗(yàn)證和優(yōu)化答案:ABCD49.以下屬于規(guī)則的分詞方法的是()。A、正向最大匹配法B、逆向最大匹配法C、雙向最大匹配法D、條件隨機(jī)場(chǎng)答案:ABC50.Hadoop組件Flume三層架構(gòu)包括()。A、AgentB、GossipC、CollectorD、Storage答案:ACD51.以下屬于關(guān)鍵詞提取算法的有()。A、TF-IDF算法B、TextRank算法C、LSA(潛在語(yǔ)義分析)D、LDA答案:ABCD52.集成學(xué)習(xí)中多樣性的增強(qiáng)有哪些()A、數(shù)據(jù)樣本擾動(dòng)B、輸入屬性擾動(dòng)C、輸出表示擾動(dòng)D、算法參數(shù)擾動(dòng)答案:ABCD53.下列哪些現(xiàn)象屬于乘性噪聲()。A、電視光柵的退化B、二值圖像上的胡椒鹽噪聲C、信道傳輸受擾D、膠片材料的退化答案:AD54.在支持向量機(jī)中,參數(shù)的選取會(huì)影響擬合的結(jié)果,如果出現(xiàn)過(guò)擬合的現(xiàn)象,則導(dǎo)致該結(jié)果的原因有可能是(__)。A、其他參數(shù)保持不變,C值過(guò)大B、其他參數(shù)保持不變,λ值較少C、其他參數(shù)保持不變,σ較大D、其他參數(shù)保持不變,σ較小答案:ABD55.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是(__)。A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC56.常用的爬蟲(chóng)技巧有以下哪些()。A、更改header,偽裝成瀏覽器進(jìn)行爬取B、設(shè)置爬取的時(shí)間間隔C、應(yīng)用神經(jīng)網(wǎng)絡(luò)算法識(shí)別網(wǎng)站驗(yàn)證碼D、通過(guò)代理服務(wù)器進(jìn)行爬取答案:ABCD57.下列哪些是詞語(yǔ)情感分析的方法()。A、基于網(wǎng)絡(luò)的分析方法B、基于word-embedding的分析方法C、基于詞典的分析方法D、基于詞頻的分析方法答案:AC58.大數(shù)據(jù)的參考架構(gòu)分為哪三個(gè)層次()A、角色B、活動(dòng)C、邏輯構(gòu)件D、功能組件答案:ABD59.從Hadoop實(shí)現(xiàn)角度看,HadoopMapReduce1.0主要由()組成。A、編程模型B、數(shù)據(jù)處理引擎C、運(yùn)行時(shí)環(huán)境D、算法庫(kù)答案:ABC60.Spark有哪些缺陷()。A、于內(nèi)存的計(jì)算B、持Schema信息C、支持增量迭代計(jì)算D、支持細(xì)粒度更新操作答案:CD61.在BP網(wǎng)絡(luò)中,常用于緩解其過(guò)擬合的策略有()。A、早停策略B、正則化策略C、全局最小策略D、局部最小策略答案:AB62.數(shù)據(jù)可視化是利用計(jì)算機(jī)圖形學(xué)和圖像處理技術(shù),將數(shù)據(jù)轉(zhuǎn)換成()或()在屏幕上顯示出來(lái),并進(jìn)行交互處理的理論、方法和技術(shù)。A、文字B、圖形C、圖像D、視頻答案:BC63.下列哪些是情感分析的應(yīng)用場(chǎng)景()。A、數(shù)據(jù)挖掘B、信息檢索C、文本分詞D、市場(chǎng)營(yíng)銷(xiāo)答案:ABD64.常用的沖突消解策略有包括()。A、投票法B、排序法C、元規(guī)則法D、調(diào)研法答案:ABC65.以下跟圖像處理相關(guān)的是()。A、圖像識(shí)別B、人臉識(shí)別C、視頻分析D、nlp答案:ABCD66.下列關(guān)于EM算法描述正確的是(__)。A、EM算法是常用的估計(jì)參數(shù)隱變量的利器B、EM算法即是期望最大化算法C、EM算法常被用來(lái)學(xué)習(xí)高斯混合模型的參數(shù)D、EM算法是一種迭代式的方法答案:ABCD67.在Python中,以下導(dǎo)入模塊方式正確的是()。A、import模塊名B、import模塊名as模塊的別名C、from模塊名import函數(shù)名D、from模塊名import函數(shù)名A,函數(shù)名B答案:ABCD68.下面是Numpy支持的統(tǒng)計(jì)函數(shù)有()。A、minB、maxC、medianD、mean答案:ABCD69.以下()函數(shù)是累積函數(shù)。A、cumsumB、argminC、cumprodD、argmax答案:AC70.若b=np.array([True,False,False]),以下能輸出[FalseTrueTrue]的是()。A、print(b-1)B、print(~b)C、print(np.logical_not(b))D、print(>>b)答案:BC71.下列哪些是常用分詞方法()。A、基于Binarytree的分詞方法B、基于HMM的分詞方法C、基于CRF的分詞方法D、基于Kmeans的分詞方法答案:BC72.線性模型的基本形式有()。A、線性回歸B、對(duì)數(shù)幾率回歸(二分類(lèi)問(wèn)題)C、線性判別分析(Fisher判別分析)D、多分類(lèi)學(xué)習(xí)答案:ABCD73.在網(wǎng)絡(luò)爬蟲(chóng)的爬行策略中,應(yīng)用最為常見(jiàn)的是()。A、深度優(yōu)先遍歷策略B、廣度優(yōu)先遍歷策略C、高度優(yōu)先遍歷策略D、反向鏈接策略E、大站優(yōu)先策略答案:AB74.請(qǐng)問(wèn)下面哪些是離散型變量()。A、示波器B、心電圖及腦動(dòng)電圖掃描器對(duì)腦電波的測(cè)量C、過(guò)去數(shù)月的總銷(xiāo)售額D、公司每年的紅利答案:CD75.分布式列式存儲(chǔ)的功能有()。A、支持在線快速讀寫(xiě)B(tài)、支持線性擴(kuò)展C、具備節(jié)點(diǎn)監(jiān)控管理D、數(shù)據(jù)同源不壓縮答案:ABC76.數(shù)據(jù)從產(chǎn)生到終結(jié)共有()環(huán)節(jié)。A、數(shù)據(jù)產(chǎn)生環(huán)節(jié)B、數(shù)據(jù)傳輸環(huán)節(jié)C、數(shù)據(jù)使用環(huán)節(jié)D、數(shù)據(jù)共享環(huán)節(jié)E、數(shù)據(jù)銷(xiāo)毀環(huán)節(jié)答案:ABCDE77.關(guān)于HDFS的文件寫(xiě)入,正確的是()。A、不支持多用戶(hù)對(duì)同一文件的寫(xiě)操作;B、用戶(hù)不可以在文件任意位置進(jìn)行修改;C、默認(rèn)將文件復(fù)制成三份存放;D、復(fù)制的文件塊默認(rèn)不存在同一機(jī)架上;答案:ABCD78.下列哪些算法可以用來(lái)構(gòu)造神經(jīng)網(wǎng)絡(luò)()。A、kNNB、線性回歸C、邏輯回歸答案:BC79.HIS表色系的三屬性包含:()。A、色調(diào)B、色飽和度C、亮度D、色度答案:ABC80.下列不屬于聚類(lèi)性能度量?jī)?nèi)部指標(biāo)的是()。A、DB指數(shù)B、Dunn指數(shù)C、Jaccard系數(shù)D、FM系數(shù)答案:CD81.下面對(duì)LDA判別分析的思想描述正確的是()。A、同類(lèi)樣例的投影點(diǎn)盡可能近B、異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)C、同類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)D、異類(lèi)樣例的投影點(diǎn)盡可能近答案:AB82.下列方法中,可以用于特征降維的方法包括()。A、主成分分析PCAB、線性判別分析LDAC、深度學(xué)習(xí)SparseAutoEncoderD、矩陣奇異值分解SVD答案:ABD83.關(guān)于Dropout說(shuō)法正確的是:(__)。A、Dropout背后的思想其實(shí)就是把DNN當(dāng)做一個(gè)集成模型來(lái)訓(xùn)練,之后取所有值的平均值,而不只是訓(xùn)練單個(gè)DNNB、DNN網(wǎng)絡(luò)將Dropout率設(shè)置為p,也就是說(shuō),一個(gè)神經(jīng)元被保留的概率是1-p。當(dāng)一個(gè)神經(jīng)元被丟棄時(shí),無(wú)論輸入或者相關(guān)的參數(shù)是什么,它的輸出值就會(huì)被設(shè)置為0C、丟棄的神經(jīng)元在訓(xùn)練階段,對(duì)BP算法的前向和后向階段都沒(méi)有貢獻(xiàn)。因?yàn)檫@個(gè)原因,所以每一次訓(xùn)練,它都像是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)D、Dropout方法通常和L2正則化或者其他參數(shù)約束技術(shù)(比如MaxNorm)一起使用,來(lái)防止神經(jīng)網(wǎng)絡(luò)的過(guò)擬合答案:ABCD84.下面屬于范數(shù)規(guī)則化的作用的是()和()。A、保證模型盡可能的簡(jiǎn)單,避免過(guò)擬合B、約束模型特征C、最小化問(wèn)題D、最大化問(wèn)題答案:AB85.關(guān)于現(xiàn)階段大數(shù)據(jù)技術(shù)體系,說(shuō)法正確的是()。A、基礎(chǔ)設(shè)施提供數(shù)據(jù)計(jì)算、數(shù)據(jù)存儲(chǔ)、數(shù)據(jù)加工(DataWrangling或DataMunging)等服務(wù)B、流處理、統(tǒng)計(jì)工具、日志分析都屬于常用的開(kāi)源工具C、數(shù)據(jù)資源代表的是生成數(shù)據(jù)的機(jī)構(gòu)D、數(shù)據(jù)源與APP為數(shù)據(jù)科學(xué)和大數(shù)據(jù)產(chǎn)業(yè)生態(tài)系統(tǒng)提供數(shù)據(jù)內(nèi)容答案:ABCD86.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維.選擇以下適合的方案:()。A、使用前向特征選擇方法B、使用后向特征排除方法C、我們先把所有特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn).然后我們?nèi)サ粢粋€(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn).如果表現(xiàn)比原來(lái)還要好,我們可以去除這個(gè)特征D、查看相關(guān)性表,去除相關(guān)性最高的一些特征答案:ABCD87.以下說(shuō)法正確的是()。A、負(fù)梯度方向是使函數(shù)值下降最快的方向B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局最優(yōu)解C、梯度下降法比牛頓法收斂速度快D、擬牛頓法不需要計(jì)算Hesse矩陣答案:ABD88.下列哪種服務(wù)可以用于存儲(chǔ)數(shù)據(jù)()。A、MapReduceB、YARNC、HBaseD、HDFS答案:CD89.為什么RNN網(wǎng)絡(luò)的激活函數(shù)要選用雙曲正切而不是sigmod呢()A、使用sigmod函數(shù)容易出現(xiàn)梯度消失B、sigmod的導(dǎo)數(shù)形式較為復(fù)雜C、雙曲正切更簡(jiǎn)單D、sigmoid函數(shù)實(shí)現(xiàn)較為復(fù)雜答案:AB90.Spark2.0提供的應(yīng)用庫(kù)包括()。A、SparkSQLB、SparkStreamingC、MLibD、GraphX答案:ABCD91.對(duì)于主成分分析方法,降維后低維空間的維數(shù)d可以通過(guò)()方法確定。A、由用戶(hù)事先指定B、通過(guò)在d值不同的低維空間中對(duì)開(kāi)銷(xiāo)較小的學(xué)習(xí)器進(jìn)行交叉驗(yàn)證來(lái)選取C、可從重構(gòu)的角度設(shè)置一個(gè)重構(gòu)閾值,選取使得特定公式成立的最小值D、隨機(jī)設(shè)置答案:ABC92.下列哪個(gè)是Hadoop運(yùn)行的模式()。A、單機(jī)版B、偽分布式C、分布式D、全分布式答案:ABC93.以下是正確的字符串()。A、‘a(chǎn)bc”ab”B、‘a(chǎn)bc”ab’C、“abc”ab”D、“abc\”ab”答案:BD94.實(shí)時(shí)計(jì)算類(lèi)應(yīng)用主要通過(guò)()來(lái)實(shí)現(xiàn)。A、流計(jì)算組件B、內(nèi)存計(jì)算組件C、MPP數(shù)據(jù)庫(kù)D、Hadoop的后臺(tái)定時(shí)分析計(jì)算任務(wù)答案:AB95.Apriori算法的計(jì)算復(fù)雜度受()影響。A、支持度閥值B、項(xiàng)數(shù)(維度)C、事務(wù)數(shù)D、事務(wù)平均寬度答案:ABCD96.下列屬于CNN關(guān)鍵層的是(__)。A、輸入層B、卷積層C、激活層D、池化層答案:ABCD97.關(guān)于神經(jīng)元的敘述,哪些是正確的()A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元可以有多個(gè)輸出和一個(gè)輸入答案:ABCD98.當(dāng)我們構(gòu)造線性模型時(shí),我們注意變量間的相關(guān)性。在相關(guān)矩陣中搜索相關(guān)系數(shù)時(shí),如果我們發(fā)現(xiàn)3對(duì)變量的相關(guān)系數(shù)是(Var1和Var2,Var2和Var3,Var3和Var1)是-0.98,0.45,1.23.我們可以得出什么結(jié)論:()。A、Var1和Var2是非常相關(guān)的B、因?yàn)閂a1r和Var2是非常相關(guān)的,我們可以去除其中一個(gè)C、Var3和Var1的1.23相關(guān)系數(shù)是不可能的答案:ABC99.在Python中,執(zhí)行importdatetimeasdt語(yǔ)句后,如下時(shí)間或日期定義方式正確的是()。A、dt.datetime(2019,12,12,23,23,23)B、dt.datetime(2019,0,0,23,23,23)C、dt.datetime(2019,12,12,0)D、dt.time(23,23,23)答案:AC100.Python中標(biāo)識(shí)符的命名規(guī)則正確的是()。A、只能以下劃線或者A-Z/a-z中的字母開(kāi)頭B、關(guān)鍵字不能作為標(biāo)識(shí)符C、Python標(biāo)識(shí)符區(qū)分大小寫(xiě)D、關(guān)鍵字不能作為標(biāo)識(shí)符答案:ABCD101.以下四個(gè)選項(xiàng)中,()是Python關(guān)鍵字。A、asB、globalC、intD、not答案:ABD102.下面對(duì)于超鏈接的說(shuō)法,正確的是()。A、語(yǔ)句<ahref=”formhtml”>FillOurForm</a>指向的是同一服務(wù)器同一目錄下的formhtmlB、語(yǔ)句<ahref=”stuff/cathtml”>Catalog</a>指向的是同一服務(wù)器子目錄stuff下的cathtmlC、語(yǔ)句<ahref=”/parenthtml”>Parent</a>指向的是同一服務(wù)器父目錄下的parenthtmlD、語(yǔ)句<ahref=”devbgorg”target=”_blank”>BASD</a>指向的是內(nèi)部的網(wǎng)站答案:ABC103.下面導(dǎo)入模塊正確的是()。A、importnumpyB、importnumpyasnpC、frommatplotlibimportpyplotD、frommatplotlibimportpyplotasplt答案:ABCD104.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)()A、參數(shù)更少B、可以獲得更大下采樣C、速度更快D、有助于提升精度答案:BCD105.使用極大似然估計(jì)的前提條件有()。A、數(shù)據(jù)服從某種已知的特定數(shù)據(jù)分布型B、已經(jīng)得到了一部分?jǐn)?shù)據(jù)集C、提前已知某先驗(yàn)概率D、數(shù)據(jù)集各個(gè)屬性相對(duì)獨(dú)立答案:AB106.以下描述中正確的是()。A、統(tǒng)計(jì)學(xué)是數(shù)據(jù)科學(xué)的理論基礎(chǔ)之一B、Python語(yǔ)言是統(tǒng)計(jì)學(xué)家發(fā)明的語(yǔ)言C、機(jī)器學(xué)習(xí)是數(shù)據(jù)科學(xué)的理論基礎(chǔ)之一D、數(shù)據(jù)科學(xué)是統(tǒng)計(jì)學(xué)的一個(gè)分支領(lǐng)域(子學(xué)科)答案:AC107.關(guān)于數(shù)據(jù)產(chǎn)品研發(fā),下列說(shuō)法錯(cuò)誤的是()。A、從加工程度看,可以將數(shù)據(jù)分為一次數(shù)據(jù)、二次數(shù)據(jù)和三次數(shù)據(jù)B、一次數(shù)據(jù)中往往存在缺失值、噪聲、錯(cuò)誤或虛假數(shù)據(jù)等質(zhì)量問(wèn)題C、二次數(shù)據(jù)是對(duì)一次數(shù)據(jù)進(jìn)行深度處理或分析后得到的“增值數(shù)據(jù)”D、三次數(shù)據(jù)是對(duì)二次數(shù)據(jù)進(jìn)行洞察與分析后得到的、可以直接用于決策支持的“洞見(jiàn)數(shù)據(jù)”答案:ABD108.以下哪層是卷積神經(jīng)網(wǎng)絡(luò)的組成部分。A、卷積層B、中間層C、池化層D、全連接層答案:ACD109.做一個(gè)二分類(lèi)預(yù)測(cè)問(wèn)題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(lèi)(即1),小于0.5的樣本歸入反例類(lèi)(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類(lèi)和反例類(lèi),下面哪一種說(shuō)法正確()。A、增加閾值不會(huì)提高召回率B、增加閾值會(huì)提高召回率C、增加閾值不會(huì)降低查準(zhǔn)率D、增加閾值會(huì)降低查準(zhǔn)率答案:AC110.在正則化公式中,λ為正則化參數(shù),關(guān)于λ描述正確的是()。A、若正則化參數(shù)λ過(guò)大,可能會(huì)導(dǎo)致出現(xiàn)欠擬合現(xiàn)象B、若λ的值太大,則梯度下降可能不收斂C、取一個(gè)合理的λ值,可以更好的應(yīng)用正則化D、如果令λ的值很大的話(huà),為了使CostFunction盡可能的小,所有θ的值(不包括θ0)都會(huì)在一定程度上減小答案:ABCD111.下列說(shuō)法中正確的是()。A、云計(jì)算的主要特點(diǎn)是非常昂貴。B、大數(shù)據(jù)是多源、異構(gòu)、動(dòng)態(tài)的復(fù)雜數(shù)據(jù),即具有4V特征的數(shù)據(jù)C、大數(shù)據(jù)是數(shù)據(jù)科學(xué)的研究對(duì)象之一D、MapReduce是采用云計(jì)算這種新的計(jì)算模式研發(fā)出的具體工具軟件(或算法)答案:BCD112.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可以分為()和隨機(jī)型網(wǎng)絡(luò)等。A、前向型B、后向型C、反饋型D、自組織競(jìng)爭(zhēng)型答案:ACD113.空間域?yàn)V波是直接以圖像中的像素操作為基礎(chǔ)的濾波,空間濾波器有時(shí)也可稱(chēng)為()。A、空間掩模B、核C、模板D、窗口答案:ABCD114.列式數(shù)據(jù)庫(kù)(如BigTable和HBase)以表的形式存儲(chǔ)數(shù)據(jù),表結(jié)構(gòu)包括()等元素A、行鍵B、時(shí)間戳C、列簇D、數(shù)據(jù)類(lèi)型答案:ABC115.下面關(guān)于單樣本t檢驗(yàn)的說(shuō)法,錯(cuò)誤的是()。A、當(dāng)單樣本t檢驗(yàn)的自由度越來(lái)越大時(shí),正態(tài)分布越來(lái)越趨向于t分布B、單樣本t檢驗(yàn)適用于樣本量比較多(n>30)的情況C、t分布的不確定性比正態(tài)分布小,其原因是樣本數(shù)量比較小D、單樣本t檢驗(yàn)通常也被叫做學(xué)生t檢驗(yàn)答案:ABC116.以下選項(xiàng)中,屬于MapReduce特征的有()。A、以主從結(jié)構(gòu)的形式運(yùn)行B、容錯(cuò)機(jī)制的復(fù)雜性C、任務(wù)備份機(jī)制的必要性D、數(shù)據(jù)存儲(chǔ)位置固定答案:ABC117.鑒別了多元共線特征。那么下一步可能的操作是什么()A、移除兩個(gè)共線變量B、不移除兩個(gè)變量,而是移除一個(gè)C、移除相關(guān)變量可能會(huì)導(dǎo)致信息損失,可以使用帶罰項(xiàng)的回歸模型(如ridge或lassoregression)答案:BC118.關(guān)于Python語(yǔ)言的特點(diǎn),以下選項(xiàng)描述不正確的是()。A、Python語(yǔ)言不支持面向?qū)ο驜、Python語(yǔ)言是解釋型語(yǔ)言C、Python語(yǔ)言是編譯型語(yǔ)言D、Python語(yǔ)言是非跨平臺(tái)語(yǔ)言答案:ACD119.Numpy數(shù)組中將一個(gè)數(shù)組分割成多個(gè)小數(shù)組數(shù)組分割函數(shù)包括()。A、hsplitB、vsplitC、splitD、dsplit答案:ABCD120.以下關(guān)于數(shù)據(jù)維度的描述,正確的是()。A、采用列表表示一維數(shù)據(jù),不同數(shù)據(jù)類(lèi)型的元素是可以的B、JSON格式可以表示比二維數(shù)據(jù)還復(fù)雜的高維數(shù)據(jù)C、二維數(shù)據(jù)可以看成是一維數(shù)據(jù)的組合形式D、字典不可以表示二維以上的高維數(shù)據(jù)答案:ABC121.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)()A、上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)B、并行處理序列中所有信息C、容易梯度爆炸/消失D、易于搭建答案:AC122.關(guān)于總體和樣本的說(shuō)法,正確的是:A、總體也就是研究對(duì)象的全體B、如果總體是某一條生產(chǎn)線上生產(chǎn)的全部產(chǎn)品,那么樣本可以是每間隔10秒抽取的產(chǎn)品C、樣本是從總體的隨機(jī)抽樣D、如果總體是某一小學(xué)的1000名學(xué)生,那么樣本可以是一年級(jí)的100名學(xué)生答案:ABC123.下面是python標(biāo)準(zhǔn)庫(kù)的是()。A、osB、sysC、numpyD、re答案:ABD124.數(shù)據(jù)可視化涉及到()等多個(gè)領(lǐng)域,成為研究數(shù)據(jù)表示、數(shù)據(jù)處理、決策分析等一系列問(wèn)題的綜合技術(shù)。A、計(jì)算機(jī)圖形學(xué)B、圖像處理C、計(jì)算機(jī)視覺(jué)D、計(jì)算機(jī)輔助設(shè)計(jì)答案:ABCD125.Client端上傳文件的時(shí)候下列哪項(xiàng)正確()。A、數(shù)據(jù)經(jīng)過(guò)NameNode傳遞給DataNodeB、Client端將文件切分為Block,依次上傳C、Client只上傳數(shù)據(jù)到一臺(tái)DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制D、Client如果上傳的時(shí)候沒(méi)有上傳成功指定的副本數(shù),則整次上傳不成功答案:BD126.ApacheFlume主要解決的是日志數(shù)據(jù)的收集和處理問(wèn)題。Flume的主要設(shè)計(jì)目的和特征是()。A、高可靠性B、可拓展C、管理復(fù)雜D、不支持用戶(hù)自定義答案:AB127.下列場(chǎng)景適合使用Python的是()。A、可作為腳本語(yǔ)言,快速編寫(xiě)小型程序、腳本等B、可應(yīng)用在數(shù)據(jù)科學(xué)、交互式計(jì)算及可視化領(lǐng)域C、可作為膠水語(yǔ)言,整合如C++等語(yǔ)言代碼D、Python適用于低延時(shí)、高利用率的應(yīng)用場(chǎng)景答案:ABC128.下列關(guān)于PCA說(shuō)法正確的是()。A、在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B、應(yīng)該選擇具有最大方差的主成分C、應(yīng)該選擇具有最小方差的主成分D、可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD129.以下哪幾項(xiàng)屬于漢語(yǔ)未登錄詞的類(lèi)型()。A、存在于詞典但出現(xiàn)頻率較少的詞B、新出現(xiàn)的普通詞匯C、專(zhuān)有名詞D、專(zhuān)業(yè)名詞和研究領(lǐng)域名稱(chēng)答案:BCD130.以下網(wǎng)絡(luò)結(jié)構(gòu)中可以應(yīng)用于圖像識(shí)別任務(wù)的是()。A、LeNet-5B、AlexNetC、CNND、VGG-net答案:ABCD131.如將A、B、C三個(gè)分類(lèi)器的PR曲線畫(huà)在一個(gè)圖中,其中A、B的PR曲線可以完全包含住C的PR曲線,A與B的PR曲線有交點(diǎn),A、B、C的平衡點(diǎn)分別為0.79、0.66、0.58,以下說(shuō)法中正確的是()。A、學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器CB、學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器BC、學(xué)習(xí)器B的性能優(yōu)于學(xué)習(xí)器CD、學(xué)習(xí)器C的性能優(yōu)于學(xué)習(xí)器B答案:ABC132.以下關(guān)于降維方法,敘述正確的是()。A、主成分分析是一種常用的非線性降維方法B、核化線性降維是一種常用的線性降維方法C、流形學(xué)習(xí)是一種借鑒拓?fù)淞餍胃拍畹慕稻S方法D、度量學(xué)習(xí)繞過(guò)降維的過(guò)程,將學(xué)習(xí)目標(biāo)轉(zhuǎn)化為對(duì)距離度量計(jì)算的權(quán)重矩陣的學(xué)習(xí)答案:CD133.python中,字符串格式化的方式()。A、%B、formatC、inD、input答案:AB134.關(guān)于降維說(shuō)法正確的是()。A、PA是根據(jù)方差這一屬性降維的B、降維可以防止模型過(guò)擬合C、降維降低了數(shù)據(jù)集特征的維度D、降維方法有PLA等答案:ACD135.請(qǐng)選擇所有匹配項(xiàng):下面哪些literal擁有數(shù)值數(shù)據(jù)類(lèi)型(即哪些可用于算術(shù)表達(dá)式)()。A、0xffB、99C、122D、1002答案:ABC136.大數(shù)據(jù)的資產(chǎn)屬性體現(xiàn)在()。A、具有勞動(dòng)增值B、涉及法律權(quán)屬C、具有財(cái)務(wù)價(jià)值D、涉及道德與倫理答案:ABCD137.字典的遍歷正確的有()。A、forin變量i,字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪問(wèn)其值B、for變量iin字典:使用i遍歷所有的鍵,有鍵就可以通過(guò)變量訪問(wèn)其值C、for變量i,變量jin字典items():使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值D、forin變量i,變量j字典items():使用變量i遍歷所有鍵,通過(guò)變量j遍歷所有值答案:BC138.以下算法中可以應(yīng)用于圖像分割的是()。A、邊緣檢測(cè)技術(shù)B、閾值分割技術(shù)C、基于區(qū)域的分割技術(shù)D、區(qū)域生長(zhǎng)方法答案:ABCD139.下列關(guān)于密度聚類(lèi)說(shuō)法錯(cuò)誤的是(__)。A、DBSCAN是一種著名的密度聚類(lèi)算法B、密度聚類(lèi)從樣本數(shù)量的角度來(lái)考察樣本之間的可連接性C、密度聚類(lèi)基于不可連接樣本不斷擴(kuò)展聚類(lèi)簇易獲得最終的聚類(lèi)結(jié)果D、密度直達(dá)關(guān)系通常滿(mǎn)足對(duì)稱(chēng)性答案:BCD140.Scikit-Learn中可以實(shí)現(xiàn)()算法。A、分類(lèi)B、聚類(lèi)C、回歸D、降維答案:ABCD141.以下屬于頻率域圖像濾波的方法有()。A、中值濾波B、均值濾波C、布特沃斯濾波D、高斯濾波答案:CD142.卷積神經(jīng)網(wǎng)絡(luò)中常用的池化函數(shù)包括()。A、最大池化函數(shù)B、L2范數(shù)C、相鄰矩形區(qū)域內(nèi)的平均值D、基于據(jù)中心像素距離的加權(quán)平均函數(shù)答案:ABCD143.Numpy中計(jì)算數(shù)組的標(biāo)準(zhǔn)差和方差的函數(shù)是()。A、std()B、diff()C、exp()D、var()答案:AD144.ETL技術(shù)主要涉及()操作。A、抽取B、轉(zhuǎn)換C、加載D、分析答案:ABC145.以下可用于處理由于光照不均帶來(lái)的影響的圖像處理方法有()。A、同態(tài)濾波B、頂帽變換C、基于移動(dòng)平均的局部閾值處理D、拉普拉斯算子答案:ABC146.Hadoop框架的缺陷有()。A、MR編程框架的限制;B、過(guò)多的磁盤(pán)操作,缺乏對(duì)分布式內(nèi)存的支持;C、無(wú)法高效支持迭代式計(jì)算;D、不支持多用戶(hù)寫(xiě)入并任意修改文件;答案:ABCD147.下面關(guān)于Python中的列表和字典說(shuō)法正確的是()。A、字典和列表都可以通過(guò)“[]”操作符訪問(wèn)元素的值B、列表的索引必須是整型數(shù)或者切片C、字典不過(guò)是列表的另一個(gè)名字。二者沒(méi)有區(qū)別D、字典的長(zhǎng)度是動(dòng)態(tài)的,而列表的長(zhǎng)度是固定的答案:AB148.下面關(guān)于單樣本Z檢驗(yàn)的說(shuō)法,正確的是()。A、在Python中,單樣本Z檢驗(yàn)可以使用scipy.stats.ttest_1samp()實(shí)現(xiàn)B、單樣本Z檢驗(yàn)適用于樣本量較大的情況C、單樣本Z檢驗(yàn)假設(shè)要檢驗(yàn)的統(tǒng)計(jì)量(近似)滿(mǎn)足正態(tài)分布D、單樣本Z檢驗(yàn)常用于檢驗(yàn)總體平均值是否等于某個(gè)常量答案:BCD149.ETL包含下列哪些過(guò)程()A、數(shù)據(jù)抽取B、數(shù)據(jù)轉(zhuǎn)換C、數(shù)據(jù)加載D、數(shù)據(jù)展現(xiàn)答案:ABC150.處理圖像平滑處理的濾波有()。A、盒式濾波B、均值濾波C、高斯濾波D、中值濾波答案:ABCD151.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類(lèi)大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的(__)。A、每個(gè)神經(jīng)元有一個(gè)輸入和一個(gè)輸出B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出答案:ABCD152.參數(shù)估計(jì)可以分為()。A、點(diǎn)估計(jì)B、一致估計(jì)C、區(qū)間估計(jì)D、無(wú)偏估計(jì)答案:AC153.下列哪些是傳統(tǒng)RDBMS的缺點(diǎn)()A、表結(jié)構(gòu)schema擴(kuò)展不方便B、全文搜索功能較弱C、大數(shù)據(jù)場(chǎng)景下I/O較高D、存儲(chǔ)和處理復(fù)雜關(guān)系型數(shù)據(jù)功能較弱答案:ABCD154.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點(diǎn)的系數(shù)降至0附近()。A、同態(tài)濾波B、高斯濾波C、巴特沃斯濾波D、中值濾波答案:BC155.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。A、可用于處理時(shí)間序列數(shù)據(jù)B、可用于處理圖像數(shù)據(jù)C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算D、至少在網(wǎng)絡(luò)的一層中使用卷積答案:ABD156.對(duì)于不同場(chǎng)景內(nèi)容,一般數(shù)字圖像可以分為()。A、二值圖像B、灰度圖像C、彩色圖像D、深度圖像答案:ABC157.下面關(guān)于中心極限定理的說(shuō)法,正確的是:A、中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以正態(tài)分布為極限B、中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以t分布為極限C、中心極限定理為Z檢驗(yàn)提供了理論支持D、中心極限定理是數(shù)理統(tǒng)計(jì)學(xué)和誤差分析的基礎(chǔ)答案:ACD158.下列關(guān)于情感分析的說(shuō)法正確的是()。A、簡(jiǎn)單而言,是對(duì)帶有情感色彩的主觀性文本進(jìn)行分析、處理、歸納和推理的過(guò)程B、情感分析的發(fā)展得益于社交媒體的興起C、按照處理文本的粒度不同,情感分析大致可分為詞語(yǔ)級(jí),句子級(jí)、篇章級(jí)三個(gè)D、情感分析可以應(yīng)用于文本挖掘答案:ABCD159.下列關(guān)于詞袋模型說(shuō)法正確的是()。A、詞袋模型可以忽略每個(gè)詞出現(xiàn)的順序B、詞袋模型不可以忽略每個(gè)詞出現(xiàn)的順序C、TensorFlow支持詞袋模型D、詞袋模型可以表出單詞之間的前后關(guān)系答案:AC160.下列既可以用于分類(lèi),又可以用于回歸的機(jī)器學(xué)習(xí)算法有:A、k近鄰B、邏輯回歸C、決策樹(shù)D、線性回歸答案:AC161.數(shù)據(jù)安全不僅包括數(shù)據(jù)保密性,還包括()。A、完整性B、可用性C、不可否認(rèn)性D、可審計(jì)性答案:ABCD162.異常值的檢測(cè)方法有()A、直接通過(guò)數(shù)據(jù)可視化進(jìn)行觀察B、通過(guò)統(tǒng)計(jì)分布進(jìn)行判斷C、通過(guò)相對(duì)距離進(jìn)行度量D、通過(guò)相對(duì)密度進(jìn)行度量答案:ABCD163.深度學(xué)習(xí)方法不適用于以下哪些場(chǎng)景()。A、數(shù)據(jù)樣本充足B、數(shù)據(jù)樣本不足C、數(shù)據(jù)集具有局部相關(guān)特性D、數(shù)據(jù)集沒(méi)有局部相關(guān)特性答案:BD164.Spark提交工作的方式()。A、lientB、lusterC、tandaloneD、arn答案:AB165.Spark的部署模式包括()。A、本地模式B、standalone模式C、SparkonyarnD、mesos模式答案:ABCD166.可視分析學(xué)的幾個(gè)特點(diǎn)包含()A、強(qiáng)調(diào)數(shù)據(jù)到知識(shí)的轉(zhuǎn)換過(guò)程B、強(qiáng)調(diào)可視化分析與自動(dòng)化建模之間的相互作用C、強(qiáng)調(diào)數(shù)據(jù)映射和數(shù)據(jù)挖掘的重要性D、強(qiáng)調(diào)數(shù)據(jù)加工(DataWrangling或DataMunging)工作的必要性E、強(qiáng)調(diào)人機(jī)交互的重要性答案:ABCDE167.以下對(duì)模型性能提高有幫助的是()。A、數(shù)據(jù)預(yù)處理B、特征工程C、機(jī)器學(xué)習(xí)算法D、模型集成答案:ABCD168.在Hive架構(gòu)中支持對(duì)數(shù)據(jù)的操作有()。A、插入B、查詢(xún)C、刪除D、分析;答案:BD169.以下圖像技術(shù)中屬于圖像處理技術(shù)的是()。A、圖像編碼B、圖像合成C、圖像增強(qiáng)D、圖像分類(lèi)答案:AC170.回歸分析有很多種類(lèi),常見(jiàn)的有()。A、線性回歸B、系數(shù)回歸C、邏輯回歸D、曲線回歸答案:ACD171.算法“歧視”現(xiàn)象可能出現(xiàn)在()。A、算法設(shè)計(jì)B、算法實(shí)現(xiàn)C、算法投入使用D、算法驗(yàn)證答案:ABC172.下面關(guān)于機(jī)器學(xué)習(xí)的理解正確的是()。A、非監(jiān)督學(xué)習(xí)的樣本數(shù)據(jù)是要求帶標(biāo)簽的B、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的區(qū)別在于是否要求樣本數(shù)據(jù)帶標(biāo)簽C、強(qiáng)化學(xué)習(xí)以輸入數(shù)據(jù)作為對(duì)模型的反饋D、卷積神經(jīng)網(wǎng)絡(luò)一般用于圖像處理等局部特征相關(guān)的數(shù)據(jù)答案:BCD173.決策樹(shù)()情況下會(huì)導(dǎo)致遞歸返回。A、當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類(lèi)B、當(dāng)前屬性集為空C、當(dāng)前節(jié)點(diǎn)包含的樣本集合為空D、所有樣本在所有屬性上取值相同答案:ABCD174.下列關(guān)于數(shù)據(jù)科學(xué)中常用的統(tǒng)計(jì)學(xué)知識(shí)說(shuō)法錯(cuò)誤的是()。A、從行為目的與思維方式看,數(shù)據(jù)統(tǒng)計(jì)方法可以分為基本分析方法和元分析方法B、從方法論角度看,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法又可分為描述統(tǒng)計(jì)和推斷統(tǒng)計(jì)C、描述統(tǒng)計(jì)可分為集中趨勢(shì)分析、離中趨勢(shì)分析、參數(shù)估計(jì)和假設(shè)檢驗(yàn)D、推斷統(tǒng)計(jì)包括采樣分布和相關(guān)分析答案:ABCD175.()是通過(guò)對(duì)無(wú)標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)進(jìn)行分類(lèi)的。A、密度估計(jì)B、異常檢測(cè)C、線性回歸D、聚類(lèi)分析答案:ABD176.數(shù)據(jù)再利用的意義在于()A、挖掘數(shù)據(jù)的潛在價(jià)值B、提高社會(huì)效益,優(yōu)化社會(huì)管理C、實(shí)現(xiàn)數(shù)據(jù)重組的創(chuàng)新價(jià)值D、優(yōu)化存儲(chǔ)設(shè)備,降低設(shè)備成本E、利用數(shù)據(jù)可拓展性拓寬業(yè)務(wù)領(lǐng)域答案:ACE177.非頻繁模式()。A、其支持度小于閾值B、都是不讓人感興趣的C、包含負(fù)模式和負(fù)相關(guān)模式D、對(duì)異常數(shù)據(jù)項(xiàng)敏感答案:AD178.下面不是Python關(guān)鍵字的是()。A、noB、NoneC、noneD、null答案:ACD179.數(shù)據(jù)挖掘的挖掘方法包括()。A、聚類(lèi)分析B、回歸分析C、神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)算法答案:ABCD180.機(jī)器學(xué)習(xí)的三個(gè)關(guān)鍵組成要素是()。A、任務(wù)TB、性能指標(biāo)PC、目標(biāo)函數(shù)VD、經(jīng)驗(yàn)來(lái)源E答案:ABD181.圖像數(shù)字化應(yīng)該包括哪些過(guò)程()。A、采樣B、模糊C、量化D、統(tǒng)計(jì)答案:AC182.統(tǒng)計(jì)模式分類(lèi)問(wèn)題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用()。A、最小最大損失準(zhǔn)則B、最小誤判概率準(zhǔn)則C、最小損失準(zhǔn)則D、N-P判決答案:AD183.數(shù)據(jù)科學(xué)以數(shù)據(jù)尤其是大數(shù)據(jù)為研究對(duì)象,主要研究?jī)?nèi)容包括()。A、數(shù)據(jù)加工(DataWrangling或DataMunging)B、數(shù)據(jù)管理C、數(shù)據(jù)計(jì)算D、數(shù)據(jù)產(chǎn)品研發(fā)答案:ABCD184.以下有關(guān)特征數(shù)據(jù)歸一化的說(shuō)法正確的是()。A、特征數(shù)據(jù)歸一化加速梯度下降優(yōu)化的速度B、特征數(shù)據(jù)歸一化有可能提高模型的精度C、線性歸一化適用于特征數(shù)值分化比較大的情況D、概率模型不需要做歸一化處理答案:ABD185.最常見(jiàn)的分詞算法可以分為哪三大類(lèi)()。A、基于字符串匹配的分詞方法B、基于理解的分詞方法C、基于統(tǒng)計(jì)的分詞方法D、基于閱讀的分詞方法答案:ABC186.可視分析學(xué)是一門(mén)以可視交互為基礎(chǔ),綜合運(yùn)用()等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí),以實(shí)現(xiàn)人機(jī)協(xié)同完成可視化任務(wù)為主要目的分析推理學(xué)科。A、物理學(xué)B、圖形學(xué)C、數(shù)據(jù)挖掘D、人機(jī)交互答案:BCD187.關(guān)于Pig的說(shuō)法正確的是()。A、Pig的主要目的是彌補(bǔ)MapReduce編程的復(fù)雜性B、Pig的核心是一種數(shù)據(jù)分析語(yǔ)言C、Pig程序的結(jié)構(gòu)適合于串行處理D、Pig主要包含PigLatin和Pig執(zhí)行環(huán)境兩部分答案:ABD188.下列模型屬于機(jī)器學(xué)習(xí)生成式模型的是()。A、樸素貝葉斯B、隱馬爾科夫模型C、線性回歸模型D、深度信念網(wǎng)絡(luò)答案:ABD189.下列關(guān)于自然語(yǔ)言處理中的關(guān)鍵詞提取的說(shuō)法正確的是()。A、關(guān)鍵詞提取是指用人工方法提取文章關(guān)鍵詞的方法B、TF-IDF模型是關(guān)鍵詞提取的經(jīng)典方法C、文本中出現(xiàn)次數(shù)最多的詞最能代表文本的主題D、這個(gè)問(wèn)題設(shè)計(jì)數(shù)據(jù)挖掘,文本處理,信息檢索等領(lǐng)域答案:BD190.在假設(shè)檢驗(yàn)中,當(dāng)原假設(shè)為“偽”,但數(shù)據(jù)分析人員沒(méi)有拒絕它時(shí)犯的錯(cuò)誤叫()。A、α錯(cuò)誤B、β錯(cuò)誤C、取偽錯(cuò)誤D、棄真錯(cuò)誤答案:BC191.可視化高維展示技術(shù)在展示數(shù)據(jù)之間的關(guān)系以及數(shù)據(jù)分析結(jié)果方面作()。A、能夠直觀反映成對(duì)數(shù)據(jù)之間的空間關(guān)系B、能夠直觀反映多維數(shù)據(jù)之間的空間關(guān)系C、能夠靜態(tài)演化事物的變化及變化的規(guī)律D、能夠動(dòng)態(tài)演化事物的變化及變化的規(guī)律E、提供高性能并行計(jì)算技術(shù)的強(qiáng)力支撐答案:BD192.在Spark的基本流程中,主要涉及()。A、DriverProgramB、usterManagerC、WorkerNodeD、Executor答案:ABCD193.Spark支持的計(jì)算模型有()。A、批處理;B、實(shí)時(shí)計(jì)算;C、機(jī)器學(xué)習(xí)模型;D、交互式查詢(xún);答案:ABCD194.下面關(guān)于reduce函數(shù)功能描述正確的是()。A、合并value值,形成較小集合B、采用迭代器將中間值提供給reduce函數(shù)C、map()函數(shù)處理后結(jié)果才會(huì)傳輸給reduce()D、內(nèi)存中不會(huì)存儲(chǔ)大量的value值答案:ABCD195.特征向量的缺失值處理:缺失值較多,直接將該特征舍棄掉,否則可能反倒會(huì)帶入較大的noise,對(duì)結(jié)果造成不良影響;缺失值較少,其余的特征缺失值都在10%以?xún)?nèi),我們可以采取很多的方式來(lái)處理:()。A、把NaN直接作為一個(gè)特征,假設(shè)用0表示B、用均值填充C、用隨機(jī)森林等算法預(yù)測(cè)填充D、以上答案都不正確答案:ABC196.下列哪些是情感分析的途徑()。A、關(guān)鍵詞識(shí)別B、數(shù)據(jù)增強(qiáng)C、統(tǒng)計(jì)方法D、概念級(jí)技術(shù)答案:ABCD197.下列哪些是面向?qū)ο蠹夹g(shù)的特征()。A、封裝B、繼承C、多態(tài)D、分布性答案:ABC198.按照涉及自變量的多少,可以將回歸分析分為()。A、線性回歸分析B、非線性回歸分析C、一元回歸分析D、多元回歸分析E、綜合回歸分析答案:CD199.下列在Python中描述正確的是()。A、pass語(yǔ)句不會(huì)執(zhí)行任何操作,一般作為占位符或者創(chuàng)建占位程序B、sorted可以對(duì)列表進(jìn)行排序,如:i=[5,1,2,3,4]i=sorted(i)C、內(nèi)建的數(shù)據(jù)類(lèi)型豐富,除了字典和列表外,還有集合(set)元組(tuple)等類(lèi)型D、分號(hào)在Python中是無(wú)用途答案:ABC200.在數(shù)據(jù)科學(xué)中,計(jì)算模式發(fā)生了根本性的變化——從集中式計(jì)算、分布式計(jì)算、網(wǎng)格計(jì)算等傳統(tǒng)計(jì)算過(guò)渡至云計(jì)算,有一定的代表性的是Google云計(jì)算三大技術(shù),這三大技術(shù)包括()。A、HadoopYARN資源管理器B、GFS分布式存儲(chǔ)系統(tǒng)C、MapRedue分布式處理技術(shù)D、BigTable分布式數(shù)據(jù)庫(kù)答案:BCD201.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法()A、減少mini_batch大小B、移除一些卷積層C、減少圖片輸入大小D、增加激活函數(shù)答案:ABC202.關(guān)于HDFS集群中的DataNode的描述不正確的是()。A、DataNode之間都是獨(dú)立的,相互之間不會(huì)有通信B、存儲(chǔ)客戶(hù)端上傳的數(shù)據(jù)的數(shù)據(jù)塊C、一個(gè)DataNode上存儲(chǔ)的所有數(shù)據(jù)塊可以有相同的D、響應(yīng)客戶(hù)端的所有讀寫(xiě)數(shù)據(jù)請(qǐng)求,為客戶(hù)端的存儲(chǔ)和讀取數(shù)據(jù)提供支撐答案:AC203.以下()是scipy中的模塊。A、clusterB、constantsC、integrateD、io答案:ABCD204.以下哪種說(shuō)法是正確的()。A、網(wǎng)站服務(wù)器可以識(shí)別你使用的訪問(wèn)軟件,因?yàn)樵诎l(fā)送訪問(wèn)請(qǐng)求中有特定位置的字符串和軟件類(lèi)型相關(guān)B、低級(jí)別的代理服務(wù)器十分容易被識(shí)別C、可以通過(guò)修改opener的proxy來(lái)模擬瀏覽器訪問(wèn)D、爬取圖片的流程被中斷時(shí),之前所有爬取的信息都將被自動(dòng)刪除答案:AB205.相對(duì)于HadoopMapReduce,Spark有什么好處()。A、通用性;B、易用性;C、速度快;D、容錯(cuò)性;答案:ABC206.決策樹(shù)遞歸停止的條件為()。A、訓(xùn)練數(shù)據(jù)集使用完B、所有的類(lèi)標(biāo)簽完全相同C、特征用完D、遇到丟失值答案:BC207.以下屬于圖像平滑算法的是()。A、中值濾波B、均值濾波C、鄰域平均法D、高斯濾波答案:ABCD208.與自然語(yǔ)言處理相關(guān)的工具包Jieba,Gensim,NLTK,Scikit-Learn的區(qū)別是()。A、Jieba專(zhuān)注于中文分詞操作B、NLTK主要用于一般自然語(yǔ)言處理任務(wù)(標(biāo)記化,POS標(biāo)記,解析等)C、Gensim主要用于題和向量空間建模、文檔集合相似性等D、Scikit-learn為機(jī)器學(xué)習(xí)提供了一個(gè)大型庫(kù),其中包含了用于文本預(yù)處理的工具,例如詞頻-逆文檔頻率特征提取(TfidfVectorizer)等。答案:ABCD209.常見(jiàn)的核函數(shù)主要包括()。A、多項(xiàng)式核B、高斯核C、線性核D、拉普拉斯核E、Sigmoid核答案:ABCDE210.隨機(jī)森林在做數(shù)據(jù)處理方面有什么優(yōu)勢(shì)()。A、不需要做缺失值處理B、不需要處理噪音C、不需要做特征選擇D、不需要平衡數(shù)據(jù)集答案:ACD211.下面是Python的特點(diǎn)和優(yōu)點(diǎn)是()。A、解釋性B、動(dòng)態(tài)特性C、面向?qū)ο驞、語(yǔ)法簡(jiǎn)潔答案:ABCD212.MapReduce對(duì)map()函數(shù)的返回值處理后才傳給reduce()函數(shù),其中涉及哪些操作()。A、合并B、排序C、分區(qū)D、抽樣答案:ABC213.特征向量的歸一化方法有哪些()A、線性函數(shù)轉(zhuǎn)換B、對(duì)數(shù)函數(shù)轉(zhuǎn)換C、反余切函數(shù)轉(zhuǎn)換D、減去均值,除以方差答案:ABCD214.下列對(duì)字符串函數(shù)或方法說(shuō)法正確的有()。A、istitle()如果字符串是標(biāo)題化的(見(jiàn)title())則返回True,否則返回FalseB、max(str)返回字符串str中最大的字母。C、replace(old,new,max)把將字符串中的str1替換成str2,如果max指定,則替換不超過(guò)max次D、upper()轉(zhuǎn)換字符串中所有大寫(xiě)字符為小寫(xiě)答案:ABC215.“以數(shù)據(jù)為中心”是數(shù)據(jù)產(chǎn)品區(qū)別于其他類(lèi)型產(chǎn)品的本質(zhì)特征,表現(xiàn)在()方面。A、數(shù)據(jù)驅(qū)動(dòng)B、數(shù)據(jù)密集型C、數(shù)據(jù)范式D、數(shù)據(jù)可視化答案:ABC216.Spark組件包含哪兩個(gè)算子()。A、Map;B、Action;C、Transformation;D、Reduce;答案:BC217.以下關(guān)于集成學(xué)習(xí)的說(shuō)法正確的是:()。A、隨機(jī)森林是減少模型的方差,而GBDT是減少模型的偏差B、組成隨機(jī)森林的樹(shù)可以并行生成,而GBDT是串行生成C、隨機(jī)森林的結(jié)果是多數(shù)表決表決的,而GBDT則是多棵樹(shù)累加之和答案:ABC218.常用的數(shù)據(jù)審計(jì)方法可以分為()。A、預(yù)定義審計(jì)B、自定義審計(jì)C、可視化審計(jì)D、結(jié)構(gòu)化審計(jì)答案:ABC219."噪聲"是指測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)有那幾種形式()A、錯(cuò)誤數(shù)據(jù)B、假數(shù)據(jù)C、異常數(shù)據(jù)D、僵尸數(shù)據(jù)答案:ABC220.下面關(guān)于連續(xù)型隨機(jī)變量以及連續(xù)型概率密度函數(shù)的說(shuō)法,正確的是。A、“一個(gè)客服一天可能接聽(tīng)到多少個(gè)電話(huà)”是一個(gè)連續(xù)型隨機(jī)變量B、正態(tài)分布是一種連續(xù)型隨機(jī)變量的概率分布C、可以使用概率密度函數(shù)來(lái)描述連續(xù)型隨機(jī)變量的概率分布D、連續(xù)型概率密度函數(shù)曲線下方的面積之和為1答案:BCD221.以下屬于自然語(yǔ)言處理范疇的是()。A、情感傾向分析B、評(píng)論觀點(diǎn)抽取C、文章分類(lèi)D、新聞?wù)槿〈鸢福篈BCD222.下列有關(guān)MapReduce計(jì)算框架的描述正確的是()。A、MapReduce可以計(jì)算任務(wù)的劃分和調(diào)度;B、MapReduce可完成數(shù)據(jù)的分布存儲(chǔ)和劃分;C、MapReduce可以實(shí)現(xiàn)處理系統(tǒng)節(jié)點(diǎn)出錯(cuò)檢測(cè)和失效恢復(fù);D、MapReduce可實(shí)現(xiàn)處理數(shù)據(jù)與計(jì)算任務(wù)的同步;答案:ABCD223.Python函數(shù)包括下述哪些內(nèi)容()。A、函數(shù)名稱(chēng)B、參數(shù)C、執(zhí)行語(yǔ)句D、返回值答案:ABCD224.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。A、顯著減少訓(xùn)練時(shí)間開(kāi)銷(xiāo)B、顯著減少測(cè)試時(shí)間開(kāi)銷(xiāo)C、降低過(guò)擬合風(fēng)險(xiǎn)D、提高欠擬合風(fēng)險(xiǎn)答案:ABCD225.一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測(cè)試集D、預(yù)處理集答案:ABC226.下列屬于文本處理流程的是()。A、NormalizationB、TokenizationStopwordsC、Part-of-speechTaggingD、NamedEntityRecognition答案:ABCD227.下面哪些是Spark的組件()。A、SparkStreamingB、MLibC、GraphXD、SparkR答案:ABC228.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是()。A、doB、passC、exceptD、until答案:AD229.關(guān)于梯度消失和梯度消失,以下說(shuō)法正確的是:(__)。A、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都小于1的話(huà),那么即使這個(gè)結(jié)果是0.99,在經(jīng)過(guò)足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于0B、可以采用ReLU激活函數(shù)有效的解決梯度消失的情況C、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都大于1的話(huà),在經(jīng)過(guò)足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于無(wú)窮大D、可以通過(guò)減小初始權(quán)重矩陣的值來(lái)緩解梯度爆炸答案:ABCD230.以下函數(shù)中()屬于二元通用函數(shù)(Binaryuniversalfunctions)。A、addB、substractC、multiplyD、power答案:ABCD231.圖像分割中常使用的領(lǐng)域有()。A、0鄰域B、4鄰域C、8鄰域D、24鄰域答案:BC232.下列關(guān)于集合操作結(jié)果正確的有()。A、name={‘d’,‘s’}nameadd(‘sd’)name值為:{‘sd’,‘d’,‘s’}B、name={‘sd’,d’,‘s’}nameremove(‘s’)name值為:{‘sd’,‘d’}C、name={‘sd’,d’,‘s’}nameclear()name值為:{}D、name={‘sd’,d’,‘s’}nameupdate(‘df’)name值為:{‘sd’,’d’,‘f’,’s’,’j’}答案:ABC233.Python邏輯表達(dá)式()的結(jié)果是False。A、not(TrueorFalse)B、not(FalseandFalse)C、1!=0D、1==0答案:AD234.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景(__)。A、語(yǔ)音識(shí)別B、語(yǔ)音建模C、機(jī)器翻譯D、圖像識(shí)別答案:ABC235.假設(shè)檢驗(yàn)中,首先需要提出零假設(shè)和備擇假設(shè),零假設(shè)是(),備擇假設(shè)是()。A、只有出現(xiàn)的概率大于閾值才會(huì)被拒絕的,只有零假設(shè)出現(xiàn)的概率大于閾值才會(huì)被承認(rèn)的B、希望推翻的結(jié)論,希望證明的結(jié)論C、只有出現(xiàn)的概率小于閾值才會(huì)被拒絕的,只有零假設(shè)出現(xiàn)的概率小于閾值才會(huì)被承認(rèn)的D、希望證明的結(jié)論,希望推翻的結(jié)論答案:BC236.Python變量命名規(guī)則()。A、變量名只能包含字母、數(shù)字和下劃線。變量名可以字母或下劃線開(kāi)頭,但不能以數(shù)字開(kāi)頭,例如,可將變量命名為message_1,但不能將其命名為1_message。B、變量名不能包含空格,但可使用下劃線來(lái)分隔其中的單詞。例如,變量名greeting_message可行,但變量名greetingmessage會(huì)引發(fā)錯(cuò)誤。C、不要將Python關(guān)鍵字和函數(shù)名用作變量名,即不要使用Python保留用于特殊用途的單詞,如print。D、變量名應(yīng)既簡(jiǎn)短又具有描述性。例如,name比n好,student_name比s_n好,name_length比length_of_persons_name好。答案:ABCD237.()等都是Scikit-Learn中包含的算法。A、SVMB、隨機(jī)森林C、Lasso回歸D、密度聚類(lèi)答案:ABCD238.數(shù)據(jù)科學(xué)基本原則中,三世界原則指的是()A、我們的世界B、數(shù)據(jù)世界C、物理世界D、數(shù)字世界答案:ABC239.某單位運(yùn)用隨機(jī)森林算法思想建立搶修熱點(diǎn)模型。該模型主要預(yù)測(cè)下期臺(tái)區(qū)工單數(shù)量,構(gòu)建搶修熱點(diǎn)。以下模型算法構(gòu)建步驟中合理的順序是:()。A、將歷史數(shù)據(jù)進(jìn)行隨機(jī)自助法重抽樣,生成N個(gè)訓(xùn)練樣本集B、將N個(gè)訓(xùn)練樣本集分別做決策樹(shù),生成N棵決策樹(shù)C、將N棵決策樹(shù)隨機(jī)構(gòu)成隨機(jī)森林D、未來(lái)根據(jù)預(yù)測(cè)樣本氣候環(huán)境、設(shè)備屬性、設(shè)備工況進(jìn)行隨機(jī)森林決策投票,得出針對(duì)該預(yù)測(cè)樣本最優(yōu)的決策樹(shù)進(jìn)行運(yùn)算,并計(jì)算出最終結(jié)果。答案:ABCD240.針對(duì)維數(shù)災(zāi)難,我們主要采用的降維方法有哪些()。A、多維縮放B、主成分分析C、核化線性降維D、流形學(xué)習(xí)E、度量學(xué)習(xí)答案:ABCDE241.特征工程一般需要做哪些工作()。A、正則化B、標(biāo)準(zhǔn)化C、特征處理D、特征選擇答案:CD242.下列哪些是RDBMS中事務(wù)遵循的原則()A、原子性(Atomicity)B、一致性(Connsistency)C、隔離性(Isolation)D、持久性(Durability)答案:ABCD243.以下屬于圖像分割的算法的是:()。A、閾值分割方法(thresholdsegmentationmethod)B、區(qū)域增長(zhǎng)細(xì)分(regionalgrowthsegmentation)C、邊緣檢測(cè)分割方法(edgedetectionsegmentationmethod)D、基于聚類(lèi)的分割(segmentationbasedonclustering)E、基于CNN中弱監(jiān)督學(xué)習(xí)的分割答案:ABCDE244.聚類(lèi)性能度量的指標(biāo)主要分為外部指標(biāo)和內(nèi)部指標(biāo),其中屬于內(nèi)部指標(biāo)的是()。A、Jaccard指數(shù)B、FM指數(shù)C、DB指數(shù)D、Dunn指數(shù)答案:CD245.圖像識(shí)別的精度會(huì)受到以下那些因素的影響()。A、數(shù)據(jù)類(lèi)別數(shù)量不平衡B、輸入圖像尺寸不同C、圖像中存在類(lèi)標(biāo)之外的環(huán)境干擾D、圖像中存在隨機(jī)噪聲答案:ACD246.大數(shù)據(jù)偏見(jiàn)包括()A、數(shù)據(jù)源的選擇偏見(jiàn)B、算法與模型偏見(jiàn)C、結(jié)果解讀方法的偏見(jiàn)D、數(shù)據(jù)呈現(xiàn)方式的偏見(jiàn)答案:ABCD247.SparkRDD的依賴(lài)機(jī)制包括()。A、寬依賴(lài)B、深度依賴(lài)C、廣度依賴(lài)D、窄依賴(lài)答案:AD248.主要面向或關(guān)注“過(guò)去”的數(shù)據(jù)分析過(guò)程為:A、描述性分析B、診斷性分析C、預(yù)測(cè)性分析D、規(guī)范性分析答案:AB249.下列屬于描述gensim庫(kù)的特性的是()。A、訓(xùn)練語(yǔ)料的預(yù)處理B、主題向量的變換C、文檔相似度的計(jì)算D、文章切分詞語(yǔ)統(tǒng)計(jì)計(jì)算答案:ABC250.DGI定義的數(shù)據(jù)治理任務(wù)包括()。A、數(shù)據(jù)質(zhì)量的評(píng)估B、主動(dòng)定義或序化規(guī)則C、為數(shù)據(jù)利益相關(guān)者提供持續(xù)跨職能的保護(hù)與服務(wù)D、應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問(wèn)題答案:BCD251.下列屬于字符串匹配的分詞方法的是()。A、正向最大匹配法(由左到右的方向)B、逆向最大匹配法(由右到左的方向)C、最少切分(使每一句中切出的詞數(shù)最小)D、雙向最大匹配法(進(jìn)行由左到右、由右到左兩次掃描)答案:ABCD252.在MapReduce1.0版本中,JobTracker功能是()。A、負(fù)責(zé)資源管理B、作業(yè)控制C、作業(yè)存儲(chǔ)D、作業(yè)審核答案:AB253.對(duì)以下代碼說(shuō)法正確的是()。X=np.linspace(0.05,10,1000)【換行】Y=np.sin(x)【換行】Plt.plot(x,y,ls="-.",l=2,c="c",label="plotfigure")【換行】Plt.legend()【換行】Plt.grid(linestyle=":",color="r")【換行】Plt.show()A、該圖表是一個(gè)藍(lán)綠色的散點(diǎn)圖B、圖表中有紅色實(shí)線的網(wǎng)格線C、圖表中有圖例D、該圖畫(huà)的是sin曲線;答案:CD254.在詞袋模型中使用單個(gè)的單詞來(lái)構(gòu)建詞向量這樣的序列被稱(chēng)為()。A、1元組(1-gram))B、單元組(unigram)模型C、列表D、字典答案:AB255.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()。A、矩陣B、.平行坐標(biāo)系C、星形坐標(biāo)D、散布圖答案:ABC256.模塊可以分為以下通用類(lèi)別()。A、使用python編寫(xiě)的.py文件B、已被編譯為共享庫(kù)或DLL的C或C++擴(kuò)展C、把一系列模塊組織到一起的文件夾D、使用C編寫(xiě)并鏈接到python解釋器的內(nèi)置模塊答案:ABCD257.HighBias(高偏差)解決方案:()。A、BoostingB、復(fù)雜模型(非線性模型、增加神經(jīng)網(wǎng)絡(luò)中的層)C、更多特征答案:ABC258.以下關(guān)于Hbase說(shuō)法正確的是()。A、面向列的數(shù)據(jù)庫(kù)B、非結(jié)構(gòu)化的數(shù)據(jù)庫(kù)C、支持大規(guī)模的隨機(jī)、實(shí)時(shí)讀寫(xiě)D、采用松散數(shù)據(jù)模型答案:ABCD259.下列屬于數(shù)值優(yōu)化算法的是()。A、梯度下降法B、牛頓法C、極大似然法D、邏輯回歸答案:AB260.使用Python操作目錄以下哪些符合()。A、mkdir:用于以數(shù)字權(quán)限模式創(chuàng)建目錄B、getcwd:用于返回當(dāng)前工作目錄C、chdir:用于改變當(dāng)前工作目錄到指定的路徑D、rmdir:用于刪除指定路徑的目錄。僅當(dāng)這文件夾是空的才可以,否則,拋出OSError。答案:ABCD261.對(duì)于決策樹(shù)的優(yōu)點(diǎn)描述正確的是()。A、可讀性強(qiáng)B、分類(lèi)速度快C、只用于回歸問(wèn)題D、是無(wú)監(jiān)督學(xué)習(xí)答案:AB262.大數(shù)據(jù)平臺(tái)的計(jì)算組件主要有哪幾個(gè)()。A、StormB、SparkC、MapreduceD、Sqoop答案:ABC263.任何函數(shù)都可以修改,所以盡量少用全局變量,主要原因包括()。A、不夠安全B、一直占用內(nèi)存C、容易失效D、一直占用字符答案:AB264.變量名可以包含()。A、字母B、數(shù)字C、下劃線D、空格答案:ABC265.從可視化處理視角看,可以將數(shù)據(jù)分為四個(gè)類(lèi)型()并采用不同的視覺(jué)映射方法。A、定類(lèi)數(shù)據(jù)B、定序數(shù)據(jù)C、定距離數(shù)據(jù)D、定比暑假答案:ABCD266.建立線性模型時(shí),我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時(shí),如果發(fā)現(xiàn)3對(duì)變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢()A、Var1和Var2具有很高的相關(guān)性B、Var1和Var2存在多重共線性,模型可以去掉其中一個(gè)特征C、Var3和Var1相關(guān)系數(shù)為1.23是不可能的D、以上答案都不正確答案:ABC267.下面有關(guān)HTML敘述正確的是()。A、一個(gè)HTML文件可以用記事本來(lái)編輯B、HTML的意思是超文本標(biāo)記語(yǔ)言C、一個(gè)HTML文件必須是一個(gè)以htm或html為擴(kuò)展名的文件D、HTML區(qū)分大小寫(xiě),如<b>寫(xiě)成<B>是錯(cuò)誤的答案:ABC268.Python邏輯表達(dá)式()會(huì)導(dǎo)致邏輯短路,即不會(huì)繼續(xù)向下推算而直接返回結(jié)果。A、False開(kāi)頭的and語(yǔ)句B、False開(kāi)頭的or語(yǔ)句C、True開(kāi)頭的and語(yǔ)句D、True開(kāi)頭的or語(yǔ)句答案:AD269.以下關(guān)于神經(jīng)網(wǎng)絡(luò)模型描述正確的是(__)。A、神經(jīng)網(wǎng)絡(luò)模型是許多邏輯單元按照不同層級(jí)組織起來(lái)的網(wǎng)絡(luò),每一層的輸出變量都是下一層的輸入變量B、神經(jīng)網(wǎng)絡(luò)模型建立在多神經(jīng)元之上C、神經(jīng)網(wǎng)絡(luò)模型中,無(wú)中間層的神經(jīng)元模型的計(jì)算可用來(lái)表示邏輯運(yùn)算D、神經(jīng)網(wǎng)絡(luò)模型一定可以解決所有分類(lèi)問(wèn)題答案:ABC270.常見(jiàn)的圖像降噪方式包括()。A、中值濾波B、均值濾波C、平均濾波D、加權(quán)平均濾波答案:ABCD271.在數(shù)據(jù)科學(xué)中,計(jì)算模式發(fā)生了根本性的變化——從集中式計(jì)算、分布式計(jì)算、網(wǎng)格計(jì)算等傳統(tǒng)計(jì)算過(guò)渡至云計(jì)算,有一定的代表性的是Google云計(jì)算三大技術(shù),這三大技術(shù)包括()。A、HadoopYRN資源管理器B、GFS分布式存儲(chǔ)系統(tǒng)C、MaoRedue分布式處理技術(shù)D、BigTable分布式數(shù)據(jù)庫(kù)答案:BCD272.關(guān)于CAP理論說(shuō)法正確的是()。A、一個(gè)分布式系統(tǒng)不能同時(shí)滿(mǎn)足一致性、可用性和分區(qū)容錯(cuò)性等需求B、一致性主要指強(qiáng)一致性C、一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)D、可用性指每個(gè)操作總是在“給定時(shí)間”之內(nèi)得到返回“所需要的結(jié)果”。答案:ABCD273.以下()是一元通用函數(shù)。A、np.add()B、np.maximum()C、np.exp()D、np.sqrt()答案:CD274.HadoopMapReduce是MapReduce的具體實(shí)現(xiàn)之一。HadoopMapReduce數(shù)據(jù)處理過(guò)程涉及四個(gè)獨(dú)立的實(shí)體,包括()。A、ClientB、JobTrackerC、TaskTrackerD、HDFS答案:ABCD275.下列關(guān)于特征的稀疏性說(shuō)法正確的是()。A、稀疏性指的是矩陣中有許多列與當(dāng)前學(xué)習(xí)任務(wù)無(wú)關(guān)B、稀疏樣本可減少學(xué)習(xí)任務(wù)的計(jì)算開(kāi)銷(xiāo)C、學(xué)習(xí)任務(wù)難度可能有所降低D、稀疏矩陣沒(méi)有高效的存儲(chǔ)方法答案:ABC276.數(shù)據(jù)可視化中,從數(shù)據(jù)到知識(shí)的轉(zhuǎn)換途徑()。A、可視化分析B、自動(dòng)化建模C、用戶(hù)交互D、參數(shù)優(yōu)化答案:AB277.在數(shù)據(jù)缺失嚴(yán)重時(shí),會(huì)對(duì)分析結(jié)果造成較大的影響,因此剔除的異常值和缺失值,要采用合理的方法進(jìn)行填補(bǔ),常用的方法有()。A、平均值填充B、K最近鄰距離法C、回歸法D、極大似然估計(jì)E、多重插補(bǔ)法答案:ABCDE278.假設(shè)目標(biāo)遍歷的類(lèi)別非常不平衡,即主要類(lèi)別占據(jù)了訓(xùn)練數(shù)據(jù)的99%,現(xiàn)在你的模型在訓(xùn)練集上表現(xiàn)為99%的準(zhǔn)確度,那么下面說(shuō)法正確的是:()。A、準(zhǔn)確度并不適合衡量不平衡類(lèi)別問(wèn)題B、準(zhǔn)確度適合衡量不平衡類(lèi)別問(wèn)題C、精確度和召回率適合于衡量不平衡類(lèi)別問(wèn)題D、精確度和召回率不適合衡量不平衡類(lèi)別問(wèn)題答案:AC279.圖像壓縮是建立在圖像存在()幾種冗余之上。A、編程冗余B、像素間冗余C、心理視覺(jué)冗余D、計(jì)算資源冗余答案:ABC280.圖像識(shí)別的一般步驟包括()。A、預(yù)處理B、特征提取C、超像素生成D、識(shí)別分類(lèi)答案:ABD281.以下關(guān)于L1和L2范數(shù)的描述,正確的是:()。A、L1范數(shù):為x向量各個(gè)元素絕對(duì)值之和。B、L2范數(shù):為x向量各個(gè)元素平方和的1/2次方,L2范數(shù)又稱(chēng)Euclidean范數(shù)或Frobenius范數(shù)C、L1范數(shù)可以使權(quán)值稀疏,方便特征提取D、L2范數(shù)可以防止過(guò)擬合,提升模型的泛化能力。答案:ABCD282.RDD具有()和()特征。A、可容錯(cuò)性;B、簡(jiǎn)潔性;C、并行數(shù)據(jù)結(jié)構(gòu);D、結(jié)構(gòu)化;答案:AC283.HBase性能優(yōu)化包含下面的哪些選項(xiàng)()。A、讀優(yōu)化B、寫(xiě)優(yōu)化C、配置優(yōu)化D、JVM優(yōu)化答案:ABCD284.交叉檢驗(yàn)?zāi)P驮u(píng)估較差可能是由于()原因?qū)е碌?。A、模型過(guò)擬合B、模型欠擬合C、模型過(guò)度復(fù)雜D、模型過(guò)度簡(jiǎn)單答案:ABCD285.文本分類(lèi)過(guò)程包括()。A、選擇訓(xùn)練文本B、選擇文本特征C、建立文本表示模型D、選擇分類(lèi)方法答案:ABCD286.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門(mén)是哪些()A、進(jìn)化門(mén)B、輸出門(mén)C、輸入門(mén)D、遺忘門(mén)答案:BCD287.數(shù)據(jù)管理指對(duì)數(shù)據(jù)生命周期的每個(gè)階段里可能引發(fā)的各類(lèi)數(shù)據(jù)質(zhì)量問(wèn)題,進(jìn)行()等一系列管理活動(dòng),并通過(guò)改善和提高組織的管理水平是的數(shù)據(jù)質(zhì)量獲得進(jìn)一步提高。A、識(shí)別B、度量C、監(jiān)控D、預(yù)警答案:ABCD288.決策樹(shù)的劃分選擇有()。A、增益系數(shù)B、信息增益C、增益率D、基尼系數(shù)E、信息增益量答案:BCD289.關(guān)于數(shù)據(jù)流轉(zhuǎn)和應(yīng)用,以下說(shuō)法正確的是()。A、數(shù)據(jù)流轉(zhuǎn)和應(yīng)用過(guò)程中應(yīng)確??勺匪?、可復(fù)查B、前序環(huán)節(jié)應(yīng)保證數(shù)據(jù)的真實(shí)、完整C、前序環(huán)節(jié)應(yīng)及時(shí)傳遞到后序環(huán)節(jié)D、前后環(huán)節(jié)數(shù)據(jù)應(yīng)保持銜接一致答案:ABCD290.已定義級(jí)(DefinedLevel)的主要特點(diǎn)包括()。A、組織機(jī)構(gòu)已明確給出了關(guān)鍵過(guò)程的“標(biāo)準(zhǔn)定義”,并定期對(duì)其進(jìn)行改進(jìn)。B、已提供了關(guān)鍵過(guò)程的測(cè)量與預(yù)測(cè)方法。C、關(guān)鍵過(guò)程的執(zhí)行過(guò)程并不是簡(jiǎn)單或死板地執(zhí)行組織機(jī)構(gòu)給出的“標(biāo)準(zhǔn)定義”,而是根據(jù)具體業(yè)務(wù)進(jìn)行了一定的“裁剪”工作。D、數(shù)據(jù)的重要性已成為組織機(jī)構(gòu)層次的共識(shí),將數(shù)據(jù)當(dāng)作成功實(shí)現(xiàn)組織機(jī)構(gòu)使命的關(guān)鍵因素之一答案:ABCD291.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()A、參數(shù)更少B、泛化更好C、訓(xùn)練更快D、更容易搭建;答案:ABC292.語(yǔ)音識(shí)別的方法包括()。A、聲道模型方法B、模板匹配的方法C、利用仍神經(jīng)網(wǎng)絡(luò)的方法D、語(yǔ)音知識(shí)方法答案:ABCD293.Hadoop生態(tài)系統(tǒng)中,核心是()。A、FlumeB、MapReduceC、PigD、HDFS答案:BD294.以下描述中屬于Analytics2.0的主要特點(diǎn)的是()。A、側(cè)重嵌入式分析B、重視非結(jié)構(gòu)化數(shù)據(jù)的分析C、以決策支持為主要目的D、注重解釋性分析和預(yù)測(cè)性分析答案:BCD295.Hadoop組件Zookeeper的設(shè)計(jì)目標(biāo)和主要特點(diǎn)包括()。A、簡(jiǎn)單性B、自我復(fù)制C、順序訪問(wèn)D、高速讀取答案:ABCD296.下面對(duì)范數(shù)規(guī)則化描述正確的是()。A、L0是指向量中0的元素的個(gè)數(shù)B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和C、L2范數(shù)向量元素絕對(duì)值的平方和再開(kāi)平方D、L0是指向量中非0的元

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論