




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGEPAGE12024年大數(shù)據(jù)應(yīng)用技能競(jìng)賽理論考試題庫(kù)(含答案)一、單選題1.假設(shè)在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7x7,具有零填充且步幅為1,該層的輸入圖片的維度是224x224x3,那么該層輸岀的維度是()。A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C2.Matplotlib的主要功能是()。A、科學(xué)計(jì)算B、繪圖庫(kù)C、爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)D、機(jī)器學(xué)習(xí)庫(kù)答案:B3.下列說(shuō)法不正確的是()。A、解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時(shí)逐條運(yùn)行目標(biāo)代碼的過(guò)程B、編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過(guò)程C、語(yǔ)言是靜態(tài)語(yǔ)言,python語(yǔ)言是腳本語(yǔ)言D、靜態(tài)語(yǔ)言采用解釋方式執(zhí)行,腳本語(yǔ)言采用編譯方式執(zhí)行答案:D4.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)屬于一種()。A、全連接神經(jīng)網(wǎng)絡(luò)B、門(mén)控rnnC、bp神經(jīng)網(wǎng)絡(luò)D、雙向rnn答案:B5.下列算法中屬于圖像平滑處理的是()A、梯度銳化B、直方圖均衡化C、中值濾波D、laplacian增強(qiáng)答案:C6.大數(shù)據(jù)應(yīng)用應(yīng)嚴(yán)格遵守國(guó)家數(shù)據(jù)安全相關(guān)法律法規(guī)和公司數(shù)據(jù)安全相關(guān)規(guī)定,嚴(yán)格保護(hù)國(guó)家秘密、公司商業(yè)秘密、個(gè)人信息安全,嚴(yán)格執(zhí)行()等環(huán)節(jié)安全管理要求,確保大數(shù)據(jù)應(yīng)用工作安全合規(guī)。A、數(shù)據(jù)獲取、數(shù)據(jù)拷貝、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)使用、數(shù)據(jù)共享、數(shù)據(jù)銷(xiāo)毀B、數(shù)據(jù)獲取、數(shù)據(jù)清洗、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)使用、數(shù)據(jù)共享、數(shù)據(jù)銷(xiāo)毀C、數(shù)據(jù)獲取、數(shù)據(jù)傳輸、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)使用、數(shù)據(jù)共享、數(shù)據(jù)銷(xiāo)毀D、數(shù)據(jù)獲取、數(shù)據(jù)傳輸、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)使用、數(shù)據(jù)共享答案:C7.運(yùn)行下面程序,下列結(jié)果不正確的是()。importnumpyasnpx=np.array([[1,2],[3,4]])y=np.linalg.inv(x)print(y)A、[[12][34]]B、[[-2.1.][1.5-0.5]]C、[[1.0.][2.1.]]D、以上都不對(duì)答案:B8.下列關(guān)于數(shù)據(jù)科學(xué)流程與方法的描述錯(cuò)誤的是()。A、數(shù)據(jù)科學(xué)的基本流程包括數(shù)據(jù)化、數(shù)據(jù)加工(datawrangling或datamunging)、數(shù)據(jù)規(guī)整化、探索性分析、數(shù)據(jù)分析與洞見(jiàn)、結(jié)果展現(xiàn)以及數(shù)據(jù)產(chǎn)品的提供B、對(duì)于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過(guò)清洗成為規(guī)整數(shù)據(jù)C、數(shù)據(jù)分析包括描述性分析、診斷性分析、預(yù)測(cè)性分析和規(guī)范性分析D、數(shù)據(jù)可視化會(huì)遇到視覺(jué)假象問(wèn)題,人眼對(duì)亮度和顏色的相對(duì)判斷容易造成視覺(jué)假象答案:B9.大數(shù)據(jù)應(yīng)用建設(shè)及運(yùn)營(yíng)過(guò)程中如發(fā)生數(shù)據(jù)安全問(wèn)題,應(yīng)立即暫停大數(shù)據(jù)應(yīng)用建設(shè)或運(yùn)營(yíng)工作,向互聯(lián)網(wǎng)部、安保部、法規(guī)部及相關(guān)專(zhuān)業(yè)管理等部門(mén)報(bào)告,由()協(xié)同相關(guān)部門(mén)組織進(jìn)行整改,整改結(jié)果經(jīng)評(píng)審合格后方可繼續(xù)開(kāi)展建設(shè)及運(yùn)營(yíng)工作。A、互聯(lián)網(wǎng)部B、安保部C、法規(guī)部D、數(shù)字化部答案:D10.數(shù)據(jù)安全管理要求不包括范圍A、數(shù)據(jù)獲取B、數(shù)據(jù)展示C、數(shù)據(jù)存儲(chǔ)D、數(shù)據(jù)共享答案:B11.下列描述中不屬于情感分析的具體任務(wù)是()。A、情感分類(lèi)B、觀點(diǎn)抽取C、觀點(diǎn)問(wèn)答D、段落匹配答案:D12.()反映數(shù)據(jù)的精細(xì)化程度,越細(xì)化的數(shù)據(jù),價(jià)值越高。A、規(guī)模B、靈活性C、關(guān)聯(lián)度D、顆粒度答案:D13.構(gòu)造了一個(gè)詞表:{1.小明2.喜歡3.踢4.看5.足球6.籃球7.電影},利用上述詞表的索引號(hào),文檔{小明喜歡踢足球}可以用一個(gè)7維向量表示為()。A、[1101001]B、[1111111]C、[1111100]D、[1110100]答案:D14.對(duì)arr=np.arange(9).reshape(3,3),反轉(zhuǎn)二維數(shù)組arr的行進(jìn)行的操作是()。A、rr[::-1]B、arr[::-2]C、arr[::1]D、arr[::0]答案:A15.Scipy中模塊signal的作用是()。A、信號(hào)處理B、程序輸入輸出C、程序輸入輸出D、計(jì)算積分答案:A16.Hive的數(shù)據(jù)最終存儲(chǔ)在()中。A、hdfsB、hbaseC、rdbmsD、metastore答案:A17.對(duì)于一個(gè)分類(lèi)任務(wù),如果開(kāi)始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,則下列敘述正確的是()。A、沒(méi)有問(wèn)題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開(kāi)始訓(xùn)練B、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西C、神經(jīng)網(wǎng)絡(luò)不會(huì)開(kāi)始訓(xùn)練,因?yàn)闆](méi)有梯度改變D、以上選項(xiàng)都不對(duì)答案:B18.當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與()無(wú)關(guān)。A、信道傳輸?shù)馁|(zhì)量B、出現(xiàn)的圖像信號(hào)C、是否有中轉(zhuǎn)信道的過(guò)程D、圖像在信道前后的處理答案:B19.下列關(guān)于關(guān)鍵詞提取的說(shuō)法錯(cuò)誤的是()。A、關(guān)鍵詞提取是指借用自然語(yǔ)言處理方法提取文章關(guān)鍵詞B、tf-idf模型是關(guān)鍵詞提取的經(jīng)典方法C、文本中出現(xiàn)次數(shù)最多的詞最能代表文本的主題D、這個(gè)問(wèn)題涉及數(shù)據(jù)挖掘、文本處理、信息檢索等領(lǐng)域答案:C20.下列不屬于數(shù)據(jù)科學(xué)項(xiàng)目主要角色的是()。A、項(xiàng)目發(fā)起人B、項(xiàng)目經(jīng)理C、操作員D、驗(yàn)收人員答案:D21.下列關(guān)于數(shù)據(jù)整合和分組的說(shuō)法不正確的是()。A、數(shù)據(jù)連接可以用concat或merge函數(shù)B、axis=1表示軸向連接C、數(shù)據(jù)分組可以使用mean函數(shù)D、使用agg可以自定義多個(gè)聚合函數(shù)答案:C22.DataFrame和RDD最大的區(qū)別是()A、科學(xué)統(tǒng)計(jì)支持B、dataframe多了schemaC、存儲(chǔ)方式不一樣D、外部數(shù)據(jù)源支持答案:B23.運(yùn)行下面代碼的輸出結(jié)果為()。arrl=np.arange(0,16,1).reshape(4,4)np.delete(arr1,1,axis=1)print(arr1)A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]答案:C24.訓(xùn)練樣本集$含有天氣、氣溫、人體感受、風(fēng)力4個(gè)指標(biāo),已知天氣的嫡為0.694,溫度的炳為0.859,人體感受的嫡為0.952,風(fēng)力的嫡為0.971,如使用ID3算法,選擇()為樹(shù)'模型的分界點(diǎn)。A、天氣B、氣溫C、人體感受D、風(fēng)力答案:A25.采樣分析的精確性隨著釆樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系不大。A、降低B、不變C、提高D、無(wú)關(guān)答案:C26.在其他條件不變的前提下,()容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題。A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、svm算法中使用高斯核/rbf核代替線性核答案:D27.下列算法中:①KNN算法;②線性回歸;③邏輯回歸??梢杂蒙窠?jīng)網(wǎng)絡(luò)構(gòu)建的算法是()。A、①②B、②③C、①②③D、以上都不是答案:B28.依據(jù)《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)據(jù)共享機(jī)制,堅(jiān)持“以()為原則、不共享為例外”,改變當(dāng)前“一事一議”、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。A、共享B、共建C、共通D、共贏答案:A29.下列關(guān)于PCA的說(shuō)法中:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上做數(shù)據(jù)可視化。正確的是()。A、①②④B、②④C、③④D、①③答案:A30.()特征選擇是直接把最終將要使用的學(xué)習(xí)器的性能作為特征子集的評(píng)價(jià)準(zhǔn)則。A、嵌入式B、過(guò)濾式C、包裹式D、一體式答案:C31.運(yùn)行下面代碼段,輸岀結(jié)果為()。print(bool('False'))print(bool(False))A、TrueTrueB、TrueFalseC、FalseTrueD、FalseFalse答案:B32.屬于深度學(xué)習(xí)框架的是()。A、tensorflowB、caffeC、pytorchD、以上答案都正確答案:D33.()是指針對(duì)用戶(hù)非常明確的數(shù)據(jù)查詢(xún)和處理任務(wù),以高性能和高吞吐量的方式實(shí)現(xiàn)大眾化的服務(wù),是數(shù)據(jù)價(jià)值最重要也是最直接的發(fā)現(xiàn)方式。A、數(shù)據(jù)服務(wù)B、數(shù)據(jù)分析C、數(shù)據(jù)治理D、數(shù)據(jù)應(yīng)用答案:A34.把圖像分割問(wèn)題與圖的最小割(mincut)問(wèn)題相關(guān)聯(lián)的方法是()。A、基于圖論的分割方法B、分水嶺算法C、slic算法D、基于閾值的方法答案:A35.Scikit-Learn中,()可以更好幫助參數(shù)調(diào)優(yōu)和選擇模型。A、均值算法B、均方根算法C、最小二乘法D、交叉驗(yàn)證答案:D36.scipy.stats.describe()函數(shù)的作用是()。A、計(jì)算變異系數(shù)B、計(jì)算數(shù)據(jù)集的樣本偏度C、計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息D、計(jì)算關(guān)于樣本平均值的第n個(gè)矩答案:C37.下列方法中屬于映射數(shù)據(jù)到新的空間的是()A、傅里葉變換B、特征加權(quán)C、漸進(jìn)抽樣D、維歸約答案:A38.()屬于淺層學(xué)習(xí)模型。A、dbnB、cnnC、svmD、rnn答案:C39.Numpy.array數(shù)組的簡(jiǎn)稱(chēng)是()。A、rrayB、nparrayC、ndarrayD、pyarray答案:C40.某籃運(yùn)動(dòng)員在三分線投球的命中率是1/2,他投球10次,恰好投進(jìn)3個(gè)球的概率為()。A、15/128B、3/16C、5/8D、7/16答案:A41.鼓勵(lì)各部門(mén)、各單位強(qiáng)化大數(shù)據(jù)成果轉(zhuǎn)化、應(yīng)用與推廣。對(duì)內(nèi)賦能電網(wǎng)運(yùn)行、經(jīng)營(yíng)管理、客戶(hù)服務(wù)、____等實(shí)際工作。A、社會(huì)治理B、金融信托C、基層減負(fù)D、國(guó)際援助答案:C42.SVM在()情況下表現(xiàn)糟糕。A、線性可分?jǐn)?shù)據(jù)B、清洗過(guò)的數(shù)據(jù)C、含噪聲數(shù)據(jù)與重疊數(shù)據(jù)點(diǎn)答案:C43.下列關(guān)于模塊的說(shuō)法不正確的是()。A、python模塊(module)是一個(gè)python文件,以,py結(jié)尾,包含了python對(duì)象定義和python語(yǔ)句B、使用模塊能夠有邏輯地組織python代碼段C、把相關(guān)的代碼分配到一個(gè)模塊里能讓代碼更好用、更易懂D、模塊不能定義類(lèi)答案:D44.下列關(guān)于RBM的說(shuō)法錯(cuò)誤的是()。A、學(xué)習(xí)過(guò)程很快B、rbm訓(xùn)練可以看作對(duì)一個(gè)深層bp網(wǎng)絡(luò)的網(wǎng)絡(luò)權(quán)值參數(shù)的初始化C、rbm不用人工選擇特征D、rbm有標(biāo)簽樣本集答案:A45.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂(yōu),主要表現(xiàn)為()。A、人信息的被識(shí)別與暴露B、用戶(hù)畫(huà)像的生成C、廣告的推送D、病毒入侵答案:A46.Python變量作為實(shí)參時(shí),它和對(duì)應(yīng)形參之間的數(shù)據(jù)傳遞方式是()。A、由形參傳給實(shí)參B、由實(shí)參傳給形參C、由實(shí)參傳給形參,再由形參傳給實(shí)參D、在用戶(hù)干預(yù)情況下,實(shí)參形參能相互傳遞答案:D47.下列關(guān)于機(jī)器學(xué)習(xí)模型的說(shuō)法正確的是()。A、一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說(shuō)明這個(gè)分類(lèi)器是好的B、如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率不一定會(huì)降低C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低答案:C48.可用信息增益來(lái)進(jìn)行決策樹(shù)的()。A、樹(shù)高B、葉子結(jié)點(diǎn)數(shù)C、總結(jié)點(diǎn)數(shù)D、劃分屬性選擇答案:D49.()是從(多條)信息中發(fā)現(xiàn)的共性規(guī)律、模式、模型、理論、方法。A、信息B、數(shù)據(jù)C、知識(shí)D、智慧答案:C50.當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語(yǔ)義分割時(shí),通常采用的順序是()A、先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出B、先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出C、不能確定答案:A51.在支持向量機(jī)中,核函數(shù)的主要作用是()。A、將低維空間中線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分B、將高維空間中線性不可分的數(shù)據(jù)映射到低維空間,使其線性可分C、將高維空間中線性可分的數(shù)據(jù)映射到低維空間,使其線性不可分D、將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分答案:A52.對(duì)模型進(jìn)行交叉驗(yàn)證可以使用()方法。A、leaming_curve()B、cross_val_score()C、permutation_test_score()D、validation()答案:B53.給定詞匯表如下:{Bob,ok,likes,football,car}。則下面句子Boblikesfootball的詞袋模型表示為()。A、[11100]B、[10110]C、[10010]D、[01101]答案:B54.()適合連續(xù)特征,它假設(shè)每個(gè)特征對(duì)于每個(gè)類(lèi)都符合正態(tài)分布。A、gaussiannbB、ernoullinbC、multinomialnbD、basediscretenb答案:A55.下列關(guān)于圖像識(shí)別任務(wù)的敘述錯(cuò)誤的是()。A、目標(biāo)在于檢測(cè)出圖像中的對(duì)象是什么B、在識(shí)別前往往需要對(duì)圖像進(jìn)行預(yù)處理C、nn是一種常用的圖像識(shí)別網(wǎng)絡(luò)D、圖像的采集和傳輸方式對(duì)圖像識(shí)別結(jié)果沒(méi)有影響答案:D56.scikit-learn中的K-means類(lèi),用來(lái)調(diào)節(jié)k值的參數(shù)是().A、n_clustersB、max_iterC、n_initD、init答案:A57.下列關(guān)于誤差的說(shuō)法正確的是()。A、訓(xùn)練樣本容量增加,泛化誤差也會(huì)增加B、過(guò)擬合指數(shù)據(jù)在訓(xùn)練集上的誤差過(guò)大C、過(guò)擬合可以通過(guò)減少模型參數(shù)數(shù)量解決D、交叉驗(yàn)證不重復(fù)使用數(shù)據(jù)答案:C58.()認(rèn)為,大數(shù)據(jù)時(shí)代的數(shù)據(jù)管理目標(biāo)不一定理想和完美,一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)。A、cap理論B、ase原則C、數(shù)據(jù)一致性理論D、大數(shù)據(jù)法則答案:A59.運(yùn)行下面程序,a、b、c、d四個(gè)變量的值錯(cuò)誤的是()。importcopya=[1,2,3,4,['a','b']]b=ac=copy.copy(a)d=copy.deepcopy(a)a.append(5)a[4].append('c')A、==[1,2,3,4,['a','b','c'],5]B、==[1,2,3,4,['a','b','c'],5]C、==[1,2,3,4,['a','b','c']]D、==[1,2,3,4,['a','b','c']]答案:D60.機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過(guò)程中對(duì)某種類(lèi)型假設(shè)的偏好稱(chēng)為()。A、訓(xùn)練偏好B、歸納偏好C、分析偏好D、假設(shè)偏好答案:B61.隨機(jī)森林中的隨機(jī)是指()。A、隨便構(gòu)建樹(shù)模B、隨機(jī)選擇一個(gè)樹(shù)模型C、隨機(jī)選擇多個(gè)樹(shù)模型D、在構(gòu)建每個(gè)樹(shù)模型時(shí)隨機(jī)選擇樣本和特征答案:D62.Scikit-Learn中,()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、ccuracy_scoreB、accuracyC、fl_scoreD、f2_score答案:A63.下列關(guān)于聚類(lèi)挖掘技術(shù)的說(shuō)法錯(cuò)誤的是()。A、不預(yù)先設(shè)定數(shù)據(jù)歸類(lèi)類(lèi)目,完全根據(jù)數(shù)據(jù)本身性質(zhì)將數(shù)據(jù)聚合成不同類(lèi)別B、要求同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小C、要求不同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小D、與分類(lèi)挖掘技術(shù)相似的是,都是要對(duì)數(shù)據(jù)進(jìn)行分類(lèi)處理答案:B64.()是利用樣本的實(shí)際資料計(jì)算統(tǒng)計(jì)量的取值,并引來(lái)以檢驗(yàn)事先對(duì)總體某些數(shù)量特征的假設(shè)是否可信作為決策取舍依據(jù)的一種統(tǒng)計(jì)分析方法。A、假設(shè)檢驗(yàn)B、邏輯分析C、方差分析D、回歸分析答案:A65.依據(jù)《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)據(jù)共享機(jī)制,堅(jiān)持“()”,改變當(dāng)前“()”、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。A、以不共享為原則、共享為例外;一事一議B、以共享為原則、不共享為例外;一事一議C、一事一議;以共享為原則、不共享為例外D、一事一議;以不共享為原則、共享為例外答案:B66.Ndarray是一個(gè)通用的()數(shù)據(jù)容器。A、單維同類(lèi)B、單維多類(lèi)C、多維同類(lèi)D、多維多類(lèi)答案:C67.Hadoop中,Reducer的三個(gè)步驟是()。A、shuffle—sort—reduceB、shuffle—reduce一sortC、reduce一shuffle—sortD、sort—shuffle一reduce答案:A68.pipinstallscipy==1.7與pipinstallscipy的區(qū)別是()。A、兩者作用一樣B、前者安裝指定版本的包,后者安裝最新版本的包C、前者安裝指定版本的包,后者安裝隨機(jī)版本的包D、以上都不對(duì)答案:B69.Python用于異常處理結(jié)構(gòu)中捕獲特定類(lèi)型的異常的保留字是()。A、exceptB、doC、passD、while答案:A70.下列關(guān)于Pandas數(shù)據(jù)讀寫(xiě)的說(shuō)法錯(cuò)誤的是()A、read_csv()函數(shù)能夠讀取數(shù)據(jù)庫(kù)的數(shù)據(jù)B、read_sql()函數(shù)能夠讀取數(shù)據(jù)庫(kù)的數(shù)據(jù)C、to_csv()函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫(xiě)入csv文件D、to_excel()函數(shù)能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)寫(xiě)入excel文件答案:A71.()是一個(gè)組織機(jī)構(gòu)的數(shù)據(jù)管理的愿景、目標(biāo)以及功能藍(lán)圖的統(tǒng)一管理。A、數(shù)據(jù)治理B、數(shù)據(jù)戰(zhàn)略C、數(shù)據(jù)加工D、數(shù)據(jù)能力答案:B72.下列關(guān)于描述性分析與探索性分析的描述正確的是()。A、描述性分析是相對(duì)于驗(yàn)證性分析的一種提法B、探索性分析是驗(yàn)證性分析的基礎(chǔ)C、探索性分析是相對(duì)于驗(yàn)證性分析的一種提法D、探索性分析是數(shù)據(jù)分析的第一步答案:C73.下列組件中MapReduce編程模型中最后執(zhí)行的是()。A、mapperB、partitionerC、reducerD、recordreader答案:C74.參數(shù)估計(jì)可分為()和區(qū)間估計(jì)。A、線型估計(jì)B、點(diǎn)估計(jì)C、回歸估計(jì)D、二維分析答案:B75.()技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)圖的方式展現(xiàn)出來(lái)。A、支持向量機(jī)B、神經(jīng)網(wǎng)絡(luò)C、數(shù)據(jù)可視化D、數(shù)據(jù)挖掘答案:C76.傅里葉變換得到的頻譜中,低頻系數(shù)對(duì)應(yīng)于()。A、物體邊緣B、噪聲C、變化平緩部分D、變化劇烈部分答案:C77.MapReduce對(duì)map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。A、減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸B、優(yōu)化map()函數(shù)C、優(yōu)化reduce()函數(shù)D、這一步驟并無(wú)必要答案:A78.()和假設(shè)檢驗(yàn)又可歸結(jié)為統(tǒng)計(jì)推斷的范疇,即對(duì)總體的數(shù)量特征做岀具有一定可靠程度的估計(jì)和判斷。A、參數(shù)估計(jì)B、邏輯分析C、方差分析D、回歸分析答案:A79.一組數(shù)據(jù)的最大值與最小值之差叫作()。A、標(biāo)準(zhǔn)差B、極差C、方差D、極小值答案:B80.____是指綜合應(yīng)用公司內(nèi)部電力生產(chǎn)運(yùn)行、經(jīng)營(yíng)管理、客戶(hù)服務(wù)等業(yè)務(wù)活動(dòng)所產(chǎn)生的數(shù)據(jù)資源,以及獲取的外部數(shù)據(jù)資源,通過(guò)數(shù)據(jù)分析挖掘,釋放數(shù)據(jù)資源價(jià)值,發(fā)現(xiàn)新知識(shí)、創(chuàng)造新價(jià)值、提升新能力,賦能公司提質(zhì)增效,支撐行業(yè)高質(zhì)量發(fā)展,服務(wù)國(guó)家治理現(xiàn)代化。A、能源數(shù)字化B、大數(shù)據(jù)報(bào)表C、能源大數(shù)據(jù)D、大數(shù)據(jù)應(yīng)用答案:D81.下列方法不能成功創(chuàng)建一個(gè)Numpy數(shù)組的是()。A、=np.array([1,2,3,4])B、=np.zeros(3,4)C、=np.ones(1,2,3,4)D、=np.arange(10,30,5)答案:C82.下列算法中不屬于基于深度學(xué)習(xí)的圖像分割算法的是()。A、fcnB、deeplabC、mask-rcnnD、knn答案:D83.已知數(shù)組a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])b=np.array([1,2,3]),則a+b的輸岀結(jié)果為()。A、[[1,2,3],[10,10,10],[20,20,20],[30,30,30]]B、[[1,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]C、[[1,2,3],[11,12,13],[21,22,23],[31,32,33]]D、無(wú)法計(jì)算答案:C84.()算法可以較好地避免樣本的不平衡問(wèn)題。A、knnB、svmC、bayesD、神經(jīng)網(wǎng)絡(luò)答案:A85.下列關(guān)于異常說(shuō)法正確的是()。A、程序中拋出異常終止程序B、程序中拋出異常不一定終止程序C、拼寫(xiě)錯(cuò)誤會(huì)導(dǎo)致程序終止D、縮進(jìn)錯(cuò)誤會(huì)導(dǎo)致程序終止答案:B86.劃分聚類(lèi)算法是一種簡(jiǎn)單的較為基本的重要聚類(lèi)方法。它的主要思想是通過(guò)將數(shù)據(jù)點(diǎn)集分為()個(gè)劃分,并使用重復(fù)的控制策略使某個(gè)準(zhǔn)則最優(yōu)化,以達(dá)到最終的結(jié)果。A、dB、kC、eD、f答案:B87.scipy.stats中,()表示二項(xiàng)分布。A、gammaB、inomC、uniformD、rayleigh答案:B88.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯(cuò)誤?,F(xiàn)在如果使用一個(gè)二次核函數(shù),多項(xiàng)式階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無(wú)窮),則()。A、仍然能正確分類(lèi)數(shù)據(jù)B、不能正確分類(lèi)C、不確定D、以上均不正確答案:A89.假設(shè)函數(shù)中不包括global保留字,則下列關(guān)于改變參數(shù)值的方法的說(shuō)法錯(cuò)誤的是()。A、參數(shù)是列表類(lèi)型時(shí),改變?cè)瓍?shù)的值B、參數(shù)的值是否改變與函數(shù)中對(duì)變量的操作有關(guān),與參數(shù)類(lèi)型無(wú)關(guān)C、參數(shù)是整數(shù)類(lèi)型時(shí),不改變?cè)瓍?shù)的值D、參數(shù)是組合類(lèi)型(可變對(duì)象)時(shí),改變?cè)瓍?shù)的值答案:B90.下列不屬于數(shù)據(jù)脫敏要求的是()。A、雙向性B、單向性C、無(wú)殘留D、易于實(shí)現(xiàn)答案:A91.下列現(xiàn)象不能直接通過(guò)低通濾波器解決的是()。A、低分辨率文本圖像中出現(xiàn)的字符斷裂問(wèn)題B、指紋圖像中的去污染問(wèn)題C、人臉圖像中需要美容的去皺紋問(wèn)題D、遙感圖像中的掃描線濾除問(wèn)題答案:B92.Python對(duì)not、or、and求值的優(yōu)先順序是()。A、ndornotB、notandorC、orandnotD、ornotand答案:B93.不屬于Mayer-SchonbergerV和CukierK.在其著名論著《BigData:ARevolutionThatWillTransformHowWeLive,Work,andThink)中提出了大數(shù)據(jù)時(shí)代統(tǒng)計(jì)的思維變革的是()。A、不是隨機(jī)樣本,而是全體數(shù)據(jù)B、不是精確性,而是混雜性C、不是描述性分析,而是預(yù)測(cè)性分析D、不是因果關(guān)系,而是相關(guān)關(guān)系答案:C94.Skleam庫(kù)中對(duì)數(shù)據(jù)進(jìn)行預(yù)處理和規(guī)范化主要依靠()模塊。A、neighbors模塊B、preprocessing模塊C、pipeline模塊D、atasets模塊答案:B95.下列關(guān)于Numpy的數(shù)組Ndarray對(duì)象屬性的描述錯(cuò)誤的是()。A、ndarray.ndim.秩,即軸的數(shù)量或維度的數(shù)量B、ndarray.shape數(shù)組的維度,對(duì)于矩陣來(lái)說(shuō)是n行m列C、ndarray.size數(shù)組元素的總個(gè)數(shù),也是shape屬性中nxm的值D、ndarray.itemsizendarray對(duì)象的元素類(lèi)型答案:D96.列表是Python語(yǔ)言中基本數(shù)據(jù)類(lèi)型之一。我們可以通過(guò)list國(guó)獲取列表中第z.個(gè)元素的值,那么list[i:j]的作用是()。A、將列表中第i個(gè)元素的值設(shè)置為jB、返回一個(gè)列表切片由原列表第i個(gè)到第j-1個(gè)元素組成的新列表C、返回一個(gè)擁有第i和j個(gè)元素的新列表D、返回一個(gè)擁有第j和i個(gè)元素的新列表答案:B97.np.eye(2)函數(shù)的作用是()。A、輸出一個(gè)全都是0的數(shù)組B、輸出一個(gè)全都是1的數(shù)組C、輸出一個(gè)全都是2的數(shù)組D、輸出一個(gè)二維單位矩陣答案:D98.大數(shù)據(jù)應(yīng)用需求分為年度需求和____需求兩類(lèi)。A、季度需求B、業(yè)務(wù)需求C、數(shù)據(jù)需求D、即時(shí)需求答案:D99.數(shù)據(jù)變換的策略包括()。A、平滑處理、特征構(gòu)造、聚集、標(biāo)準(zhǔn)化、離散化B、平滑處理、特征構(gòu)造、聚集、審計(jì)、離散化C、平滑處理、聚集、標(biāo)準(zhǔn)化、審計(jì)、離散化D、特征構(gòu)造、聚集、標(biāo)準(zhǔn)化、審計(jì)、離散化答案:A100.下列不屬于基于區(qū)域的圖像分割方法的是()。A、區(qū)域生長(zhǎng)法B、分水嶺算法C、大津算法D、基于圖論的分割算法答案:C101.下列不是開(kāi)源工具特點(diǎn)的是()。A、免費(fèi)B、可以直接獲取源代碼C、用戶(hù)可以修改源代碼并不加說(shuō)明用于自己的軟件中D、開(kāi)源工具一樣具有版權(quán)答案:C102.下列關(guān)于Hadoop中MapReduce的說(shuō)法正確的是()。A、可以沒(méi)有reduce任務(wù)B、reducer輸入為隨機(jī)輸入C、shuffle主要實(shí)現(xiàn)數(shù)據(jù)可視化功能D、一個(gè)reducer只能從一個(gè)map復(fù)制所需要的partition答案:A103.表達(dá)式int('101',2)的值為()。A、5B、6C、"10"D、3答案:A104.使用pyplot.plot畫(huà)圖時(shí),x、y的參數(shù)的值的數(shù)據(jù)類(lèi)型是()。A、charB、floatC、arrayD、ataframe答案:C105.圖像灰度方差說(shuō)明了圖像的()屬性。A、平均灰度B、圖像對(duì)比度C、圖像整體亮度D、圖像細(xì)節(jié)答案:B106.概率模型的訓(xùn)練過(guò)程就是()過(guò)程。A、分類(lèi)B、聚類(lèi)C、參數(shù)估計(jì)D、參數(shù)選擇答案:C107.下列數(shù)據(jù)類(lèi)型Hive不支持的是()。A、structB、intC、mapD、long答案:D108.()算法是決策樹(shù)學(xué)習(xí)的基本算法,其他多數(shù)決策樹(shù)學(xué)習(xí)方法都是它的變體。A、find-sB、knnC、概念D、id3答案:D109.下列處理方法能獲得像素級(jí)標(biāo)注的是()。A、圖像分類(lèi)B、物體檢測(cè)C、圖像去噪D、語(yǔ)義分割參考答案:D110.[i**iforiinrange(3)]的運(yùn)行結(jié)果是()。A、[1,1,4]B、[0,1,4]C、[1,2,3]D、(0,1,4)答案:A111.下列關(guān)于層次聚類(lèi)算法的過(guò)程:①不斷重復(fù)直到達(dá)到預(yù)設(shè)的聚類(lèi)簇?cái)?shù);②不斷合并距離最近的聚類(lèi)簇;③對(duì)初始聚類(lèi)簇和相應(yīng)的距離矩陣初始化;④對(duì)合并得到的聚類(lèi)簇進(jìn)行更新。正確的執(zhí)行順序?yàn)椋ǎ?。A、①②③④B、①③②④C、③②④①D、③④①②答案:C112.在集成學(xué)習(xí)中,對(duì)于數(shù)據(jù)型輸出,最常見(jiàn)的結(jié)合策略是()。A、平均法B、投票法C、學(xué)習(xí)法D、以上答案都正確答案:A113.下列關(guān)于Python包的說(shuō)法正確的是()。A、利用pip包管理器更新已安裝包的代碼是pipupdate包名B、單獨(dú)導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊C、下載安裝、更新、查看、移除包等行為可以在命令行中進(jìn)行,但不可以在jupyternotebook中進(jìn)行D、下載安裝、更新、查看、移除包等行為既可以用pipx具,也可以用conda工具答案:D114.下列關(guān)于在回歸分析中解釋變量與非解釋變量的說(shuō)法正確的是()。A、解釋變量和被解釋變量都是隨機(jī)變量B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量C、解釋變量和被解釋變量都為非隨機(jī)變量D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量答案:B115.以等可能性為基礎(chǔ)的概率是()。A、古典概率B、經(jīng)驗(yàn)概率C、試驗(yàn)概率D、主觀概率答案:A116.平滑圖像處理可以采用RGB彩色()。A、直方圖均衡化模型B、直方圖均衡化模型C、加權(quán)均值濾波模型D、中值濾波模型答案:C117.TF-IDF中的TF是指()。A、某個(gè)詞在文檔中出現(xiàn)的次數(shù)B、文章的總次數(shù)C、某個(gè)詞在文檔中出現(xiàn)的次數(shù)/文章的總次數(shù)D、以上都不對(duì)答案:C118.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間()重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B119.Scipy通常與()同時(shí)使用。A、pandasB、scikit-learnC、numpyD、jieba答案:C120.機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有()。A、卡方B、信息增益C、平均互信息D、以上答案都正確答案:D121.下列算法中sklearn中未提及的是()。A、k-means聚類(lèi)算法B、logisticregressionC、knn算法D、apriori關(guān)聯(lián)規(guī)則算法答案:D122.()是基于規(guī)則的分類(lèi)器。A、c4.5B、knnC、naivebayesD、ann答案:A123.在Matplotlib中,在當(dāng)前圖形上添加一個(gè)子圖需要用到的函數(shù)是()。A、plt.stackplot()B、plt.suptitle()C、plt.subplot()D、plt.imshow()答案:C124.Scipy中,()是空間數(shù)據(jù)結(jié)構(gòu)和算法模塊。A、clusterB、constantsC、integrateD、spatial答案:D125.KNN近鄰算法在()的情況下效果較好。A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團(tuán)狀分布D、樣本呈鏈狀分布答案:B126.下列關(guān)于數(shù)據(jù)重組的說(shuō)法錯(cuò)誤的是()。A、數(shù)據(jù)重組是數(shù)據(jù)的重新生產(chǎn)和重新采集B、數(shù)據(jù)重組能夠使數(shù)據(jù)煥發(fā)新的光芒C、數(shù)據(jù)重組實(shí)現(xiàn)的關(guān)鍵在于多源數(shù)據(jù)融合和數(shù)據(jù)集成D、數(shù)據(jù)重組有利于實(shí)現(xiàn)新穎的數(shù)據(jù)模式創(chuàng)新答案:A127.探索性分析與驗(yàn)證性分析的不同點(diǎn)是()A、探索性分析需要事先假設(shè)B、探索性分析比驗(yàn)證性分析復(fù)雜C、探索性分析在前D、驗(yàn)證性分析在前答案:C128.在Matplotlib中設(shè)置x軸、y軸的刻度位置可用函數(shù)()。A、xlabel()、ylabel()B、xlim()、ylim()C、xscale()、yscale()D、xticks()、yticks()答案:D129.下列不屬于數(shù)據(jù)科學(xué)與統(tǒng)計(jì)學(xué)區(qū)別的是()。A、數(shù)據(jù)科學(xué)中的數(shù)據(jù)不僅僅是數(shù)值B、數(shù)據(jù)科學(xué)關(guān)注的不僅僅是“單一學(xué)科”問(wèn)題,超出了數(shù)學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)等單一學(xué)科的范疇C、數(shù)據(jù)科學(xué)不僅僅是理論研究,也不是純領(lǐng)域?qū)崉?wù)知識(shí),它關(guān)注和強(qiáng)調(diào)的是二者的結(jié)合D、數(shù)據(jù)科學(xué)和統(tǒng)計(jì)學(xué)中的計(jì)算一樣,僅僅是加減乘除答案:D130.以下哪項(xiàng)不是公司總部各專(zhuān)業(yè)管理部門(mén)的負(fù)責(zé)事項(xiàng)?A、提報(bào)本專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用需求,制定本專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用建設(shè)目標(biāo)B、協(xié)同互聯(lián)網(wǎng)部做好本專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用的立項(xiàng)審核、開(kāi)發(fā)實(shí)施和推廣應(yīng)用等工作;協(xié)同配合跨專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用建設(shè)工作C、負(fù)責(zé)本專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用人才培養(yǎng);負(fù)責(zé)建立健全本專(zhuān)業(yè)大數(shù)據(jù)應(yīng)用工作激勵(lì)機(jī)制D、負(fù)責(zé)組織開(kāi)展大數(shù)據(jù)應(yīng)用平臺(tái)、服務(wù)目錄等基礎(chǔ)環(huán)境建設(shè),保障數(shù)據(jù)及運(yùn)營(yíng)安全,提供數(shù)據(jù)、算法和算力資源支持答案:D131.在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)時(shí),為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下列做法正確的是()。A、增加樹(shù)的深度B、增加學(xué)習(xí)率C、減小樹(shù)的深度D、減少樹(shù)的數(shù)量答案:C132.下列不是專(zhuān)門(mén)用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)是()。A、等高線圖B、餅圖C、曲面圖D、矢量場(chǎng)圖答案:B133.輸入圖像已被轉(zhuǎn)換為大小為28x28的矩陣和大小為7x7的步幅為1的核心/濾波器,則卷積矩陣的大小是()。A、22x22B、21x21C、28x28D、7x7答案:A134.如果只寫(xiě)open(filename),那就是用()模式打開(kāi)。A、rB、wC、aD、b答案:A135.下列關(guān)于數(shù)據(jù)分析的說(shuō)法正確的是()。A、描述性分析和預(yù)測(cè)性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對(duì)規(guī)范性分析的進(jìn)一步理解C、預(yù)測(cè)性分析是規(guī)范性分析的基礎(chǔ)D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價(jià)值答案:C136.在Scipy中,想要生成20個(gè)服從正態(tài)分布的隨機(jī)數(shù)使用函數(shù)()。A、stats.uniform.rvs(size=20)B、stats.norm.rvs(size=20)C、stats.betarvs(size=20)D、stats.poisson.rvs(size=20)答案:B137.下列不屬于大數(shù)據(jù)平臺(tái)安全管理組件提供的功能的是()。A、接口代理B、接口認(rèn)證C、接口授權(quán)D、路由代理答案:D138.下列不適合使用機(jī)器學(xué)習(xí)方法解決的是()。A、判斷電子郵件是否是垃圾郵件B、判斷給定的圖中是否有環(huán)C、判斷是否給指定用戶(hù)辦理信用卡D、對(duì)滴滴拼車(chē)乘客分簇答案:B139.下列場(chǎng)景中最有可能應(yīng)用人工智能的是___。A、刷臉辦電B、輿情分析C、信通巡檢機(jī)器人D、以上都對(duì)答案:D140.bootstrap是指()。A、有放回地從總共M個(gè)特征中抽樣M個(gè)特征B、無(wú)放回地從總共M個(gè)特征中抽樣M個(gè)特征C、有放回地從總共N個(gè)樣本中抽樣N個(gè)樣本D、無(wú)放回地從總共N個(gè)樣本中抽樣N個(gè)樣本答案:C141.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計(jì)方法,下列不屬于相關(guān)性分析方法的是()。A、pearson相關(guān)系數(shù)B、spearman秩相關(guān)系數(shù)C、kendall相關(guān)系數(shù)D、傅里葉系數(shù)答案:D142.SLIC算法的主要目的是()。A、目標(biāo)識(shí)別B、前景和背景分離C、超像素提取D、語(yǔ)義分割答案:C143.scipy.stats.fit()函數(shù)的作用是()。A、隨機(jī)變量的生存函數(shù)B、對(duì)數(shù)據(jù)進(jìn)行擬合,找出最適合采樣數(shù)據(jù)的概率密度函數(shù)系數(shù)C、計(jì)算隨機(jī)變量的期望和方差D、隨機(jī)變量的概率密度函數(shù)答案:B144.下列可以作為文本分類(lèi)準(zhǔn)則的是()。A、預(yù)測(cè)準(zhǔn)確率B、魯棒性C、可擴(kuò)展性D、以上都對(duì)答案:D145.()算法是分類(lèi)算法。A、dbscanB、c4.5C、k-meansD、em答案:B146.下列屬于卷積網(wǎng)絡(luò)類(lèi)型分類(lèi)的是()A、普通卷積B、擴(kuò)張卷積C、轉(zhuǎn)置卷積D、以上都正確答案:D147.plt.plot()函數(shù)的功能是()。A、展現(xiàn)變量的趨勢(shì)變化B、尋找變量之間的關(guān)系C、設(shè)置x軸的數(shù)值顯示范圍D、設(shè)置x軸的標(biāo)簽文本答案:A148.Relief是為()問(wèn)題設(shè)計(jì)的。A、二分類(lèi)B、多分類(lèi)C、回歸D、降維答案:A149.下列關(guān)于SecondaryNameNode的說(shuō)法正確的是()。A、它是namenode的熱備B、它對(duì)內(nèi)存沒(méi)有要求C、它的目的是幫助namenode合并編輯日志,減少namenode的負(fù)擔(dān)和冷啟動(dòng)時(shí)的加載時(shí)間D、secondarynamenode應(yīng)與namenode部署到一個(gè)節(jié)點(diǎn)答案:C150.在支持向量機(jī)中,()允許支持向量機(jī)在一些樣本上岀錯(cuò)。A、硬間隔B、軟間隔C、核函數(shù)D、拉格朗日乘子法答案:B151.BASE原則的含義不包括()。A、基本可用B、柔性狀態(tài)C、最終一致D、基礎(chǔ)條件答案:D152.在Python文件操作中,使用關(guān)鍵字()可以在文件訪問(wèn)后自動(dòng)將其關(guān)閉。A、ssertB、reakC、nonlocalD、with答案:D153.公司大數(shù)據(jù)應(yīng)用需求與立項(xiàng)管理遵循()管理規(guī)范,嚴(yán)格落實(shí)項(xiàng)目制管理要求,主要包括需求征集、評(píng)審、儲(chǔ)備、立項(xiàng)和計(jì)劃編制與調(diào)整等工作。A、技術(shù)服務(wù)項(xiàng)目B、科技項(xiàng)目C、信息化項(xiàng)目D、數(shù)字化項(xiàng)目答案:D154.大數(shù)據(jù)應(yīng)用是指綜合應(yīng)用公司內(nèi)部電力生產(chǎn)運(yùn)行、經(jīng)營(yíng)管理、客戶(hù)服務(wù)等業(yè)務(wù)活動(dòng)所產(chǎn)生的數(shù)據(jù)資源,以及獲取的外部數(shù)據(jù)資源,通過(guò)(),釋放數(shù)據(jù)資源價(jià)值,發(fā)現(xiàn)新知識(shí)、創(chuàng)造新價(jià)值、提升新能力,賦能公司提質(zhì)增效,支撐行業(yè)高質(zhì)量發(fā)展,服務(wù)國(guó)家治理現(xiàn)代化。A、大云物智移B、數(shù)據(jù)分析挖掘C、深度學(xué)習(xí)應(yīng)用D、數(shù)據(jù)質(zhì)量治理答案:B155.深度學(xué)習(xí)是當(dāng)前很熱門(mén)的機(jī)器學(xué)習(xí)算法,深度學(xué)習(xí)涉及大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣的乘積abc,假設(shè)三個(gè)矩陣的尺寸分別為mxn,nxp,pxq,且m小于n小于p小于q。則下列計(jì)算順序效率最高的是()A、(ab)cB、ac(b)C、a(bc)D、所有效率都相同答案:A156.HDFS是基于流數(shù)據(jù)模式訪問(wèn)和處理超大文件的需求而開(kāi)發(fā)的,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特征,適合的讀寫(xiě)任務(wù)是()。A、一次寫(xiě)入、少次讀取B、多次寫(xiě)入、少次讀取C、多次寫(xiě)入、多次讀取D、一次寫(xiě)入、多次讀取答案:D157.下列關(guān)于選擇Logistic回歸中的One-Vs-All方法的描述正確的是()。A、我們需要在n類(lèi)分類(lèi)問(wèn)題中適合n個(gè)模型B、我們需要適合n-1個(gè)模型來(lái)分類(lèi)為n個(gè)類(lèi)C、我們需要只適合1個(gè)模型來(lái)分類(lèi)為n個(gè)類(lèi)D、以上答案都不正確答案:A158.下列不屬于臟數(shù)據(jù)的是()。A、含有缺失數(shù)據(jù)B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、不規(guī)則形態(tài)數(shù)據(jù)答案:D159.可以使數(shù)組計(jì)算沿指定軸進(jìn)行應(yīng)用操作的參數(shù)是()。A、xisB、inplaceC、dataD、type答案:A160.從連續(xù)圖像到數(shù)字圖像需要采取的措施是()A、圖像灰度級(jí)設(shè)定B、圖像分辨率設(shè)定C、確定圖像的存儲(chǔ)空間D、采樣和量化答案:D161.輸入圖像為32X32,經(jīng)過(guò)步長(zhǎng)為1、不進(jìn)行padding、卷積核為5x5的卷積層后,得到的特征圖尺寸是()。A、28x28B、27x27C、29x29D、32x32答案:A162.()屬于SVM應(yīng)用。A、文本和超文本分類(lèi)B、圖像分類(lèi)C、新文章聚類(lèi)D、以上均是答案:D163.銳化(高通)濾波器的作用()。A、能消減或削弱傅里葉空間的低頻分量,但不影響高頻分量B、能消減或削弱傅里葉空間的高頻分量,但不影響低頻分量C、對(duì)傅里葉空間的低、高頻分量均有削弱或消除作用D、對(duì)傅里葉空間的低、高頻分量均有增強(qiáng)作用答案:A164.運(yùn)行下面代碼的輸出結(jié)果為()。a=np.array([[1,2,3],[4,5,6]])print(np.append(a,[7,8,9]))A、[[123][456]]B、[123456789]C、[[l23][456][789]]D、[[123555][456789]]答案:B165.數(shù)據(jù)可視化的本質(zhì)是()。A、將數(shù)據(jù)轉(zhuǎn)換為知識(shí)B、將知識(shí)轉(zhuǎn)換為數(shù)據(jù)C、將數(shù)據(jù)轉(zhuǎn)換為信息D、將信息轉(zhuǎn)換為智慧答案:A166.下列關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制的描述錯(cuò)誤的是()。A、關(guān)鍵字參數(shù)必須位于位置參數(shù)之前B、不得重復(fù)提供實(shí)際參數(shù)C、關(guān)鍵字參數(shù)必須位于位置參數(shù)之后D、關(guān)鍵字參數(shù)順序無(wú)限制答案:A167.下列不是Python對(duì)文件的打開(kāi)模式的是()。A、'w'B、'+'C、'D、'r'答案:C168.假設(shè)使用原始的非線性可分版本的Soft-SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,則可通過(guò)()來(lái)保證得到的模型是線性可分離的。A、設(shè)c=0B、設(shè)c=1C、設(shè)c正無(wú)窮大D、設(shè)c負(fù)無(wú)窮大答案:C169.a=np.array([1,0,0,3,4,5,0,8]),b=np.nonzero(a),則b[0]的值為()。A、[0,3,4,5,7]B、[1,3,4,5,8]C、[03457]D、[13458]答案:A170.運(yùn)行下面代碼的輸出結(jié)果為()。a=np.arange(9)b=np.split(a,3)print(b)A、[012345678]B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]C、[array([0,1,2,3]),array([4,5,6]),array([7,8])]D、以上都不對(duì)答案:B171.運(yùn)行下面代碼的輸出結(jié)果為()。importnumpyasnpx=np.array([3,1,2])y=np.argsort(x)print(y)A、[312]B、[120]C、[123]D、123答案:B172.下列關(guān)于Python語(yǔ)句:f=open()中f的描述錯(cuò)誤的是()。A、*f是文件句柄,用來(lái)在程序中表達(dá)文件B、表達(dá)式print(f)執(zhí)行將報(bào)錯(cuò)C、*f是一個(gè)python內(nèi)部變量類(lèi)型D、將f當(dāng)作文件對(duì)象,f.read()可以讀入文件全部信息答案:B173.下列關(guān)于常用模塊功能的描述錯(cuò)誤的是()。A、datetime:datetime對(duì)象沒(méi)有可將日期對(duì)象格式化為可讀字符串的方法B、json:js對(duì)象標(biāo)記(javascriptobjectnotation,json)是一種輕量級(jí)的數(shù)據(jù)交換格式C、sys:這個(gè)模塊可供訪問(wèn)由解釋器使用或維護(hù)的變量和與解釋器進(jìn)行交互的函數(shù)D、scipy:應(yīng)用廣泛的科學(xué)計(jì)算包答案:A174.在Scipy中,生成二項(xiàng)式離散隨機(jī)變量使用函數(shù)()。A、stats.bemoulli()B、stats.binom()C、stats.geom()D、stats.randint()答案:B175.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,可以用來(lái)處理過(guò)擬合的方法是()。A、dropoutB、分批歸一化(batchnormalization)C、正則化(regularization)D、都可以答案:D176.大數(shù)據(jù)應(yīng)用管理包括大數(shù)據(jù)應(yīng)用需求立項(xiàng)、開(kāi)發(fā)實(shí)施、發(fā)布應(yīng)用以及成果評(píng)價(jià)等()管理及大數(shù)據(jù)應(yīng)用能力建設(shè)。A、全生產(chǎn)要素管理B、全生命周期管理C、全生產(chǎn)周期管理D、全數(shù)據(jù)鏈路管理答案:B177.以下哪項(xiàng)不是公司各級(jí)大數(shù)據(jù)中心、信通公司的負(fù)責(zé)事項(xiàng)?A、負(fù)責(zé)組織開(kāi)展大數(shù)據(jù)應(yīng)用平臺(tái)、服務(wù)目錄等基礎(chǔ)環(huán)境建設(shè),保障數(shù)據(jù)及運(yùn)營(yíng)安全,提供數(shù)據(jù)、算法和算力資源支持B、負(fù)責(zé)發(fā)布存儲(chǔ)的數(shù)據(jù)目錄和數(shù)據(jù)獲取渠道C、協(xié)同開(kāi)展大數(shù)據(jù)應(yīng)用建設(shè),并參與需求評(píng)審、應(yīng)用推廣等工作D、負(fù)責(zé)大數(shù)據(jù)應(yīng)用技術(shù)前瞻性研究,負(fù)責(zé)大數(shù)據(jù)應(yīng)用技術(shù)架構(gòu)設(shè)計(jì)、技術(shù)選型驗(yàn)證和信息安全技術(shù)保障答案:D178.下列關(guān)于集成學(xué)習(xí)模型中弱學(xué)習(xí)者的描述錯(cuò)誤的是()。A、經(jīng)常不會(huì)過(guò)擬合B、通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問(wèn)題C、通常會(huì)過(guò)擬合D、通常擁有低方差答案:C179.下列關(guān)于BP網(wǎng)絡(luò)的說(shuō)法不正確的是()。A、標(biāo)準(zhǔn)bp算法每次僅針對(duì)一個(gè)訓(xùn)練樣例更新連接權(quán)和閾值B、p神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇過(guò)擬合C、早停策略可用來(lái)緩解bp網(wǎng)絡(luò)的過(guò)擬合問(wèn)題D、晚停策略可用來(lái)緩解bp網(wǎng)絡(luò)的欠擬合問(wèn)題答案:D180.Numpy數(shù)組輸出的原則是()。A、從左到右,從下到上B、從左到右,從上到下C、從右到左,從下到上D、從右到左,從上到下答案:B181.HBase依靠()存儲(chǔ)底層數(shù)據(jù)。A、hdfsB、hadoopC、memoryD、mapreduce答案:A182.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來(lái)解決的問(wèn)題是()。A、傳統(tǒng)rnn存在的梯度消失/爆炸問(wèn)題B、傳統(tǒng)rnn計(jì)算量大的問(wèn)題C、傳統(tǒng)rnn速度較慢的問(wèn)題D、傳統(tǒng)rnn容易過(guò)過(guò)擬合的問(wèn)題答案:A183.機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系是()。A、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)B、機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)C、二者是獨(dú)立的D、二者相互促進(jìn)答案:B184.在Numpy中,()模塊可以計(jì)算逆矩陣、求特征值、解線性方程組以及求解行列式。A、randomB、linalgC、ndarrayD、unicode答案:B185.假設(shè)使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù)。使用Ridge回歸,并調(diào)整正則化參數(shù)λ以降低模型復(fù)雜度。在λ非常小的情況下,下列關(guān)于偏差與方差的說(shuō)法正確的是()。A、偏差低,方差低B、偏差低,方差髙C、偏差高,方差低D、偏差高,方差髙答案:B186.運(yùn)行下面代碼的輸岀結(jié)果為()。importnumpyasnpa=np.array([[10,7,4],[3,2,1]])print(np.percentile(a,50))A、[[1074][321]]B、3.5C、[]D、[7.2.]答案:B187.下列數(shù)據(jù)類(lèi)型中不可以作為索引對(duì)Numpy數(shù)組進(jìn)行選取的是()。A、booleanB、tupleC、dietD、int答案:C188.下列數(shù)據(jù)類(lèi)型中Numpy不支持的是()。A、float32B、uint64C、boolD、byte答案:D189.scipy.stats.isf()函數(shù)的作用是()。A、隨機(jī)變量的生存函數(shù)B、scipy.stats.sf()的逆C、計(jì)算隨機(jī)變量的期望和方差答案:D、隨機(jī)變量的累積分布函數(shù)答案:B190.Numpy中,利用函數(shù)自動(dòng)創(chuàng)建數(shù)組不包括的函數(shù)是()。A、range()B、ones()C、linspace()D、type()答案:D191.在IBMPASS中,聚類(lèi)算法分為分層聚類(lèi)、Kohonennetwork.K均值聚類(lèi)和()四種。A、系統(tǒng)聚類(lèi)B、兩步聚類(lèi)C、模型聚類(lèi)D、其他聚類(lèi)答案:B192.聚類(lèi)算法已經(jīng)默認(rèn)所有的記錄都是()的實(shí)體。A、相關(guān)聯(lián)B、有備份C、不獨(dú)立D、獨(dú)立答案:D193.構(gòu)造方法的作用是()。A、一般成員方法B、類(lèi)的初始化C、對(duì)象的初始化D、對(duì)象的建立答案:C194.將兩篇文本通過(guò)詞袋模型變?yōu)橄蛄磕P?,通過(guò)計(jì)算向量的()來(lái)計(jì)算兩個(gè)文本間的相似度。A、正弦距離B、余弦距離C、長(zhǎng)度D、方向答案:B195.()算法指的是給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類(lèi)樣例的投影點(diǎn)盡可能接近、異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)離。A、pcaB、svmC、k-meansD、lda答案:D196.對(duì)分類(lèi)任務(wù)來(lái)說(shuō),學(xué)習(xí)器從類(lèi)別標(biāo)記集合中預(yù)測(cè)出一個(gè)標(biāo)記,最常見(jiàn)的結(jié)合策略是()。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:A197.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項(xiàng)集算法,其核心思想是通過(guò)候選集生成和情節(jié)的向下封閉檢測(cè)兩個(gè)階段來(lái)挖掘頻繁項(xiàng)集。A、prioriB、emC、pcaD、pac答案:A198.A=np.array([[1,1],[0,1]]),B=np.array([[2,0],[3,4]]),A*B的結(jié)果是()。A、[[2,0],[0,4]]B、[[5,4],[3,4]]C、[[3,4],[5,4]]D、無(wú)法計(jì)算答案:A199.假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN),則在二分類(lèi)問(wèn)題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),下列評(píng)價(jià)方案中相對(duì)不合理的是()。A、ccuracy:(tp+tn)/allB、f-value:2*recall*precision/(recall+precision)C、g-mean:sqrt(precision*recall)D、auc:曲線下面積答案:A200.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長(zhǎng))=0.6,P(江大橋)=0.4;P(南京市)=0.3,P(長(zhǎng)江大橋)=0.5。如果假設(shè)前后兩個(gè)詞的岀現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市*長(zhǎng)江*大橋B、南京*市長(zhǎng)*江大橋C、南京市長(zhǎng)*江大橋D、南京市*長(zhǎng)江大橋答案:B201.輸入圖像為37x37,經(jīng)過(guò)第一層卷積(thenumberoffilters=25,kemelsize=5x5,padding=valid,stride=1)與池化層maxpooling(kernelsize=3x3,padding=valid),輸出特征圖大小為()。A、10x10B、11x11C、12x12D、13x13答案:B202.下列不屬于有監(jiān)督的詞義消歧方法的是()。A、flip-flop算法B、貝葉斯分類(lèi)器C、最大炳消歧D、基于詞典的消歧答案:D203.有研究發(fā)現(xiàn)“頁(yè)面的顯示速度每延遲1s,網(wǎng)站訪問(wèn)量就會(huì)降低11%,從而導(dǎo)致?tīng)I(yíng)業(yè)額或者注冊(cè)量減少7%,顧客滿(mǎn)意度下降16%”。該項(xiàng)研究表明了在數(shù)據(jù)產(chǎn)品開(kāi)發(fā)中更加重要的是()。A、查全率B、用戶(hù)體驗(yàn)C、數(shù)據(jù)可視化D、查準(zhǔn)率答案:B204.下列不屬于大數(shù)據(jù)重要意義的是()。A、大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力B、大數(shù)據(jù)成為重塑?chē)?guó)家競(jìng)爭(zhēng)優(yōu)勢(shì)的新機(jī)遇C、大數(shù)據(jù)成為提升政府治理能力的新途徑D、大數(shù)據(jù)會(huì)增加經(jīng)濟(jì)發(fā)展的成本答案:D205.下列關(guān)于欠擬合(under-fitting)的說(shuō)法正確的是()。A、訓(xùn)練誤差較大,測(cè)試誤差較小B、訓(xùn)練誤差較小,測(cè)試誤差較大C、訓(xùn)練誤差較大,測(cè)試誤差較大D、訓(xùn)練誤差較小,測(cè)試誤差較小答案:C206.scipy.stats模塊中對(duì)隨機(jī)變量進(jìn)行隨機(jī)取值的函數(shù)是()A、rvsB、pdfC、dfD、sf答案:A207.執(zhí)行下列代碼后5list2的值是()。list1=[4,5,6]list2=list1list1[2]=3A、[4,5,6]B、[4,3,6]C、[4,5,3]D、以上答案都不正確答案:C208.AGNES是一種采用()策略的層次聚類(lèi)算法。A、自頂向下B、自底向上C、自左至右D、自右至左答案:B209.下列不屬于特征選擇的標(biāo)準(zhǔn)方法的是()。A、嵌入B、過(guò)濾C、包裹D、抽樣答案:D210.Scipy中模塊integrate的作用是()。A、程序輸入輸出B、差值計(jì)算C、積分計(jì)算D、向量計(jì)算答案:C211.中心極限定理是噪聲抑制的中的統(tǒng)計(jì)原理,其內(nèi)容是均值分布總會(huì)收斂于一個(gè)()。A、正態(tài)分布B、泊松分布C、多項(xiàng)式分布D、均值分布答案:A212.任何一個(gè)核函數(shù)都隱式地定義了一個(gè)()空間。A、希爾伯特空間B、再生希爾伯特空間C、再生核希爾伯特空間D、歐式空間答案:C213.下列不能作為數(shù)據(jù)科學(xué)數(shù)據(jù)源的是()。A、醫(yī)院里的病歷、檢查、診斷等與健康相關(guān)的數(shù)據(jù)B、物聯(lián)網(wǎng)中涉及設(shè)備運(yùn)行情況的日志數(shù)據(jù)C、金融領(lǐng)域客戶(hù)的借款記錄以及信用情況D、個(gè)人電腦中用于備忘的日記答案:D214.下列關(guān)于LSTM的說(shuō)法錯(cuò)誤的是()。A、lstm中存在sigmoid函數(shù)B、lstm中存在tanh函數(shù)C、lstm又稱(chēng)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)D、rnn是lstm的變種答案:D215.已知一個(gè)數(shù)據(jù)集,n為特征數(shù),m為訓(xùn)練樣本數(shù),如果n較小,而且m大小中等(例如n為1~1000,而m為10~10000),則一般選擇()。A、邏輯回歸模型B、不帶核的支持向量機(jī)C、高斯核的支持向量機(jī)D、多項(xiàng)式核的支持向量機(jī)答案:C216.總部與各單位按兩級(jí)貫通模式部署,并支持()成果共享。A、一級(jí)B、兩級(jí)C、三級(jí)D、四級(jí)答案:B217.()能使圖像亮度得到平緩漸變富減小突變梯度,改善圖像質(zhì)量。A、圖像平滑B、圖像分類(lèi)C、圖像識(shí)別D、圖像分割答案:A218.下列關(guān)于數(shù)據(jù)創(chuàng)新的說(shuō)法正確的是()。A、多個(gè)數(shù)據(jù)集的總和價(jià)值等于單個(gè)數(shù)據(jù)集價(jià)值相加B、由于數(shù)據(jù)的再利用,數(shù)據(jù)應(yīng)該永久保存下去C、相同數(shù)據(jù)多次用于相同或類(lèi)似用途,其有效性會(huì)降低D、數(shù)據(jù)只有開(kāi)放價(jià)值才可以得到真正釋放答案:D219.加強(qiáng)公司大數(shù)據(jù)應(yīng)用項(xiàng)目化管理,建立全生命周期管理機(jī)制,運(yùn)用數(shù)字化技術(shù),強(qiáng)化()等關(guān)鍵環(huán)節(jié)和關(guān)鍵要素的在線管控力度,提升公司大數(shù)據(jù)應(yīng)用管理規(guī)范性。A、職責(zé)、流程、制度、標(biāo)準(zhǔn)、評(píng)價(jià)B、職責(zé)、制度、流程、標(biāo)準(zhǔn)、評(píng)價(jià)C、職責(zé)、流程、標(biāo)準(zhǔn)、制度、評(píng)價(jià)D、職責(zé)、標(biāo)準(zhǔn)、制度、流程、評(píng)價(jià)答案:A220.下列不屬于可視化視覺(jué)下的數(shù)據(jù)類(lèi)型的是()。A、定類(lèi)數(shù)據(jù)B、定序數(shù)據(jù)C、定寬數(shù)據(jù)D、定比數(shù)據(jù)答案:C221.Scipy庫(kù)不包含()功能。A、線性代數(shù)模塊B、傅里葉變換C、信號(hào)和圖像圖例D、提供機(jī)器學(xué)習(xí)等算法答案:D222.假設(shè)一個(gè)線性回歸模型完美適合訓(xùn)練數(shù)據(jù)(訓(xùn)練誤差為0),則下列說(shuō)法正確的是()。A、測(cè)試集誤差一直為0B、測(cè)試集誤差可能為0C、測(cè)試集誤差不會(huì)為0D、以上都不對(duì)答案:B223.在編寫(xiě)程序時(shí)經(jīng)常要對(duì)某一個(gè)條件進(jìn)行判斷,條件只有成立或不成立兩種結(jié)果。成立用True表示,不成立用False表示。則下列關(guān)系表達(dá)式中結(jié)果為T(mén)rue的是()。A、2>5B、3>=3C、1!=1D、6==5答案:B224.導(dǎo)入模塊的方式錯(cuò)誤的是()。A、importmoB、frommoimport*;C、importmoasmD、importmfrommo答案:D225.下列關(guān)于L1正則化與L2正則化的描述錯(cuò)誤的是()。A、l1范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)B、l2范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)C、l1范數(shù)正則化比l2范數(shù)正則化更易于獲得稀疏解D、l2范數(shù)正則化比l1范數(shù)正則化更易于獲得稀疏解答案:C226.HBase作為數(shù)據(jù)存儲(chǔ)組件封裝于大數(shù)據(jù)平臺(tái),用于()。A、關(guān)系型數(shù)據(jù)庫(kù)存儲(chǔ)B、分布式文件存儲(chǔ)C、非關(guān)系型數(shù)據(jù)庫(kù)存儲(chǔ)D、列式存儲(chǔ)答案:C227.在Pandas中,使用其本身可以達(dá)成數(shù)據(jù)透視功能的函數(shù)是()A、groupby()B、transform()C、rosstab()D、pivot_table()答案:D228.tuple函數(shù)可以達(dá)到的效果是()。A、計(jì)算元組元素個(gè)數(shù)B、返回元組中元素最大值C、將元組轉(zhuǎn)換成列表D、將列表轉(zhuǎn)換成元組答案:D229.一篇文章中某些名詞的TF-IDF值比較大,則說(shuō)明()。A、這些名詞對(duì)這篇文章的區(qū)分度比較高B、這些名詞對(duì)這篇文章的區(qū)分度比較低C、不能說(shuō)明什么D、以上都不對(duì)答案:A230.txt=open(filename)返回的是()。A、變量B、常數(shù)C、文件內(nèi)容D、文件對(duì)象答案:D231.下列濾波器中對(duì)圖像中的椒鹽噪聲濾波效果最好的是()。A、中值濾波B、均值濾波C、最大值濾波D、最小值濾波答案:A232.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()。A、大規(guī)模并行處理B、數(shù)據(jù)分析處理C、智能化D、三個(gè)選項(xiàng)都是答案:D233.下列關(guān)于降維的表述錯(cuò)誤的是()。A、降維過(guò)程中可以保留原始數(shù)據(jù)的所有信息B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變C、線性降維方法目標(biāo)是要保證降維到的超平面能更好地表示原始數(shù)據(jù)D、核線性降維方法目標(biāo)是通過(guò)核函數(shù)和核方法來(lái)避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失答案:A234.MapReduce里面的query、sort和limit等都是針對(duì)()的操作。A、map()之前B、reduce()之前C、reduce()之后D、finalize()之后答案:A235.a=[1,2,3.4,5],切片時(shí)如果要取[2,3.4],則下列結(jié)果正確的是()。A、[1:4]B、a[-2:]C、a[1:-1]D、a[::2]答案:C236.當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是()。A、有放回的簡(jiǎn)單隨機(jī)抽樣B、無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C、分層抽樣D、漸進(jìn)抽樣答案:D237.針對(duì)以下數(shù)組,從一個(gè)數(shù)組中移除存在于另一個(gè)數(shù)組中的項(xiàng)時(shí)可進(jìn)行的操作是()。a=np.array([1,2,3,4,5])b=np.array([5,6,7,8,9])期望輸出:array([1,2,3,4])A、np.setdiffld(ab)B、setdiffld(a)C、setdiffld(b)D、以上都不對(duì)答案:A238.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計(jì)量是()。A、無(wú)偏的、有效的B、無(wú)偏的、非有效的C、有偏的、有效的D、有偏的、非有效的答案:B239.下列關(guān)于數(shù)據(jù)產(chǎn)品的說(shuō)法錯(cuò)誤的是()。A、數(shù)據(jù)產(chǎn)品的存在形式是數(shù)據(jù)集B、與傳統(tǒng)物質(zhì)產(chǎn)品不同的是,數(shù)據(jù)產(chǎn)品的消費(fèi)者不僅限于人類(lèi)用戶(hù),還可以是計(jì)算機(jī)以及其他軟硬件系統(tǒng)C、數(shù)據(jù)產(chǎn)品不僅包括數(shù)據(jù)科學(xué)項(xiàng)目的最終產(chǎn)品,也包括其中間產(chǎn)品以及副產(chǎn)品D、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)涉及數(shù)據(jù)科學(xué)項(xiàng)目流程的全部活動(dòng)答案:A240.scipy.stats.moment()函數(shù)的作用是()。A、隨機(jī)變量的概率密度函數(shù)B、隨機(jī)變量的累積分布函數(shù)C、隨機(jī)變量的生存函數(shù)D、計(jì)算分布的非中心矩答案:D241.下列關(guān)于MapReduce說(shuō)法不正確的是()。A、mapreduce是一種計(jì)算框架B、mapreduce來(lái)源于google的學(xué)術(shù)論文C、mapreduce程序只能用java語(yǔ)言編寫(xiě)D、mapreduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用答案:C242.下列關(guān)于Numpy中秩(rank)的說(shuō)法正確的是()。A、在numpy數(shù)組中,秩(rank)和形狀類(lèi)似B、在numpy數(shù)組中,秩(rank)和軸是一個(gè)概念C、在numpy數(shù)組中,維數(shù)稱(chēng)為秩(rank),一維數(shù)組的秩為1,二維數(shù)組的秩為2,以此類(lèi)推D、在numpy數(shù)組中,沒(méi)有秩(rank)這個(gè)概念答案:C243.下列機(jī)器學(xué)習(xí)算法中,不需要?dú)w一化處理的是()。A、decisiontreeB、svmC、k-meansD、logisticregression答案:A244.下列關(guān)于Boosting算法的描述錯(cuò)誤的是()。A、可將強(qiáng)學(xué)習(xí)器降為弱學(xué)習(xí)器B、從初始訓(xùn)練集訓(xùn)練基學(xué)習(xí)器C、對(duì)訓(xùn)練樣本分布進(jìn)行調(diào)整D、做錯(cuò)的訓(xùn)練樣本多次訓(xùn)練答案:A245.下列說(shuō)法不正確的是()。A、卷積神經(jīng)網(wǎng)絡(luò)主要用于目標(biāo)識(shí)別、圖像分割等方面B、循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)C、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)D、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)是和循環(huán)神經(jīng)網(wǎng)絡(luò)完全不同的一種新型神經(jīng)網(wǎng)絡(luò)答案:D246.np.floor([-1.7,1.5,-0.2,0.6,10])的輸出結(jié)果是()。A、[-1,1,0,0,10]B、[-2.,1.,-1.,0.,10.]C、[-1.,1.,-1.,0.,10.]D、[-2.,1.,0.,0.,10.]答案:B247.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差分別是()。A、0,1B、1,0C、0,0D、1,1答案:A248.詞袋模型、TF-IDF.Word2vec等模型都有的作用是()。A、文本情感分析B、文本特征向量化C、文本特征離散化D、文本特征分布式答案:B249.數(shù)據(jù)科學(xué)基本原則中,基于數(shù)據(jù)的智能的主要特點(diǎn)是()。A、數(shù)據(jù)簡(jiǎn)單,但算法簡(jiǎn)單B、數(shù)據(jù)復(fù)雜,但算法簡(jiǎn)單C、數(shù)據(jù)簡(jiǎn)單,但算法復(fù)雜D、數(shù)據(jù)復(fù)雜,但算法復(fù)雜答案:B250.對(duì)模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用()函數(shù)。A、parametergrid()B、parametersler()C、gridsearchcv()D、randomizedsearchcv()答案:C251.為保障大數(shù)據(jù)應(yīng)用的快速開(kāi)發(fā)和敏捷迭代,按照依托()兩種類(lèi)型實(shí)施差異化管控。A、共享平臺(tái)開(kāi)發(fā)和獨(dú)立開(kāi)發(fā)B、共享平臺(tái)開(kāi)發(fā)和個(gè)人開(kāi)發(fā)C、公共服務(wù)能力平臺(tái)開(kāi)發(fā)和獨(dú)立開(kāi)發(fā)D、公共服務(wù)能力平臺(tái)開(kāi)發(fā)和個(gè)人開(kāi)發(fā)答案:C252.在Python中可以通過(guò)調(diào)用random庫(kù)來(lái)產(chǎn)生隨機(jī)數(shù)。a=random.randint(1,99),并賦值給變量a、則下列描述正確的是()A、隨機(jī)產(chǎn)生一個(gè)1?99的小數(shù)B、隨機(jī)產(chǎn)生一個(gè)1?99的整數(shù)C、產(chǎn)生一個(gè)值為99的整數(shù)D、隨機(jī)產(chǎn)生一個(gè)1?99的無(wú)理數(shù)答案:B253.須以正確的順序傳入函數(shù),調(diào)用時(shí)的數(shù)量必須和聲明時(shí)的一樣的參數(shù)是()。A、位置參數(shù)B、默認(rèn)值參數(shù)C、可變參數(shù)D、關(guān)鍵字參數(shù)答案:A254.常用的數(shù)據(jù)歸約方法可以分為()。A、維歸約、數(shù)據(jù)壓縮B、維歸約、參數(shù)歸約C、維歸約、值歸約D、數(shù)據(jù)壓縮、值歸約答案:C255.對(duì)a=np.array([[1,2,3],[4,5,6]]),下列操作會(huì)改變數(shù)組本身形狀的是()。A、tB、areshape(2,3)C、aravel()D、aresize()答案:D256.一組數(shù)據(jù)相加后除以數(shù)據(jù)個(gè)數(shù)得到的值叫作()。A、最大值B、平均值C、中位數(shù)D、眾數(shù)答案:B257.下列關(guān)于圖像分割的說(shuō)法正確的是()。A、圖像分割是對(duì)圖像中的每個(gè)像素加標(biāo)簽的一個(gè)過(guò)程B、對(duì)像素加標(biāo)簽會(huì)使具有相同標(biāo)簽的像素具有某種共同視覺(jué)特性C、在電網(wǎng)的應(yīng)用中,我們主要用來(lái)進(jìn)行細(xì)粒度分析D、以上都對(duì)答案:D258.下列去噪方法中能較好地保持圖像邊緣的是()。A、中值濾波B、雙邊濾波C、均值濾波D、高斯濾波答案:A259.()是唯一不在運(yùn)行時(shí)發(fā)生的異常。A、zerodivisionerrorB、nameerrorC、syntaxerrorD、keyerror答案:C260.數(shù)據(jù)使用環(huán)節(jié)的安全技術(shù)措施除防火墻、()、防病毒、防DDOS、漏洞檢測(cè)等網(wǎng)絡(luò)安全防護(hù)技術(shù)措施外,還需實(shí)現(xiàn)以下安全技術(shù)能力:賬號(hào)權(quán)限管理、數(shù)據(jù)安全域、數(shù)據(jù)脫敏、日志管理和審計(jì)、異常行為實(shí)時(shí)監(jiān)控和終端數(shù)據(jù)防泄漏。A、入侵檢測(cè)B、病毒檢測(cè)C、程序檢測(cè)D、進(jìn)程檢測(cè)答案:A261.下列關(guān)于支持向量回歸的說(shuō)法錯(cuò)誤的是()。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問(wèn)題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問(wèn)題C、與同分類(lèi)算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)D、支持向量回歸的解是稀疏的答案:C262.詞袋模型中的文本向量每個(gè)元素表示該詞的()。A、頻率B、順序C、含義D、語(yǔ)義關(guān)系答案:A263.通過(guò)數(shù)據(jù)(),釋放數(shù)據(jù)資源價(jià)值,發(fā)現(xiàn)新知識(shí)、創(chuàng)造新價(jià)值、提升新能力,賦能公司提質(zhì)增效,支撐行業(yè)高質(zhì)量發(fā)展,服務(wù)國(guó)家治理現(xiàn)代化。A、安全管理B、采集分析C、分析挖掘D、機(jī)器學(xué)習(xí)答案:C264.下列關(guān)于支持向量機(jī)優(yōu)化性問(wèn)題形式的說(shuō)法正確的是()。A、它是一個(gè)凸二次規(guī)劃問(wèn)題B、它是一個(gè)凸一次規(guī)劃問(wèn)題C、它是一個(gè)凹二次規(guī)劃問(wèn)題D、它是一個(gè)凹一次規(guī)劃問(wèn)題答案:A265.下列算法中屬于圖像銳化處理的是()。A、低通濾波B、加權(quán)平均法C、高通濾波D、中值濾波答案:C266.從可視化視角看,可以將數(shù)據(jù)分為4種類(lèi)型,其中不包括()A、定類(lèi)數(shù)據(jù)B、定序數(shù)據(jù)C、定距數(shù)據(jù)D、定量數(shù)據(jù)答案:D267.線性判別分析在二分類(lèi)問(wèn)題上也稱(chēng)為()。A、線性回歸B、對(duì)數(shù)幾率回歸C、fisher判別分析D、主成分分析答案:C268.子集搜索中,逐漸增加相關(guān)特征的策略稱(chēng)為()。A、前向搜索B、后向搜索C、雙向搜索D、不定向搜索答案:A269.在MapReduce中,下列描述錯(cuò)誤的是()。A、經(jīng)過(guò)map()函數(shù)的計(jì)算可以得出一個(gè)中間數(shù)據(jù)集B、map()函數(shù)是確定的,用戶(hù)不可自定義C、對(duì)map()函數(shù)的返回值,進(jìn)行一定的處理后才進(jìn)入下個(gè)階段D、map()函數(shù)的輸入輸岀都是同一數(shù)據(jù)結(jié)構(gòu)答案:B270.數(shù)據(jù)可視化的方法論基礎(chǔ)是()。A、統(tǒng)計(jì)圖表B、視覺(jué)編碼C、圖論D、圖形符號(hào)學(xué)答案:B271.Numpy數(shù)組分割使用的函數(shù)是()。A、vstack()B、hstack()C、split()D、view()答案:C272.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱(chēng)為()。A、無(wú)偏性B、有效性C、及時(shí)性D、一致性答案:D273.下列關(guān)于K均值與DBSCAN比較的說(shuō)法不正確的是()。A、k均值丟棄被它識(shí)別為噪聲的對(duì)象,而dbscan—般聚類(lèi)所有對(duì)象B、k均值使用簇的墓于原型的概念,而dbscan使用基于密度的概念C、k均值很難處理非球形的簇和不同大小的簇,dbscan可以處理不同大小和不同形狀的簇D、k均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是dbscan會(huì)合并有重疊的簇答案:A274.np.dot([[1,2,3],[1,2,3],[1,2,3]],[[2,1,1],[2,1,1],[2,1,1]])的輸出結(jié)果是()。A、[[l,2,6,6],[12,6,6],[12,6,6]]B、[[2,2,3],[2,2,3],[2,2,3]]C、[[l,2,3],[1,2,3],[1,2,3]]D、[[2,1,1,],[2,1,1],[2,1,1]]答案:A275.在MapReduce計(jì)算架構(gòu)中,()組件運(yùn)行在DataNode上,具體管理本節(jié)點(diǎn)計(jì)算任務(wù)的執(zhí)行。A、clientB、jobtrackerC、tasktrackerD、task答案:C276.數(shù)據(jù)活動(dòng)涉及公司()的,應(yīng)嚴(yán)格執(zhí)行《國(guó)家電網(wǎng)有限公司保密工作管理辦法》《國(guó)家電網(wǎng)公司保護(hù)商業(yè)秘密規(guī)定》等有關(guān)規(guī)定A、商業(yè)秘密B、工作秘密C、管理秘密D、商業(yè)秘密和管理秘密答案:D277.感知機(jī)中,()是M-P神經(jīng)元,也稱(chēng)為閾值邏輯單元。A、輸入層B、輸出層C、第一層D、第二層答案:B278.下列圖像邊緣檢測(cè)算子中抗噪性能最好的是()A、梯度算子B、prewitt算子C、roberts算子D、laplacian算子答案:B279.Python中用于生成隨機(jī)數(shù)的模塊是random,則下列描述錯(cuò)誤的是()。A、random.random():生成一個(gè)0?1之間的隨機(jī)浮點(diǎn)數(shù)B、random.unifbrm(ab):生成[a,b]之間的浮點(diǎn)數(shù)C、random.randint(ab):生成[a,b]之間的整數(shù)D、random.choice(sequence):隨機(jī)生成任意一個(gè)整數(shù)答案:D280.下列關(guān)于圖像中的噪聲特性的說(shuō)法錯(cuò)誤的是()。A、具有隨機(jī)性B、具有規(guī)律性C、具有疊加性D、具有不可預(yù)測(cè)性答案:B281.在回歸模型中,()在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-fitting)中影響最大。A、多項(xiàng)式階數(shù)B、更新權(quán)重w時(shí),使用的是矩陣求逆C、使用常數(shù)項(xiàng)D、使用梯度下降法答案:A282.下列算法中:①KNN;②線性回歸;③對(duì)數(shù)幾率回歸。可以用神經(jīng)網(wǎng)絡(luò)去構(gòu)造的()。A、①②B、②③C、①②③D、以上答案都不正確答案:B283.為了允許支持向量機(jī)在一些樣本上出錯(cuò),引入()的概念。A、軟間隔B、硬間隔C、間隔D、誤差答案:A284.利用到每個(gè)聚類(lèi)中心和的遠(yuǎn)近判斷離群值的方法,可以基于的算法為()。A、k-meansB、knnC、svmD、linearregression答案:A285.PageRank是一個(gè)函數(shù),它對(duì)Web中的每個(gè)網(wǎng)頁(yè)賦予一個(gè)實(shí)數(shù)值。它的意圖在于網(wǎng)頁(yè)的PageRank越高,那么它就()。A、相關(guān)性越高B、越不重要C、相關(guān)性越低D、越重要答案:D286.下列關(guān)于異常處理的描述正確的是()。A、try語(yǔ)句中有except子句就不能有finally子句B、python中,可以用異常處理捕獲程序中的所有錯(cuò)誤C、引發(fā)一個(gè)不存在索引的列表元素會(huì)引發(fā)nameerror錯(cuò)誤D、python中允許利用raise語(yǔ)句由程序主動(dòng)引發(fā)異常答案:D287.如果python程序中包括零運(yùn)算,解釋器將在運(yùn)行時(shí)拋出()錯(cuò)誤信息。A、nameerrorB、filenotfounderrorC、syntaxerrorD、zerodivisionerror答案:D288.下列關(guān)于KNN算法的過(guò)程:①計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離、馬氏距離等);②對(duì)上面所有的距離進(jìn)行排序;③選前k個(gè)最小距離的樣本;④根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類(lèi)類(lèi)別。正確的排序?yàn)?)。A、①③②④B、②④①③C、①②③④D、①②④③答案:C289.運(yùn)行下面代碼,輸出結(jié)果是()。s="Thepythonispython."print(s.find('python',10))A、10B、20C、14D、系統(tǒng)報(bào)錯(cuò)答案:C290.下列方法不可以使用類(lèi)名訪問(wèn)的是()。A、實(shí)例方法B、類(lèi)方法C、靜態(tài)方法D、以上答案都不正確答案:A291.下列關(guān)于計(jì)算機(jī)編程語(yǔ)言的說(shuō)法錯(cuò)誤的是()A、編程語(yǔ)言是用于書(shū)寫(xiě)計(jì)算機(jī)程序的語(yǔ)言B、計(jì)算機(jī)語(yǔ)言可分為機(jī)器語(yǔ)言、匯編語(yǔ)言、高級(jí)語(yǔ)言C、計(jì)算機(jī)能識(shí)別和執(zhí)行所有編程語(yǔ)言寫(xiě)的程序D、c/c++、pascal、javapython都屬于高級(jí)編程語(yǔ)言答案:C292.下列語(yǔ)句中不能創(chuàng)建一個(gè)字典的是()。A、dictl={}B、dict2={3:5}C、dict3={[1,2,3]:"uestc"}D、ict4={(1,2,3):"uestc"}答案:C293.sklearn.naive__bayes模塊實(shí)現(xiàn)了樸素貝葉斯算法,基于貝葉斯定理和特征獨(dú)立性假設(shè)的監(jiān)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 農(nóng)村合作種植合同范本
- 公司食堂阿姨勞務(wù)合同范本
- 保編合同范本
- 分包合同范本匯編
- 公司安全培訓(xùn)合同范本
- 中介工作合同正式合同范本
- 減速機(jī)模具合同范本
- 2025內(nèi)蒙古建安發(fā)展投資集團(tuán)有限公司招聘14人筆試參考題庫(kù)附帶答案詳解
- 公攤電梯合同范例
- bot模式合作合同范本
- 八年級(jí)班主任學(xué)生心理健康計(jì)劃
- 整體施工勞務(wù)服務(wù)方案
- 傳統(tǒng)節(jié)日端午節(jié)模板37
- 2024 貴州公務(wù)員考試行測(cè)真題(省直)
- 2025年泰山職業(yè)技術(shù)學(xué)院高職單招職業(yè)適應(yīng)性測(cè)試近5年常考版參考題庫(kù)含答案解析
- 人體解剖學(xué)肱骨講解
- 2025春季開(kāi)學(xué)第一次全體教師會(huì)上校長(zhǎng)講話稿
- 2025年三方買(mǎi)賣(mài)協(xié)議標(biāo)準(zhǔn)版本(2篇)
- 2025年南京旅游職業(yè)學(xué)院高職單招職業(yè)適應(yīng)性測(cè)試近5年常考版參考題庫(kù)含答案解析
- 《小腦梗死護(hù)理查房》課件
- 江西專(zhuān)業(yè)紅娘培訓(xùn)課件
評(píng)論
0/150
提交評(píng)論