版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
大數(shù)據(jù)競賽理論試題題庫一、選擇題1.scipy.stats中,()表示二項分布。[單選題]*A.gammaB.binom√C.uniformD.rayleigh2.下列關(guān)于PCA的說法中:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上做數(shù)據(jù)可視化。正確的是()。[單選題]*A.①②④√B.②④C.③④D.①③3.下列描述中不屬于數(shù)據(jù)預(yù)處理方法的是()。[單選題]*A.數(shù)據(jù)清洗:去噪聲和無關(guān)數(shù)據(jù)B.數(shù)據(jù)集成:將多個數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來存在一個一致的數(shù)據(jù)存儲中C.數(shù)據(jù)變換:把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式D.數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)√4.Scikit-Leam中,()可以實現(xiàn)整數(shù)分類值轉(zhuǎn)化為獨熱向量。[單選題]*A.OridinalEncoderB.OneHotEncoder√C.LableEncoderD.AutoEncoder5.矩陣相減使用的函數(shù)是()[單選題]*A.np.add()B.np.subtract()√C.np.multiply()D.np.divide()6.下列分割方法中不屬于區(qū)域算法的是()o[單選題]*A.分裂合并B.閾值分割C.區(qū)域生長D.邊緣檢測√7.語句np.random.randn(5,4)的運算結(jié)果是()。[單選題]*A.生成一個5行4列的隨機矩陣√B.將矩陣的第5行第4列改成一個隨機值C.將矩陣的第4行第了列改成一個隨機值D.將矩陣的第5列和第4列都用隨機值代替8.MapReduce里面的query、sort和limit等都是針對()的操作。[單選題]*A.map()之前√B.reduce()之前C.reduce()之后D.finalize()之后9.()模塊提供了用于加載和獲取流行的參考數(shù)據(jù)集的方法。[單選題]*A.sklearn.dataB.sklearn.datasets√C.sklearn.datasD.sklearn.datafetch10.下列關(guān)于圖像的平滑處理的說法錯誤的是()o[單選題]*A.圖像的平滑處理是指在盡量保留原有信息的情況下,過濾掉圖像內(nèi)部的噪聲B.圖像平滑處理會對圖像中與周圍像素點的像素值差異較大的像素點進行處理,將其值調(diào)整為周圍像素點像素值的近似值C.經(jīng)過平滑處理后圖像質(zhì)量會下降√D.以上都對11.在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。[單選題]*A.隨機梯度下降B.修正線性單元(ReLU)√C.卷積函數(shù)D.以上答案都不正確12大數(shù)據(jù)計算服務(wù)提供了大數(shù)據(jù)的存儲和計算服務(wù),非常適合應(yīng)用于大數(shù)據(jù)分析的領(lǐng)域。以下說法中錯誤的是()。[單選題]*A.可以實現(xiàn)大型互聯(lián)網(wǎng)企業(yè)的數(shù)據(jù)倉庫和BI分析B.提供了便捷的分析處理海量數(shù)據(jù)的手段,用戶可以不必關(guān)心分布式計算細節(jié),從而達到分析大數(shù)據(jù)的目的C.可以支持實時OLAP分析√D.可以基于歷史數(shù)據(jù),進行用戶特征和興趣挖掘13.plt.show()函數(shù)的作用是()o[單選題]*A.展示圖像√B,畫直方圖C.保存圖像D.畫散點圖14.()釆用概率模型來表達聚類原型。[單選題]*A.嘗試為不同的質(zhì)心(centroid)初始化運行算法B.調(diào)整迭代的次數(shù)C.找到集群的最佳數(shù)量D.以上答案都正確√15.相對于HadoopMapReduce1.0,Spark的特點不包括()。[單選題]*A.速度快B.并發(fā)多√C.通用性D,易用性16.下列算法中:①KNN;②線性回歸;③對數(shù)幾率回歸。可以用神經(jīng)網(wǎng)絡(luò)去構(gòu)造的([單選題]*A.①②B.②③√C.①②③D.以上答案都不正確17.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是()o[單選題]*A.長短期記憶網(wǎng)絡(luò)√B.門控循環(huán)單元網(wǎng)絡(luò)C.堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)D.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)18.下列方法不能成功創(chuàng)建一個Numpy數(shù)組的是()[單選題]*A.a=np.array([1,2,3,4])B.b=np.zeros(3,4)C.c=np.ones(1,2,3,4)√D.d=np.arange(10,30,5)19.語音識別的應(yīng)用場景包括()0[單選題]*A.語音轉(zhuǎn)文本B.語音合成C.人機交互D.以上都對√20.Matplotlib中的axvspan()函數(shù)作用是()。[單選題]*A.在X軸標(biāo)示不同圖形的文本標(biāo)簽圖例B.繪制垂直于x的參考區(qū)域√C.添加x軸內(nèi)容細節(jié)的指向性注釋文本D.添加x軸標(biāo)題21.在Linux下預(yù)裝了Python2、Python3且默認Python版本為Python3,則下列描述可以正確啟動Python的是()o[單選題]*A.在Linux應(yīng)用程序Terminal,打開一個終端窗口,輸入whichPythonB.在Linux應(yīng)用程序Terminal,打開一個終端窗口,輸入Python2或Python3√C.在Linux應(yīng)用程序Terminal,打開一個終端窗口,輸入whichPython3D.在Linux應(yīng)用程序Terminal,打開一個終端窗口,輸入whichPython222.如果線性回歸模型中的隨機誤差存在異方差性,那么參數(shù)的。LS估計量是()□[單選題]*A.無偏的、有效的B.無偏的、非有效的√C.有偏的、有效的D.有偏的、非有效的23.一篇文章中某些名詞的TF-IDF值比較大,則說明()o[單選題]*A.這些名詞對這篇文章的區(qū)分度比較高√B.這些名詞對這篇文章的區(qū)分度比較低C.不能說明什么D.以上都不對24.HTML的表格中,如果需要定義表格的單元格內(nèi)文字和邊緣的空間,需要通過(來實現(xiàn)。[單選題]*A.cellspacing屬性B.colspan屬性C.cellpadding屬性√D.rowspan屬性25.Scipy中模塊signal的作用是()。[單選題]*A.信號處理√B.程序輸入輸出C.程序輸入輸出D.計算積分26.關(guān)系云的一個重要功能是提供()。[單選題]*A.數(shù)據(jù)庫即服務(wù)√B.虛擬服務(wù)C.彈性計算D.按需服務(wù)27.下列關(guān)于可視化方法體系的說法不正確的是()。[單選題]*A.通常采用視覺圖形元素和視覺通道兩個維度進行視覺編碼B.常用的共性方法有統(tǒng)計圖表、圖論方法、視覺隱喻和圖形符號學(xué)等C.領(lǐng)域方法在所屬領(lǐng)域內(nèi)其可視化的信度和效果往往低于基礎(chǔ)方法的直接應(yīng)用√D.視覺編碼為其他數(shù)據(jù)可視化方法提供了方法學(xué)基礎(chǔ)28.如果建立一個5000個特征、100萬個數(shù)據(jù)的機器學(xué)習(xí)模型,則有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練的方法是()。[單選題]*A.隨機抽取一些樣本.在這些少量樣本之上訓(xùn)練B.可以試用在線機器學(xué)習(xí)算法C.應(yīng)用PCA算法降維.減少特征數(shù)D.以上答案都正確√29.()是一種著名的密度聚類算法,它基于一組鄰域參數(shù)來刻畫樣本的緊密程度。[單選題]*A.DBSCAN√B.原型聚類C.密度聚類D.層次聚類30.下列方法中屬于映射數(shù)據(jù)到新的空間的是()0[單選題]*A.傅里葉變換√B.特征加權(quán)C.漸進抽樣D.維歸約31.決策樹的基本流程遵循()的策略。[單選題]*A.貪心B.最優(yōu)化C.分而治之√D.順序32.下列關(guān)于SecondaryNameNode的說法正確的是()。[單選題]*A.它是NameNode的熱備B.它對內(nèi)存沒有要求C.它的目的是幫助NameNode合并編輯日志,減少NameNode的負擔(dān)和冷啟動時的加載時間√D.SecondaryNameNode應(yīng)與NameNode部署到一個節(jié)點33.由于不同類別的關(guān)鍵詞對排序的貢獻不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,下列不屬于此關(guān)鍵詞類型的是()[單選題]*A.引用詞B.普通關(guān)鍵詞C.高頻詞匯√D.擴展關(guān)鍵詞34.下列關(guān)于函數(shù)的參數(shù)的描述錯誤的是()。[單選題]*A.可選參數(shù)可以定義在非可選參數(shù)的前面√B.一個元組可以傳遞給帶有星號的可變參數(shù)C.在定義函數(shù)時,可以設(shè)計可變數(shù)量參數(shù),通過在參數(shù)前增加星號(*)實現(xiàn)D.在定義函數(shù)時,如果有些參數(shù)存在默認值,可以在定義函數(shù)時直接為這些參數(shù)指定默認值35.假設(shè)你需要調(diào)整參數(shù)來最小化代價函數(shù)(c。stfimcti。n),會使用()技術(shù)。[單選題]*A.窮舉搜索B.隨機搜索C.Bayesian優(yōu)化D.以上全是√36.下列敘述正確的是()。[單選題]*A.continue語句的作用是結(jié)束整個循環(huán)的執(zhí)行B.只能在循環(huán)體內(nèi)使用break語句√C.在循環(huán)體內(nèi)使用break語句或continue語句的作用相同D.從多層循環(huán)嵌套中退出時,只能使用goto語句37.Python代碼中mpl.rcParams['font.sans-serif']=「'SimHei']的作用是()o[單選題]*A.設(shè)置圖表中文顯示的字體√B.設(shè)置圖表圖例的位置C.設(shè)置圖表標(biāo)題的顏色D.設(shè)置圖表標(biāo)題的位置38.訓(xùn)練一個RNN網(wǎng)絡(luò),如果權(quán)重與激活值都是NaN,下列選項中,哪一個是導(dǎo)致這個問題的最有可能的原因()。[單選題]*A.梯度消失B.梯度爆炸√C.ReLU函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了D.Sigmoid函數(shù)作為激活函數(shù)g(.),在計算g(z)時,z的數(shù)值過大了39.大數(shù)據(jù)參考架構(gòu)的水平軸和垂直軸分別為()。[單選題]*A.信息(活動)價值鏈和信息技術(shù)價值鏈√B.信息技術(shù)價值鏈和信息(活動)價值鏈C.信息交互價值鏈和信息技術(shù)價值鏈D.信息(活動)價值鏈和信息交互價值鏈40.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。[單選題]*A.機器學(xué)習(xí)、對數(shù)回歸、關(guān)聯(lián)模式B.K均值法、SOM機器學(xué)習(xí)C.Apriori算法、FP-Tree算法√D.RBF機器學(xué)習(xí)、K均值法、機器學(xué)習(xí)41.運行下面程序,a、b、c、d四個變量的值錯誤的是()。importcopya=[1,2,3,4,['a','b']]b=ac=copy.copy(a)d=copy.deepcopy(a)a.append(5)a[4]append('c')[單選題]*A.a==[1,2,3,4,['a','b','c'],5]B.b==[1,2,3,4,['a','b','c'],5]C.c==[1,2,3,4,['a','b','c']]D.d==[1,2,3,4,['a','b','c']]√42.如果一個SVM模型出現(xiàn)欠擬合,那么()能解決這一問題。[單選題]*A.增大懲罰參數(shù)C√B.減小懲罰參數(shù)CC.減小核系數(shù)(gamma參數(shù))D.增大核系數(shù)(gamma參數(shù))43.下列可以應(yīng)用關(guān)鍵詞提取的是()o[單選題]*A.文獻檢索B.自動文摘C.文本聚類/分類D.以上都對√44.在MapReduce中,為了發(fā)現(xiàn)Worker故障,Master周期性進行的操作是()。[單選題]*A.JoinB.Ping√C.CheckD.Connect45.下列不屬于Python內(nèi)置模塊的是()[單選題]*A.sysB.jsonC.osD.image√46.通常來說,()能夠用來預(yù)測連續(xù)因變量。[單選題]*A.線性回歸√B.邏輯回歸C.線性回歸和邏輯回歸D.以上答案都不正確47.下列不屬于數(shù)據(jù)科學(xué)項目主要角色的是()。[單選題]*A.項目發(fā)起人B.項目經(jīng)理C.操作員D.驗收人員√48.如果訓(xùn)練一個RNN網(wǎng)絡(luò)時發(fā)現(xiàn)權(quán)重與激活值都是NaN,則導(dǎo)致這個問題最有可能的原因是()o[單選題]*A.梯度消失B.梯度爆炸√C.ReLU函數(shù)作為激活函數(shù)g(),在計算g(z)時,z的數(shù)值過大了D.Sigmoid函數(shù)作為激活函數(shù)g(),在計算g(z)時,z的數(shù)值過大了49.運行下面代碼的輸出結(jié)果為()oimportnumpyasnpx=np.array([3,1,2])y=np.argsort(x)print(y)[單選題]*A.[312]B.[l20]√C.[123]D.12350.運行下面代碼,則下列描述錯誤的是()。importtimeprint(time.time)[單選題]*A.time庫是Python的標(biāo)準(zhǔn)庫B.可使用time.ctime(),顯示為更可讀的形式C.time.sleep(5)推遲調(diào)用線程的運行,單位為毫秒√D.輸出自1970年1月1日00:00:00AM以來的秒數(shù)51.在Numpy中,數(shù)組拼接的函數(shù)不包括()[單選題]*A.append()B.insert()C.vstack()D.where()√52.下列關(guān)于__new__和__init__區(qū)別的說法不正確的是()。[單選題]*A.__new__是一個實例方法,而__init__是一個靜態(tài)方法√B.__new__方法會返回一個創(chuàng)建的實例,而_init__什么都不返回C.只有在__new__返回一個cls的實例時,后面的__init__才能被調(diào)用D.當(dāng)創(chuàng)建一個新實例時調(diào)用_new_,初始化一個實例時用__init__53.下列情景中不屬于數(shù)據(jù)故事化的是()。[單選題]*A.還原情景B.統(tǒng)計情景√C.移植情景D.虛構(gòu)情景54.對模型進行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計值使用()函數(shù)。[單選題]*A.ParameterGrid()B.ParameterSampler()C.GridSearchCV()√D.RandomizedSearchCV()55.圖像中虛假輪廓的岀現(xiàn)就其本質(zhì)而言是()o[單選題]*A.圖像的灰度級數(shù)不夠多而造成的√B.圖像的空間分辨率不夠高而造成的C.圖像的灰度級數(shù)過多而造成的D.圖像的空間分辨率過高而造成的56.下列語句中不能創(chuàng)建一個字典的是()[單選題]*A.dictl={}B.dict2={3:5)C.dict3={[1,2,3]:"uestc"}√D.dict4={(1,2,3):”uestc”}57.np.setdiffld(Ndarray1,Ndarray2)函數(shù)的作用是()。[單選題]*A.返回二者的交集并排序B.返回二者的并集并排序C.返回二者的差集√D.返回二者的對稱差58.集群的最主要“瓶頸”通常是()。[單選題]*A.CPUB.網(wǎng)絡(luò)C.磁盤I/O√D.內(nèi)存59.FusionInsightHD中Loader從SFTP服務(wù)器導(dǎo)入文件時,不需要做編碼轉(zhuǎn)換和數(shù)據(jù)轉(zhuǎn)換且速度最快的文件類型是:()。[單選題]*A.graph-fileB.binary-file√C.text-fileD.sequence-file60.著名的C4.5決策樹算法使用()來選擇最優(yōu)劃分屬性。[單選題]*A.信息增益B.增益率√C.基尼指數(shù)D.均值61.下列關(guān)于RNN的說法正確的是()o[單選題]*A.RNN可以應(yīng)用在NLP領(lǐng)域B.LSTM是RNN的一個變種C.在RNN中一個序列當(dāng)前的輸出與前面的輸出也有關(guān)D.以上答案都正確√62.有研究發(fā)現(xiàn)“頁面的顯示速度每延遲Is,網(wǎng)站訪問量就會降低11%,從而導(dǎo)致營業(yè)額或者注冊量減少7%,顧客滿意度下降16%”。該項研究表明了在數(shù)據(jù)產(chǎn)品開發(fā)中更加重要的是()。[單選題]*A.查全率B.用戶體驗√C.數(shù)據(jù)可視化D.查準(zhǔn)率63.列表對象的sort()函數(shù)用來對列表元素進行原地排序,該函數(shù)返回值為()。[單選題]*A.FalseB.None√C.TrueD.報錯64.()算法是分類算法。[單選題]*A.DBSCANB.C4.5√C.K-meansD.EM65.下列關(guān)于Python單下劃線_foo與雙下劃線__foo與__foo__的說法錯誤的是()[單選題]*A._foo不能直接用于'frommoduleimport'B.__foo解析器用_classname__foo來代替這個名字,以區(qū)別和其他類相同的命名C.__foo__代表python里特殊方法專用的標(biāo)識D.__foo可以直接用于'frommoduleimport'√66.下列關(guān)于連接數(shù)組的描述不正確的是()。[單選題]*A.concatenate()連接沿現(xiàn)有軸的數(shù)組序列B.stack()沿著新的軸加入一系列數(shù)組C.vstack()水平堆疊序列中的數(shù)組(列方向)D.hstack()3D堆疊序列中的數(shù)組(行方向)√67.Matplotlib中的legend()函數(shù)的作用是()。[單選題]*A.設(shè)置標(biāo)簽文本B.繪制網(wǎng)格線C.標(biāo)示不同圖形的文本標(biāo)簽圖例√D.設(shè)置x軸的數(shù)值顯示范圍68.一幅數(shù)字圖像是()o[單選題]*A.一個觀測系統(tǒng)B.一個由許多像素排列而成的實體C.一個2D數(shù)組中的元素√D.一個3D空間中的場景69.診斷性分析主要釆取的分析方法是()。[單選題]*A.關(guān)聯(lián)分析法和因果分析法√B.關(guān)聯(lián)分析法和分類分析法C.關(guān)聯(lián)分析法和運籌學(xué)D.因果分析法和分類分析法70.Spark的集群管理模式不包含([單選題]*A.Standalone模式B.Message模式√C.YARN模式D.Mesos模式71.open()函數(shù)中,參數(shù)'wb'的含義是()[單選題]*A.創(chuàng)建并二進制只讀B.創(chuàng)建并只寫方式C.創(chuàng)建并二進制寫入√D.創(chuàng)建并追加方式72.()是指為最小化總體風(fēng)險,只需在每個樣本上選擇能使特定條件風(fēng)險最小的類別標(biāo)記。[單選題]*A.支持向量機B.間隔最大化C.線性分類器D.貝葉斯判定準(zhǔn)則√73.下列不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式是()o[單選題]*A.單輸出B.多輸出C.同步多輸出√D.異步多輸出74.選擇哪一個解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。[單選題]*A.線性回歸B.線性判別分析C.正則化項√D.偏置項75.Numpy中使用不同類型的數(shù)組進行操作時,結(jié)果數(shù)組的類型會進行()[單選題]*A.向下轉(zhuǎn)換B.向上轉(zhuǎn)換√C.不進行轉(zhuǎn)換D.無法計算76.在多元線性回歸模型中,若某個解釋變量對其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。[單選題]*A.異方差B.序列相關(guān)C.多重共線性√D.高擬合優(yōu)度77.在一個簡單的線性回歸模型中(只有一個變量),如果將輸入變量改變一個單位(增加或減少),那么輸出將改變()。[單選題]*A.—個單位B.不變C.截距D.回歸模型的尺度因子√78.Scipy中模塊io的作用是()。[單選題]*A.差值計算B.程序輸入輸出√C.稀疏矩陣D.優(yōu)化79.()會發(fā)生權(quán)重共享。[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.全連接神經(jīng)網(wǎng)絡(luò)D.A、B√80.()不是Scipy庫中的模塊。[單選題]*A.clusterB.random√C.signalD.misc81.卷積的過程是讓過濾器在圖像上進行()。[單選題]*A.縮放B.剪切C.窗口滑動√D.鏡像對稱82.一元線性回歸方程戶0.7+0.82X,判定系數(shù)等于0.64,則尤與V的相關(guān)系數(shù)為().[單選題]*A.0.82B.0.64C.0.8√D.0.783.下列關(guān)于等距離散化和等頻離散化的敘述不正確的是()。[單選題]*A.等距離散化是將連續(xù)型特征的取值區(qū)間均勻地劃分成多個區(qū)間段B.等距離散化對數(shù)據(jù)離群值不敏感√C.等頻離散化考慮了區(qū)間段中的樣本個數(shù),使每個區(qū)間段的樣本數(shù)相同D.等頻離散化會將相似的樣本劃分到不同的區(qū)間84.運行下面代碼的輸出結(jié)果為()arr=np.array([1,5,3])arrl=np.array([2,4,6])print(arr<arrl)[單選題]*A.TRUEB.FALSEC.[Ture,False,Ture]√D.([Ture,Ture,Ture])85.下列不屬于模型集成方法的是()。[單選題]*A.直接集成法B.增強法C.堆疊法D.遞歸法√86.如果要清空文件,需要使用的命令是()。[單選題]*A.close()B.seek(0)C.truncate(0)√D.write('stuff')87.大數(shù)據(jù)應(yīng)用需依托的新技術(shù)有()。[單選題]*A.大規(guī)模并行處理B.數(shù)據(jù)分析處理C.智能化D.三個選項都是√88.運行下面代碼的輸出結(jié)果為()。importnumpyasnpa=np.arange(4)b=a[:]a[l]=9print(a)print(b)[單選題]*A.[0,1,2,3][0,1,2,3]B.[l,9,3,4][1,2,3,4]C.[0,9,2,3][0,9,2,3]√D.[0,9,2,3][0,1,2,3]89.下列關(guān)于欠擬合(under-fitting)的說法正確的是()。[單選題]*A.訓(xùn)練誤差較大.測試誤差較小B.訓(xùn)練誤差較小.測試誤差較大C.訓(xùn)練誤差較大.測試誤差較大√D.訓(xùn)練誤差較小.測試誤差較小90.對arr=叩.arange(9).reshape(3,3),反轉(zhuǎn)二維數(shù)組arr的行進行的操作是()o[單選題]*A.arr[::-1]√B.arr[::-2]C.arr[::1]D.arr[::0]91.Adaboost的核心思想是()。[單選題]*A.給定一個弱學(xué)習(xí)算法和一個訓(xùn)練集.將該學(xué)習(xí)算法使用多次.得出預(yù)測函數(shù)序列.進行投票B.針對同一個訓(xùn)練集訓(xùn)練不同的弱分類器并集合起來.構(gòu)成一個強分類器√C.利用多棵樹對樣本進行訓(xùn)練并預(yù)測的一種分類器D.基于前向策略的加法模型.每階段使用一個基模型去擬合上一階段基模型的殘差92.下列不屬于特征選擇的標(biāo)準(zhǔn)方法的是()。[單選題]*A.嵌入B.過濾C.包裹D.抽樣√93.與HMM和MEMM模型相比,CRF模型的優(yōu)勢不包含()。[單選題]*A.特征靈活B.速度快√C.可容納較多上下文信息D.全局最優(yōu)94.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后()對非葉結(jié)點進行考察。[單選題]*A.自上而下B.在劃分前C.禁止分支展開D.自底向上√95.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()。[單選題]*A.Hopfield神經(jīng)網(wǎng)格模型B.BP網(wǎng)絡(luò)√C.多層感知器D.LVQ網(wǎng)絡(luò)96.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,F(市長)=0.6,F(江大橋)=0.4;尸(南京市)=0.3,獨立的,那么分詞結(jié)果就是()。[單選題]*A.南京市*長江*大橋B..南京*市長*江大橋√C.南京市長*江大橋97.下列關(guān)于。LAP的特性的描述:①快速性;②可分析性;③多維性;④信息性;⑤共享性。正確的是()。[單選題]*A.①②③B.②③④C.①②③④D.①②③④⑤√98.常用的數(shù)據(jù)歸約方法可以分為()。[單選題]*A.維歸約、數(shù)據(jù)壓縮B.維歸約、參數(shù)歸約C.維歸約、值歸約√D.數(shù)據(jù)壓縮、值歸約99.下列處理方法能獲得像素級標(biāo)注的是()o[單選題]*A.圖像分類B.物體檢測C.圖像去噪D.語義分割√100.在抽樣估計中,隨著樣本容量的增大,樣本統(tǒng)計量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()。[單選題]*A.無偏性B.有效性C.及時性D.一致性√101.scipy.stats.fit()函數(shù)的作用是()。[單選題]*A.隨機變量的生存函數(shù)B.對數(shù)據(jù)進行擬合,找出最適合采樣數(shù)據(jù)的概率密度函數(shù)系數(shù)√C.計算隨機變量的期望和方差D.隨機變量的概率密度函數(shù)102.ResNet-50有多少個卷積層()。[單選題]*A.48B.49√C.50D.51103.下列關(guān)于文件的打開方式的描述正確的是()[單選題]*A.文件只能選擇二進制或文本方式打開B.文本文件只能以文本方式打開C.所有文件都可能以文本方式打開D.所有文件都可能以二進制方式打開√104.長短時記憶網(wǎng)絡(luò)屬于一種()。[單選題]*A.全連接神經(jīng)網(wǎng)絡(luò)B.門控RNN√C.BP神經(jīng)網(wǎng)絡(luò)D.雙向RNN105.下列函數(shù)中可以計算字典元素個數(shù)的是()。[單選題]*A.cmp()B.len()√C.str()D.type()106.考察一個由三個卷積層組成的CNN:kemel=3x3,stride=2,padding=SAMEo最低層輸出100個特征映射(featuremap),中間層200個特征映射,最高層400個特征映射。輸入是200x300的RGB圖片,則總參數(shù)的數(shù)量是()。[單選題]*A.903400√B.2800C.180200D.720400107.異常檢測過程查找基于()組標(biāo)準(zhǔn)值偏差的異常個案。[單選題]*A.單體B,分類C.聚類√D.回歸108.下列關(guān)于縮進格式的描述不正確的是()[單選題]*A.縮進指在代碼行前面添加空格或TabB.在Python程序中,縮進不是任意的C.縮進可以使程序更有層次感、結(jié)構(gòu)感,從而使程序更易讀D.平級的語句行(代碼塊)的縮進可以不相同√109.Scipy中模塊stats的作用是()。[單選題]*A.統(tǒng)計√B.差值計算C.程序輸入輸出D.稀疏矩陣110.LSTM網(wǎng)絡(luò)引入門控機制來控制信息傳遞的路徑,其中輸入門的作用是()。[單選題]*A.控制上一個時刻的內(nèi)部狀態(tài)需要遺忘多少信息B.控制上一個時刻的內(nèi)部狀態(tài)有多少信息需要保存C.控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存√D.控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)111.下列關(guān)于支持向量的說法正確的是()。[單選題]*A.到分類超平面的距離最近的且滿足一定條件的幾個訓(xùn)練樣本點是支持向量√B.訓(xùn)練集中的所有樣本點都是支持向量C.每一類樣本集中都分別只有一個支持向量D.支持向量的個數(shù)越多越好112.運行下面代碼,輸出結(jié)果是()。d={-2,-1,0,1,2,3}n=d.pop()print(n)[單選題]*A.-2B.2C.不確定√D.3113.執(zhí)行下列代碼后,list2的值是()。[單選題]*A.[4,5,6]B.[4,3,6]C.[4,5,3]√D.以上答案都不正確114.Spark的()組件用于支持實時計算需求。[單選題]*A.SparkSQLB.SparkStreaming√C.SparkGraphXD.SparkMLLib115.執(zhí)行一個job,如果這個job的輸出路徑已經(jīng)存在,那么程序會()0[單選題]*A.覆蓋這個輸出路徑B.拋出警告,但是能夠繼續(xù)執(zhí)行C.拋出一個異常,然后退出√D.創(chuàng)建一個新的輸出路徑116.下列關(guān)于數(shù)據(jù)整合和分組的說法不正確的是()。[單選題]*A.數(shù)據(jù)連接可以用concat或merge函數(shù)B.axis=l表示軸向連接C.數(shù)據(jù)分組可以使用mean函數(shù)√D.使用agg可以自定義多個聚合函數(shù)117.如果使用數(shù)據(jù)集的全部特征并且準(zhǔn)確率能夠達到100%,但在測試集上準(zhǔn)確率僅能達到70%左右,這說明()。[單選題]*A.欠擬合B.模型很棒C.過擬合√D.以上答案都不正確118.pit.scatter()函數(shù)中的參數(shù)c表示的含義是()。[單選題]*A.x軸上的數(shù)值B.y軸上的數(shù)值C.散點圖中的標(biāo)記顏色√D.標(biāo)記圖形內(nèi)容的標(biāo)簽文件119.在Python中,下列不是int整型數(shù)據(jù)的是()。[單選題]*A.160B.010√C.-78D.0x234120.下列關(guān)于Python包的說法正確的是()[單選題]*A.利用pip包管理器更新已安裝包的代碼是pipupdate包名B.單獨導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊C.下載安裝、更新、查看、移除包等行為可以在命令行中進行,但不可以在Jupyternotebook中進行D.下載安裝、更新、查看、移除包等行為既可以用pip工具,也可以用conda工具√121.下列關(guān)于文本分類的說法不正確的是()o[單選題]*A.文本分類是指按照預(yù)先定義的主題類別,由計算機自動地為文檔集合中的每個文檔確定一個類別B.文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機器學(xué)習(xí)的分類系統(tǒng)C.文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序√D.構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計算兩個步驟122.運行代碼,輸出結(jié)果為()。#!/usr/bin/envpython3n=100sum=0counter=1whilecounter<=n:sum+countercounter+=1print("1到%d之和為:%d"%(n,sum))[單選題]*A.1到100之和為:5000B.1到100之和為:0√C.1到100之和為:2050D.1到100之和為:5020123.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。[單選題]*A.Apriori√B.EMC.PCAD.PAC124.下列不是目前機器學(xué)習(xí)所面臨的問題是()。[單選題]*A.測試集的規(guī)?!藼.維度災(zāi)難C.特征工程D.過擬合125.假設(shè)文件不存在,如果使用open()打開文件會報錯,那么該文件的打開方式是()。[單選題]*A.'r'√B.'w'C.'a'D.'w'126.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享()。[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)B.循環(huán)神經(jīng)網(wǎng)絡(luò)C.全連接神經(jīng)網(wǎng)絡(luò)D.選項A和B√127.下列語句會無限循環(huán)下去的是()。[單選題]*A.forainrange(10):timesleep(10)B.whilei<10:timesleep(10)√C.whileTrue:breakD.a=[3,-1,',']foriina[:]:ifnota.break128.下列關(guān)于數(shù)據(jù)的存儲結(jié)構(gòu)的描述正確的是()。[單選題]*A.數(shù)據(jù)所占的存儲空間量B.存儲在外存中的數(shù)據(jù)C.數(shù)據(jù)在計算機中的順序存儲方式D.數(shù)據(jù)的邏輯結(jié)構(gòu)在計算機中的表示√129.PHOTO_PATH=”./photo/{}.jpg”指令可以實現(xiàn)()[單選題]*A.復(fù)制jpg文件到photo目錄下B.定義一個名為photo的存儲路徑√C.打開photo里所有的jpg文件D.重命名目錄130.下列關(guān)于分類算法的準(zhǔn)確率、召回率、比值的描述錯誤的是()□[單選題]*A.準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率.衡量的是檢索系統(tǒng)的查準(zhǔn)率B.召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率.衡量的是檢索系統(tǒng)的查全率C.正確率、召回率和尸]值取值都在0和1之間.數(shù)值越接近0.查準(zhǔn)率或查全率就越高√D.為了解決準(zhǔn)確率和召回率沖突問題.引入了F]分?jǐn)?shù)131.假設(shè)函數(shù)中不包括global保留字,則下列關(guān)于改變參數(shù)值的方法的說法錯誤的是()。[單選題]*A.參數(shù)是列表類型時,改變原參數(shù)的值B.參數(shù)的值是否改變與函數(shù)中對變量的操作有關(guān),與參數(shù)類型無關(guān)√C.參數(shù)是整數(shù)類型時,不改變原參數(shù)的值D.參數(shù)是組合類型(可變對象)時,改變原參數(shù)的值132.下列關(guān)于降維的表述錯誤的是()。[單選題]*A.降維過程中可以保留原始數(shù)據(jù)的所有信息√B.多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變C.線性降維方法目標(biāo)是要保證降維到的超平面能更好地表示原始數(shù)據(jù)D.核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失133.下列關(guān)于HDFS的描述正確的是([單選題]*A.如果NameNode宕機,SecondaryNameNode會接替它使集群繼續(xù)工作B.HDFS集群支持?jǐn)?shù)據(jù)的隨機讀寫C.NameNode磁盤元數(shù)據(jù)不保存Block的位置信息√D.DataNode通過長連接與NameNode保持通信134.下列不屬于現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類型的是()。[單選題]*A.數(shù)據(jù)源與AppB.基礎(chǔ)設(shè)施C.Hadoop√D.數(shù)據(jù)資源135.對分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個標(biāo)記,最常見的結(jié)合策略是()。[單選題]*A.投票法√B.平均法C.學(xué)習(xí)法D.排序法136.Python中Jieba庫是一個()庫。[單選題]*A.第三方中文分詞詞庫√B.機器學(xué)習(xí)庫C.圖像處理庫D,自動提取語義主題137.為了觀察測試Y與X之間的線性關(guān)系,若X是連續(xù)變量,則使用()比較適合。[單選題]*A.散點圖√B.柱形圖C.直方圖D.以上答案都不正確138.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()。[單選題]*A.圖像分類B.目標(biāo)檢測C.圖像語義分割D.以上答案都正確√139.如果python程序中包括零運算,解釋器將在運行時拋出()錯誤信息。[單選題]*A.NameErrorB.FileNotFoundErrorC.SyntaxErrorD.ZeroDivisionError√140.針對以下數(shù)組,從一個數(shù)組中移除存在于另一個數(shù)組中的項時可進行的操作是()。a=np.array([1,2,3,4,5])b=np.array([5,6,7,8,9])期望輸出:array([1,2,3,4])[單選題]*A.np.setdiffld(a,b)√B.setdiffld(a)C.setdiffld(b)D.以上都不對141.情感信息抽取不包括()o[單選題]*A.基于命名實體識別的抽取方法B.基于重復(fù)段落的識別方法√C.基于語義角色標(biāo)注的抽取方法D.基于監(jiān)督學(xué)習(xí)的抽取方法142.運行下面代碼的輸出結(jié)果為()oimportnumpyasnpa=np.arange(6).reshape(3,2)wt=np.array([3,5])print(np.average(a,axis=l,weights=wt))[單選題]*A.[[01][23][45]]B.[0.6252.6254.625]√C.(array([0.625,2.625,4.625]),array([8.,8.,8.]))D.以上都不對143.在頁面中看不見的表單元素是()。[單選題]*A.<inputtype="password"></input>B.<inputtype="radio"></input>C.<inputtype="hidden"></input>√D.<inputtype="reset"></input>144.執(zhí)行下面程序,打開文件的位置應(yīng)該在()。f=open('itheima.txt','w')[單選題]*A.C盤根目錄下B.D盤根目錄下C.Python安裝目錄下D.與源文件在相同的目錄下√145.下列算法中屬于圖像銳化處理的是()o[單選題]*A,低通濾波B.加權(quán)平均法C.高通濾波√D.中值濾波146.HBase作為數(shù)據(jù)存儲組件封裝于大數(shù)據(jù)平臺,用于()。[單選題]*A.關(guān)系型數(shù)據(jù)庫存儲B,分布式文件存儲C.非關(guān)系型數(shù)據(jù)庫存儲√D.列式存儲147.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理的數(shù)據(jù)是()0[單選題]*A.節(jié)點數(shù)據(jù)B.序列數(shù)據(jù)√C.結(jié)構(gòu)化數(shù)據(jù)D,圖像數(shù)據(jù)148.下列關(guān)于副本和視圖的描述錯誤的是()。[單選題]*A.Numpy的切片操作返回原數(shù)據(jù)的視圖B.調(diào)用Ndarray的view()函數(shù)產(chǎn)生一個視圖C.Python序列的切片操作,調(diào)用deepCopy()函數(shù)D.調(diào)用Ndarray的copy()函數(shù)產(chǎn)生一個視圖√149.Numpy默認產(chǎn)生的數(shù)據(jù)類型是()[單選題]*A.int16B.float32C.charD.float64√150.輸入圖片大?為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大?為()。[單選題]*A.95B.96C.97√D.98151.plt.plot()函數(shù)輸入?yún)?shù)'b'修改的是圖形的()。[單選題]*A.位置B.大小C.形狀D.顏色√152.以下哪種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()。[單選題]*A.LeNetB.AlexNetC.GoogLeNetD.ResNets√153.下列說法正確的是()。[單選題]*A.函數(shù)的名稱可以隨意命名B.帶有默認值的參數(shù)一定位于參數(shù)列表的末尾√C.局部變量的作用域是整個程序D.函數(shù)定義后,系統(tǒng)會自動執(zhí)行其內(nèi)部的功能154.scipy.stats.isf()函數(shù)的作用是()[單選題]*A.隨機變量的生存函數(shù)B.scipy.stats.sf()的逆√C.計算隨機變量的期望和方差D.隨機變量的累積分布函數(shù)155.假設(shè)使用原始的非線性可分版本的S。ft?SVM目標(biāo)函數(shù)作為最優(yōu)化對象,則可通過()來保證得到的模型是線性可分離的。[單選題]*A.設(shè)C=0B.設(shè)C=1C.設(shè)C正無窮大√D.設(shè)C負無窮大156.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是()。[單選題]*A.Adam的收斂速度比RMSprop慢B.相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C.對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D.相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的√157.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()。[單選題]*A.人信息的被識別與暴露√B.用戶畫像的生成C.廣告的推送D.病毒入侵158.下列關(guān)于Ndarray.itemsize的描述錯誤的是()。[單選題]*A.以字節(jié)的形式返回數(shù)組中每一個元素的大小B.一個元素類型為float64的數(shù)組,itemsize屬性值為8C.一個元素類型為complex32的數(shù)組,itemsize屬性為4D.一個元素類型為complex64的數(shù)組,itemsize屬性為4√159.單獨使用多層索引時,()。[單選題]*A.最外層和最里層的索引都可以單獨使用B.只有最外層的索引可以單獨使用√C.不能單獨使用多層索引D.只有最里層的索引可以單獨使用160.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點存在錯誤?,F(xiàn)在如果使用一個二次核函數(shù),多項式階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無窮),則()。[單選題]*A.仍然能正確分類數(shù)據(jù)√B.不能正確分類C不確定D.以上均不正確161.下列關(guān)于隨機森林和GBDT的說法正確的是()。[單選題]*A.在隨機森林的單個樹中.樹和樹之間是有依賴的.而GBDT中的單個樹之間是沒有依賴的B.這兩個模型都使用隨機特征子集.來生成許多單個的樹√C.我們可以并行地生成GBDT單個樹.因為它們之間是沒有依賴的D.GBDT訓(xùn)練模型的表現(xiàn)總是比隨機森林好162.一個MapReduce程序中的MapTask的個數(shù)由()決定。[單選題]*A.輸入的總文件數(shù)B.客戶端程序設(shè)置的mapTask的個數(shù)C.FilelnputFormat.getSplits(JobContextjob)計算出的邏輯切片的數(shù)量√D.輸入的總文件大小/數(shù)據(jù)塊大小163.數(shù)據(jù)集成的基本類型是()。[單選題]*A.內(nèi)容集成、結(jié)構(gòu)集成√B.內(nèi)容集成、規(guī)約集成C.規(guī)約集成、結(jié)構(gòu)集成D.模式集成、結(jié)構(gòu)集成164.對矩陣[[0,0,3],[1,1,0],[0,2,1],[1,0,2]]進行獨熱編碼訓(xùn)練后,對矩陣[[0,1,3]]進行獨熱編碼輸出結(jié)果為()o[單選題]*A.[0,1,0,1,0,0,0,1,0]B.[1,0,0,1,0,0,0,0,1]√C.[0,1,0,0,1,0,0,0,1]D.[1,0,0,0,1,0,0,1,0]165.下列關(guān)于降維算法中主成分分析的說法錯誤的是()。[單選題]*A.有監(jiān)督算法√B.可以指定降維的維度C.基于方差來計算D.根據(jù)特征值大小來篩選特征166.在情感分析中不屬于影響詞的是()o[單選題]*A.識別√B.開心C.難過D.無聊167.下列關(guān)于python的類的說法錯誤的是()。[單選題]*A.類的實例方法必須創(chuàng)建對象后才可以調(diào)用B.類的實例方法必須創(chuàng)建對象前才可以調(diào)用√C.類的類方法可以用對象和類名來調(diào)用D.類的靜態(tài)屬性可以用類名和對象來調(diào)用168.下列關(guān)于Python注釋的描述錯誤的是()。[單選題]*A.Python注釋語句不被解釋器過濾掉,也不被執(zhí)行√B.注釋可以輔助程序調(diào)試C.注釋可用于標(biāo)明作者和版權(quán)信息D.注釋用于解釋代碼原理或者用途169.下列說法錯誤的是()。[單選題]*A.當(dāng)目標(biāo)函數(shù)是凸函數(shù)時.梯度下降算法的解一般就是全局最優(yōu)解B.進行PCA降維時.需要計算協(xié)方差矩陣C.沿負梯度的方向一定是最優(yōu)的方向√D.利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題170.HadoopMapReduce2.0中,()負責(zé)資源的管理和調(diào)度。[單選題]*A.JobTrackerB.YARN√C.TaskTrackerD.ApplicationMaster171.下列關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制的描述錯誤的是()。[單選題]*A.關(guān)鍵字參數(shù)必須位于位置參數(shù)之前√B.不得重復(fù)提供實際參數(shù)C.關(guān)鍵字參數(shù)必須位于位置參數(shù)之后D.關(guān)鍵字參數(shù)順序無限制172.線性模型中的權(quán)重w可以看做各個屬性工的()。[單選題]*A.正則化系數(shù)B.對最終決策結(jié)果的貢獻度√C.高維映射D.取值173.下列不是N。SQL數(shù)據(jù)庫的是()。[單選題]*A.MongoDBB.BigTableC.HbaseD.Access√174.運行下面代碼的輸出結(jié)果為()oa=np.array([[5,3,2],[2,4,0]])n=np.sort(a,axis=None)print(n)[單選題]*A.[0,2,2,3,4,5]√B.[5,4,3,2,2,0]C.[[2,3,0],[5,4,2]]D.[[2,3,5],[0,2,4]]175.隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將呈()下降,最終趨向于零。[單選題]*A.指數(shù)級√B.對數(shù)級C.線性級D.平方級176.在Python中,導(dǎo)入random包后random.random()可能的運行結(jié)果為()。[單選題]*A.1B.4.06364700016475C.0.0965639318571762√D.-0.885155622826353177.緩解過擬合的一個辦法是允許支持向量機在一些樣本上出錯,()形式適合這種方法。[單選題]*A.硬間隔支持向量機B.軟間隔支持向量機√C.線性核函數(shù)支持向量機D.多項式核函數(shù)支持向量機178.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換的說法正確的是()。[單選題]*A.Json內(nèi)的取值只能有統(tǒng)一格式B.PDF文件在不同平臺上打開顯示不同C.可以通過Python將CSV文件轉(zhuǎn)換成Excel格式√D.Excel存儲數(shù)據(jù)的量無限制179.scipy.io模塊不可以讀?。ǎ?。[單選題]*A.matlab文件B.IDL文件C.wav文件D.CSV文件√180.Hive的數(shù)據(jù)最終存儲在()中。[單選題]*A.HDFS√B.HBaseC.RDBMSD.MetaStore181.下列關(guān)于在回歸分析中解釋變量與非解釋變量的說法正確的是()。[單選題]*A.解釋變量和被解釋變量都是隨機變量B.解釋變量為非隨機變量,被解釋變量為隨機變量√C.解釋變量和被解釋變量都為非隨機變量D.解釋變量為隨機變量,被解釋變量為非隨機變量182.通常落伍者是影響MapReduce總執(zhí)行時間的主要影響因素之一,為此MapReduce采用()機制來解決。[單選題]*A.分布式計算B.惰性計算C.推測性執(zhí)行的任務(wù)備份√D.先進先出183.如果說線性回歸模型完美地擬合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下列說法正確的是()。[單選題]*A.測試樣本誤差始終為零B.測試樣本誤差不可能為零C.測試樣本誤差不一定為零√D.以上答案都不對184.下列算法中屬于局部處理的是()o[單選題]*A.灰度線性變換B.二值化C.傅里葉變換D.中值濾波√185.對文本數(shù)據(jù)處理通常采用()核函數(shù)。[單選題]*A.多項式B.SigmoidC.線性√D.拉普拉斯186.特征工程的目的是()。[單選題]*A.找到最合適的算法B.得到最好的輸入數(shù)據(jù)√C.減低模型復(fù)雜度D.加快計算速度187.已知數(shù)組a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])b=np.array([1,2,3]),則a+b的輸出結(jié)果為()。[單選題]*A.[[l,2,3],[10,10,10],[20,20,20],[30,30,30]]B.[[l,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]C.[[l,2,3],[11,12,13],[21,22,23],[31,32,33]]√D.無法計算188.MapReduce任務(wù)Map輸出結(jié)果將被寫入()。[單選題]*A.HDFS文件系統(tǒng)B.新的記錄文件C.磁盤(Linux文件系統(tǒng))√D.主數(shù)據(jù)庫189.在MapReduce中,下列描述錯誤的是()。[單選題]*A.Worker故障和Master故障的處理方法不相同B.Map和Reduce的處理結(jié)果都存儲在本地文件系統(tǒng)√C.一個Worker發(fā)生故障時,該節(jié)點上執(zhí)行完的Map任務(wù)需要再次執(zhí)行D.MapReduce具有很強的容錯機制190.有兩個樣本點,第一個點為正樣本,它的特征向量是(0,-1);第二個點為負樣本,它的特征向量是(2,3)。從這兩個樣本點組成的訓(xùn)練集構(gòu)建一個線性SVM分類器的分類面方程是()。[單選題]*A.2x+y=4B.x+2y=5C.x+2y=3√D.2x-y=0191.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(convolutionallayer)由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是()o[單選題]*A.增強圖像B.簡化圖像C.特征提取√D.圖像處理192.下列基本活動中不屬于數(shù)據(jù)產(chǎn)品開發(fā)工作之中需要特別注意的是()。[單選題]*A.創(chuàng)造性設(shè)計B.數(shù)據(jù)洞見C.虛擬化D.個性化描述√193.列表是Python語言中基本數(shù)據(jù)類型之一。我們可以通過1list[i]獲取列表中第i個元素的值,那么list[i:j]的作用是()。[單選題]*A.將列表中第i個元素的值設(shè)置為jB.返回一個列表切片一由原列表第i個到第j-1個元素組成的新列表√C.返回一個擁有第i和j個元素的新列表D.返回一個擁有第j和i個元素的新列表194.下列關(guān)于Python函數(shù)調(diào)用的說法錯誤的是()[單選題]*A.函數(shù)的遞歸調(diào)用必須有一個明確的結(jié)束條件B.函數(shù)的遞歸調(diào)用每次進入更深一層遞歸時,問題規(guī)模相比上次遞歸都應(yīng)有所減少C.函數(shù)的遞歸調(diào)用效率不高,遞歸層次過多會導(dǎo)致棧溢出[在計算機中,函數(shù)調(diào)用是通過棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實現(xiàn)的,每當(dāng)進入一個函數(shù)調(diào)用,棧就會加一層棧幀,每當(dāng)函數(shù)返回,棧就會減一層棧]D.由于棧的大小是無限的,所以,遞歸調(diào)用的次數(shù)過多,也不會導(dǎo)致棧溢出√195.當(dāng)()時,可以不考慮RDD序列化處理。[單選題]*A,完成成本比較高的操作后B.執(zhí)行容易失敗的操作之前C.RDD被重復(fù)使用D.實時性要求高√196.下列關(guān)于數(shù)據(jù)科學(xué)流程與方法的描述錯誤的是()。[單選題]*A.數(shù)據(jù)科學(xué)的基本流程包括數(shù)據(jù)化、數(shù)據(jù)加工(DataWrangling或DataMunging\數(shù)據(jù)規(guī)整化、探索性分析、數(shù)據(jù)分析與洞見、結(jié)果展現(xiàn)以及數(shù)據(jù)產(chǎn)品的提供B.對于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過清洗成為規(guī)整數(shù)據(jù)√C.數(shù)據(jù)分析包括描述性分析、診斷性分析、預(yù)測性分析和規(guī)范性分析D.數(shù)據(jù)可視化會遇到視覺假象問題,人眼對亮度和顏色的相對判斷容易造成視覺假象197.floor()函數(shù)的作用是()[單選題]*A.計算每個元素的模B.計算每個元素的符號C.計算小于每個元素的最大整數(shù)值√D.計算每個元素的小數(shù)部分198.下列關(guān)于Spark的說法錯誤的是()。[單選題]*A.采用內(nèi)存計算模式B.可利用多種語言編程C.主要用于批處理√D.可進行map()操作199.MaxCompute數(shù)據(jù)表的默認生命周期是:()。[單選題]*A.1天B.7天C.30天D.無期限√200.()不屬于statsmodels模塊的主要特點。[單選題]*A.線性模型B.方差分析C.時間序列D.插值運算√201.下列場景適合使用Python的有()。[多選題]*A.可作為腳本語言,快速編寫小型程序、腳本等√B.可應(yīng)用在數(shù)據(jù)科學(xué)、交互式計算及可視化領(lǐng)域√C.可作為膠水語言,整合如C++等語言代碼√D.Python適用于低延時、高利用率的應(yīng)用場景202.噪聲是指測量變量中的隨機錯誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有()。[多選題]*A.錯誤數(shù)據(jù)√B.假數(shù)據(jù)√C.異常數(shù)據(jù)√D.僵尸數(shù)據(jù)203.HadoopMapReduce是MapReduce的具體實現(xiàn)之一。HadoopMapReduce數(shù)據(jù)處理過程涉及四個獨立的實體,包括()o[多選題]*A.Client√B.JobTracker√C.TaskTracker√D.HDFS√204.下列為RDBMS中事務(wù)遵循原則的有()。[多選題]*A.原子性(Atomicity)√B.一致性(Consistency)√C.隔離性(Isolation)√D.持久性(Durability)√205.下列說法中正確的有()。[多選題]*A.云計算的主要特點是非常昂貴B.大數(shù)據(jù)是多源、異構(gòu)、動態(tài)的復(fù)雜數(shù)據(jù),即具有4V特征的數(shù)據(jù)√C.大數(shù)據(jù)是數(shù)據(jù)科學(xué)的研究對象之一√D.MapReduce是采用云計算這種新的計算模式研發(fā)出的具體工具軟件(或算法)√206.對于主成分分析方法,確定降維后低維空間的維數(shù)d的方法有()o[多選題]*A.由用戶事先指定√B.通過在d不同的低維空間中對開銷較小的學(xué)習(xí)器進行交叉驗證來選取√C.可從重構(gòu)的角度設(shè)置一個重構(gòu)閾值,選取使得特定公式成立的最小值√D.隨機設(shè)置207.Python中,字符串格式化的方式是()[多選題]*A.%√B.format√C.inD.input208.數(shù)據(jù)來源和目標(biāo)用戶已定的情況下,不同視覺通道的表現(xiàn)力不同。視覺通道的表現(xiàn)力的評價指標(biāo)包括()。[多選題]*A.精確性√B.可辨認性√C.可分離性√D.視覺突出性√209.常用的沖突消解策略包括()o[多選題]*A.投票法√B.排序法√C.元規(guī)則法√D.調(diào)研法210.以數(shù)據(jù)為中心是數(shù)據(jù)產(chǎn)品區(qū)別于其他類型產(chǎn)品的本質(zhì)特征,表現(xiàn)方面有()。[多選題]*A.數(shù)據(jù)驅(qū)動√B.數(shù)據(jù)密集型√C.數(shù)據(jù)范式√D.數(shù)據(jù)可視化211.數(shù)據(jù)管理包含的管理活動有()。[多選題]*A.識別√B.度量√C.監(jiān)控√D.預(yù)警√212.完整性約束通常包括()。[多選題]*A.實體完整性√B.域完整性√C.參照完整性√D.用戶定義完整性√213.數(shù)據(jù)故事化描述應(yīng)遵循的基本原則有()。[多選題]*A.忠于原始數(shù)據(jù)原則√B.設(shè)定共同場景原則√C.有效性利用原則√D.3C精神原則√214.在Python中查看關(guān)鍵字,需要在Python解釋器中執(zhí)行()兩條命令。[多選題]*A.listkeywordB.importkeyword√C.keyword√D.import.kwlist215.QuickBI在阿里云大數(shù)據(jù)解決方案中扮演了很重要的角色,可以提供包括:()等在內(nèi)的多種功能。[多選題]*A.報表展示√B.即席查詢C.門戶集成√D.數(shù)據(jù)采集√216.ETL技術(shù)主要涉及操作有()。[多選題]*A.抽取√B.轉(zhuǎn)換√C.加載√D.分析217.Spark2.0提供的應(yīng)用庫包括()。[多選題]*A.SparkSQL√B.SparkStreaming√C.MLib√D.GraphX√218.下列關(guān)于單樣本Z檢驗的說法正確的有()。[多選題]*A.在Python中,單樣本Z檢驗可以使用scipy.stats.ttest_lsamp()實現(xiàn)B.單樣本Z檢驗適用于樣本量較大的情況√C.單樣本Z檢驗假設(shè)要檢驗的統(tǒng)計量(近似)滿足正態(tài)分布√D.單樣本Z檢驗常用于檢驗總體平均值是否等于某個常量√219.下列關(guān)于中心極限定理的說法正確的有()。[多選題]*A.中心極限定理說明,對于大量相互獨立的隨機變量,其均值的分布以正態(tài)分布為極限√B.中心極限定理說明,對于大量相互獨立的隨機變量,其均值的分布以,分布為極限C.中心極限定理為Z檢驗提供了理論支持√D.中心極限定理是數(shù)理統(tǒng)計學(xué)和誤差分析的基礎(chǔ)√220.下列關(guān)于AUC面積的描述正確的有()0[多選題]*A.AUC被定義為ROC曲線下與坐標(biāo)軸圍成的面積√B.AUC面積的值大于1C.AUC面積的值等于0.5時,真實性最低,無應(yīng)用價值√D.AUC面積的值越接近1.0,檢測方法真實性越高√221.plt.axhline(y=0.0,c=”r”,ls="--”,lw=2),下列關(guān)于該代碼的說法正確的有()。[多選題]*A.在0.0處添加豎直參考線B.添加水平參考線√C.參考線是虛線形式√D.網(wǎng)格線是紅色的222.python中,復(fù)合賦值運算符包括()[多選題]*A.簡單的賦值運算符√B.乘法賦值運算符√C.取模賦值運算符√D.取整除賦值運算符√223.文本分類過程包括()[多選題]*A.選擇訓(xùn)練文本√B.選擇文本特征√C.建立文本表示模型√D.選擇分類方法√224.下列關(guān)于連續(xù)型隨機變量以及連續(xù)型概率密度函數(shù)的說法正確的有()。[多選題]*A.一個客服一天可能接聽到多少個電話是一個連續(xù)型隨機變量B.正態(tài)分布是一種連續(xù)型隨機變量的概率分布√C.可以使用概率密度函數(shù)來描述連續(xù)型隨機變量的概率分布√D.連續(xù)型概率密度函數(shù)曲線下方的面積之和為1√225.文件基本操作的函數(shù)有()[多選題]*A.close()√B.read()√C.rename()√D.remove()√226.下列關(guān)于HDFS文件寫入的描述正確[多選題]*A.不支持多用戶對同一文件的寫操作√B.用戶不可以在文件任意位置進行修改√C.默認將文件復(fù)制成三份存放√D.復(fù)制的文件塊默認不存在同一機架上√227.隨機森林在做數(shù)據(jù)處理方面的優(yōu)勢有()o[多選題]*A.不需要做缺失值處理√B.不需要處理噪聲C.不需要做特征選擇√D.不需要平衡數(shù)據(jù)集√228.下列關(guān)于深度學(xué)習(xí)的實質(zhì)及其與淺層學(xué)習(xí)區(qū)別的說法正確的有()。[多選題]*A.深度學(xué)習(xí)強調(diào)模型深度√B.深度學(xué)習(xí)突出特征學(xué)習(xí)的重要性:特征變換+非人工√C.沒有區(qū)別D.以上答案都不正確229.特征選擇在子集生成與搜索方面引入了人工智能搜索技術(shù)和子集評價方法。其中人工智能搜索技術(shù)有()o[多選題]*A.分支界限法√B.浮動搜索法√C.信息嫡√D.AIC√230.影響圖像識別的精度的因素有()o[多選題]*A.數(shù)據(jù)類別數(shù)量不平衡√B.輸入圖像尺寸不同C.圖像中存在類標(biāo)之外的環(huán)境干擾√D.圖像中存在隨機噪聲√231.Python中字典的內(nèi)置方法包括()。[多選題]*A.radiansdictkeys()√B.radiansdictsetdefault(key,default=None)√C.radiansdictupdate(dict2)√D.radiansdictvalues()√232.在詞袋模型中使用單個的單詞來構(gòu)建詞向量這樣的序列被稱為()[多選題]*A.1元組(1-gram)√B.單元組(unigram)模型√C.列表D.字典233.圖像識別的一般步驟包括()o[多選題]*A.預(yù)處理√B.特征提取√C.超像素生成D.識別分類√234.語音識別的方法包括()o[多選題]*A.聲道模型方法√B.模板匹配的方法√C.利用人工神經(jīng)網(wǎng)絡(luò)的方法√D.語音知識的方法√235.TF-IDF的缺點包含()。[多選題]*A.字詞的重要性隨它在文件中出現(xiàn)的次數(shù)成正比B.將一些生僻字誤當(dāng)作文檔關(guān)鍵詞√C.只考慮特征詞和文本之間的關(guān)系,忽略了一個特征項在不同類別間的分布情況√D.沒有考慮特征詞的位置因素對文本的區(qū)分度√236.下列關(guān)于Pig的說法正確的有()。[多選題]*A.Pig的主要目的是彌補MapReduce編程的復(fù)雜性√B.Pig的核心是一種數(shù)據(jù)分析語言√C.Pig程序的結(jié)構(gòu)適合串行處理D.Pig主要包含PigLatin和Pig執(zhí)行環(huán)境兩部分√237.在建立模型時,需要用到的數(shù)據(jù)有()。[多選題]*A.訓(xùn)練數(shù)據(jù)√B.測試數(shù)據(jù)√C.原始數(shù)據(jù)D.驗證數(shù)據(jù)√238.下列說法正確的有()o[多選題]*A.條件獨立性假設(shè)不成立時,樸素貝葉斯分類器仍有可能產(chǎn)生最優(yōu)貝葉斯分類器√B.在估計概率值時使用的拉普拉斯修正避免了因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為零的問題√C.由于馬爾可夫鏈通常很快就能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度很快D.二分類任務(wù)中兩類數(shù)據(jù)滿足高斯分布且方差相同時,線性判別分析產(chǎn)生貝葉斯最優(yōu)分類器√239.下列屬于可視化高維數(shù)據(jù)技術(shù)的有()o[多選題]*A.矩陣√B.平行坐標(biāo)系√C.星形坐標(biāo)系√D.散布圖240.下列服務(wù)中可以用于存儲數(shù)據(jù)的有()o[多選題]*A.MapReduceB.YARNC.HBase√D.HDFS√241.Python中Jieba庫的基本實現(xiàn)原理包含()。[多選題]*A.分析漢字與漢字之間的關(guān)聯(lián)概率√B.分析漢字詞組的關(guān)聯(lián)概率√C.根據(jù)用戶自定義的詞組進行分析√D.還可以分析漢字與英文之間關(guān)聯(lián)概率242.下列關(guān)于Pig的說法正確的有([多選題]*A.彌補MapReduce編程復(fù)雜性√B.封裝MapReduce處理過程√C.PigLatin是一種數(shù)據(jù)分析語言√D.適用于并行處理√243.下列屬于漢語未登錄詞類型的有()o[多選題]*A.存在于詞典但出現(xiàn)頻率較少的詞B.新出現(xiàn)的普通詞匯√C.專有名詞√D.專業(yè)名詞和研究領(lǐng)域名稱√244.下列關(guān)于Hive的說法正確的有([多選題]*A.Hive是基于Hadoop的數(shù)據(jù)倉庫工具√B.Hive可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫表√C.最初,Hive由Google開源,用于解決海量結(jié)構(gòu)化日志數(shù)據(jù)統(tǒng)計問題D.Hive的主要應(yīng)用場景是離線分析√245.當(dāng)構(gòu)造線性模型時,應(yīng)注意變量間的相關(guān)性。在相關(guān)矩陣中搜索相關(guān)系數(shù)時,如果發(fā)現(xiàn)3對變量的相關(guān)系數(shù)是(Vari和Var2、Var2和Var3、Var3和Vari),相關(guān)系數(shù)分別是-0.98、0.45、1.23,則可以得出的結(jié)論有()。[多選題]*A.Vari和Var2是非常相關(guān)的√B.因為Vari和Var2是非常相關(guān)的,可以去除其中一個√C.Var3和Vari的相關(guān)系數(shù)1.23是不可能的√D.Var3和Var1的相關(guān)系數(shù)1.23是不可能的246.下列屬于卷積神經(jīng)網(wǎng)絡(luò)組成部分的有()。[多選題]*A.卷積層√B.中間層C.池化層√D.全連接層√247.下列屬于數(shù)據(jù)挖掘與分析工具的有()o[多選題]*A.Tableau√B.Python√C.SPSS√D.Alteyx√248.類的特點有()[多選題]*A.封裝√B,繼承√C.多態(tài)√D.重復(fù)249.當(dāng)時序數(shù)據(jù)比較長時,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)容易產(chǎn)生長距離依賴問題,對此以下哪些說法是正確的()。[多選題]*A.這是由網(wǎng)絡(luò)訓(xùn)練時反向傳播時梯度消失引起的√B.這會導(dǎo)致輸入的長句詞匯之間的語義關(guān)系很難擬合√C.這會引發(fā)RNN的輸入和輸出的關(guān)系難以擬合√D.可以使得網(wǎng)絡(luò)記憶更多的訓(xùn)練樣本信息250.下列關(guān)于負荷Python的模塊的說法正確的有()。[多選題]*A.能夠用來有邏輯地組織Python代碼段√B.Python擁有豐富的模塊,不支持自定義模塊C.把相關(guān)的代碼分配到一個模塊里能讓代碼更好用、更易懂√D.模塊能定義函數(shù)、類和變量,模塊里也能包含可執(zhí)行的代碼√251.數(shù)據(jù)科學(xué)項目主要涉及的活動包括()。[多選題]*A.模式/模型的應(yīng)用及維護√B.模式/模型的洞見√C.結(jié)果的可視化與文檔化√D.模式/模型的驗證和優(yōu)化√252.Python變量命名規(guī)則包含()。[多選題]*A.變量名只能包含字母、數(shù)字和下劃線。變量名可以字母或下劃線開頭,但不能以數(shù)字開頭。例如,可將變量命名為message_1,但不能將其命名為1_message√B.變量名不能包含空格,但可使用下劃線來分隔其中的單詞。例如,變量名greeting_message可行,但變量名greetingmessage會引發(fā)錯誤√C.不要將Python關(guān)鍵字和函數(shù)名用作變量名,即不要使用Python保留用于特殊用途的單詞,如print√D.變量名應(yīng)既簡短又具有描述性。例如,name比n好,studentname比s_n好,name_length比length_of_persons_name好√253.下列關(guān)于Python中標(biāo)識符的命名規(guī)則的說法正確的有()[多選題]*A.只能以下劃線或者A-Z/a-z中的字母開頭√B.關(guān)鍵字不能作為標(biāo)識符√C.Python標(biāo)識符區(qū)分大小寫√D.不能以數(shù)字開頭√254.一個回歸模型存在多重共線問題,在不損失過多信息的情況下,可釆取的措施有()。[多選題]*A.剔除所有的共線性變量B.剔除共線性變量中的一個√C.通過計算方差膨脹因子(varianceinflationfactor,VIF)來檢查共線性程度,并采取相應(yīng)措施√D.刪除相關(guān)變量可能會有信息損失,我們可以不刪除相關(guān)變量,而使用一些正則化方法來解決多重共線性問題,例如Ridge或Lasso回歸√255.下列可用于處理由于光照不均帶來的影響的圖像處理方法有()[多選題]*A.同態(tài)濾波√B.頂帽變換√C.基于移動平均的局部閾值處理√D,拉普拉斯算子256.常用的數(shù)據(jù)審計方法可以分為()。[多選題]*A.預(yù)定義審計√B.自定義審計√C.可視化審計√D.結(jié)構(gòu)化審計257.Scikit-Learn中可以實現(xiàn)()算法。[多選題]*A.分類√B.聚類√C.回歸√D.降維√258.對前饋神經(jīng)網(wǎng)絡(luò)的描述正確的是()。[多選題]*A.層與層之間通過“全連接”進行連接,即兩個相鄰層之間神經(jīng)元完全成對連接√B.各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級√C.同一層內(nèi)神經(jīng)元之間存在全連接D.同一層內(nèi)的神經(jīng)元互相不連接√259.假設(shè)目標(biāo)遍歷的類別非常不平衡,即主要類別占據(jù)了訓(xùn)練數(shù)據(jù)的99%,假設(shè)現(xiàn)在模型在訓(xùn)練集上表現(xiàn)為99%的準(zhǔn)確度,那么下列說法正確的有()。[多選題]*A.準(zhǔn)確度并不適合衡量不平衡類別問題√B.準(zhǔn)確度適合衡量不平衡類別問題C.精確度和召回率適合于衡量不平衡類別問題√D.精確度和召回率不適合衡量不平衡類別問題260.下列關(guān)于相關(guān)與線性關(guān)系的說法正確的有()o[多選題]*A.相關(guān)不一定是線性關(guān)系,可能是非線性關(guān)系√B.相關(guān)一定是線性關(guān)系,不可能是非線性關(guān)系C.相關(guān)時若有相關(guān)系數(shù)為0,說明兩個變量之間不存在線性關(guān)系,仍可能存在非線性關(guān)系√D.相關(guān)系數(shù)為0是兩個變量獨立的必要不充分條件√261.以下那種神經(jīng)網(wǎng)絡(luò)的設(shè)計中引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)()。[多選題]*A.LeNetB.Transformer√C.AlexNetD.ResNets√262.下列關(guān)于范數(shù)規(guī)則化的描述正確的有()。[多選題]*A.L0
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年度虛擬現(xiàn)實設(shè)備研發(fā)與委托生產(chǎn)合同
- 2024年度機械設(shè)備買賣合同樣本
- 2024年度人力資源外包與招聘服務(wù)協(xié)議
- 2024年度物流園區(qū)建設(shè)與運營合同
- 2024年員工保密協(xié)議模板
- 2024年度自建房施工合同終止合同
- 2024年工程預(yù)付款資金監(jiān)管協(xié)議
- 2024出版社與作者之間的出版合同
- 2024年度企業(yè)文化建設(shè)合作協(xié)議
- 2024年建筑企業(yè)與監(jiān)理單位服務(wù)協(xié)議
- 中國女性生理健康白皮書
- 天然氣巡檢記錄表
- 甲苯磺酸瑞馬唑侖臨床應(yīng)用
- 民法典講座-繼承篇
- 外包施工單位入廠安全培訓(xùn)(通用)
- 糖尿病健康知識宣教課件
- 客戶接觸點管理課件
- Python語言學(xué)習(xí)通超星課后章節(jié)答案期末考試題庫2023年
- 醫(yī)學(xué)-心臟驟停急救培訓(xùn)-心臟驟停急救教學(xué)課件
- 高中英語-Book 1 Unit 4 Click for a friend教學(xué)課件設(shè)計
- 年產(chǎn)30萬噸碳酸鈣粉建設(shè)項目可行性研究報告
評論
0/150
提交評論