2022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)_第1頁
2022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)_第2頁
2022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)_第3頁
2022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)_第4頁
2022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)_第5頁
已閱讀5頁,還剩134頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1392022年人工智能知識(shí)考試復(fù)習(xí)題庫500題(含各題型)一、單選題1.以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯(cuò)誤的是A、熵越大,不確定性越大,信息量也就越大B、信息增益越大,表示某個(gè)條件熵對信息熵減少程序越大,也就是說,這個(gè)屬性對于信息的判斷起到的作用越大C、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯(cuò)D、熵權(quán)法是一種客觀賦權(quán)法,因?yàn)樗鼉H依賴于數(shù)據(jù)本身的離散性答案:C2.目前RNN中常用的激活函數(shù)是()A、reluB、sigmoidC、eluD、Swish答案:B3.下列方法中,能夠返回某個(gè)字串在字符串中出現(xiàn)的次數(shù)的是()。A、len()B、count()C、find()D、split()答案:B4.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?A、KMeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C5.將一個(gè)字符串格式的日期轉(zhuǎn)換為時(shí)間格式,應(yīng)使用以下哪個(gè)函數(shù)A、date_timeB、date_rangeC、to_timedeltaD、to_datetime答案:D6.線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性答案:B7.下列有關(guān)樸素貝葉斯的說法不正確的是:A、易于實(shí)現(xiàn),但學(xué)習(xí)和預(yù)測的效率低B、在數(shù)據(jù)較少的時(shí)仍然有效C、特征獨(dú)立性假設(shè)使模型變得簡單D、可以處理多分類問題答案:A8.下列關(guān)于核函數(shù)的表述正確的是A、核函數(shù)即特征的映射關(guān)系B、多項(xiàng)式核函數(shù)只是將原始特征映射,并沒有升維C、高斯核函數(shù)將特征映射到無窮維D、使用線性核函數(shù)的SVM是非線性分類器答案:C9.決策樹的生成是一個(gè)(___)過程。A、聚類B、回歸C、遞歸D、KNN答案:C10.根據(jù)機(jī)器智能水平由低到高,正確的是()A、計(jì)算智能、感知智能、認(rèn)知智能B、計(jì)算智能、感應(yīng)智能、認(rèn)知智能C、機(jī)器智能、感知智能、認(rèn)知智能D、機(jī)器智能、感應(yīng)智能、認(rèn)知智能答案:A11.為應(yīng)對卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲(chǔ)問題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計(jì)出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG答案:C12.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對答案:A13.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、4答案:B14.從給定的句子、段落中識(shí)別人名、地名、機(jī)構(gòu)名、專有名詞的過程稱為?A、詞干提取B、停用詞C、詞形還原D、命名實(shí)體識(shí)別答案:D15.以下關(guān)于樸素貝葉斯說法不正確的是A、樸素貝葉斯是基于貝葉斯公式/理論建立的一種用于簡單分類的算法,B、其前置模型是特征值條件獨(dú)立C、基本思想是對于給定的待分類項(xiàng),求解在此項(xiàng)出現(xiàn)的條件下,統(tǒng)計(jì)計(jì)算各個(gè)類別出現(xiàn)的概率,取出現(xiàn)最大概率的作為此待分類項(xiàng)類別。D、對缺失數(shù)據(jù)比較敏感,算法比較簡單,常用于文本分類,欺詐檢測答案:D16.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,()也是學(xué)習(xí)跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding答案:C17.圖像識(shí)別是以圖像的主要()為基礎(chǔ)的A、元素B、像素C、特征D、部件答案:C18.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時(shí)答案:C19.以下關(guān)于數(shù)據(jù)質(zhì)量的說法不正確的是A、數(shù)據(jù)質(zhì)量是基于一組定性或定量變量的值的條件下提出的概念B、數(shù)據(jù)內(nèi)部一致性的問題非常重要C、一組數(shù)據(jù)特性滿足業(yè)務(wù)需求的程度D、數(shù)據(jù)清洗的必要性不大答案:D20.在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?A、多項(xiàng)式階數(shù)B、更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降C、使用常數(shù)項(xiàng)答案:A21.下列算法常用于聚類的問題是()A、k-meansB、邏輯回歸模型C、決策樹模型D、隨機(jī)森林模型答案:A22.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱答案:B23.scikit-learn用于訓(xùn)練模型的函數(shù)接口是?A、Fit()B、fit()C、Train()D、train()答案:B24.下列哪些屬于循環(huán)神經(jīng)網(wǎng)絡(luò)A、LeNetB、GoogleNetC、Bi-LSTMD、BERT答案:C25.以下哪種分類方法對樣本質(zhì)量要求最高()。A、KNNB、支持向量機(jī)C、貝葉斯D、神經(jīng)網(wǎng)絡(luò)答案:A26.以下不屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點(diǎn)的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接答案:B27.卷積運(yùn)算過程正確的順序是:①.對應(yīng)位置求乘積②所有位置求和③輸出一個(gè)位置的結(jié)果④移動(dòng)卷積核A、①②③④B、①④②③C、②③①④D、④③①②答案:A28.LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、樸素貝葉斯D、深度殘差網(wǎng)絡(luò)答案:A29.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D30.彩色圖像中,每個(gè)像素點(diǎn)通常采用()表示色彩值A(chǔ)、一個(gè)值B、二個(gè)值C、三個(gè)值D、四個(gè)值答案:C31.?般我們建議將卷積?成對抗?絡(luò)(convolutionalgenerativeadversarialnets)中?成部分的池化層替換成什么?A、跨距卷積層(Stridedconvolutionallayer)B、ReLU層C、局部跨距卷積層(Fractionalstridedconvolutionallayer)D、仿射層(Affinelayer)答案:C32.數(shù)據(jù)分析常用包pandas的函數(shù)to_datetime可以將字符串轉(zhuǎn)換為時(shí)間戳,現(xiàn)需要將”20220601”轉(zhuǎn)換為時(shí)間戳,請問下列哪項(xiàng)語句可以實(shí)現(xiàn)該項(xiàng)需求A、pd.to_datetime('20220601',format='%Y%m%d')B、pd.to_datetime('20220601',format='%Y%M%d')C、pd.to_datetime('20220601',format='%Y%m%D')D、pd.to_datetime('20220601',format='%Y%M%D')答案:A33.閱讀以下文字:假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。()A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對答案:B34.測試集應(yīng)盡可能與訓(xùn)練集(___)。A、相容B、相等C、互斥D、包含答案:C35.屬于常見損失函數(shù):A、計(jì)算預(yù)測值函數(shù)B、求偏導(dǎo)數(shù)函數(shù)C、均方誤差損失函數(shù)D、更新參數(shù)函數(shù)答案:C36.以下激活函數(shù)中,不具有“正向無邊界”特征的是?A、ReLUB、SigmoidC、softplusD、Mish答案:B37.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問題②獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運(yùn)行A、①②③④⑤B、②③④⑤⑥C、①②③④⑤⑥D(zhuǎn)、①②④⑤⑥答案:C38.ONE-HOT-ENCODING可用于什么特征處理A、類別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征答案:A39.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時(shí)間,我們可以()A、增加樹的深度B、增加學(xué)習(xí)率C、減少樹的深度D、減少樹的數(shù)量答案:C40.下列關(guān)于Python函數(shù)調(diào)用說法錯(cuò)誤的是()。A、函數(shù)的遞歸調(diào)用必須有一個(gè)明確的結(jié)束條件B、函數(shù)的遞歸調(diào)用每次進(jìn)入更深一層遞歸時(shí),問題規(guī)模相比上次遞歸都應(yīng)有所減少C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過多會(huì)導(dǎo)致棧溢出(在計(jì)算機(jī)中,函數(shù)調(diào)用是通過棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧)D、函數(shù)的遞歸調(diào)用由于棧的大小是無限的,所以,遞歸調(diào)用的次數(shù)過多,也不會(huì)導(dǎo)致棧溢出答案:D41.關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測試集錯(cuò)誤率答案:C42.以下對于標(biāo)稱屬性說法不正確的是A、標(biāo)稱屬性的值是一些符號(hào)或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對于給定對象集,找出這些屬性的均值、中值沒有意義。D、標(biāo)稱屬性通過將數(shù)值量的值域劃分有限個(gè)有序類別,把數(shù)值屬性離散化得來。答案:D43.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了減少訓(xùn)練時(shí)間,我們可以A、增加樹的深度B、增大學(xué)習(xí)率(LearninRate)C、對決策樹模型進(jìn)行預(yù)剪枝D、減少樹的數(shù)量答案:C44.我們可以采取哪些措施來防止神經(jīng)網(wǎng)絡(luò)中的過擬合?A、數(shù)據(jù)增強(qiáng)B、權(quán)重共享C、提前停止D、DropoutE、以上全部答案:E45.()適合連續(xù)特征,它假設(shè)每個(gè)特征對于每個(gè)類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A46.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯(cuò)誤的是?A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)答案:C47.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是?A、在實(shí)際場景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動(dòng)調(diào)節(jié)通常會(huì)取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合答案:C48.卷積層是深度神經(jīng)網(wǎng)絡(luò)的主要結(jié)構(gòu)之一,已經(jīng)在大量任務(wù)中用到,下面哪一個(gè)任務(wù)的主流方法中沒有用到卷積層A、為圖像自動(dòng)生成描述標(biāo)題B、中英文互譯C、中文分詞D、場景文字檢測答案:C49.執(zhí)行完語句X_train,X_test,y_train,y_test=train_test_split(...iris.data,iris.target,test_size=0.4,random_state=0),訓(xùn)練集占比多少?A、40%B、50%C、60%D、70%答案:C50.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?A、仿射層B、卷積層C、RNN層D、均不對答案:C51.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時(shí)間會(huì)變?yōu)槎嗌??A、少于2sB、大于2sC、仍是2sD、說不準(zhǔn)答案:C52.下列選項(xiàng)中,無監(jiān)督學(xué)習(xí)模型是A、DecisionB、K_meansC、SVMD、LogisticRegression答案:B53.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率答案:A54.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C55.對線性回歸模型進(jìn)行性能評估時(shí),以下說法正確的是A、均方根誤差接近1最好B、均方根誤差越大越好C、決定系數(shù)越接近1越好D、決定系數(shù)越接近0越好答案:C56.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D57.以下哪些不是人工智能概念的正確表述A、人工智能是為了開發(fā)一類計(jì)算機(jī)使之能夠完成通常由人類所能做的事B、人工智能是研究和構(gòu)建在給定環(huán)境下表現(xiàn)良好的智能體程序C、人工智能是通過機(jī)器或軟件展現(xiàn)的智能D、人工智能將其定義為人類智能體的研究答案:D58.閔可夫斯基距離表示為曼哈頓距離時(shí),p為()。A、1B、2C、3D、4答案:A59.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個(gè)重要的信息處理的機(jī)制是A、專家系統(tǒng)B、人工神經(jīng)網(wǎng)絡(luò)C、模式識(shí)別D、智能代理答案:B60.下面的問題,屬于分類問題的是;A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時(shí)間內(nèi)的工資漲幅B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分?jǐn)?shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會(huì)在接下來的一段時(shí)間內(nèi)離職D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額答案:C61.()曲線以precision、recall為橫縱坐標(biāo)A、AP曲線B、PR曲線C、mAP曲線D、RoI曲線答案:B62.Adaboost就是從()出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。A、弱分類器B、強(qiáng)分類器C、多個(gè)分類器D、單個(gè)分類器答案:A63.以下對字典的說法錯(cuò)誤的是()。A、字典可以為空B、字典的鍵不能相同C、字典的鍵不可變D、字典的鍵的值不可變答案:D64.神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派?A、符號(hào)主義B、連接主義C、行為主義D、以上都不是答案:B65.梯度下降算法的正確步驟是什么?1計(jì)算預(yù)測值和真實(shí)值之間的誤差2重復(fù)迭代,直?得到?絡(luò)權(quán)重的最佳值3把輸?傳??絡(luò),得到輸出值4隨機(jī)值初始化權(quán)重和偏差5對每個(gè)產(chǎn)?誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減?誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2答案:D66.下方法中屬于無監(jiān)督學(xué)習(xí)算法的是()A、線性回歸B、支持向量機(jī)C、決策樹D、K-Means聚類答案:D67.在輸出層不能使?以下哪種激活函數(shù)來分類圖像?A、sigmoidB、TanhC、ReLUD、If(x>5,1,0)答案:C68.影響深度卷積神經(jīng)網(wǎng)絡(luò)算法的關(guān)鍵參數(shù)是()A、網(wǎng)絡(luò)數(shù)量B、網(wǎng)絡(luò)深度C、網(wǎng)絡(luò)結(jié)構(gòu)D、網(wǎng)絡(luò)主體答案:B69.下面哪種方法沒辦法直接應(yīng)用于自然語言處理的任務(wù)?A、去語法模型B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、主成分分析(PCA)答案:D70.ID3算法選擇劃分屬性的準(zhǔn)則是A、信息增益B、增益率C、基尼系數(shù)D、信息熵答案:A71.以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。A、STINGB、WavelusterC、MAFID、IRH答案:D72.測試集應(yīng)盡可能與訓(xùn)練集A、相容B、相等C、互斥D、包含答案:C73.神經(jīng)元之間的每個(gè)連接都有()權(quán)重。A、一個(gè)B、兩個(gè)C、多個(gè)D、無答案:A74.超市收銀員用掃描器直接掃描商品的條形碼,商品的價(jià)格信息就會(huì)呈現(xiàn)出來,這主要利用了人工智能中的()技術(shù)。A、智能代理B、模式識(shí)別C、機(jī)器翻譯D、專家系統(tǒng)答案:B75.感知機(jī)(Perceptron)是由()層神經(jīng)元組成的一個(gè)簡單模型A、1B、2C、3D、4答案:B76.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B77.卷積的擴(kuò)展方式是加():一個(gè)卷積核可以提取圖像的一種特征,多個(gè)卷積核提取多種特征。A、濾波器B、卷積層C、卷積核D、通道答案:C78.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立答案:B79.()是人以自然語言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語言學(xué)、心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。A、語音交互B、情感交互C、體感交互D、腦機(jī)交互答案:A80.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()A、Hopfield網(wǎng)B、BP網(wǎng)絡(luò)C、多層感知器D、LVQ網(wǎng)絡(luò)答案:B81.下面哪個(gè)選項(xiàng)中哪一項(xiàng)屬于確定性算法A、PCAB、K-MeansC、以上都不是D、AB都是答案:A82.在選擇神經(jīng)?絡(luò)的深度時(shí),下?哪些參數(shù)需要考慮?1神經(jīng)?絡(luò)的類型(如MLP,CNN)2輸?數(shù)據(jù)3計(jì)算能?(硬件和軟件能?決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮;D、$1,3,4,5答案:C83.在模型中全連接層可采用A、paddle.nn.LinearB、paddle.nn.Conv2DC、paddle.nn.MaxPool2DD、paddle.nn.ReLU答案:A84.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標(biāo)簽答案:B85.下列哪種不屬于進(jìn)化計(jì)算()A、遺傳算法B、認(rèn)知機(jī)C、進(jìn)化編程D、進(jìn)化策略答案:B86.用numpy創(chuàng)建單位矩陣使用()A、np.identityB、np.onesC、np.random.randD、np.arange答案:A87.下列選項(xiàng)中,可以通過掃描儀將其轉(zhuǎn)換成數(shù)字圖像輸入電腦中,然后通過OCR軟件識(shí)別成文本信息的是()A、報(bào)紙B、FLASH動(dòng)畫C、歌曲D、電影答案:A88.以下哪種問題主要采用無監(jiān)督學(xué)習(xí)方法?A、頻繁項(xiàng)挖掘B、股價(jià)預(yù)測C、圖像分類D、文本情感分析答案:A89.()基于當(dāng)前已知的搖臂平均獎(jiǎng)賞來對探索和利用進(jìn)行折中。若各搖臂的平均獎(jiǎng)賞相當(dāng),則選取各搖臂的概率也相當(dāng);若某些搖臂的平均獎(jiǎng)賞明顯高于其他搖臂,則它們被選取的概率也明顯更高。A、有模型學(xué)習(xí)B、探索與利用C、ε-貪心算法D、Softmax答案:D90.()是用來評估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對樣本的預(yù)測值和真實(shí)值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降答案:A91.詞向量是表示自然語言里單詞的一種方法,即把每個(gè)詞都表示為一個(gè)N維空間內(nèi)的()。A、線段B、平面C、點(diǎn)D、線答案:C92.下列不屬于樹模型的是A、GBDT梯度提升樹B、XGBoostC、RF隨機(jī)森林D、LR線性回歸答案:D93.以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)答案:C94.以下哪種方法不可以有效防止過擬合?()A、使用Mini-batchB、設(shè)置EarlyStopingC、使用DropoutD、更換網(wǎng)絡(luò)架構(gòu)答案:A95.使用一組槽來描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法答案:C96.深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過程是由三個(gè)算法依次運(yùn)行組成,下面不屬于這三個(gè)算法中的是A、歸一化B、正向傳播C、反向傳播D、梯度下降答案:A97.我們?nèi)粘I钪械纳舷掳啵讣y掃描打卡考勤、虹膜掃描,應(yīng)用到了人工智能中的()A、機(jī)器翻譯技術(shù)B、機(jī)器翻譯C、虛擬現(xiàn)實(shí)D、模式識(shí)別答案:D98.下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、離散型隨機(jī)變量沒有分布函數(shù)B、密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。C、分布函數(shù)描述隨機(jī)變量的取值規(guī)律D、分布律只能描述離散型隨機(jī)變量的取值規(guī)律答案:A99.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?()A、DecisionTreeB.SVMB、KmeansC、LogisticRegression答案:A100.下列關(guān)于XGboost算法描述中錯(cuò)誤的是A、由于其特殊原因,無法分布式化B、xgboost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來減少過擬合答案:A101.哪個(gè)不是常用的聚類算法()。A、K-MeansB、DBSCANC、GMMsD、Softmax答案:D102.當(dāng)決策樹出現(xiàn)過擬合的時(shí)候,可以采取以下哪些措施()A、剪枝B、增加訓(xùn)練次數(shù)C、進(jìn)行交叉檢驗(yàn)D、以上均可答案:A103.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練時(shí),依賴于以下哪一種法則進(jìn)行參數(shù)計(jì)算?A、最大值法則B、最小值法則C、鏈?zhǔn)角髮?dǎo)法則D、平均求導(dǎo)法則答案:C104.EM算法通過迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、無偏估計(jì)B、極大似然估計(jì)C、區(qū)間估計(jì)D、有偏估計(jì)答案:B105.下列哪個(gè)選項(xiàng)中的模型屬于集成學(xué)習(xí)()A、C4.5B、kNN分類C、AdaboostD、k-means答案:C106.關(guān)于支持向量機(jī)SVM,下列說法錯(cuò)誤的是A、L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B、Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C、分類間隔為1w答案:C107.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗(yàn)概率答案:A108.ResNet-50:depth=[3,4,6,3]代表()A、C3有3個(gè)殘差塊B、C4有4個(gè)殘差塊C、C5有4個(gè)殘差塊D、C2有3個(gè)殘差塊答案:D109.CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為()A、奇數(shù)B、偶數(shù)C、整數(shù)D、分?jǐn)?shù)答案:A110.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB、梯度裁剪C、DropoutD、所有方法都不行答案:B111.長短期記憶網(wǎng)絡(luò)中,當(dāng)想要剔除之前無用的信息,應(yīng)采用()A、遺忘門B、更新門C、輸入門D、輸出門答案:A112.重復(fù)K-折交叉驗(yàn)證應(yīng)該使用哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:A113.關(guān)于反向傳播,以下說法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:A114.如果我們希望預(yù)測n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SoftmaxB、ReLuC、SigmoidD、Tanh答案:A115.邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLU函數(shù)D、LeakyReLU函數(shù)答案:A116.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是答案:B117.GoogLeNetInceptionV1中使用了5*5的卷積核所以訓(xùn)練代價(jià)非常高,為了解決這個(gè)問題,GoogLeNet使用的方法是:A、取消5*5的卷積核B、先用1*1的卷積核降維,然后在使用5*5的卷積核C、把5*5拆分為2個(gè)3*3D、縮減5*5的卷積核的個(gè)數(shù)答案:B118.獨(dú)熱編碼的缺點(diǎn)是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④答案:B119.以下關(guān)于GBDT算法的說法不正確的是A、計(jì)算進(jìn)度較低B、無法并行計(jì)算C、計(jì)算量較大D、可以防止過擬合答案:A120.以下不屬于回歸分析的是()。A、線性回歸B、BP神經(jīng)網(wǎng)絡(luò)C、ARIMAD、SVM支撐向量機(jī)答案:C121.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D122.下列屬于無監(jiān)督學(xué)習(xí)的是()A、KNNB、LogistiRegressionC、k-meansD、SVM答案:C123.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDD、MBGD答案:A124.隱馬爾可夫模型(HMM)是結(jié)構(gòu)最簡單的動(dòng)態(tài)貝葉斯網(wǎng)絡(luò),是一種著名的()模型。A、無向圖B、雙向圖C、有向圖D、單向圖答案:C125.下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、實(shí)體鏈接C、關(guān)系抽取D、詞性標(biāo)注答案:D126.以下哪些是通用逼近器?A、KernelSVMB、NeuralNetworksC、BoostedDecisionTreesD、以上所有答案:D127.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以答案:C128.回歸算法預(yù)測的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型答案:D129.以下哪種方法不能防止過擬合?A、交叉驗(yàn)證B、低維嵌入C、剪枝D、集成學(xué)習(xí)答案:B130.池化操作的作用是:A、上采樣B、下采樣C、paddingD、增加特征圖通道數(shù)答案:B131.常見的數(shù)據(jù)集劃分方式不包括A、留出法B、裝袋法C、交叉驗(yàn)證法D、自助法答案:B132.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)?絡(luò)的時(shí)候,梯度變得過??損失函數(shù)變?yōu)?窮。在RNN中,下?哪種?法可以較好地處理梯度爆炸問題?A、?改良的?絡(luò)結(jié)構(gòu)?如LSTM和GRUsB、梯度裁剪C、DropoutD、所有?法都不?答案:B133.在多通道卷積過程中,要生成n個(gè)featuremaps,需要()個(gè)卷積核立方體。A、n-2B、n^2C、[n/2]注[x]表示對x取整D、n答案:D134.CNN不具有以下那個(gè)特性。A、局部連接B、權(quán)值共享C、空間或時(shí)間上的下采樣D、不定長輸入答案:D135.殘疾結(jié)構(gòu)是ResNet能夠極大的緩解梯度消失的法寶,那么殘差結(jié)構(gòu)的作用是:A、取消了反向傳播,所以就能解決梯度消失問題B、將信息不經(jīng)過卷積操作直接和卷積的結(jié)果融合C、阻斷正向傳播的過程D、減少了參數(shù)的數(shù)量答案:B136.tf.keras.preprocessing的作用是?A、keras模型部署工具B、keras數(shù)據(jù)處理工具C、Keras生成模型工具D、Keras內(nèi)置優(yōu)化器答案:B137.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,F(xiàn)1-score是()。A、1212122022年4月13日B、1212122022年8月13日C、1212122022年4月7日D、1212122022年2月3日答案:B138.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度答案:A139.小王和老張交換名片后,小王打開手機(jī)中安裝的靈云智能輸入法app,拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是()A、模式識(shí)別B、文字合成C、圖像搜索D、圖像還原答案:A140.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對數(shù)損失函數(shù)D、Hinge損失函數(shù)答案:B141.在執(zhí)行了以下的文本清理步驟之后,可從下面的語句中生成多少三元組短語(trigram)操作:[1].停用詞移除[2].使用單一空格替換標(biāo)點(diǎn)符號(hào)語句:#Analytics-vidhyaisagreatsourcetolearndata_science.A、3B、4C、5D、6答案:C142.在循環(huán)語句中,_______語句的作用是提前進(jìn)入下一次循環(huán)。A、breakB、continueC、returnD、pass答案:B143.ResNet-50有多少個(gè)卷積層?()A、48B、49C、50D、51答案:B144.下列哪項(xiàng)不是機(jī)器學(xué)習(xí)中基于實(shí)例學(xué)習(xí)的常用方法()A、K近鄰方法B、局部加權(quán)回歸法C、基于案例的推理D、Find-s算法答案:D145.()函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。A、ReluB、softmaxC、TanhD、sigmoid答案:B146.關(guān)于線性回歸的描述,以下說法正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B147.使用交叉驗(yàn)證最簡單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val_scoreB、cross_val%C、val_scoreD、cross_score答案:A148..混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?A、混沌度沒什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對于結(jié)果的影響不一定答案:B149.下面的交叉驗(yàn)證方法:i.有放回的Bootstrap方法ii.留一個(gè)測試樣本的交叉驗(yàn)證iii.5折交叉驗(yàn)證iv.重復(fù)兩次的5折教程驗(yàn)證當(dāng)樣本是1000時(shí),下面執(zhí)行時(shí)間的順序,正確的是:A、i>ii>iii>ivB、ii>iv>iii>iC、iv>i>ii>iiiD、ii>iii>iv>i答案:B150.下列哪個(gè)包不是用于處理圖像的?()A、ScipyB、skimageC、opencvD、gensim答案:D151.下面不屬于人工神經(jīng)網(wǎng)絡(luò)的是()。A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、網(wǎng)絡(luò)森林D、深度神經(jīng)網(wǎng)絡(luò)答案:C152.下面關(guān)于模型預(yù)測性能的評估以及交叉驗(yàn)證,說法正確的是:A、在scikit-learn包里面使用交叉驗(yàn)證方法,可以使用代碼:fromsklearnimportcross_validationB、需要把數(shù)據(jù)分成訓(xùn)練集和測試集,用測試集來評估從訓(xùn)練集學(xué)習(xí)得來的模型的預(yù)測性能,是因?yàn)閺挠?xùn)練集學(xué)習(xí)得來的模型可能對于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對于訓(xùn)練集以外的數(shù)據(jù)沒有太大的泛化能力C、課程中的交叉驗(yàn)證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測試集,這種方法叫做留一交叉驗(yàn)證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測準(zhǔn)確率一般會(huì)比用測試集得到的預(yù)測準(zhǔn)確率低答案:B153.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb答案:D154.以下關(guān)于人工智能概念的描述中,錯(cuò)誤的是A、人工智能英文翻譯是ArtificialIntelligenceB、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對人的意識(shí)、思維過程進(jìn)行模擬答案:C155.下面哪一項(xiàng)對梯度下降(GD)和隨機(jī)梯度下降(SGD)的描述是正確的?1在GD和SGD中,每一次迭代中都是更新一組參數(shù)以最小化損失函數(shù)。2在SGD中,每一次迭代都需要遍歷訓(xùn)練集中的所有樣本以更新一次參數(shù)。3在GD中,每一次迭代需要使用整個(gè)訓(xùn)練集的數(shù)據(jù)更新一個(gè)參數(shù)。A、只有1BB、只有2C、只有3D、都正確答案:A156.表達(dá)式list(range(5))的值為________。A、[0,1,2,3,4]B、[1,2,3,4,5]C、[0,1,2,3,4,5]D、[1,2,3,4]答案:A157.pandas每個(gè)索引都有一些方法和屬性,下列()方法用來刪除傳入的值,并得到新的Index。A、diffB、deleteC、dropD、isin答案:C158.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D159.感知機(jī)描述錯(cuò)誤的是A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整B、輸入層接收外界輸入信號(hào)傳遞給輸出層C、輸出層是M-P神經(jīng)元D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算答案:A160.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:A、完全拷貝B、一點(diǎn)點(diǎn)關(guān)系都沒有C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)D、同一事物的兩個(gè)名稱答案:C161.CRF(條件隨機(jī)場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。答案:B162.在Python中,設(shè)a=2,b=3,表達(dá)式a<bandb>=3值是()A、1B、0C、TRUED、FALSE答案:C163.以下那種操作會(huì)方法圖像中的噪聲?A、拉普拉斯濾波B、中值濾波C、高斯濾波D、均值濾波答案:A164.圖像分類任務(wù)表述正確的有:①.被認(rèn)為是一個(gè)已經(jīng)解決了的任務(wù)②.解決這個(gè)問題主要使用的是深度學(xué)習(xí)算法③.圖像分類任務(wù)主要是識(shí)別圖像中的主體④.圖像分類任務(wù)是很多其他視覺任務(wù)的基石A、①③④B、①②③④C、①③④D、①②④答案:B165.VGG網(wǎng)絡(luò)在深度學(xué)習(xí)發(fā)展過程中做出了重要貢獻(xiàn),下面關(guān)于VGG描述正確的是:A、VGG全部使用了3*3的卷積核和2*2的池化核B、VGG證明了網(wǎng)絡(luò)越深越好,所以程序員應(yīng)該沒有限制的搭建更深的網(wǎng)絡(luò)C、VGG是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)D、VGG沒有使用全連接網(wǎng)絡(luò)結(jié)構(gòu)答案:A166.新一代人工智能關(guān)鍵共性技術(shù)的研發(fā)部署要以()為核心,以數(shù)據(jù)和硬件為基礎(chǔ),以提升感知識(shí)別、知識(shí)計(jì)算、認(rèn)知推理、運(yùn)動(dòng)執(zhí)行、人機(jī)交互能力為重點(diǎn)A、軟件B、算力C、云平臺(tái)D、算法答案:D167.使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識(shí)別采用Dropout算法的目的是A、防止過擬合B、防止欠擬合C、增加訓(xùn)練樣本數(shù)D、以上答案均不正確答案:A168.不同于通常涉及大量的規(guī)則編碼的早期常識(shí)語言處理,現(xiàn)代NLP算法是基于()A、自動(dòng)識(shí)別B、機(jī)器學(xué)習(xí)C、模式識(shí)別D、算法輔助答案:B169.以下關(guān)于Bagging(裝袋法)的說法不正確的是A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfittingB、Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過有放回抽樣)來生成多個(gè)版本的預(yù)測分類器,然后把這些分類器進(jìn)行組合D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)答案:A170.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A、嵌入B、過濾C、包裝D、抽樣答案:D171.N-gram被定義為N個(gè)關(guān)鍵詞組合在一起。從給定的句子可以產(chǎn)生多少二元組短語(Bigram)A、7B、9C、10D、11答案:C172.對于非連續(xù)目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過程中,下面哪種梯度下降方法是最好的?A、SGDB、AdaGradC、l-BFGSD、拉格朗日松弛Subgradientmethod答案:D173.paddle.nn.Conv2D接口是用來搭建卷積神經(jīng)網(wǎng)絡(luò)中的哪個(gè)部分A、池化層B、激活函數(shù)C、卷積層D、歸一化層答案:C174.馬爾可夫性質(zhì)強(qiáng)調(diào)在每一個(gè)動(dòng)作狀態(tài)序列中,下一個(gè)狀態(tài)與()有關(guān)。A、外部影響B(tài)、主體內(nèi)因C、歷史狀態(tài)D、當(dāng)前狀態(tài)答案:D175.()庫是一個(gè)具有強(qiáng)大圖像處理能力的第三方庫。用途:圖像處理.A、numpyB、pandasC、MatplotlibD、PIL答案:D176.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()A、防止過擬合B、減小誤差C、增加網(wǎng)絡(luò)復(fù)雜度答案:A177.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)答案:D178.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D179.當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí)更()發(fā)生過擬合。A、不容易B、容易C、不會(huì)答案:B180.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合?1樹的數(shù)量2樹的深度3學(xué)習(xí)速率A、只有1B、只有2C、只有3D、都正確答案:B181.在輸出層不能使用以下哪種激活函數(shù)來分類圖像?A、sigmoidB、TanhC、ReLUD、If(x>5,1,0)答案:C182.以下那種CNN結(jié)構(gòu)中不包含殘差結(jié)構(gòu)?A、ResNetB、DarkNetC、Inception-ResNetv2D、VGG答案:D183.計(jì)算詞語間距離的方法有很多,一下選項(xiàng)中屬于常用方法的是:A、正切相似度B、余弦相似度C、絕對距離D、球面距離答案:B184.我們常說“人類是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對這個(gè)觀點(diǎn)的描述不正確A、人類智能是機(jī)器智能的設(shè)計(jì)者B、機(jī)器智能目前無法完全模擬人類所有智能C、機(jī)器智能目前已經(jīng)超越了人類智能D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機(jī)器智能答案:C185.數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()。A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法答案:B186.以下不屬于數(shù)據(jù)處理包含五個(gè)部分的是:A、數(shù)據(jù)形狀變換B、模型篩選C、數(shù)據(jù)集劃分D、數(shù)據(jù)歸一化處理答案:B187.模型的高bias(偏差)是什么意思,如何降低它()?A、在特征空間中減少特征B、在特征空間中增加特征C、增加數(shù)據(jù)點(diǎn)D、B和CE、以上所有答案:B188.隨著卷積層數(shù)的增加,下面描述正確的是:①.在一定層數(shù)范圍內(nèi),效果越來越好②.能夠抽取的特征更加復(fù)雜③.層數(shù)越多越容易發(fā)生梯度消失A、①③B、①②③C、②③D、①②答案:B189.用于分類與回歸應(yīng)用的主要算法有()A、隨機(jī)森林、AprioriB、邏輯回歸、K均值、決策樹C、支持向量機(jī)、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹、BP神經(jīng)網(wǎng)絡(luò)、樸素貝葉斯答案:D190.以下卷積神經(jīng)網(wǎng)絡(luò)模型中,最早用于手寫數(shù)字識(shí)別的是()A、LeNet-5B、AlexNetC、ResNet50D、ResNet152答案:A191.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)答案:B192.下列哪項(xiàng)不是噪聲數(shù)據(jù)的主要表現(xiàn)形式A、錯(cuò)誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、重復(fù)數(shù)據(jù)答案:D193.在線性回歸中,對回歸系數(shù)的顯著性檢驗(yàn)采用()A、Z檢驗(yàn)B、T檢驗(yàn);$F檢驗(yàn)C、χ2檢驗(yàn)答案:B194.下面那種架構(gòu)中,對句子中所有詞之間的關(guān)系進(jìn)行建模,而與它們的位置無關(guān)?A、OpenAIGPTB、BERTC、ELMoD、ULMFit答案:C195.以下不是tuple類型的是()。A、-1B、(1,)C、([],[1])D、([{‘a(chǎn)’:1}],[‘b’,1])答案:A196.在高斯混合分布中,其隱變量的含義是在高斯混合分布中,其隱變量的含義是A、表示高斯分布的方差B、表示高斯分布的均值C、表示數(shù)據(jù)分布的概率D、表示數(shù)據(jù)從某個(gè)高斯分布中產(chǎn)生答案:D197.以下關(guān)于人工智能、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)三者間關(guān)系的描述,哪一項(xiàng)是正確的()A、人工智能是機(jī)器學(xué)習(xí)的一個(gè)分支B、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)是人工智能里面并列的兩類技術(shù)C、神經(jīng)網(wǎng)絡(luò)屬于機(jī)器學(xué)習(xí)中的一種技術(shù)D、人工智能是神經(jīng)網(wǎng)絡(luò)的一個(gè)分支答案:C198.K-Means算法無法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布答案:B199.圖像處理中無損壓縮的目的是()A、濾除圖像中的不相干信號(hào)B、濾除圖像中的高頻信號(hào)C、濾除圖形中的低頻信號(hào)D、濾除圖像中的冗余信號(hào)答案:D200.在集成學(xué)習(xí)中,對于數(shù)據(jù)型輸出,最常見的結(jié)合策略是()A、平均法B、投票法C、學(xué)習(xí)法答案:A201.下述()不是人工智能中常用的知識(shí)格式化表示方法。A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法答案:D202.下列不屬于深度學(xué)習(xí)內(nèi)容的是A、深度置信網(wǎng)絡(luò)B、受限玻爾茲曼機(jī)C、卷積神經(jīng)網(wǎng)絡(luò)D、貝葉斯學(xué)習(xí)答案:D203.文字檢測網(wǎng)絡(luò)TextBoxes基于下列哪個(gè)網(wǎng)絡(luò)A、Fastr-cnnB、Fasterr-cnnC、SSDD、YOLO答案:C204.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計(jì)算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計(jì)算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個(gè)方向傳遞答案:D205.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①③④B、①②③C、①③④D、①②④答案:B206.我國《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到()年成為世界主要人工智能創(chuàng)新中心。A、2020B、2025C、2030D、2035答案:C207.網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)答案:A208.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型。A、神經(jīng)元B、閾值C、興奮D、節(jié)點(diǎn)答案:A209.為了對某圖像中的目標(biāo)進(jìn)行分析和識(shí)別,一般需要對圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割答案:D210.以下關(guān)于模塊說法錯(cuò)誤的是()。A、一個(gè)xx.py就是一個(gè)模塊B、任何一個(gè)普通的xx.py文件可以作為模塊導(dǎo)入C、模塊文件的擴(kuò)展名不一定是.pyD、運(yùn)行時(shí)會(huì)從制定的目錄搜索導(dǎo)入的模塊,如果沒有,會(huì)報(bào)錯(cuò)異常答案:C211.深度學(xué)習(xí)可以用在下列哪項(xiàng)NLP任務(wù)中A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)答案:D212.機(jī)器學(xué)習(xí)中的決策樹學(xué)習(xí)的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過程,決策樹代表的是一種()過程A、預(yù)測B、回歸C、分類D、聚類答案:C213.留出法直接將數(shù)據(jù)集劃分為(___)個(gè)互斥的集合。A、一B、二C、三D、四答案:B214.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過擬合D、GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的答案:C215.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端答案:A216.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score答案:A217.下列不合法的Python變量名是A、Python2B、N.xC、sumD、Hello_World答案:B218.以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層B、數(shù)據(jù)處理一般都是在應(yīng)用層完成C、應(yīng)用層聚焦人工智能技術(shù)和各個(gè)領(lǐng)域的結(jié)合D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源答案:B219.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6答案:D220.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)答案:C221.相同的詞可以如何實(shí)現(xiàn)多個(gè)詞嵌入?A、GloVeB、Word2VecC、ELMoD、Nltk答案:C222.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B223.假設(shè)你需要調(diào)整超參數(shù)來最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、都可以答案:D224.下列屬于人工智能發(fā)展預(yù)測的是()。A、短期內(nèi)構(gòu)建大型的數(shù)據(jù)集將會(huì)是各企業(yè)與研究機(jī)構(gòu)發(fā)展的重要方向。B、長期來看,通用型人工智能的發(fā)展將依賴于對人腦認(rèn)知機(jī)制的科學(xué)研究。C、人工智能技術(shù)將能在邊際成本不遞增的情況下將個(gè)性化服務(wù)普及到更多的消費(fèi)者與企業(yè)。D、以上都是答案:D225.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會(huì)在2030萬還是3040萬”,這是一個(gè)什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題答案:C226.兩個(gè)種子點(diǎn)A(-1,1),B(2,1),其余點(diǎn)為(0,0),(0,2),(1,1),(3,2),(6,0),(6,2),利用Kmeans算法,點(diǎn)群中心按坐標(biāo)平均計(jì)算。最終種子點(diǎn)A需要移動(dòng)的次數(shù),種子點(diǎn)B需要移動(dòng)的次數(shù),屬于種子點(diǎn)A的點(diǎn)數(shù)(不包含A),屬于種子點(diǎn)B的點(diǎn)數(shù)(不包含B)分別為()()A、2,2,3,3B、1,1,3,3C、1,1,2,4D、2,2,2,4答案:A227.在python中,x=[11,8,7,2,3],x.insert(4,[4,5]),列表x的值為()。A、[11,8,7,2,[4,5],3]B、[11,8,7,2,4,5,3]C、[11,8,7,[4,5],2,3]D、[11,8,7,4,5,2,3]答案:A228.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、剪枝B、特征選取C、數(shù)據(jù)清理D、決策樹生成答案:C229.Matplotlib庫中,用來繪制等值圖的pyplot的基礎(chǔ)圖標(biāo)函數(shù)是()。A、plt.vlines()B、plt.plot_date()C、plt.contour(X,Y,Z,N)D、plt.specgram(x,NFFT=256,pad_to,F)答案:C230.產(chǎn)生式系統(tǒng)的推理不包括A、正向推理B、逆向推理C、雙向推理D、簡單推理答案:D231.從給定的特征集合中選擇出相關(guān)特征子集的過程,稱為(___)A、特征抽取B、特征選擇C、特征降維D、特征簡化答案:B232.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒有關(guān)系答案:C233.下列不屬于數(shù)據(jù)預(yù)處理和特征工程的流程的是A、數(shù)據(jù)獲取B、數(shù)據(jù)清洗C、模型解釋D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:C234.大數(shù)據(jù)的最顯著特征是()A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高答案:A235.手寫數(shù)字識(shí)別的例子中,輸入的圖片為長和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個(gè)問題,輸入層是()維的,輸出層是()維的。A、784;10B、28;10C、784;1D、28;1答案:A236.啟發(fā)式搜索是尋求問題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞答案:C237.下列應(yīng)用了人工智能技術(shù)的是()①用手寫板輸入漢字②視頻聊天③與計(jì)算機(jī)對弈④OCR文字識(shí)別A、①②③B、①②④C、①③④D、②③④答案:C238.學(xué)習(xí)器的實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為A、錯(cuò)誤率B、精度C、誤差D、查準(zhǔn)率答案:C239.在機(jī)器學(xué)習(xí)中,正則化引入是為了解決什么問題()A、訓(xùn)練太慢B、訓(xùn)練過擬合C、訓(xùn)練樣本太少D、數(shù)據(jù)標(biāo)簽缺失答案:B240.一個(gè)特征的權(quán)重越高,說明該特征比其他特征()。A、更重要B、不重要C、有影響D、無法判斷答案:A241.回歸分析的任務(wù),就是根據(jù)()和因變量的觀察值,估計(jì)這個(gè)函數(shù),并討論與之有關(guān)的種種統(tǒng)計(jì)推斷的問題A、相關(guān)變量B、樣本C、已知數(shù)據(jù)D、自變量答案:D242.影響基本K-均值算法的主要因素不包括下列哪一個(gè)選項(xiàng)?A、樣本輸入順序B、模式相似性測度C、聚類準(zhǔn)則D、初始類中心的選取答案:C243.在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B、蒙特卡洛采樣C、動(dòng)態(tài)規(guī)劃D、Bellman方程答案:A244.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()A、BoostingB、BaggingC、StackingD、Mapping答案:B245.關(guān)于聚類說法錯(cuò)誤的是()A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個(gè)單獨(dú)過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過程C、聚類分析的目標(biāo)是組內(nèi)的對象之間是相似的,不同組中的對象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好答案:B246.下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector。該函數(shù)創(chuàng)建1×1024的NumPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將每行的頭32個(gè)字符值存儲(chǔ)在NumPy數(shù)組中,最后返回?cái)?shù)組。請問填充在空白處的代碼應(yīng)該是哪個(gè)。defimg2vector(filename):returnVect=zeros((1,1024))fr=open(filename)foriinrange(32):______________________________forjinrange(32):returnVect[0,32*i+j]=int(lineStr[j])returnreturnVectA、lineStr=fr.readlines()B、lineStr=fr.read_line()C、lineStr=readline()D、lineStr=fr.readline()答案:D247.()常做為CNN網(wǎng)絡(luò)的最后一層。A、卷積層B、池化層C、全連接層D、歸一化層答案:C248.為什么批量梯度下降法(BGD)尋優(yōu)路徑相對比較平滑()A、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值減小的方向B、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值增加的方向C、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值不變的方向D、批量梯度下降法(BGD)每一次對模型參數(shù)的調(diào)整,都朝向代價(jià)函數(shù)值發(fā)生變化的方向答案:A249.反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對答案:A250.不屬于深度學(xué)習(xí)模型的選項(xiàng)是()A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A251.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯(cuò)誤的是A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、作出交互反應(yīng)答案:C252.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?()A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的答案:B253.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B254.假設(shè)一個(gè)公司的薪資水平中位數(shù)是35000,排名前25%和75%分別是60000和20000,如果某人的薪水是3000,那么他可以被看出異常值嗎A、可以B、不可以C、需要更多信息D、以上說法都不對答案:A255.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)行傳輸?shù)倪^程中,算法會(huì)調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重答案:C256.圖像分類任務(wù)是一個(gè)計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①③B、①②③C、②③D、①②答案:C257.()有跟環(huán)境進(jìn)行交互,從反饋當(dāng)中進(jìn)行不斷的學(xué)習(xí)的過程。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、線性回歸答案:C258.強(qiáng)化學(xué)習(xí)的回報(bào)值一個(gè)重要特點(diǎn)是具有()。A、客觀性B、主體性C、超前性D、滯后性答案:D259.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法答案:A260.機(jī)器翻譯屬于下列哪個(gè)領(lǐng)域的應(yīng)用?()A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬答案:A261.半監(jiān)督學(xué)習(xí)包括(___)。A、純半監(jiān)督學(xué)習(xí)B、主動(dòng)學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、答案:A262.關(guān)于CBOW與Skip-Gram算法,以下說法不正確的是()A、CBOW是根據(jù)某個(gè)詞前面的n個(gè)詞或者前后n個(gè)連續(xù)的詞,來計(jì)算某個(gè)詞出現(xiàn)的概率B、Skip-Gram是根據(jù)某個(gè)詞然后分別計(jì)算它前后幾個(gè)詞的各個(gè)概率C、CBOW和Skip-Gram都是可以訓(xùn)練詞向量的方法,但是Skip-Gram要比CBOW更快一些D、無論是CBOW模型還是skip-gram模型,都是以Huffman樹作為基礎(chǔ)的答案:C263.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D264.搜狗“知立方”通過碎片化的語義信息,對用戶的搜索進(jìn)行邏輯推薦與計(jì)算,并將核心知識(shí)反饋給用戶。這主要屬于人工智能的()應(yīng)用?A、自然語言處理B、生物特征識(shí)別C、知識(shí)圖譜D、機(jī)器視覺答案:C265.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C266.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯(cuò)誤的說法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少B、每一次Epoch都會(huì)對之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小C、模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲(chǔ)于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中答案:C267.有關(guān)一般卷積神經(jīng)網(wǎng)絡(luò)的組成,下面哪種說法是正確的?A、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、激活層、池化層和全連接層組成。B、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、激活層、卷積層、池化層和全連接層組成。C、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、池化層、激活層和全連接層組成。D、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、池化層、卷積層、激活層和全連接層組成。答案:A268.欠擬合通常是由于()而造成的A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B269.以下關(guān)于SVM說法不正確的是A、SVM是一種二分類模型B、其基本思想是:對于給定的數(shù)據(jù)集D在樣本空間中找到一個(gè)劃分超平面,從而將不同類別的樣本分開C、核函數(shù)的作用就是隱含著從高維空間到低維空間的映射D、SVM還可以使用所謂的核技巧有效地進(jìn)行非線性分類,將其輸入隱式映射到高維特征空間中。答案:C270.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越(),也即越來越能表現(xiàn)語義或者意圖。A、具體和形象化B、抽象和概念化C、具體和概念化D、抽象和具體化答案:B271.哪些技術(shù)是RCNN采用而FasterRCNN沒有用A、SVM分類B、使用SelectiveSearch輸出候選框C、使用MLP進(jìn)行分類與回歸預(yù)測D、使用ROIpooling答案:B272.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C273.以下哪些分類方法可以較好地避免樣本的不平衡問題()A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A274.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問題的方法是?()A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D275.欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B276.下面哪個(gè)敘述是對的?Dropout對一個(gè)神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對一個(gè)神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對的,2是錯(cuò)的B、都是對的C、1是錯(cuò)的,2是對的D、都是錯(cuò)的答案:D277.以下不是數(shù)據(jù)降維方法的是()A、PCAB、LDAC、LPPD、AHP答案:D278.以下不屬于聚類算法的是A、K均值B、DBSCANC、AprioriD、Jarvis-Patrick(JP)答案:C279.1x1卷積的主要作用是A、加快卷積運(yùn)算B、增大卷積核C、擴(kuò)大感受野D、通道降維答案:D280.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B281.下列哪個(gè)應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動(dòng)控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)答案:B282.下面對強(qiáng)化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)描述正確的是A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標(biāo)注數(shù)據(jù)D、都不需要標(biāo)注信息答案:A283.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingB、BaggingC、StackingD、Mapping答案:B284.()是一種處理實(shí)時(shí)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用于語音識(shí)別、機(jī)器翻譯等領(lǐng)域A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、以上答案都不對答案:C285.()是利用計(jì)算機(jī)將一種自然語言(源語言)轉(zhuǎn)換為另一種自然語言(目標(biāo)語言)的過程。A、文本識(shí)別B、機(jī)器翻譯C、文本分類D、問答系統(tǒng)答案:B286.下列哪個(gè)是CNN網(wǎng)絡(luò)的超參數(shù)。A、權(quán)重B、偏置C、激活函數(shù)D、學(xué)習(xí)率答案:D287.下列哪個(gè)不是激活函數(shù)()。A、sigmodB、reluC、tanhD、hidden答案:D288.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核答案:D289.給定一個(gè)長度為n的不完整單詞序列,我們希望預(yù)測下一個(gè)字母是什么。比如輸入是“predictio”(9個(gè)字母組成),希望預(yù)測第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A290.圖像識(shí)別主要是以()為基礎(chǔ)的A、元素B、像素C、特征D、部件答案:C291.LSTM是一種什么網(wǎng)絡(luò)?A、卷積神經(jīng)網(wǎng)B、前饋神經(jīng)網(wǎng)C、循環(huán)神經(jīng)網(wǎng)D、孿生網(wǎng)絡(luò)答案:C292.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時(shí)間會(huì)變?yōu)槎嗌??()A、少于2sB、大于2sC、仍是4sD、說不準(zhǔn)答案:C293.一張RGB彩色圖片存儲(chǔ)在計(jì)算機(jī)中通常不含以下哪一項(xiàng):A、黃色通道B、藍(lán)色通道C、綠色通道D、紅色通道答案:A294.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減小,我們常用以下哪種方法最小化損失函數(shù)A、梯度下降B、DropoutC、交叉驗(yàn)證D、正則化答案:A295."df.csv"是一個(gè)在當(dāng)前ipynb文件根目錄下的csv表格,該文件具有3列數(shù)據(jù),讀取過程中為避免將第一行數(shù)據(jù)讀取為dataframe的column名,應(yīng)采取以下哪種語句讀入()A、df=pandas.read_csv('df.csv')B、df=pandas.read_csv('df.csv',header=None)C、df=pandas.read_csv('df.csv')D、df=pandas.read_excel('df.csv',header=None)答案:B296.深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入:A、特征值B、標(biāo)簽C、特征值和標(biāo)簽D、預(yù)測值答案:C297.用搜索法對問題求解時(shí),一個(gè)問題可以形式化地定義為四個(gè)組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測試和()A、功率B、路徑代價(jià)C、算法D、完備性答案:B298.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說法,正確的是()A、隨機(jī)森林只能用于解決分類問題B、集成學(xué)習(xí)通過構(gòu)建多個(gè)模型,并將各個(gè)模型的結(jié)果使用求平均數(shù)的方法集成起來,作為最終的預(yù)測結(jié)果,提高分類問題的準(zhǔn)確率C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹組成D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的答案:B299.以下方法屬于無監(jiān)督學(xué)習(xí)的是?()A、LogisticRegressionB、SVMC、DBSCAND、DecisionTree答案:C300.以下哪個(gè)模型屬于生成模型()()A、支持向量機(jī)B、邏輯回歸C、DNND、樸素貝葉斯答案:D多選題1.下述網(wǎng)絡(luò)屬于數(shù)據(jù)挖掘領(lǐng)域中神經(jīng)網(wǎng)絡(luò)的是()。A、前向神經(jīng)網(wǎng)絡(luò)B、反饋神經(jīng)網(wǎng)絡(luò)C、自組織神經(jīng)網(wǎng)絡(luò)D、生物神經(jīng)網(wǎng)絡(luò)答案:ABC2.回歸分析中估計(jì)回歸參數(shù)的方法主要有()A、相關(guān)系數(shù)法B、方差分析法C、最小二乘法D、極大似然法E、E.矩估計(jì)法答案:CDE3.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層答案:CD4.人工智能研究中主要有()三大基本思想或三個(gè)基本途徑。A、符號(hào)主義B、機(jī)會(huì)主義C、行為主義D、聯(lián)接主義。答案:ACD5.數(shù)據(jù)分析的三個(gè)基本類型是()A、描述性分析B、流動(dòng)性分析C、預(yù)測性分析D、規(guī)范性分析E、范圍性分析答案:ACD6.下列關(guān)于PCA說法正確的是?A、在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B、應(yīng)該選擇具有最大方差的主成分C、應(yīng)該選擇具有最小方差的主成分D、可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD7.關(guān)于聚類的描述正確的是()。A、聚類是一種非監(jiān)督式學(xué)習(xí)B、聚類是一種監(jiān)督式學(xué)習(xí)C、使用的數(shù)據(jù)不需要包含類別卷標(biāo)D、使用的數(shù)據(jù)需要包含類別卷標(biāo)答案:AC8.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、全連接層B、輸入層C、池化層D、卷積層答案:ACD9.利用one-hot表示一個(gè)向量,使用一個(gè)詞表長的向量表示一個(gè)單詞,被表示單詞對應(yīng)的位置為(),其他單詞對應(yīng)的位置均為()A、1B、0C、-1D、2答案:AB10.大規(guī)模自監(jiān)督預(yù)訓(xùn)練方法目前存在()等局限性。A、需要大規(guī)模算力和海量數(shù)據(jù)資源支持B、需要研究人員對相關(guān)研究領(lǐng)域的數(shù)據(jù)有深刻理解C、大規(guī)模預(yù)訓(xùn)練模型存在隱私數(shù)據(jù)的提取問題D、大規(guī)模預(yù)訓(xùn)練語言模型在深層次的語言理解方面存在差距答案:ABCD11.人工智能平臺(tái)樣本分類為()、()、()、()。A、圖像B、視頻C、語音D、文本答案:ABCD12.百度負(fù)荷預(yù)測產(chǎn)品框架中需要對數(shù)據(jù)進(jìn)行哪些處理?A、數(shù)據(jù)融合B、數(shù)據(jù)降噪C、數(shù)據(jù)變換D、缺失/異常處理答案:ABCD13.常見的數(shù)據(jù)增強(qiáng)方式有()A、對顏色的數(shù)據(jù)增強(qiáng)B、添加噪聲(高斯噪聲)C、水平垂直翻轉(zhuǎn)D、隨機(jī)旋轉(zhuǎn)、裁剪答案:ABCD14.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:BD15.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。