nnxy深度學(xué)習(xí)練習(xí)測試卷_第1頁
nnxy深度學(xué)習(xí)練習(xí)測試卷_第2頁
nnxy深度學(xué)習(xí)練習(xí)測試卷_第3頁
nnxy深度學(xué)習(xí)練習(xí)測試卷_第4頁
nnxy深度學(xué)習(xí)練習(xí)測試卷_第5頁
已閱讀5頁,還剩50頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第頁nnxy深度學(xué)習(xí)練習(xí)測試卷1.【單選】

當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留嗎()A、否B、是C、不知道D、看情況【正確答案】:B2.【單選】

在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、否B、是C、不確定【正確答案】:B3.【單選】

濾波是信號(hào)和圖像處理中的一種基本操作,濾波可去除圖像中的噪聲,提取有用的視覺特征,對圖像重新采樣等等,低通濾波能夠使圖像更加模糊或更加平滑,可以利用低通濾波消除噪聲,請補(bǔ)全下面使用尺寸為5*5且anchor為核中心的低通濾波器的相關(guān)代碼importcv2if__name__=="__main__":images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_COLOR)Low_pass_filter=____________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Result",Low_pass_filter)cv2.waitKey(5*1000)A、cv2.GaussianBlur(images,(5,5),sigmaX=1.5,sigmaY=1.5)B、:A、B均不可以C、:A、B任意一種都可以D、cv2.blur(images,(5,5))【正確答案】:D4.【單選】

腐蝕運(yùn)算滿足交換律和結(jié)合律?!备g”改為”膨脹”A、不確定B、是C、否【正確答案】:B5.【單選】

卷積神經(jīng)網(wǎng)絡(luò)中,引入BatchNormal機(jī)制的好處是()?A、以上所有B、防止過擬合C、防止梯度爆炸D、提升模型訓(xùn)練速度【正確答案】:A6.【單選】

基于Python的OpenCV讀取RGB圖像時(shí)返回的對象是()A、List對象B、Tuple對象C、numpy.ndarray對象D、Mat對象【正確答案】:C7.【單選】

負(fù)對數(shù)似然度損失函數(shù)和歐式距離損失函數(shù)都是用于計(jì)算像素區(qū)域的修復(fù)A、不確定B、是C、否【正確答案】:B8.【單選】

基于深度學(xué)習(xí)的圖像識(shí)別過程中,卷積層的作用是什么()?A、把圖片變?yōu)榛叶菳、提高圖片的分辨率C、降低圖片的分辨率D、提取圖片的特征【正確答案】:D9.【單選】

在對視頻幀處理完之后可以利用VideoWriter對視頻處理的結(jié)果進(jìn)行保存,現(xiàn)在要求視頻以MP4格式保存,幀率為20每秒幀,并且視頻幀的尺寸要求是640*480,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#視頻存儲(chǔ)cap=cv2.VideoCapture(0)#打開攝像頭cap.set(cv2.CAP_PROP_FRAME_WIDTH,640)#設(shè)置讀出視頻幀的寬度cap.set(cv2.CAP_PROP_FRAME_HEIGHT,480)#設(shè)置讀出視頻幀的高度_________________________________#定義視頻保存的格式視頻保存的尺寸、幀率whilecap.isOpened():#當(dāng)攝像頭打開的時(shí)候ret,frame=cap.read()#讀取當(dāng)前攝像頭的畫面frame=cv2.flip(frame,1)#對視頻幀進(jìn)行處理:左右反轉(zhuǎn)writer.write(frame)#將視頻幀的處理結(jié)果保存到MP4文件中cv2.imshow('img',frame)#將畫面顯示在名為img的窗口畫布上ifcv2.waitKey(1)==ord('q'):#等待1毫秒,如果在等待的時(shí)候接收到按q鍵操作break#退出循環(huán)cv2.destroyAllWindows()#關(guān)閉所有窗口cap.release()#釋放攝像頭writer.release()#釋放視頻寫入實(shí)例A、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',fourcc,20.0,(480,640))B、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',20.0,fourcc,(640,480))C、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',fourcc,20.0,(640,480))D、fourcc=cv2.VideoWriter_fourcc('m','p','4','v')writer=cv2.VideoWriter('./images/video.mp4',20.0,fourcc,(480,640))【正確答案】:C10.【單選】

下列哪一項(xiàng)不是常用的優(yōu)化函數(shù)()?AdamB、以上所有C、AdaGradD、MBGD【正確答案】:B11.【單選】

輸入圖像已被轉(zhuǎn)換為大小為28×28的矩陣和大小為7×7的步幅為1的核心/濾波器。卷積矩陣的大小是多少?A、22*22B、21*21C、7*7D、28*28【正確答案】:A12.【單選】

以下檢測算法,屬于兩階段目標(biāo)檢測算法是哪個(gè)()?A、RCNNB、以上都是C、FasterRCNND、FastRCNN【正確答案】:B13.【單選】

在只有少量數(shù)據(jù)解決某個(gè)問題時(shí),假如你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),可以用下面哪種方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A、對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用B、只對最后幾層進(jìn)行調(diào)參(finetune)C、對新數(shù)據(jù)重新訓(xùn)練整個(gè)模型D、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層【正確答案】:B14.【單選】

神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片語義分割時(shí),先用CNN處理輸入,再用反CNN得到輸出A、否B、是C、不確定【正確答案】:B15.【單選】

一般來說,L1正則化可產(chǎn)生比L2正則化更稀疏的解A、是B、不確定C、否【正確答案】:A16.【單選】

闡述目標(biāo)檢測中非極大值抑制(NonMaximumSuppression-NMS)的步驟()1.對所有預(yù)測框的置信度降序排序2.周而復(fù)始,直到?jīng)]有剩下的為止3.根據(jù)計(jì)算的IOU去除重疊度高的,IOU>threshold閾值就刪除4.選出置信度最高的預(yù)測框,確認(rèn)其為正確預(yù)測,并計(jì)算他與其他預(yù)測框的IOUA、3,2,1,4B、2,3,4,1C、1,2,3,4D、1,4,3,2【正確答案】:D17.【單選】

透視變換是將一幅圖像從一個(gè)平面投影到另一個(gè)平面,相較于仿射變換來說,透視變換的輸出圖像中,盡管其依舊可保持原圖像中的直線不產(chǎn)生變形,但是輸入圖像中的平行線可能不再平行,不平行的線也可能會(huì)變平行。利用透視變換將像素[[50,0],[0,50],[50,100],[200,210]]映射到[[0,0],[50,0],[0,50],[100,100]]。請完成透視變換到代碼importcv2importnumpyasnpif__name__=="__main__":#圖像透視變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)rows=images.shape[0]cols=images.shape[1]#定義透視變換矩陣ori_position=_________________________________________target_position=_______________________________________perspective_transform_mat=_____________________________#透視變換perspective_transform_result=______________________________________cv2.imshow("ImageRead",images)cv2.imshow("Perspectivetransformresult",perspective_transform_result)cv2.waitKey(0)A、np.float32([[0,0],[50,0],[0,50],[100,100]])np.float32([[50,0],[0,50],[50,100],[200,210]])cv2.getPerspectiveTransform(ori_position,target_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))B、np.float32([[50,0],[0,50],[50,100],[200,210]])np.float32([[0,0],[50,0],[0,50],[100,100]])cv2.getPerspectiveTransform(target_position,ori_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))C、np.float32([[50,0],[0,50],[50,100],[200,210]])np.float32([[0,0],[50,0],[0,50],[100,100]])cv2.getPerspectiveTransform(ori_position,target_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))D、np.float32([[0,0],[50,0],[0,50],[100,100]])np.float32([[50,0],[0,50],[50,100],[200,210]])cv2.getPerspectiveTransform(target_position,ori_position)cv2.warpPerspective(images,perspective_transform_mat,(cols,rows))【正確答案】:C18.【單選】

現(xiàn)在人們在研究如何用深度學(xué)習(xí)來解決圖片修復(fù)的問題。對于這個(gè)問題,哪種損失函數(shù)適用于計(jì)算像素區(qū)域的修復(fù)?A、歐式距離損失函數(shù)(Euclideanloss)B、兩種方法均不可C、兩種方法皆可D、負(fù)對數(shù)似然度損失函數(shù)(Negative-logLikelihoodloss)【正確答案】:C19.【單選】

Canny邊緣檢測算法可以分為以下5個(gè)步驟:1)、使用高斯濾波器,以平滑圖像,濾除噪聲。2)、計(jì)算圖像中每個(gè)像素點(diǎn)的梯度強(qiáng)度和方向。3)、應(yīng)用非極大值(Non-MaximumSuppression)抑制,以消除邊緣檢測帶來的雜散響應(yīng)。4)、應(yīng)用雙閾值(Double-Threshold)檢測來確定真實(shí)的和潛在的邊緣。5)、通過抑制孤立的弱邊緣最終完成邊緣檢測。請完成以下利用最大、最小閾值分別是60,180且基于L1范式的canny算子進(jìn)行邊緣檢測的代碼importcv2importnumpyasnpif__name__=="__main__":#Canny算法images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_GRAYSCALE)canny_result=___________________________________#繪制結(jié)果cv2.imshow("img",images)cv2.imshow("Cannyresult",canny_result)cv2.waitKey(0)A、cv2.Canny(images,60,180)B、cv2.Canny(images,180,60)C、cv2.Canny(images,60,180,L2gradient=True)D、:A、C均可【正確答案】:A20.【單選】

對于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、多層感知機(jī)C、感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)【正確答案】:D21.【單選】

在深度學(xué)習(xí)中往往會(huì)遇到模型過擬合問題,解決過擬合問題的重要途經(jīng)是增加有效樣本的數(shù)量,而數(shù)據(jù)增強(qiáng)則是利用各種數(shù)據(jù)處理技術(shù)增加樣本的多樣性,其中調(diào)節(jié)樣本的對比度通常較為有效的手段之一,請補(bǔ)充完整下面的代碼利用線性變換進(jìn)行對比度增強(qiáng)importcv2importnumpyasnpnp.set_printoptions(threshold=np.inf)if__name__=="__main__":images=cv2.imread("./images/tree.png",cv2.IMREAD_COLOR)alpha=2beta=40contract_result=___________________________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Result",contract_result)cv2.waitKey(5*1000)A、cv2.convertScaleAbs(images,alpha=alpha,beta=beta)B、:A、C都可以C、np.clip(images.astype(32)*alpha+beta,0,255)D、np.clip(images.astype(32)*alpha+beta,0,255).astype(np.uint8)【正確答案】:B22.【單選】

迭代閾值分割是一種常見的基于全局的閾值分割方法,其步驟為()1.根據(jù)閾值TK將圖象分割為前景和背景,計(jì)算小于T0所有灰度的均值Mean(O),和大于T0的所有灰度的均值Mean(B)2.若TK==TK+1,則所得即為閾值;否則轉(zhuǎn)2,迭代計(jì)算3.求出新閾值TK+1=(Mean(O)+Mean(B))/24.統(tǒng)計(jì)圖像灰度直方圖,求出圖象的最大灰度值和最小灰度值,分別記為Zmax和Zmin,令初始閾值T0=(Zmax+Zmin)/2A、1,2,3,4B、4,1,3,2C、1,3,2,4D、4,3,2,1【正確答案】:B23.【單選】

線性低通濾波器通過使用鄰域內(nèi)的像素均值進(jìn)行圖像平滑處理,從而消除圖像中的噪音,但是這種方法沒有考慮鄰域像素的位置信息,高斯濾波是使用加權(quán)平均的思想,即較近像素比較遠(yuǎn)像素具有更大權(quán)重,從而獲得更好的平滑效果,請完成以下利用5*5的高斯核,標(biāo)準(zhǔn)差為1.5的高斯低通濾波器的代碼importcv2if__name__=="__main__":images=cv2.imread("./images/lena30.jpg",cv2.IMREAD_COLOR)gaussian_filter=_________________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Gaussian",gaussian_filter)cv2.waitKey(5*1000)A、:A、B均不可以B、cv2.blur(images,(5,5))C、:A、B任意一種都可以D、cv2.GaussianBlur(images,(5,5),sigmaX=1.5,sigmaY=1.5)【正確答案】:D24.【單選】

圖像與灰度直方圖間的對應(yīng)關(guān)系是()A、一對多B、都不對C、一一對應(yīng)D、多對一【正確答案】:D25.【單選】

與普通反向傳播不同的是,隨時(shí)間的反向傳播算法會(huì)在每個(gè)時(shí)間步長內(nèi)疊加所有對應(yīng)權(quán)重的梯度A、不確定B、否C、是【正確答案】:C26.【單選】

2016年,YaniIoannou在DeepRoots:ImprovingCNNEfficiencywithHierarchicalFilterGroups這篇論文中提出了分組卷積(GroupConvolution)的卷積運(yùn)算方式,該卷積運(yùn)算改變了傳統(tǒng)卷積與每一個(gè)通道中特征圖進(jìn)行卷積運(yùn)算發(fā)方式,其卷積計(jì)算方式如下所示,請計(jì)算該卷積運(yùn)算中卷積核參數(shù)量計(jì)算方式A、kernel_size*kernel_size*c1*c2B、kernel_size*kernel_size*(c1/g)*(c2/g)*gC、kernel_size*kernel_size*c1/g1*1*c1*c2D、kernel_size*kernel_size*c1【正確答案】:B27.【單選】

在CNN中使用1×1卷積時(shí),下列哪一項(xiàng)是正確的?A、它可以幫助降低維數(shù)B、可以用于特征池C、所有上述D、由于小的內(nèi)核大小,它會(huì)減少過擬合【正確答案】:C28.【單選】

廣義上講,圖像分割是把圖像分成互不重疊而又各具特性的()。A、主區(qū)域B、子區(qū)域C、寬區(qū)域D、窄區(qū)域【正確答案】:B29.【單選】

如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂B、不好說C、神經(jīng)網(wǎng)絡(luò)會(huì)收斂D、都不對【正確答案】:A30.【單選】

前饋神經(jīng)網(wǎng)絡(luò)的隱藏單元必須在所有的輸入點(diǎn)都可微A、不確定B、是C、否【正確答案】:C31.【單選】

AlexNet模型主要包含()個(gè)卷積層,()個(gè)全連接層,有()個(gè)卷積層采用了最大重疊池化A、5,3,3B、8,3,3C、10,2,3D、8,2,3【正確答案】:A32.【單選】

基于學(xué)習(xí)的視覺,是指以機(jī)器學(xué)習(xí)為主要技術(shù)手段的計(jì)算機(jī)視覺研究,其主要包含_________和_________。A、流形學(xué)習(xí)(ManifoldLearning)和強(qiáng)化學(xué)習(xí)(ReinforcementLearning)B、深度學(xué)習(xí)(DeepLearning)和強(qiáng)化學(xué)習(xí)(ReinforcementLearning)C、流形學(xué)習(xí)(ManifoldLearning)和深度學(xué)習(xí)(DeepLearning)D、深度學(xué)習(xí)(DeepLearning)和遷移學(xué)習(xí)(Transferlearning)【正確答案】:C33.【單選】

2014年,Google提出了GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型,該模型使用多尺度卷積提取不同尺度的特征,該模型提出是為了應(yīng)對什么問題A、以上都是B、網(wǎng)絡(luò)越深,容易出現(xiàn)梯度彌散問題(梯度越往后穿越容易消失),難以優(yōu)化模型C、參數(shù)太多,如果訓(xùn)練數(shù)據(jù)集有限,很容易產(chǎn)生過擬合D、網(wǎng)絡(luò)越大、參數(shù)越多,計(jì)算復(fù)雜度越大,難以應(yīng)用【正確答案】:A34.【單選】

神經(jīng)網(wǎng)絡(luò)中的死神經(jīng)元(deadunit)是什么?A、在訓(xùn)練任何其它相鄰單元時(shí),不會(huì)更新的單元B、沒有完全響應(yīng)任何訓(xùn)練模式的單元C、以上均不符合D、產(chǎn)生最大平方誤差的單元【正確答案】:A35.【單選】

CNN采用最大池化能夠產(chǎn)生一定程度上的平移不變性A、否B、是C、不確定【正確答案】:B36.【單選】

計(jì)算機(jī)視覺經(jīng)歷了4個(gè)主要?dú)v程。即:_________、_________、_________和_________。A、主動(dòng)和目的視覺、馬爾計(jì)算視覺、基于學(xué)習(xí)的視覺、多視幾何與分層三維重建B、多視幾何與分層三維重建、基于學(xué)習(xí)的視覺、主動(dòng)和目的視覺、馬爾計(jì)算視覺C、馬爾計(jì)算視覺、基于學(xué)習(xí)的視覺、主動(dòng)和目的視覺、多視幾何與分層三維重建D、馬爾計(jì)算視覺、主動(dòng)和目的視覺、多視幾何與分層三維重建和基于學(xué)習(xí)的視覺【正確答案】:D37.【單選】

中值濾波是計(jì)算當(dāng)前像素與其鄰域內(nèi)像素所組成的集合中的中間值,并利用該中間值替換當(dāng)前像素位置上的像素值,因此中值濾波是一種非線性的濾波器,他對鹽噪聲具有較好的效果(如下圖所示),請完善以下利用5*5的鄰域進(jìn)行中值濾波的相關(guān)代碼importcv2importnumpyasnpdefsp_noise(image,prob):'''''添加椒鹽噪聲prob:噪聲比例'''output=np.zeros(image.shape,np.uint8)thres=1-probforiinrange(image.shape[0]):forjinrange(image.shape[1]):rdn=np.random.random()ifrdn<prob:output[i][j]=0elifrdn>thres:output[i][j]=255else:output[i][j]=image[i][j]returnoutputif__name__=="__main__":images=cv2.imread("./images/lena30.jpg")sp_noise=sp_noise(images,prob=0.02)___________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.imshow("Saltandpeppernoise",sp_noise)cv2.imshow("Media",media_filter)cv2.waitKey(0)A、media_filter=cv2.medianBlur(sp_noise,ksize=(5,5))B、media_filter=cv2.medianBlur(sp_noise,ksize=5)C、cv2.medianBlur(sp_noise,ksize=5,media_filter)D、:A、B任意一種都可以【正確答案】:B38.【單選】

閉運(yùn)算與開運(yùn)算相反,其操作順序與開運(yùn)算剛好相反,即對圖像先進(jìn)行膨脹再進(jìn)行腐蝕操作。這種高級(jí)操作常被用來填充前景物體中的小洞,或者填充前景上的小黑點(diǎn)。以下是利用3*3的核對圖像連續(xù)三次閉運(yùn)算,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#形態(tài)學(xué)閉運(yùn)算images=cv2.imread("./images/j_inner.png",cv2.IMREAD_GRAYSCALE)##創(chuàng)建腐蝕和膨脹的核kernel=___________________________closing_result=______________________________cv2.imshow("ImageRead",images)cv2.imshow("Closingresult",closing_result)cv2.waitKey(0)A、np.ones((3,3),np.uint8)cv2.morphologyEx(images,op=cv2.MORPH_CLOSE,kernel=kernel,iterations=3)B、np.ones((3,3),np.uint8)cv2.morphologyEx(images,op=cv2.MORPH_OPEN,kernel=kernel,iterations=3)【正確答案】:A39.【單選】

BP算法僅適用于多層前饋神經(jīng)網(wǎng)絡(luò)A、不確定B、否C、是【正確答案】:B40.【單選】

在CNN,擁有最大池化總是減少參數(shù)A、是B、不確定C、否【正確答案】:C41.【單選】

傅里葉變換得到的頻譜中,低頻系數(shù)對應(yīng)于()。A、噪音B、變化平緩部分C、變化劇烈部分D、物體邊緣【正確答案】:B42.【單選】

在基于深度學(xué)習(xí)的模型中,池化層的作用是什么()?A、以上所有B、保留不變性C、擴(kuò)大感受野D、降低特征圖的分辨率【正確答案】:A43.【單選】

用什么范圍可以表示顏色的明暗程度,RGB分別代表什么顏色()?A、范圍:0-255;RGB:紅,綠,藍(lán)B、范圍:-255-255;RGB:紅,綠,藍(lán)C、范圍:0-255;RGB:藍(lán),綠,紅D、范圍:1-256;RGB:黃,綠,藍(lán)【正確答案】:A44.【單選】

圖像可以表示成一個(gè)“行數(shù)*列數(shù)”的矩陣,矩陣中的小格子是()?格子的行數(shù)和列數(shù)統(tǒng)稱為()?A、像素,大小B、像素,分辨率C、顏色,分辨率D、灰度,清晰度【正確答案】:B45.【單選】

Dropout率為保留一個(gè)神經(jīng)元為激活狀態(tài)的概率,Dropout率和正則化有什么關(guān)系?A、不確定B、Dropout率越高,正則化程度越低C、Dropout率越高,正則化程度越高Dropout率越低,正則化程度越高【正確答案】:B46.【單選】

視知覺是一種較高層次的功能,它將外部刺激轉(zhuǎn)化為有意義的外在世界空間的表象,關(guān)于視知覺說法錯(cuò)誤的是()?A、視知覺對接收的刺激進(jìn)行組織加工,構(gòu)成具有一定形狀整體,借此認(rèn)識(shí)外在世界中的物體目標(biāo)B、視知覺的定義最早是由阿基米德提出C、視知覺主要論述接收外部刺激之后如何反應(yīng)以及所采用的方式D、視知覺的任務(wù)是確定“什么東西在什么地方”【正確答案】:B47.【單選】

VGG卷積神經(jīng)網(wǎng)絡(luò)相對于AlexNet來說,在訓(xùn)練模型的時(shí)候使用了多尺度訓(xùn)練的方式,下列關(guān)于多尺度訓(xùn)練的描述正確的是A、

A,CB、尺度放縮因子非固定,每次迭代在[256,512]中任取一值C、將原始圖像按照取得縮放因子進(jìn)行等比例縮放,然后在縮放后的圖像上裁剪224*224的區(qū)域D、將原始圖像按照取得縮放因子進(jìn)行非等比例縮放,然后在縮放后的圖像上裁剪224*224的區(qū)域【正確答案】:A48.【單選】

深度可分離卷積相對于傳統(tǒng)的卷積運(yùn)算具有一定的優(yōu)勢,其主要集中在那些方面?A、計(jì)算量相對更少B、參數(shù)量減少了C、對計(jì)算資源要求更低D、以上所有【正確答案】:D49.【單選】

1989年,法國的YannLeCun將_______算法應(yīng)用于Fukushima的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。之后LeCun發(fā)布了_______,該網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)早期最經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)之一。A、反向傳播(Backpropagation)、AlexNetB、隨機(jī)梯度下降(StochasticGradientDescent)、LeNet-5C、反向傳播(Backpropagation)、LeNet-5D、隨機(jī)梯度下降(StochasticGradientDescent)、MLP【正確答案】:C50.【單選】

圖像旋轉(zhuǎn)而產(chǎn)生的圖像空穴問題通過哪些方式可以解決()A、插值法B、平移法C、尺度變換法D、以上都不是【正確答案】:A51.【單選】

假設(shè)在訓(xùn)練中我們突然遇到了一個(gè)問題,在幾次循環(huán)之后,誤差瞬間降低你認(rèn)為數(shù)據(jù)有問題,于是你繪制出了數(shù)據(jù)分布并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個(gè)問題。你打算怎么做來處理這個(gè)問題?A、都不對B、對數(shù)據(jù)作主成分分析(PCA)和歸一化C、對數(shù)據(jù)作歸一化D、對數(shù)據(jù)取對數(shù)變化【正確答案】:B52.【單選】

平移變換通俗的講就是將圖像中的所有像素點(diǎn)按照給定的平移量進(jìn)行水平(x方向)或垂直(y方向)移動(dòng),現(xiàn)在需要將原始圖像向右下角平移20個(gè)像素,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#平移變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)#定義平移矩陣translation_mat=___________________________________#translation_result=________________________________cv2.imshow("ImageRead",images)cv2.imshow("Translationresult",translation_result)cv2.waitKey(0)A、np.array([[0,0,20],[1,1,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))B、np.array([[1,1,20],[0,0,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))C、np.array([[1,0,20],[0,1,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))D、np.array([[0,1,20],[1,0,20]],dtype=np.float32)cv2.warpAffine(images,translation_mat,(images.shape[1],images.shape[0]))【正確答案】:C53.【單選】

如何使用配置python中使用opencv的環(huán)境()1、利用Anaconda中的conda命令condainstallopencv安裝,2、利用pythonpip命令pipinstallopencv-python安裝,3、下載opencv安裝包,離線編譯安裝、A、以上都可以B、1C、2D、1、2【正確答案】:A54.【單選】

()算子具有高通濾波的作用。A、方向平滑B、中值濾波C、PrewittD、高斯濾波器【正確答案】:C55.【單選】

深度卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的作用是()?A、引入非線性映射B、降低特征圖的分辨率C、防止過擬合D、提升模型訓(xùn)練速度【正確答案】:A56.【單選】

下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度,與參數(shù)數(shù)量(特征核的數(shù)量)的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)特定閾值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?A、以上都不正確B、當(dāng)卷積核數(shù)量增加時(shí),導(dǎo)致過擬合C、即使增加卷積核的數(shù)量,只有少部分的核會(huì)被用作預(yù)測D、當(dāng)卷積核數(shù)量增加時(shí),神經(jīng)網(wǎng)絡(luò)的預(yù)測能力(Power)會(huì)降低【正確答案】:B57.【單選】

深度學(xué)習(xí)是一種特殊的表示學(xué)習(xí)方法A、是B、不確定C、否【正確答案】:A58.【單選】

下圖是一個(gè)利用sigmoid函數(shù)作為激活函數(shù)的含四個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)訓(xùn)練的梯度圖。這個(gè)神經(jīng)網(wǎng)絡(luò)遇到了梯度消失的問題。下面哪個(gè)敘述是正確的?A、第一隱藏層對應(yīng)A,第二隱藏層對應(yīng)C,第三隱藏層對應(yīng)B,第四隱藏層對應(yīng)DB、第一隱藏層對應(yīng)A,第二隱藏層對應(yīng)B,第三隱藏層對應(yīng)C,第四隱藏層對應(yīng)DC、第一隱藏層對應(yīng)D,第二隱藏層對應(yīng)C,第三隱藏層對應(yīng)B,第四隱藏層對應(yīng)AD、第一隱藏層對應(yīng)B,第二隱藏層對應(yīng)D,第三隱藏層對應(yīng)C,第四隱藏層對應(yīng)A【正確答案】:C59.【單選】

下列關(guān)于YOLOV4創(chuàng)新性的描述正確的是A、在新網(wǎng)絡(luò)結(jié)構(gòu)中加入CBM模塊、CSPX、SPP等新型模塊,并加入Dropblock機(jī)制B、以上均正確C、FPN+PAN進(jìn)行過多尺度目標(biāo)檢測D、損失函數(shù)使用CIOU_Loss,預(yù)測框篩選的NMS變?yōu)镈IOU_NMS【正確答案】:B60.【單選】

基于Python的OpenCV讀取RGB圖像,我們可以獲取圖像的那些信息()A、以上所有B、圖像像素的數(shù)據(jù)類型C、像素的最大值、最小值D、圖像的尺寸【正確答案】:A61.【單選】

2015年,RossB。Girshick在之前的基礎(chǔ)之上對模型的進(jìn)行了優(yōu)化,提出了FastRCNN,該模型提出了一種ROIPooling的方法,降低了模型對輸入圖像尺寸的依賴,并企鵝實(shí)現(xiàn)了端到端的目標(biāo)檢測ROIPooling的運(yùn)行方式是1.利用selectivesearch方法在輸入圖像中提取2000個(gè)regionproposals2.原始圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取特征3.將原始圖像中的regionproposal映射到卷積特征圖上4.利用ROIPooling將regionproposal特征子區(qū)域下采樣到統(tǒng)一尺寸,之后提取特征5.利用CNN模型進(jìn)行目標(biāo)識(shí)別和Bbox回歸,使用NMS非極大值抑制去除IOU值較大冗余regionproposalsA、2,1,3,4,5B、1,3,2,4,5C、1,2,3,4,5D、2,1,4,3,5【正確答案】:C62.【單選】

如果我們希望預(yù)測n個(gè)類(p1,p2,...,pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、SigmoidB、ReLuC、TanhD、Softmax【正確答案】:D63.【單選】

假設(shè)一個(gè)二分類問題,現(xiàn)在采用一個(gè)大于0.5的閾值,那么關(guān)于模型的說法正確的是()A、召回率降低或不變B、分類準(zhǔn)確率降低C、召回率升高D、分類準(zhǔn)確率升高或不變【正確答案】:D64.【單選】

增加卷積核的大小對于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎?A、否B、沒聽說過C、不知道D、是【正確答案】:A65.【單選】

深度學(xué)習(xí)與機(jī)器學(xué)習(xí)算法之間的區(qū)別在于,后者過程中無需進(jìn)行特征提取工作,也就是說,我們建議在進(jìn)行深度學(xué)習(xí)過程之前要首先完成特征提取的工作。A、否B、不確定C、是【正確答案】:A66.【單選】

彩色圖像中,每個(gè)像素點(diǎn)用()表示色彩值A(chǔ)、二個(gè)值B、四個(gè)值C、三個(gè)值D、一個(gè)值【正確答案】:C67.【單選】

在神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)可以有不同的學(xué)習(xí)率A、是B、否C、不確定【正確答案】:A68.【單選】

下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題?1增加更多的數(shù)據(jù)2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3使用歸納性更好的架構(gòu)4正規(guī)化數(shù)據(jù)5降低架構(gòu)的復(fù)雜度A、1,3,4,5B、1,2,3C、1,4,5D、所有項(xiàng)目都有用【正確答案】:D69.【單選】

一般而言,L2正則化可產(chǎn)生比L1正則化更稀疏的解A、是B、不確定C、否【正確答案】:C70.【單選】

基于深度學(xué)習(xí)的圖像識(shí)別過程中,進(jìn)行特征提取需要進(jìn)行什么計(jì)算()?A、高斯核函數(shù)B、卷積計(jì)算C、梯度D、概率計(jì)算【正確答案】:B71.【單選】

與原圖根比,點(diǎn)運(yùn)算后圖像的直方圖()。A、不變B、可變C、不能確定D、更糟【正確答案】:C72.【單選】

對一幅圖像進(jìn)行傅里葉變換后,包含頻譜(也叫幅度譜)和相位譜兩部分,請問那一部分更重要?()A、幅度譜B、都不重要C、同樣重要D、相位譜【正確答案】:D73.【單選】

將Sigmoid激活函數(shù)改為ReLU,將有助于克服梯度消失的問題A、不確定B、是C、否【正確答案】:B74.【單選】

Dropout率(神經(jīng)元的激活率)越高,正則化程度越高A、否B、不確定C、是【正確答案】:A75.【單選】

以下關(guān)于基于深度學(xué)習(xí)的目標(biāo)檢測模型中的anchor描述()A、以上均正確B、anchor通過aspectratios(橫縱比)和scales(尺度)匹配不同尺度的目標(biāo)C、anchor是指預(yù)定義的框集合,其寬度和高度與數(shù)據(jù)集中對象的寬度和高度相匹配D、檢測器不預(yù)測anchor,而是為每個(gè)anchor預(yù)測一組值:a、anchor坐標(biāo)偏移(offset),b、每個(gè)類別的置信度得分。【正確答案】:A76.【單選】

邊緣檢測是將邊緣像素標(biāo)識(shí)出來的一種圖像分割技術(shù)。A、不確定B、是C、否【正確答案】:B77.【單選】

圖像裁剪是圖像處理中經(jīng)常會(huì)使用的一項(xiàng)技術(shù),它可以根據(jù)需要獲取圖像中的特定區(qū)域。以圖像中心點(diǎn)為中心,截取一個(gè)50*500的圖像區(qū)域,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#圖像裁剪images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)rows=images.shape[0]cols=images.shape[1]#對圖像進(jìn)行裁剪crop_result=________________________________________________cv2.imshow("ImageRead",images)cv2.imshow("Cropresult",crop_result)cv2.waitKey(0)A、:A、B都不可以B、images[int(rows/2)-25:int(rows/2)+25,int(cols/2)-100:int(cols/2)+100]C、:A、B都可以D、images.crop((int(rows/2)-25:int(rows/2)+25,int(cols/2)-100:int(cols/2)+100))【正確答案】:B78.【單選】

1982年_________《視覺》一書的問世,標(biāo)志著計(jì)算機(jī)視覺成為了一門獨(dú)立學(xué)科。A、DavidHubelB、TorstenWieselC、LawrenceRobertsDavidMarr【正確答案】:D79.【單選】

訓(xùn)練CNN時(shí),可以對輸入進(jìn)行旋轉(zhuǎn)、平移、縮放(增強(qiáng)數(shù)據(jù))等預(yù)處理提高模型泛化能力。A、是B、否C、不確定【正確答案】:A80.【單選】

下列哪一項(xiàng)不是常用的激活函數(shù)()A、TanhB、SigmoidC、ReluD、MSE【正確答案】:D81.【單選】

圖像分割常用數(shù)據(jù)集包含_________、_________、_________1、ImageNet,2、ADE20K,3、PASCALVOC,4、COCOA、1,2,4B、2,3,4C、1,2,3,4D、1,2,3【正確答案】:C82.【單選】

以下對基于圖像數(shù)據(jù)的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程描述正確的是()1.計(jì)算預(yù)測值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、1,2,3,4,5B、5,4,3,2,1C、3,2,1,5,4D、4,3,1,5,2【正確答案】:D83.【單選】

關(guān)于深度學(xué)習(xí)模型過擬合的描述錯(cuò)誤的是()?A、模型復(fù)雜度高或者數(shù)據(jù)集規(guī)模小是模型過擬合的兩個(gè)因素B、模型在訓(xùn)練集上、測試集上的表現(xiàn)都不好C、模型過擬合可以增加訓(xùn)練集、降低模型復(fù)雜度、添加正則化約束、添加BatchNormal層、使用dropout機(jī)制等來解決D、模型在訓(xùn)練集上的表現(xiàn)非常好,但是在測試集、驗(yàn)證集以及新數(shù)據(jù)上的表現(xiàn)很差【正確答案】:B84.【單選】

卷積神經(jīng)網(wǎng)絡(luò)的特性是什么()A、池化操作B、局部連接C、以上全部D、共享參數(shù)【正確答案】:C85.【單選】

如果增加多層感知機(jī)(MultilayerPerceptron)的隱藏層層數(shù),分類誤差便會(huì)減小。A、否B、是C、不確定【正確答案】:A86.【單選】

600萬像素的手機(jī)攝像頭拍攝的一-幅彩色圖像(在無壓縮情況下)所需存儲(chǔ)空間為()。A、1800KBB、2400萬字節(jié)C、600MBD、1800萬字節(jié)【正確答案】:D87.【單選】

_____和_____發(fā)現(xiàn)視覺處理過程總是從類似特定方向邊緣的這類簡單結(jié)構(gòu)開始,而且可視皮層是分級(jí)的包含簡單細(xì)胞核復(fù)雜細(xì)胞,為視覺神經(jīng)研究奠定了基礎(chǔ),促成了計(jì)算機(jī)視覺技術(shù)40年后的突破性發(fā)展,奠定了深度學(xué)習(xí)的核心準(zhǔn)則。A、DavidMarr和TorstenWieselB、LawrenceRoberts和DavidMarrC、DavidHubel和TorstenWieselD、LawrenceRoberts和DavidHubel【正確答案】:C88.【單選】

幾何變換是圖像處理領(lǐng)域的重要組成部分,其中縮放、平移、平移是幾何變換的基礎(chǔ)操作,請完成以下以雙三線性插值將圖像放大2倍的相關(guān)代碼importcv2importnumpyasnpif__name__=="__main__":images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)#通過指定尺寸參數(shù)dsize進(jìn)行縮放size_result=__________________________________________________#通過指定縮放因子fx、fy進(jìn)行縮放factor_result=_________________________________________________cv2.imshow("ImageRead",images)cv2.imshow("Sizeparameterresult",size_result)cv2.imshow("Factorparammeterresult",factor_result)cv2.waitKey(0)A、cv2.resize(images,dsize=(2*images.shape[0],2*images.shape[1]),interpolation=cv2.INTER_CUBIC)cv2.resize(images,None,fx=2,fy=2,interpolation=cv2.INTER_CUBIC)B、cv2.resize(images,dsize=(2*images.shape[0],2*images.shape[1]),interpolation=cv2.INTER_AREA)cv2.resize(images,None,fx=2,fy=2,interpolation=cv2.INTER_AREA)C、cv2.resize(images,dsize=(2*images.shape[0],2*images.shape[1]),interpolation=cv2.INTER_LINEAR)cv2.resize(images,None,fx=2,fy=2,interpolation=cv2.INTER_LINEAR)D、cv2.resize(images,dsize=(2*images.shape[0],2*images.shape[1]),interpolation=cv2.INTER_NEAREST)cv2.resize(images,None,fx=2,fy=2,interpolation=cv2.INTER_NEAREST)【正確答案】:A89.【單選】

數(shù)字圖像f(x,y)中,坐標(biāo)和幅值的取值范圍是()。A、非負(fù)整數(shù)集合B、實(shí)數(shù)C、非負(fù)實(shí)數(shù)D、正整數(shù)集合【正確答案】:A90.【單選】

訓(xùn)練好的模型在測試集準(zhǔn)確率100%,則在新的數(shù)據(jù)集上也會(huì)達(dá)到100%A、不確定B、否C、是【正確答案】:B91.【單選】

Laplacian算子是一種局部運(yùn)算,圖像的二值化則是一種點(diǎn)運(yùn)算。A、是B、不確定C、否【正確答案】:A92.【單選】

下列圖像邊緣檢測算子中抗噪性能最好的是:()。A、Roberts算子B、Prewitt算子C、梯度算子D、Laplacian算子【正確答案】:B93.【單選】

_______在《三維固體的機(jī)器感知》描述了從二維圖片中推導(dǎo)三維信息的過程,成為計(jì)算機(jī)視覺的前導(dǎo)之一,開創(chuàng)了理解三維場景為目的的計(jì)算機(jī)視覺研究。這個(gè)研究給世界帶來了很大啟發(fā),并且對邊緣、線條、明暗等各種特征建立了各種數(shù)據(jù)結(jié)構(gòu)和推理規(guī)則。A、TorstenWieselB、DavidMarrC、LawrenceRobertsDavidHubel【正確答案】:C94.【單選】

圖像處理中的幾何變換主要包含()1、平移,2、縮放,3、旋轉(zhuǎn),4、仿射,5、透視A、2,4,5B、1,2,3,4C、1,2,3D、1,2,3,4,5【正確答案】:D95.【單選】

多層網(wǎng)絡(luò)全部初始化為0,會(huì)使梯度為0或各層相同,相當(dāng)于淺層網(wǎng)絡(luò)A、不確定B、是C、否【正確答案】:B96.【單選】

掩膜操作可以實(shí)現(xiàn)圖像對比度的調(diào)整,使得圖像可以銳化,提高圖像對比度,請補(bǔ)充完整以下代碼importcv2importnumpyasnpif__name__=="__main__":images=cv2.imread("./images/lena.jpg",cv2.IMREAD_UNCHANGED)kernel=np.array([[0,-1,0],[-1,5,-1],[0,-1,0]])ddepth=-1result=______________________________dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",result)cv2.waitKey(5*1000)A、cv2.sepFilter2D(images,kernel,cv2.CV_8U)B、cv2.filter2D(kernel,images,cv2.CV_8U)C、cv2.filter2D(images,cv2.CV_8U,kernel)D、cv2.filter2D(cv2.CV_8U,images,kernel)【正確答案】:C97.【單選】

以下檢測算法,不屬于單階段目標(biāo)檢測算法是哪個(gè)()?A、RetinaNetB、SSDC、RCNND、YOLO【正確答案】:C98.【單選】

Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和。這就是為什么ReLU會(huì)被提出來,因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這是否意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和?A、否B、是C、不確定【正確答案】:A99.【單選】

批規(guī)范化(BatchNormalization)的好處都有啥?A、它是一種非常有效的反向傳播(BP)方法B、讓每一層的輸入的范圍都大致固定C、這些均不是D、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差【正確答案】:B100.【單選】

GAN只能用于深度神經(jīng)網(wǎng)絡(luò)A、否B、是C、不確定【正確答案】:B101.【單選】

構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有反饋連接?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、都不是C、卷積神經(jīng)網(wǎng)絡(luò)D、限制玻爾茲曼機(jī)【正確答案】:A102.【單選】

2017年,LaurentSifr提出一種全新的卷積方式-深度可分離卷積(DepthwiseSeparableConvolution),這種卷積方式將傳統(tǒng)的卷積運(yùn)算分為兩步,分別包含()和()?1.Depthwiseconvolution2.Pointwiseconvolution3.Groupconvolution4.TransposeConvolutionA、1,2B、3,4C、2,3D、1,4【正確答案】:A103.【單選】

基于Python的OpenCV讀取RGB圖像時(shí)內(nèi)存中默認(rèn)的存儲(chǔ)形式是()A、RGBB、以上任意一種都可以C、BGRD、RBG【正確答案】:C104.【單選】

2014年,Google提出了GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型中引入了Inecption模塊,在該模塊中頻繁使用1*1的卷積,引入1*1的卷積作用主要有()1.降低特征圖維度,減少后續(xù)計(jì)算量2.對上一層特征進(jìn)行線性整合,之后再利用激活函數(shù)進(jìn)行非線性映射3.降低梯度消失的風(fēng)險(xiǎn)A、1,2,3B、2C、1,2D、以上都是【正確答案】:C105.【單選】

反向傳播算法一開始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和C、各個(gè)輸入樣本的平方差之和D、都不對【正確答案】:A106.【單選】

處理圖像噪點(diǎn)的另一中當(dāng)時(shí)是形態(tài)轉(zhuǎn)換,形態(tài)學(xué)轉(zhuǎn)換中主要有兩個(gè)基本操作:腐蝕與膨脹。腐蝕通俗理解就是求局部最小值的操作,而膨脹則與之相反(如下圖所示,腐蝕圖、原圖、膨脹圖)。以下代碼是以3*3的核對圖像連續(xù)三次腐蝕和膨脹操作,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#腐蝕與膨脹images=cv2.imread("./images/j.png",cv2.IMREAD_GRAYSCALE)#創(chuàng)建腐蝕和膨脹的核kernel=_____________________________#膨脹dilation_result=_________________________________#腐蝕erosion_result=__________________________________cv2.imshow("ImageRead",images)cv2.imshow("Dilationresult",dilation_result)cv2.imshow("Erosionresult",erosion_result)cv2.waitKey(0)A、np.ones((3,3),np.uint8)cv2.erode(images,kernel,3)cv2.dilate(images,kernel,3)B、np.ones((3,3),np.uint8)cv2.erode(images,kernel,iterations=3)cv2.dilate(images,kernel,iterations=3)C、np.ones((3,3),np.uint8)cv2.dilate(images,kernel,iterations=3)cv2.erode(images,kernel,iterations=3)D、np.ones((3,3),np.uint8)cv2.dilate(images,kernel,3)cv2.erode(images,kernel,3)【正確答案】:C107.【單選】

2012年,多倫多大學(xué)的AlexKrizhevsky和GeoffreyA、1,2,3B、1,2,3,4C、1,2,4D、2,3,4E、Hinton提出的AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型獲得了ILSVRC圖像分類任務(wù)的冠軍,使研究人員重新看到了深度學(xué)習(xí)的魅力,AlexNet的創(chuàng)新性主要體現(xiàn)在以下()方面1.模型使用非線性ReLU函數(shù)2.模型加入dropout正則化3.模型使用重疊最大池化4.模型引入局部響應(yīng)歸一化(LocalResponseNormalization)【正確答案】:B108.【單選】

梯度為0的點(diǎn)不一定是局部極值A(chǔ)、否B、是C、不確定【正確答案】:B109.【單選】

下列關(guān)于轉(zhuǎn)置卷積的介紹正確的有()?A、轉(zhuǎn)置卷積(transposedconvolution)又被稱為逆卷積,其目的是對圖像進(jìn)行上采樣B、轉(zhuǎn)置卷積(transposedconvolution)首次出現(xiàn)在2018年,VincentDumoulin的Aguidetoconvolutionarithmeticfordeeplearning論文中C、以上都正確D、轉(zhuǎn)置卷積可以應(yīng)用于圖像分割和生成式對抗模型中【正確答案】:C110.【單選】

2014年,劍橋大學(xué)視覺幾何組(VisualGeometryGroup,VGG)提出了VGG模型,該模型探究了卷積神經(jīng)網(wǎng)絡(luò)模型深度與模型識(shí)別準(zhǔn)確度之間的關(guān)系,并且提出使用3*3的卷積替換AlexNet中的11*11和5*5的卷積核,該方案的好處是()A、減少卷積核參數(shù)量B、以上都是C、能夠捕獲圖像的細(xì)節(jié)特征D、較少模型的計(jì)算量【正確答案】:B111.【單選】

從本地圖片庫中讀取一張圖像,并以BGR圖像加載進(jìn)來,請?zhí)顚慽mread參數(shù)importcv2if__name__=="__main__":images=cv2.imread("./images/lena.jpg",__________)dWindow("ImageRead",cv2.WINDOW_AUTOSIZE)cv2.imshow("ImageRead",images)cv2.waitKey(5*1000)A、cv2.IMREAD_GRAYSCALEB、cv2.IMREAD_COLORC、cv2.IMREAD_UNCHANGEDD、以上均正確【正確答案】:B112.【單選】

一幅灰度級(jí)均勻分布的圖像,其灰度范圍在[0,255],則該圖像的信息量為()A、6B、0C、8D、255【正確答案】:C113.【單選】

在Canny邊緣檢測算法中,如果更改()滯后閾值,將會(huì)獲取更多非連續(xù)的邊緣?A、增加低閾值B、增加高閾值C、減少高閾值D、減少低閾值【正確答案】:A114.【單選】

2015年KaimingHe提出ResNet卷積神經(jīng)網(wǎng)絡(luò),創(chuàng)新性的提出殘差模塊,該模型主要是應(yīng)對什么問題A、深度卷積神經(jīng)網(wǎng)絡(luò)模型過擬合問題B、深度卷積神經(jīng)網(wǎng)絡(luò)模型退化問題C、深度卷積神經(jīng)網(wǎng)絡(luò)梯度消失問題D、A和B【正確答案】:B115.【單選】

灰度變換屬于()A、代數(shù)運(yùn)算B、鄰域運(yùn)算C、局部運(yùn)算D、點(diǎn)運(yùn)算【正確答案】:D116.【單選】

假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224*224*3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?A、217*217*8B、220*220*5C、218*218*5D、217*217*3【正確答案】:C117.【單選】

基于深度學(xué)習(xí)的目標(biāo)檢測模型評價(jià)指標(biāo)包含哪些()A、Precision:精確率,Recall:召回率B、AP:PR曲線下面積,mAP:meanAveragePrecision,即各類別AP的平均值C、FPS:Framespersecond,即每秒處理的圖像幀數(shù)D、以上均正確【正確答案】:D118.【單選】

下列說法正確的是()A、基于像素的圖像增強(qiáng)方法是一種線性灰度變換B、基于像素的圖像增強(qiáng)方法是基于空間域的圖像增強(qiáng)方法的一種C、基于空域的圖像增強(qiáng)主要有高通濾波、低通濾波、同態(tài)濾波D、基于頻域的圖像增強(qiáng)方法由于常用到傅里葉變換和傅里葉反變換所以總比基于空間域的方法計(jì)算復(fù)雜性高【正確答案】:B119.【單選】

RGB表示顏色時(shí),(255,255,255)是什么顏色()?A、白色B、黑色C、藍(lán)色D、紅色【正確答案】:A120.【單選】

下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B【正確答案】:D121.【單選】

下面關(guān)于FasterRCNN的改進(jìn)描述正確的是()A、:A,CB、輸入數(shù)據(jù)是固定尺寸的C、利用RegionProposalNetwork進(jìn)行候選區(qū)域生成D、產(chǎn)生RegionProposal的CNN和目標(biāo)檢測的CNN是共享參數(shù)的【正確答案】:A122.【單選】

2014年,RossB。Girshick提出了RCNN兩階段目標(biāo)檢測模型,該模型利用深度卷積神經(jīng)網(wǎng)絡(luò)提取特征,并非端到端得卷積神經(jīng)網(wǎng)絡(luò)模型,請描述該模型得檢測流程1.利用selectivesearch方法在輸入圖像中提取2000個(gè)regionproposals,并歸一化到227*2272.候選圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取特征3.利用SVM進(jìn)行分類4.使用NMS非極大值抑制去除IOU值較大冗余regionproposals,并做目標(biāo)框bbox回歸A、1,2,3,4B、2,1,3,4C、1,4,2,4D、2,1,4,3【正確答案】:A123.【單選】

在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?A、DropoutB、都可以C、分批歸一化(BatchNormalization)D、正則化(regularization)【正確答案】:B124.【單選】

仿射變換公式如下所示由公式可知放射變換由一線性變換加上一平移量構(gòu)成,當(dāng)前需要希望對原始圖像以中心點(diǎn)為原點(diǎn),旋轉(zhuǎn)45度得到新的圖片,然后再向右下平移20個(gè)像素,請完成以下代碼importcv2importnumpyasnpif__name__=="__main__":#仿射變換images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)rows=images.shape[0]cols=images.shape[1]##定義仿射變換的矩陣affine_transformation_mat=_____________________________________##對圖像仿射變換affine_transformation_result=____________________________________cv2.imshow("ImageRead",images)cv2.imshow("Cropresult",affine_transformation_result)cv2.waitKey(0)A、np.float32([[0.5,-0.5,20],[0.5,0.5,20]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))B、np.float32([[20,-0.5,0.5],[20,0.5,0.5]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))C、np.float32([[0.5,0.5,20],[0.5,-0.5,20]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))D、np.float32([[20,0.5,0.5],[20,0.5,-0.5]])cv2.warpAffine(images,affine_transformation_mat,(cols,rows))【正確答案】:A125.【單選】

對深度學(xué)習(xí)中梯度消失的描述正確的是()A、造成梯度消失的原因是過深的深度學(xué)習(xí)模型,由于梯度反向傳導(dǎo)過程中的累積問題,就出現(xiàn)了內(nèi)在本質(zhì)上的不穩(wěn)定場景,另一方面是模型激活函數(shù)不太合適B、靠近輸出層的hiddenlayer3的權(quán)值更新正常,但是靠近輸入層的hiddenlayer1的權(quán)值更新非常慢,導(dǎo)致其權(quán)值幾乎不變,仍接近于初始化的權(quán)值,這種現(xiàn)象叫做梯度小事C、使用Relu函數(shù)作為激活函數(shù)、增加BatchNormal層、使用殘差模塊等緩解梯度爆炸D、以上全部【正確答案】:D126.【單選】

欠擬合是模型不能在訓(xùn)練集上獲得足夠低的誤差,過擬合是指訓(xùn)練誤差和測試誤差差距小A、是B、否C、不確定【正確答案】:B127.【單選】

過擬合只在監(jiān)督學(xué)習(xí)中出現(xiàn),非監(jiān)督學(xué)習(xí)沒有過擬合A、否B、是C、不確定【正確答案】:A128.【單選】

對于MLP,輸入層中的節(jié)點(diǎn)數(shù)為10,隱藏層為5.從輸入層到隱藏層的最大連接數(shù)是A、超過50B、小于50C、這是一個(gè)任意值D、50【正確答案】:D129.【單選】

神經(jīng)網(wǎng)絡(luò)被稱為通用函數(shù)擬合器,所以它理論上可以表示任何決策邊界。A、不確定B、是C、否【正確答案】:B130.【單選】

下列哪些項(xiàng)目是在圖像識(shí)別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(dòng)(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、所有項(xiàng)目B、1,2,4C、1,3,5,6D、2,3,4,5,6【正確答案】:A131.【單選】

圖像中目標(biāo)的邊緣強(qiáng)度值往往具有較為劇烈的變化,所以往往這些地方處于高頻部分。邊緣檢測測試將這些高頻區(qū)域檢測出來,而高通濾波的特點(diǎn)就是保留高頻信息,過濾低頻信息,所以可以契合邊緣檢測的需求。Prewitt邊緣檢測算子利用3*3的卷積核實(shí)現(xiàn)在其鄰域內(nèi)進(jìn)行水平和垂直方向上求梯度,進(jìn)而獲取邊緣信息,其水平卷積核(左)和垂直卷積核(右)如下圖所示,現(xiàn)在利用Prewitt邊緣檢測算子進(jìn)行圖像目標(biāo)邊緣檢測,請補(bǔ)充以下代碼:importcv2importnumpyasnpif__name__=="__main__":#Prewitt算子-邊緣檢測images=cv2.imread("./images/lena.jpg",cv2.IMREAD_GRAYSCALE)#Prewitt算子定義kernelx=______________________________kernely=______________________________prewitt_x=______________________________prewitt_y=______________________________#轉(zhuǎn)uint8prewitt_x=cv2.convertScaleAbs(prewitt_x)prewitt_y=cv2.convertScaleAbs(prewitt_y)prewitt_result=cv2.addWeighted(prewitt_x,0.5,prewitt_y,0.5,0)#繪制結(jié)果cv2.imshow("ImageRead",images)cv2.imshow("absX",prewitt_x)cv2.imshow("absY",prewitt_y)cv2.imshow("Result",prewitt_result)cv2.waitKey(0)A、np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=int)np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)cv2.filter2D(images,cv2.CV_16S,kernelx)cv2.filter2D(images,cv2.CV_16S,kernely)B、np.array([[-1,0,1],[-1,0,1],[-1,0,1]],dtype=int)np.array([[1,1,1],[0,0,0],[-1,-1,-1]],dtype=in

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論