江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731形考1-5_第1頁(yè)
江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731形考1-5_第2頁(yè)
江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731形考1-5_第3頁(yè)
江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731形考1-5_第4頁(yè)
江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731形考1-5_第5頁(yè)
已閱讀5頁(yè),還剩26頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731第一次形考作業(yè)單選題1“從數(shù)據(jù)中學(xué)習(xí),?成?保真,多樣化的圖像”,描述的是下列哪?類(lèi)任務(wù)()A?臉識(shí)別B圖像?成C圖像描述D?標(biāo)跟蹤正確答案:B2在計(jì)算機(jī)視覺(jué)的淺層模型中,“特征匯聚與特征變換”的主要?的是()A采?機(jī)器學(xué)習(xí)或模式識(shí)別的?法對(duì)物體進(jìn)?分類(lèi)B對(duì)提取的特征(通常為向量)進(jìn)?統(tǒng)計(jì)匯聚或降維處理,得到新特征C從圖像中提取描述圖像內(nèi)容的特征D對(duì)圖像實(shí)現(xiàn)亮度或顏?矯正等處理正確答案:B3典型的計(jì)算機(jī)視覺(jué)淺層模型的處理流程為()A圖像預(yù)處理、特征設(shè)計(jì)與提取、特征匯聚與特征變換、分類(lèi)器與回歸器設(shè)計(jì)B圖像預(yù)處理、特征匯聚與特征變換、特征設(shè)計(jì)與提取、分類(lèi)器與回歸器設(shè)計(jì)C特征匯聚與特征變換、特征設(shè)計(jì)與提取、圖像預(yù)處理、分類(lèi)器與回歸器設(shè)計(jì)D圖像預(yù)處理、分類(lèi)器與回歸器設(shè)計(jì)、特征匯聚與特征變換、特征設(shè)計(jì)與提取正確答案:A4在PyTorch中,?動(dòng)計(jì)算某?變量的梯度需調(diào)?()A、torch.Tensor()B、.backward()C、torch.ones()D、()正確答案:B5圖像和灰度直方圖的對(duì)應(yīng)關(guān)系為()A多對(duì)一B一對(duì)一C一對(duì)多D多對(duì)多正確答案:A6相較于語(yǔ)義分割,實(shí)例分割還可以做到()A?成?本描述圖像內(nèi)容B?成?保真、多樣化的圖像C對(duì)圖?中的每個(gè)像素點(diǎn)進(jìn)?標(biāo)注,標(biāo)注屬于哪?類(lèi)別D區(qū)分同?類(lèi)的不同實(shí)例正確答案:D多選題1、下列選項(xiàng)中,可應(yīng)?于計(jì)算機(jī)視覺(jué)任務(wù)的模型有()A、決策樹(shù)B、AlexNetC、SVMD、VGG正確答案:A;B;C;D2、下列屬于深度學(xué)習(xí)框架的是()A、PyTorchB、TensorFlowC、TheanoD、Cuda正確答案:A;B;C3顏色的三要素包括:A色調(diào)(色相)B飽和度C亮度(明度)D光強(qiáng)正確答案:A;B;C4計(jì)算機(jī)視覺(jué)的主要研究?向有()A圖像?成B?標(biāo)檢測(cè)C圖像分類(lèi)D圖像描述正確答案:A;B;C;D5數(shù)字圖像的類(lèi)型包括()A?值圖像B、RGB-D深度圖像C彩?圖像D灰度圖像正確答案:A;B;C;D6下列應(yīng)?計(jì)算機(jī)視覺(jué)系統(tǒng)的場(chǎng)景有()A醫(yī)學(xué)圖像處理B?臉識(shí)別C?動(dòng)駕駛D指紋識(shí)別正確答案:A;B;C;D7、OpenCV的核?模塊imgproc能實(shí)現(xiàn)()A圖像分割B邊緣或直線(xiàn)提取C處理直?圖D形態(tài)分析正確答案:A;B;C;D簡(jiǎn)答題1簡(jiǎn)述常用計(jì)算機(jī)視覺(jué)模型及方法。答案:計(jì)算機(jī)視覺(jué)領(lǐng)域常用的模型及方法眾多,以下列舉了一些主流的技術(shù):邊緣檢測(cè)算法:如Sobel算子、Canny算子、Laplacian算子等,用于檢測(cè)圖像中的邊緣信息。特征提取算法:如SIFT(尺度不變特征變換)、SURF(加速魯棒特征)、ORB(OrientedFASTandRotatedBRIEF)等,用于提取圖像中的特征點(diǎn)或特征區(qū)域。目標(biāo)檢測(cè)和分類(lèi)算法:包括傳統(tǒng)的Haar特征、HOG特征以及基于機(jī)器學(xué)習(xí)的算法(如SVM、決策樹(shù)、隨機(jī)森林)和深度學(xué)習(xí)算法(如卷積神經(jīng)網(wǎng)絡(luò)CNN、FasterR-CNN、YOLO、SSD等)。這些算法能夠檢測(cè)圖像中的目標(biāo)并確定其類(lèi)別。圖像分割算法:如基于閾值分割、邊緣分割、區(qū)域分割等方法,以及K-means、Mean-shift、Watershed等算法,用于將圖像分割成多個(gè)區(qū)域或?qū)ο?。光流算法:如Lucas-Kanade、Horn-Schunck、Farneback、FlowNet等,用于計(jì)算圖像序列中像素的運(yùn)動(dòng)信息。三維重建算法:包括立體匹配、結(jié)構(gòu)從運(yùn)動(dòng)(SfM)、激光掃描等方法,如BundleAdjustment、SLAM等,用于從圖像或視頻中重建三維場(chǎng)景。深度學(xué)習(xí)模型:如卷積神經(jīng)網(wǎng)絡(luò)CNN、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN、自編碼器、生成對(duì)抗網(wǎng)絡(luò)GAN等,這些模型在圖像識(shí)別、分類(lèi)、分割、生成等方面具有廣泛的應(yīng)用。此外,還有物體跟蹤算法(如基于Kalman濾波、粒子濾波等方法)、圖像增強(qiáng)和去噪算法(如均值濾波、中值濾波、小波變換、稀疏表示等)等也是計(jì)算機(jī)視覺(jué)中常用的方法。2請(qǐng)簡(jiǎn)述什么是圖像銳化(sharpen)及其作用。答案:圖像銳化是一種圖像處理技術(shù),旨在通過(guò)增強(qiáng)圖像的邊緣和細(xì)節(jié)來(lái)提升圖像的清晰度。具體來(lái)說(shuō),圖像銳化技術(shù)能夠突出圖像中的重要特征,使其更加顯著,從而改善圖像的視覺(jué)質(zhì)量。在數(shù)字圖像處理、醫(yī)學(xué)圖像分析、目標(biāo)檢測(cè)、邊緣檢測(cè)等需要強(qiáng)調(diào)細(xì)節(jié)和邊緣的場(chǎng)景中,圖像銳化技術(shù)有著廣泛的應(yīng)用。然而,銳化過(guò)程也可能會(huì)增加圖像中的噪聲,特別是在低質(zhì)量圖像或銳化強(qiáng)度過(guò)高的情況下,因此需要謹(jǐn)慎調(diào)整參數(shù)以避免引入不必要的變化或效果。3圖像數(shù)字化的兩個(gè)步驟是什么?答案:圖像數(shù)字化的兩個(gè)主要步驟是采樣和量化。采樣:是將空域上連續(xù)的圖像變換成離散采樣點(diǎn)集合的過(guò)程,是對(duì)空間的離散化。經(jīng)過(guò)采樣之后得到的二維離散信號(hào)的最小單位是像素。量化:是把采樣點(diǎn)上表示亮暗信息的連續(xù)量離散化后,用數(shù)值表示出來(lái)的過(guò)程,是對(duì)亮度大小的離散化。經(jīng)過(guò)采樣和量化后,數(shù)字圖像可以用整數(shù)陣列的形式來(lái)描述。4什么是計(jì)算機(jī)視覺(jué)?答案:計(jì)算機(jī)視覺(jué)(ComputerVision,CV)是一門(mén)涉及圖像處理、圖像分析、模式識(shí)別和人工智能等多種技術(shù)的新興交叉學(xué)科。它研究如何從圖像或視頻中提取符號(hào)或數(shù)值信息,并進(jìn)行分析計(jì)算以進(jìn)行目標(biāo)的識(shí)別、檢測(cè)和跟蹤等任務(wù)。更形象地說(shuō),計(jì)算機(jī)視覺(jué)就是讓計(jì)算機(jī)像人類(lèi)一樣能看到并理解圖像。計(jì)算機(jī)視覺(jué)技術(shù)的基本原理是利用圖像傳感器獲得目標(biāo)對(duì)象的圖像信號(hào),然后傳輸給專(zhuān)用的圖像處理系統(tǒng),將像素分布、顏色、亮度等圖像信息轉(zhuǎn)換成數(shù)字信號(hào),并對(duì)這些信號(hào)進(jìn)行多種運(yùn)算與處理,提取出目標(biāo)的特征信息進(jìn)行分析和理解,最終實(shí)現(xiàn)對(duì)目標(biāo)的識(shí)別、檢測(cè)和控制等。計(jì)算機(jī)視覺(jué)是人工智能主要應(yīng)用領(lǐng)域之一,具有快速、實(shí)時(shí)、經(jīng)濟(jì)、一致、客觀(guān)、無(wú)損等特點(diǎn),能夠模擬、擴(kuò)展和延伸人類(lèi)智能,從而幫助人類(lèi)解決大規(guī)模的復(fù)雜問(wèn)題。

江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731第二次形考作業(yè)單選題1、VGGNet的參數(shù)量主要集中在()A激活層B池化層C卷積層D全連接層正確答案:D2下列關(guān)于Dropout的描述,正確的是()A通過(guò)減少卷積層和池化層的個(gè)數(shù),防?過(guò)擬合B通過(guò)減少卷積層和池化層的個(gè)數(shù),提取出局部特征C通過(guò)隨機(jī)刪除部分神經(jīng)元,提取出局部特征D通過(guò)隨機(jī)刪除部分神經(jīng)元,防?過(guò)擬合正確答案:D3卷積神經(jīng)?絡(luò)中,若使?RGB圖像作為輸?,則輸?層的通道數(shù)為()A2B、128C、256×256D、256正確答案:A4、GoogLeNet?絡(luò)額外增加了2個(gè)輔助的Softmax層作為輔助分類(lèi)器。下列關(guān)于它的描述,錯(cuò)誤的是()A輔助分類(lèi)器將中間某?層的輸出也納?到最終的分類(lèi)結(jié)果中B輔助分類(lèi)器提供了額外的正則化C輔助分類(lèi)器?于訓(xùn)練和測(cè)試階段D輔助分類(lèi)器給?絡(luò)增加了反向傳播的梯度信號(hào),?定程度解決了梯度消失的問(wèn)題正確答案:C5相較于Sigmoid和Tanh函數(shù),ReLU函數(shù)作為激活函數(shù)的特點(diǎn)是()A是線(xiàn)性函數(shù)B能夠有效緩解梯度消失的問(wèn)題C計(jì)算復(fù)雜,計(jì)算成本?昂D使模型收斂速度較慢正確答案:B多選題1數(shù)據(jù)增強(qiáng)常?的?法有()A平移變換B隨機(jī)裁剪C顏?光照變換D?平翻轉(zhuǎn)正確答案:A;B;C;D2卷積神經(jīng)?絡(luò)中,卷積過(guò)程的步驟包括()A將卷積核放在輸?數(shù)據(jù)的某?像素區(qū)域上B將乘積的結(jié)果線(xiàn)性迭加C將卷積核中的每?個(gè)數(shù)值和區(qū)域中對(duì)應(yīng)的數(shù)值成對(duì)相乘D把結(jié)果輸出在特征圖的正確位置正確答案:A;B;C;D3卷積神經(jīng)網(wǎng)絡(luò)有許多神經(jīng)層組成,主要包括()A卷積層B分類(lèi)層C歸一化層D池化層正確答案:A;D4下列關(guān)于全連接層的描述,正確的是()A經(jīng)過(guò)卷積層和池化層降維,可以降低全連接層的數(shù)據(jù)計(jì)算量,提升計(jì)算效率B全連接層通常在卷積神經(jīng)?絡(luò)隱藏層的中間部分C全連接層與上?層輸?數(shù)據(jù)之間的部分神經(jīng)元相互連接D全連接層的作?是綜合已提取的特征正確答案:A;D5圖像分類(lèi)的類(lèi)別有()A子類(lèi)細(xì)粒度分類(lèi)B實(shí)例級(jí)別分類(lèi)C多標(biāo)簽分類(lèi)D無(wú)標(biāo)簽分類(lèi)正確答案:A;B6下圖體現(xiàn)了ResNet?絡(luò)中的BottleneckDesign結(jié)構(gòu),輸?為256維的特征,下列描述正確的是()A使?BottleneckDesign結(jié)構(gòu),能夠減少?絡(luò)中的參數(shù)量B使?BottleneckDesign結(jié)構(gòu),能解決梯度消失的問(wèn)題C1×1卷積核的主要作?是,對(duì)數(shù)據(jù)進(jìn)?降維和升維的操作D圖中的?絡(luò)結(jié)構(gòu)需要的參數(shù)量為1×1×64+3×3×64+1×1×256正確答案:A;C7下列關(guān)于跨物種語(yǔ)義級(jí)別的圖像分類(lèi)的描述,正確的是()A主要?的是區(qū)分屬于不同物種或?類(lèi)的對(duì)象B主要?的是區(qū)分屬于同?個(gè)物種?類(lèi)的?類(lèi)C分類(lèi)結(jié)果呈類(lèi)間?差較?,類(lèi)內(nèi)?差較?的特點(diǎn)D分類(lèi)結(jié)果呈類(lèi)間?差較?,類(lèi)內(nèi)?差較?的特點(diǎn)正確答案:A;D8、SENet中的ChannelAttention機(jī)制包含的操作有()A、SqueezeB、ExcitationC、ShortcutConnectionD、Dropout正確答案:A;B簡(jiǎn)答題1簡(jiǎn)述圖像分類(lèi)目前面臨的困難和挑戰(zhàn)。答案:圖像分類(lèi)是計(jì)算機(jī)視覺(jué)中的一個(gè)核心任務(wù),盡管已經(jīng)取得了顯著的進(jìn)展,但仍面臨一些困難和挑戰(zhàn)。以下是目前圖像分類(lèi)面臨的主要困難和挑戰(zhàn):視角變化:同一個(gè)物體從不同角度拍攝得到的圖片會(huì)有很大差異,這增加了分類(lèi)的難度。比例變化:物體在圖片中所占的比例可能不同,這會(huì)影響分類(lèi)的準(zhǔn)確性。變形:同一個(gè)物體可能會(huì)因?yàn)樾螤畹母淖儯ㄈ鐝澢?、折疊等)而難以識(shí)別。遮擋:目標(biāo)物體有時(shí)會(huì)被其他物體遮擋,只能看到部分物體,這會(huì)影響分類(lèi)器的判斷。光照條件:光照的強(qiáng)度和方向會(huì)影響圖像的像素值,從而影響分類(lèi)結(jié)果。背景干擾:目標(biāo)物體可能混亂在背景噪聲中,使得分類(lèi)器難以準(zhǔn)確識(shí)別。對(duì)象內(nèi)部差異:一類(lèi)對(duì)象可能包含多種不同的子類(lèi)別或變體,它們之間的外觀(guān)差異可能很大,但又被歸為同一類(lèi)別,這增加了分類(lèi)的復(fù)雜性。為了應(yīng)對(duì)這些挑戰(zhàn),研究者們提出了許多方法和技術(shù),如數(shù)據(jù)增強(qiáng)、特征提取、深度學(xué)習(xí)模型的改進(jìn)等。然而,這些挑戰(zhàn)仍然是圖像分類(lèi)領(lǐng)域需要不斷研究和解決的問(wèn)題。2簡(jiǎn)述softmax層的作用,假設(shè)數(shù)據(jù)集有c個(gè)類(lèi)別,全連接層輸出為,給出其對(duì)應(yīng)softmax輸出的表示答案:Softmax層在神經(jīng)網(wǎng)絡(luò)中常用于多類(lèi)分類(lèi)問(wèn)題的輸出層。它的作用是將神經(jīng)網(wǎng)絡(luò)的輸出轉(zhuǎn)換為概率分布,使得每個(gè)輸出值代表輸入樣本屬于對(duì)應(yīng)類(lèi)別的概率。這些概率值的總和為1。假設(shè)數(shù)據(jù)集有c個(gè)類(lèi)別,全連接層輸出為z(一個(gè)長(zhǎng)度為c的向量),則softmax輸出的表示如下:對(duì)于z中的每個(gè)元素zi(表示輸入樣本屬于第i類(lèi)的原始得分或logits),softmax函數(shù)將其轉(zhuǎn)換為概率pi,計(jì)算公式為:pi=ezi∑cj=1ezj其中,ezi表示zi的指數(shù)函數(shù)值,∑cj=1ezj表示所有類(lèi)別得分的指數(shù)函數(shù)值之和。因此,softmax層的輸出是一個(gè)長(zhǎng)度為c的向量,向量中的每個(gè)元素都表示輸入樣本屬于對(duì)應(yīng)類(lèi)別的概率。3簡(jiǎn)述圖像分類(lèi)的含義。答案:圖像分類(lèi)是計(jì)算機(jī)視覺(jué)中的一個(gè)基本任務(wù),它旨在將圖像或圖像中的特定區(qū)域歸入預(yù)定義的類(lèi)別或標(biāo)簽中。通過(guò)對(duì)圖像的像素進(jìn)行分析和特征提取,圖像分類(lèi)模型能夠?qū)W習(xí)識(shí)別和區(qū)分不同物體、場(chǎng)景或圖案。簡(jiǎn)單來(lái)說(shuō),圖像分類(lèi)就是給一幅圖像賦予一個(gè)或多個(gè)標(biāo)簽,這些標(biāo)簽代表了圖像中物體的類(lèi)別或場(chǎng)景的類(lèi)型。4簡(jiǎn)述Alexnet共有幾層神經(jīng)網(wǎng)絡(luò)層,其中卷積層有多少層,全連接層有多少層。答案:AlexNet是一個(gè)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),它在圖像分類(lèi)任務(wù)中取得了顯著的成果。AlexNet共有8層神經(jīng)網(wǎng)絡(luò)層(不包括輸入層和輸出層的softmax層),其中卷積層有5層,全連接層有3層。具體來(lái)說(shuō),AlexNet的架構(gòu)如下:輸入層:接收原始圖像數(shù)據(jù)。卷積層1:使用96個(gè)11x11的卷積核,步長(zhǎng)為4,輸出特征圖。池化層1:使用3x3的最大池化,步長(zhǎng)為2。卷積層2:使用256個(gè)5x5的卷積核(兩組,每組128個(gè),分別在不同的GPU上運(yùn)行),步長(zhǎng)為1,填充為2,輸出特征圖。池化層2:使用3x3的最大池化,步長(zhǎng)為2。卷積層3:使用384個(gè)3x3的卷積核,步長(zhǎng)為1,填充為1,輸出特征圖(該層沒(méi)有池化層)。卷積層4:使用384個(gè)3x3的卷積核,步長(zhǎng)為1,填充為1,輸出特征圖(同樣沒(méi)有池化層)。卷積層5:使用256個(gè)3x3的卷積核(兩組,每組128個(gè)),步長(zhǎng)為1,填充為1,輸出特征圖。池化層3:使用3x3的最大池化,步長(zhǎng)為2。全連接層1:有4096個(gè)神經(jīng)元,與卷積層5的輸出相連。全連接層2:同樣有4096個(gè)神經(jīng)元,與全連接層1的輸出相連。輸出層(softmax層):有1000個(gè)神經(jīng)元(針對(duì)ImageNet數(shù)據(jù)集),輸出每個(gè)類(lèi)別的概率。需要注意的是,AlexNet的架構(gòu)在不同的實(shí)現(xiàn)中可能略有不同,但上述描述是AlexNet架構(gòu)的一個(gè)典型示例。

江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731第三次形考作業(yè)單選題1從理論的?度來(lái)看,檢測(cè)物體時(shí),One-stage算法和Two-stage算法的區(qū)別在于()A、One-stage算法的精度較?;Two-stage算法的效率較?,計(jì)算速度較快B、One-stage算法的計(jì)算速度和檢測(cè)精度都?于Two-stage算法C、Two-stage算法的計(jì)算速度和檢測(cè)精度都?于One-stage算法D、One-stage算法的效率較?,計(jì)算速度較快;Two-stage算法的精度較?正確答案:D2、YOLOv2算法中,維度為26×26×512的特征圖經(jīng)過(guò)Passthrough層將其拆,輸出的特征維度為()A、13×13×2048B、26×26×512C、13×13×512D、26×26×2048正確答案:A3下列有關(guān)使?R-CNN算法進(jìn)??標(biāo)檢測(cè)的步驟,排序正確的是()①候選框?成:?SelectiveSearch算法在圖像中?成候選框;②特征提?。禾崛『蜻x框中的特征;③類(lèi)別判斷:?分類(lèi)器對(duì)候選框中的圖像進(jìn)?分類(lèi);④候選框處理:將所有候選框的特征轉(zhuǎn)換為同樣??。A①②④③B②①④③C①④②③D①②③④正確答案:C4在YOLO模型中,若?個(gè)?格輸出的數(shù)據(jù)維度為7×7×30。其中30個(gè)參數(shù)中,包含兩個(gè)邊框各需要的5個(gè)參數(shù),其余20個(gè)參數(shù)表示()A對(duì)于10類(lèi)物體,兩個(gè)邊框包含每種類(lèi)別的概率B對(duì)于20類(lèi)物體,當(dāng)前?格檢測(cè)的物體屬于每種類(lèi)別的概率C對(duì)于20類(lèi)物體,當(dāng)前?格包含每類(lèi)物體的個(gè)數(shù)D當(dāng)前?格臨近的四個(gè)邊框的需要的參數(shù)正確答案:B5下圖中,紅?邊框是包含狗的真實(shí)邊框,使?YOLO模型進(jìn)??標(biāo)檢測(cè)時(shí),A、B、C、D、E中負(fù)責(zé)預(yù)測(cè)狗的?格是()A、EB、BC、AD、C正確答案:A多選題1、BagofFreebies是??些?較有?的訓(xùn)練技巧來(lái)訓(xùn)練模型,不增加模型的復(fù)雜度,從?不增加計(jì)算量,并使得模型取得更好的準(zhǔn)確率,常?的?法有()A改變邊框回歸損失函數(shù)B增強(qiáng)感受野C訓(xùn)練時(shí)?適應(yīng)調(diào)整樣本損失率,降低識(shí)別正確率?的樣本損失的權(quán)重D圖像增強(qiáng)正確答案:A;C;D2各向同性縮放是指將不同尺?的候選區(qū)域統(tǒng)?成相同??,采?的兩種縮放?式為()A復(fù)制填充:通過(guò)復(fù)制原候選框內(nèi)的圖像,擴(kuò)展候選框,超出部分進(jìn)?剪裁B先擴(kuò)充后裁剪:直接把候選框的邊界擴(kuò)展成正?形,再裁剪。如果已經(jīng)延伸到了原始圖像的外邊界,就?候選框中的顏?均值進(jìn)?填充C先裁剪后擴(kuò)充:先將候選框按原尺?剪裁,再?顏?均值填充成正?形D直接縮放:通過(guò)縮放,將候選框的寬?直接變換為?致??正確答案:B;C3下列關(guān)于RoIPooling的表述正確的是()A相較于直接對(duì)候選區(qū)域剪裁,使?RoIPooling變換特征圖??,能夠顯著提?計(jì)算速度B、RoIPooling通過(guò)提取候選框內(nèi)不同區(qū)域的像素,對(duì)候選框進(jìn)?剪裁C、RoIPooling輸出的特征圖???致D、由于RoIPooling的提出,不需要再對(duì)候選區(qū)域進(jìn)?各向同性縮放的操作,避免了圖像分辨率的降低正確答案:C;D4下列關(guān)于使?RPN算法?成錨框的描述,正確的是()A、在FasterR-CNN中,RPN算法直接在圖像上?成錨框B、RPN算法對(duì)特征圖每個(gè)點(diǎn)?成9個(gè)錨框,錨框中?點(diǎn)相同,尺度??不同C、RPN算法對(duì)特征圖每個(gè)點(diǎn)?成9個(gè)錨框,錨框的尺度相同,只是中?點(diǎn)位置不同D、在FasterR-CNN中,RPN算法在圖像經(jīng)過(guò)卷積后,在得到的特征圖上?成錨框正確答案:B;D5相較于RoIPooling,RoIAlign能夠提?檢測(cè)?標(biāo)的精度,但提?效果與數(shù)據(jù)集相關(guān),下列描述正確的是()A、在??標(biāo)較多的數(shù)據(jù)集上,RoIAlign的檢測(cè)效果更好,因?yàn)闄z測(cè)?物體?標(biāo)受于RoIPooling的量化誤差的影響更?B、在??標(biāo)較多的數(shù)據(jù)集上,RoIAlign的檢測(cè)效果更好,因?yàn)闄z測(cè)?物體?標(biāo)受于RoIPooling的量化誤差的影響更?C、RoIAlign在圖像較少的數(shù)據(jù)集上提升效果較好D、RoIAlign使?了雙線(xiàn)性插值算法,獲得特征值正確答案:B;D6、FastR-CNN是基于R-CNN改進(jìn)的算法,下列關(guān)于FastR-CNN的表述正確的是()A、FastR-CNN算法將給定圖像直接輸?CNN,進(jìn)?特征提取B、FastR-CNN使?Softmax算法對(duì)特征進(jìn)?分類(lèi)C、FastR-CNN改進(jìn)了?成候選區(qū)域的?式,提?了計(jì)算效率D、在RoIPooling層,輸出的特征圖的??與輸?的特征圖??相關(guān),?般成?例進(jìn)?縮放正確答案:A;B簡(jiǎn)答題1簡(jiǎn)述YOLO算法思想及YOLOv1結(jié)構(gòu)。答案:YOLO算法思想:YOLO(YouOnlyLookOnce)算法的核心思想是將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為一個(gè)回歸問(wèn)題。它摒棄了傳統(tǒng)的兩階段目標(biāo)檢測(cè)方法中先提取候選區(qū)域再進(jìn)行分類(lèi)的步驟,而是直接將一幅圖像分成若干個(gè)網(wǎng)格(gridcell),每個(gè)網(wǎng)格負(fù)責(zé)預(yù)測(cè)該網(wǎng)格內(nèi)是否存在目標(biāo)以及目標(biāo)的類(lèi)別和位置信息。這種端到端的訓(xùn)練方式和單階段檢測(cè)的特性,使得YOLO算法具有更快的檢測(cè)速度和更高的準(zhǔn)確率。YOLOv1結(jié)構(gòu):YOLOv1的網(wǎng)絡(luò)結(jié)構(gòu)包含24個(gè)卷積層,用于對(duì)輸入圖像進(jìn)行特征提取,不斷地提取圖像的抽象特征。此外,還有2個(gè)全連接層,第一個(gè)全連接層將卷積得到的分布式特征映射到樣本標(biāo)記空間,把輸入圖像的所有卷積特征整合到一起;第二個(gè)全連接層將所有神經(jīng)元得到的卷積特征進(jìn)行維度轉(zhuǎn)換,最后得到與目標(biāo)檢測(cè)網(wǎng)絡(luò)輸出維度相同的維度。最終,YOLOv1輸出的檢測(cè)結(jié)果為SxSx(B*5+C)的形式,其中S為網(wǎng)格數(shù)量,B為每個(gè)網(wǎng)格的預(yù)測(cè)框數(shù)量(在YOLOv1中為2),5為預(yù)測(cè)框的位置和置信度信息(包括中心點(diǎn)坐標(biāo)x、y,寬高w、h,以及置信度c),C為類(lèi)別數(shù)量(針對(duì)數(shù)據(jù)集的種類(lèi)數(shù)量)。2簡(jiǎn)述目標(biāo)檢測(cè)深度學(xué)習(xí)模型。答案:目標(biāo)檢測(cè)深度學(xué)習(xí)模型是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要工具,用于從圖像或視頻中自動(dòng)識(shí)別出特定目標(biāo)的位置和類(lèi)別。以下是一些常見(jiàn)的目標(biāo)檢測(cè)深度學(xué)習(xí)模型:YOLO系列:包括YOLOv1、YOLOv2(YOLO9000)、YOLOv3、YOLOv4、YOLOv5、YOLOv7等,它們以速度快、準(zhǔn)確率高而著稱(chēng),廣泛應(yīng)用于實(shí)時(shí)目標(biāo)檢測(cè)和自動(dòng)駕駛等領(lǐng)域。EfficientDet:使用了高效的主干網(wǎng)絡(luò)和一組新的檢測(cè)頭,設(shè)計(jì)初衷是運(yùn)算高效準(zhǔn)確,能夠高精度實(shí)時(shí)檢測(cè)物體。RetinaNet:使用了FPN(特征金字塔網(wǎng)絡(luò))和新的焦點(diǎn)損失函數(shù),旨在解決目標(biāo)檢測(cè)中前景和背景示例不平衡的問(wèn)題,從而提高檢測(cè)準(zhǔn)確性。FasterR-CNN:使用RPN(區(qū)域候選網(wǎng)絡(luò))來(lái)生成候選對(duì)象位置,然后使用第二個(gè)網(wǎng)絡(luò)對(duì)所提出的區(qū)域進(jìn)行分類(lèi)并細(xì)化位置。FasterR-CNN以其高精度而聞名,經(jīng)常用于圖像和視頻中的目標(biāo)檢測(cè)。MaskR-CNN:在FasterR-CNN的基礎(chǔ)上加了一個(gè)用于預(yù)測(cè)目標(biāo)分割Mask的分支,該模型使用第三個(gè)網(wǎng)絡(luò)為每個(gè)檢測(cè)到的對(duì)象生成像素級(jí)Mask。MaskR-CNN以其在目標(biāo)檢測(cè)中的高精度而聞名,并且也可以用于實(shí)例分割。CenterNet:使用熱圖來(lái)預(yù)測(cè)每個(gè)對(duì)象的中心,然后使用第二個(gè)網(wǎng)絡(luò)來(lái)預(yù)測(cè)目標(biāo)的大小和方向。CenterNet以其在目標(biāo)檢測(cè)方面的高精度和高效性而聞名。DETR:即DetectionTransformer,使用基于Transformer的架構(gòu),可以處理高度重疊的對(duì)象,無(wú)需先驗(yàn)框或最大抑制。SSD:即SingleShotMultiBoxDetector,使用單個(gè)網(wǎng)絡(luò)來(lái)預(yù)測(cè)對(duì)象的位置和類(lèi)別,實(shí)現(xiàn)了高精度的目標(biāo)檢測(cè),并且可以在低端設(shè)備上實(shí)時(shí)運(yùn)行。3簡(jiǎn)述目標(biāo)檢測(cè)的含義。答案:目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)核心任務(wù),旨在找出圖像或視頻中的所有感興趣目標(biāo)(物體),并確定它們的類(lèi)別和位置。這一任務(wù)融合了圖像分類(lèi)和定位兩個(gè)子任務(wù),要求算法能夠同時(shí)解決“是什么?”和“在哪里?”的問(wèn)題。目標(biāo)檢測(cè)技術(shù)在現(xiàn)實(shí)生活中有著廣泛的應(yīng)用,包括但不限于安全監(jiān)控、智能交通、智能零售、醫(yī)療影像分析等領(lǐng)域。4簡(jiǎn)述傳統(tǒng)目標(biāo)檢測(cè)的流程。答案:傳統(tǒng)目標(biāo)檢測(cè)主要分為以下幾個(gè)步驟:區(qū)域選擇:生成一系列候選框,這些候選框可能包含目標(biāo)物體。傳統(tǒng)方法常采用滑動(dòng)窗口的方式,通過(guò)不同大小和長(zhǎng)寬比的窗口在圖像上滑動(dòng)來(lái)生成候選框。特征提?。簩?duì)候選框內(nèi)的圖像進(jìn)行特征提取,提取出能夠描述物體特性的特征向量。傳統(tǒng)方法常采用手工設(shè)計(jì)的特征,如SIFT、Haar-like、HOG等。分類(lèi)器:使用分類(lèi)器對(duì)提取出的特征向量進(jìn)行分類(lèi),判斷候選框內(nèi)是否包含目標(biāo)物體以及目標(biāo)物體的類(lèi)別。常見(jiàn)的分類(lèi)器有支持向量機(jī)(SVM)、KNN算法、神經(jīng)網(wǎng)絡(luò)(NN)等。非極大值抑制(NMS):對(duì)于多個(gè)重疊的候選框,只保留其中置信度最高的框,以去除冗余的檢測(cè)結(jié)果。非極大值抑制通過(guò)比較候選框之間的重疊程度和置信度來(lái)實(shí)現(xiàn)。以上步驟共同構(gòu)成了傳統(tǒng)目標(biāo)檢測(cè)的基本流程,但需要注意的是,傳統(tǒng)方法在計(jì)算復(fù)雜度、魯棒性和準(zhǔn)確性等方面存在一定的局限性。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,目標(biāo)檢測(cè)領(lǐng)域已經(jīng)取得了顯著的進(jìn)步和突破。1、YOLO算法屬于Two-stage目標(biāo)檢測(cè)算法?A正確B錯(cuò)誤正確答案:B填空題1目標(biāo)檢測(cè)的三個(gè)階段包括

,

,正確答案:區(qū)域選擇;特征提取;分類(lèi)

江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731第四次形考作業(yè)單選題1、PixelRNN的核?思想為預(yù)測(cè)圖像中像素值的()A、條件分布B、灰度值C、聯(lián)合分布D、邊緣分布正確答案:A2、GAN的?成?絡(luò)的算法流程不包括()A、將假樣本輸?判別器,希望得到接近真樣本的?得分B、將?成?絡(luò)的參數(shù)傳?判別?絡(luò)C、?成隨機(jī)變量,并?成假樣本D、優(yōu)化?成?絡(luò),最?化損失函數(shù)正確答案:B3?格遷移實(shí)現(xiàn)過(guò)程中,需要通過(guò)圖像特征圖的Grammatrix,計(jì)算?格損失。通過(guò)卷積層,得到內(nèi)容圖的特征圖為:X=[341331],可計(jì)算出的Grammatrix為()A、G=[34121257672]B、G=[1821621257672]C、G=[336437112]D、G=正確答案:B4、ConditionalGatedPixelCNN的改進(jìn)?向主要在于()A、?成多樣化的圖像B、提??成圖像的質(zhì)量C、定向?成某種類(lèi)別的圖像D、提?計(jì)算速度正確答案:C5、下列關(guān)于?格遷移算法的描述,錯(cuò)誤的是()A、損失函數(shù)由內(nèi)容損失和?格損失兩部分組成B、特征圖由內(nèi)容圖和?格圖各?經(jīng)過(guò)卷積神經(jīng)?絡(luò)后得到C、最?化內(nèi)容損失,可以使?成圖的特征圖接近于內(nèi)容圖的特征圖,保留圖像?格D、深層卷積層得到的內(nèi)容圖的特征圖,更加抽象正確答案:C多選題1、下列關(guān)于變分?編碼器的描述,正確的是()A、?成?絡(luò)的主要任務(wù)是?成新的隱變量B、推斷?絡(luò)的主要任務(wù)是近似推斷隱變量的后驗(yàn)分布C、KL散度?于度量?jī)蓚€(gè)變量之間的距離D、變分下界是原始樣本的對(duì)數(shù)似然函數(shù)的下界正確答案:B;D2、PixelRNN采?了DiagonalBiLSTM和ResidualConnections等結(jié)構(gòu),下列關(guān)于其描述正確的是()A、當(dāng)PixelRNN?絡(luò)較深時(shí),采?ResidualConnections能夠提?收斂速度B、DiagonalBiLSTM將輸?圖映射到另?空間C、DiagonalBiLSTM將像素點(diǎn)前后的所有的像素值納?計(jì)算D、RGB圖像中,R通道會(huì)受到G和B通道的像素值的影響正確答案:A;B3、下列關(guān)于圖像?成技術(shù)的描述,正確的是()A圖像?成屬于?監(jiān)督學(xué)習(xí)任務(wù)B圖像?成技術(shù)只能?成相似圖像,不能?于視頻預(yù)測(cè)C原始數(shù)據(jù)集的真實(shí)分布可以直接求出D使?圖像?成技術(shù),可以修復(fù)圖像正確答案:A;D4變分?編碼器的結(jié)構(gòu),主要分為兩部分()A推斷?絡(luò)B?成?絡(luò)C檢測(cè)分?D模板分?正確答案:A;B5、PixelCNN在PixelRNN的基礎(chǔ)上進(jìn)?了改進(jìn),下列說(shuō)法正確的是()A、PixelCNN使?掩膜卷積核,避免像素點(diǎn)受到后?成的像素值的影響B(tài)、PixelCNN使?池化層,并?計(jì)算圖像區(qū)域的特征C、RowLSTM和DiagonalLSTM需要逐層順序計(jì)算D、在訓(xùn)練、測(cè)試和?成圖像時(shí),PixelCNN具有并?計(jì)算的優(yōu)勢(shì)正確答案:A;C6下列關(guān)于?成對(duì)抗?絡(luò)(GAN)的描述,正確的是()A、GAN?絡(luò)結(jié)構(gòu)主要分為:?成?絡(luò)和判別?絡(luò)B、判別?絡(luò)的任務(wù)是:?成接近真實(shí)樣本的數(shù)據(jù),并判斷圖像?成效果C、?成?絡(luò)的任務(wù)是:判斷輸?的數(shù)據(jù)是否為真實(shí)樣本D、判別?絡(luò)對(duì)輸?的假樣本和真樣本打分,使真樣本得分?,假樣本得分低正確答案:A;D簡(jiǎn)答題1簡(jiǎn)述圖像生成的含義及主要方法。答案:含義:圖像生成是指使用計(jì)算機(jī)算法生成圖像的過(guò)程,這些圖像可以是真實(shí)的照片、繪畫(huà)、3D渲染或者是完全想象的圖像。主要方法:基于規(guī)則的圖像生成:通過(guò)手動(dòng)設(shè)計(jì)規(guī)則來(lái)生成圖像,如計(jì)算機(jī)圖形學(xué)中的幾何建模,通過(guò)定義幾何形狀、光照、材質(zhì)等參數(shù)來(lái)生成圖像?;诮y(tǒng)計(jì)學(xué)的圖像生成:通過(guò)對(duì)大量圖像數(shù)據(jù)進(jìn)行分析,學(xué)習(xí)數(shù)據(jù)中的規(guī)律,然后使用這些規(guī)律來(lái)生成新的圖像,如基于紋理的方法和基于樣式的方法。基于深度學(xué)習(xí)的圖像生成:利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,以學(xué)習(xí)輸入圖像和輸出圖像之間的映射關(guān)系,常見(jiàn)的模型有生成對(duì)抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)等。2簡(jiǎn)述PixelRNN的基本原理。答案:PixelRNN是一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的像素級(jí)生成模型,通過(guò)逐個(gè)像素地生成圖像來(lái)構(gòu)建完整的圖像。其核心思想是將圖像中的像素視為序列,并利用RNN的能力來(lái)捕捉像素之間的依賴(lài)關(guān)系。PixelRNN按像素的行列順序生成圖像,每次生成一個(gè)像素,并將其作為下一個(gè)像素的上下文信息。使用長(zhǎng)短期記憶(LSTM)單元來(lái)捕捉像素之間的長(zhǎng)期依賴(lài)關(guān)系,并在LSTM層周?chē)肓藲埐钸B接以提高深層網(wǎng)絡(luò)的訓(xùn)練效果。3簡(jiǎn)述風(fēng)格遷移及主要方法。答案:風(fēng)格遷移:是指將一種圖像的風(fēng)格應(yīng)用到另一種圖像上的過(guò)程,從而生成具有新風(fēng)格的圖像。主要方法:基于筆劃的渲染:在數(shù)字畫(huà)布上增加虛擬筆劃以渲染具有特定樣式的圖片,應(yīng)用場(chǎng)景大多限定在油畫(huà)、水彩、草圖等。圖像類(lèi)比方法:學(xué)習(xí)一對(duì)源圖像和目標(biāo)圖像之間的映射,以監(jiān)督學(xué)習(xí)的方式定位風(fēng)格化圖像。圖像濾波方法:采用一些組合的圖像濾波器(如雙邊和高斯濾波器等)來(lái)渲染給定的圖片。紋理合成方法:在源紋理圖像中增加相似紋理的過(guò)程,但僅利用低級(jí)圖像特征,限制了性能。神經(jīng)風(fēng)格遷移(NST):分為基于在線(xiàn)圖像優(yōu)化的慢速神經(jīng)網(wǎng)絡(luò)方法和基于在線(xiàn)模型優(yōu)化的快速神經(jīng)網(wǎng)絡(luò)方法。前者通過(guò)逐步優(yōu)化圖像來(lái)實(shí)現(xiàn)風(fēng)格遷移和圖像重建,后者優(yōu)化了生成離線(xiàn)模型并使用單個(gè)前向傳遞產(chǎn)生風(fēng)格化圖像。4簡(jiǎn)述DCGAN網(wǎng)絡(luò)結(jié)構(gòu)。答案:DCGAN是深度卷積生成對(duì)抗網(wǎng)絡(luò)(DeepConvolutionalGenerativeAdversarialNetworks)的簡(jiǎn)稱(chēng),是生成對(duì)抗網(wǎng)絡(luò)GAN中一種常見(jiàn)的模型結(jié)構(gòu)。DCGAN中的生成器和判別器都是神經(jīng)網(wǎng)絡(luò)模型,其中生成模型使用卷積神經(jīng)網(wǎng)絡(luò),判別模型也使用卷積神經(jīng)網(wǎng)絡(luò)。DCGAN使用帶步長(zhǎng)的卷積取代池化層進(jìn)行下采樣,使用轉(zhuǎn)置卷積進(jìn)行上采樣,激活函數(shù)為L(zhǎng)eakyReLu,并使用BatchNormalization進(jìn)行標(biāo)準(zhǔn)化。DCGAN的生成模型目標(biāo)是最小化判別模型D的判別準(zhǔn)確率,而判別模型目標(biāo)是最大化判別模型D的判別準(zhǔn)確率。5最少給出三類(lèi)具有代表性的生成模型。答案:DALL-E2:來(lái)自O(shè)penAI的生成模型,在零樣本學(xué)習(xí)上做出大突破,使用CLIP模型和基于Transformer對(duì)圖像塊建模的方法,取得了不錯(cuò)的生成效果。StableDiffusion:由慕尼黑大學(xué)的CompVis小組開(kāi)發(fā),基于潛在擴(kuò)散模型打造,可以通過(guò)在潛表示空間中迭代去噪以生成圖像,并將結(jié)果解碼成完整圖像。Imagen:來(lái)自谷歌的生成模型,基于Transformer模型搭建,其中語(yǔ)言模型在純文本數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練,通過(guò)增加語(yǔ)言模型參數(shù)量來(lái)提升生成效果。這些生成模型在圖像生成領(lǐng)域具有廣泛的應(yīng)用和重要的研究?jī)r(jià)值。判斷題1、VAE(變分自編碼器)是Kingma等人基于馬爾科夫鏈提出的生成模型?A正確B錯(cuò)誤正確答案:B

江蘇開(kāi)放大學(xué)計(jì)算機(jī)視覺(jué)060731第五次形考單選題1特征臉?lè)ê突?何特征的?臉識(shí)別?法,都是常?的傳統(tǒng)?臉識(shí)別?法,下列相關(guān)描述錯(cuò)誤的是()A使?特征臉?lè)〞r(shí),每個(gè)?臉都可以表示為特征臉的線(xiàn)性組合B使?基于?何特征的?臉識(shí)別?法時(shí),需要對(duì)臉部主要器官進(jìn)?定位C使?基于?何特征的?臉識(shí)別?法時(shí),不需要采?分類(lèi)器進(jìn)??臉識(shí)別D使?特征臉?lè)〞r(shí),需計(jì)算?臉圖像的特征向量,即“特征臉”正確答案:C2下圖為?臉識(shí)別算法DeepFace的?絡(luò)結(jié)構(gòu),紅?框內(nèi)為卷積層和池化層,?于對(duì)?臉進(jìn)?特征提取,下列相關(guān)說(shuō)法錯(cuò)誤的是()A、輸?C1卷積層的圖像要求像素??相同B、C3、L4卷積層使?參數(shù)不共享的卷積核C、C1卷積層的主要?的是提取?臉低層次的特征D、L5卷積層使?參數(shù)不共享的卷積核正確答案:B3、DeepFace算法選擇()基準(zhǔn)點(diǎn)進(jìn)行檢測(cè)。A7B6C4D5正確答案:B4下圖為DeepID進(jìn)?特征提取時(shí),卷積神經(jīng)?絡(luò)的輸?數(shù)據(jù),即?臉圖像經(jīng)過(guò)處理后,得到的多個(gè)Patch。?張?臉圖像輸?卷積神經(jīng)?絡(luò)的Patch不包括()A該?臉圖像轉(zhuǎn)換后的灰度圖像B與該?臉相似的,其他?臉的圖像C?臉不同區(qū)域的圖像,如眼睛、??部分圖像D同?圖像經(jīng)過(guò)放縮得到的不同尺度的圖像正確答案:B5采?深度學(xué)習(xí)?法進(jìn)??臉識(shí)別時(shí),通常包括以下四個(gè)步驟,下列排序正確的是()a.?臉對(duì)?b.?臉表征c.?臉檢測(cè)d.?臉匹配A、bdacB、abcdC、cabdD、cbad正確答案:C6下圖具體展示了使?深度學(xué)習(xí)?法,進(jìn)??臉識(shí)別的流程,下列相關(guān)說(shuō)法錯(cuò)誤的是()A、C處進(jìn)??臉匹配,矯正?臉的形態(tài),和數(shù)據(jù)庫(kù)中的圖像進(jìn)?匹配B、B處檢測(cè)?臉特征點(diǎn)的位置C、A處進(jìn)??臉檢測(cè),確定?臉在圖像中的??和位置D、D處進(jìn)??臉表征,提取?臉特征信息正確答案:A多選題1、DeepID算法可以使?聯(lián)合?葉斯、神經(jīng)?絡(luò)兩種?法進(jìn)??臉驗(yàn)證,下列相關(guān)描述錯(cuò)誤的是()A、神經(jīng)?絡(luò)算法將需要對(duì)?的兩張圖像,聯(lián)合輸??絡(luò),進(jìn)?特征提取B、神經(jīng)?絡(luò)算法得到的不同?臉的特征相似度較?、同??臉的特征相似度較低C、聯(lián)合?葉斯算法假設(shè)?臉特征為兩個(gè)相關(guān)性較?的?斯分布之和D、聯(lián)合?葉斯算法采?EM算法估計(jì)參數(shù)正確答案:B;C2、FaceNet可以?于?臉驗(yàn)證、識(shí)別和聚類(lèi),下列相關(guān)描述錯(cuò)誤的是()A、FaceNet中圖像嵌?的過(guò)程,是指計(jì)算特征向量的相關(guān)性B、FaceNet中,圖像相似度與圖像的空間距離?關(guān),與提取的特征有關(guān)C、FaceNet將圖像映射到歐??得空間,再進(jìn)?計(jì)算D、FaceNet在經(jīng)典?臉數(shù)據(jù)集LFW上能夠達(dá)到較?的識(shí)別準(zhǔn)確率正確答案:A;B3、基于?何特征的?臉識(shí)別?法的計(jì)算過(guò)程包括()A、計(jì)算?臉特征點(diǎn)之間的距離B、定位?臉眼、?、?等器官C、采?主成分分析,計(jì)算?臉特征向量D、計(jì)算多個(gè)?臉的“平均臉”正確答案:A;B4、DeepFace是經(jīng)典的?臉識(shí)別算法,下列描述正確的是()A、DeepFace對(duì)?臉進(jìn)?3D對(duì)?的?的是將?臉圖像更?體化B、DeepFace通過(guò)卷積神經(jīng)?絡(luò)實(shí)現(xiàn)?臉2D對(duì)?C、DeepFace?絡(luò)中的第?層卷積,?于提取低層次的特征D、在使?DeepFace?絡(luò)中后三個(gè)卷積層學(xué)習(xí)?臉部眼、?、嘴的特征時(shí),應(yīng)采?不同的卷積核學(xué)習(xí),且參數(shù)不共享正確答案:C;D5、如今?臉識(shí)別算法越來(lái)越受到重視,下列關(guān)于?臉識(shí)別的描述,錯(cuò)誤的是()A、作為?物特征識(shí)別對(duì)象,?臉具有穩(wěn)定、便捷、不易偽造等優(yōu)點(diǎn)B、特征臉?lè)ㄊ浅?的深度學(xué)習(xí)?法,?以進(jìn)??臉識(shí)別C、?臉識(shí)別是通過(guò)提取?臉圖像的信息,進(jìn)?身份驗(yàn)證D、悲傷、快樂(lè)等表情不會(huì)對(duì)?臉識(shí)別

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論