版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
PAGE2025華為ICT大賽(昇騰Al賽道)高頻備考試題庫500題(含詳解)一、單選題1.CD-DNN-HMM模型的最主要改變以下哪一點?()A、引入更多隱藏層B、引入DropoutC、引入全連接層D、引入上下文信息答案:D解析:DNN模型為了獲得更好的性能提升,引入了上下文信息(也就是前后特征幀信息),所以被稱為CD-DNN-HMM模型2.以下選項中,哪個選項的模型無法分割線性不可分?jǐn)?shù)據(jù)集?A、神經(jīng)網(wǎng)絡(luò)B、線性回歸C、SVMD、KNN答案:B解析:線性回歸只能對線性可分的數(shù)據(jù)集進(jìn)行建模,而無法分割線性不可分的數(shù)據(jù)集。因此,選項B(線性回歸)是正確。其他選項,如神經(jīng)網(wǎng)絡(luò)、SVM和KNN,都可以用于分割線性不可分的數(shù)據(jù)集。3.HIAIEngine-ASR前置靜音檢測的默認(rèn)時間是?A、500msB、1000msC、2000msD、4000ms答案:C解析:HIAIEngine-ASR前置靜音檢測的默認(rèn)時間通常設(shè)置為2000ms,即大約2秒的時間。這個時間是為了確保在語音輸入之前有足夠的時間進(jìn)行靜音檢測,以避免誤報和漏報。因此,選項C是正確的。4.生成對抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個選項屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗證器D、對抗器答案:A解析:這道題考察的是對生成對抗網(wǎng)絡(luò)(GAN)基本結(jié)構(gòu)的理解。GAN由兩部分組成:一部分是生成模型(Generator),負(fù)責(zé)生成盡可能接近真實數(shù)據(jù)的樣本;另一部分是??判別模型(Discriminator)??,負(fù)責(zé)判斷輸入的樣本是真實的還是由生成模型生成的。因此,屬于GAN基本結(jié)構(gòu)的是??判別器??,對應(yīng)選項D。5.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項是錯誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動提取特征C、特征可解釋性強(qiáng)D、“端到端”的學(xué)習(xí)答案:C解析:這道題考察對深度學(xué)習(xí)特性的理解。深度學(xué)習(xí)模型確實能在高維權(quán)重和海量訓(xùn)練數(shù)據(jù)下獲得高性能,這是其一大優(yōu)勢,所以A選項正確。深度學(xué)習(xí)通過算法自動提取特征,無需人工干預(yù),B選項也正確。深度學(xué)習(xí)模型通常是“端到端”的學(xué)習(xí),即從原始數(shù)據(jù)直接學(xué)習(xí)到最終任務(wù)目標(biāo),D選項描述準(zhǔn)確。然而,深度學(xué)習(xí)模型的特征可解釋性通常較弱,因為它們是通過復(fù)雜的非線性變換自動學(xué)習(xí)到的,所以C選項是錯誤的。6.在華為云EI中,以下哪項可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗。A、EI智能體B、OBS對象存儲服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A解析:華為云E中的EI智能體可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,通過提供智能化的解決方案,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升用戶體驗。其他選項如OBS對象存儲服務(wù)、云數(shù)據(jù)庫和EI大數(shù)據(jù)服務(wù)雖然也是華為云E中的重要服務(wù),但它們主要是提供數(shù)據(jù)存儲、管理和分析的工具,與AI技術(shù)的融合應(yīng)用相比,其作用和影響力相對較小。因此,答案是A。7.下列駕一項是張量[[(0,1)(2,3)],[(4,5)(6,7)]]的正確形狀?A、[2,3,4]B、[2,2,2]C、[3,2,2]D、[3,2,4]答案:B解析:這道題考察的是對張量形狀的理解。張量的形狀描述了其各個維度上的大小。給定的張量[[(0,1)(2,3)],[(4,5)(6,7)]]是一個二維數(shù)組,其中每個元素又是一個包含兩個元素的一維數(shù)組。因此,它的形狀應(yīng)該是[2,2,2],即2個2x2的矩陣。所以正確答案是B。8.逆光拍照時,人臉比較暗,使用伽馬矯正對圖像進(jìn)行增強(qiáng)達(dá)到逆光也清晰的效果,γ的取值可以選擇哪個?A、0B、0.5C、1D、2答案:B解析:在逆光拍照時,為了增強(qiáng)人臉的亮度,可以使用伽馬矯正來調(diào)整圖像的亮度。伽馬矯正是一種圖像處理技術(shù),用于調(diào)整圖像的伽馬值,以改變圖像的亮度。在題目所給的選項中,伽馬值可以選擇為0.5。這是因為,伽馬值的大小直接影響圖像的亮度和對比度,適當(dāng)?shù)馁ゑR值可以使圖像更加清晰和自然。因此,答案是C,即伽馬值為0.5。9.以下哪個選項不屬于異騰AI處理器中AICore的基礎(chǔ)計算資源?A、向量計算單元B、張量計算單元C、矩陣計算單元D、標(biāo)量計算單元答案:B解析:這道題考察的是對昇騰AI處理器中AICore基礎(chǔ)計算資源的了解。在昇騰AI處理器架構(gòu)中,AICore包含了多種計算單元以支持不同的計算需求。其中,向量計算單元、矩陣計算單元和標(biāo)量計算單元都是其基礎(chǔ)計算資源,它們分別用于處理向量、矩陣和標(biāo)量數(shù)據(jù)。而張量計算雖然在AI領(lǐng)域廣泛應(yīng)用,但在昇騰AI處理器的AICore架構(gòu)中,并不直接作為基礎(chǔ)計算單元出現(xiàn),而是通過其他計算單元的組合和優(yōu)化來實現(xiàn)張量計算的功能。因此,選項B“張量計算單元”是不屬于昇騰AI處理器中AICore的基礎(chǔ)計算資源的。10.關(guān)于人工智能和機(jī)器學(xué)習(xí)的關(guān)系,以下說法正確的是哪一項?A、機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計學(xué)的知識進(jìn)行分析、B、所有機(jī)器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機(jī)器學(xué)習(xí)都是在模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本、D、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一個特例。答案:A解析:人工智能和機(jī)器學(xué)習(xí)是兩個密切相關(guān)的領(lǐng)域,它們都是通過計算機(jī)程序和算法來模擬人類的智能行為。機(jī)器學(xué)習(xí)是人工智能的一個子領(lǐng)域,它主要關(guān)注如何通過算法和數(shù)據(jù)來訓(xùn)練計算機(jī)程序,使其能夠自主地學(xué)習(xí)和改進(jìn),從而更好地完成特定任務(wù)。機(jī)器學(xué)習(xí)算法中,有些涉及到人工神經(jīng)網(wǎng)絡(luò),但并不是所有機(jī)器學(xué)習(xí)算法都涉及到人工神經(jīng)網(wǎng)絡(luò)。機(jī)器學(xué)習(xí)并不一定是在模仿人腦的機(jī)制來解釋數(shù)據(jù),它可以使用各種不同的算法和技術(shù)來處理不同類型的數(shù)據(jù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,它使用更深層次的神經(jīng)網(wǎng)絡(luò)來進(jìn)行學(xué)習(xí)和預(yù)測,但機(jī)器學(xué)習(xí)并不是深度學(xué)習(xí)的一個特例。因此,選項B和C都不完全正確。而選項D雖然正確,但這不是問題的重點。因此,答案是A,機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計學(xué)的知識進(jìn)行分析。11.華為深度學(xué)習(xí)框架MindSpore的亮點有()A、通過實現(xiàn)Al算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時間,降低了模型開發(fā)門檻。B、通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實現(xiàn)了運行態(tài)的高效,大大提高了計算性能。C、原生適應(yīng)每個場景包括端,邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。D、以上皆是答案:D解析:這道題考察的是對華為深度學(xué)習(xí)框架MindSpore亮點的理解。根據(jù)MindSpore的官方介紹和特性,我們可以知道:?MindSpore通過實現(xiàn)AI算法即代碼,確實使開發(fā)態(tài)變得更加友好,顯著減少了模型開發(fā)時間,降低了模型開發(fā)門檻。?MindSpore通過自身的技術(shù)創(chuàng)新以及與Ascend處理器的協(xié)同優(yōu)化,實現(xiàn)了運行態(tài)的高效,大大提高了計算性能。?MindSpore原生適應(yīng)每個場景,包括端、邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活。綜上所述,選項A、B、C都是MindSpore的亮點,所以答案是D,“以上皆是”。12.在調(diào)用語音合成服務(wù)時,需要提前設(shè)置一些參數(shù)值,下列哪個范圍的值可以作為音量值?A、[-1000,1000]B、[0,100]C、[0,1000]D、[-100,100]答案:B解析:這道題考察的是對語音合成服務(wù)中音量值設(shè)置的理解。在調(diào)用語音合成服務(wù)時,音量是一個重要的參數(shù),它決定了輸出音頻的響度。音量值通常被設(shè)定在一個合理的范圍內(nèi),以確保音頻的輸出效果。根據(jù)常見的編程實踐和API文檔,音量值往往被設(shè)定在0到100之間,其中0表示靜音,100表示最大音量。因此,選項A[0,100]是正確的音量值范圍。13.人工智能是指下列哪一項的智能?A、自然智能B、通用智能C、機(jī)器智能D、人的智能答案:C解析:這道題考察的是對“人工智能”定義的理解。人工智能,簡稱AI,其核心在于模仿、延伸和擴(kuò)展人的智能。它并非指通用智能、自然智能或機(jī)器本身固有的智能,而是特指對人的智能進(jìn)行模擬和擴(kuò)展的技術(shù)和應(yīng)用。因此,正確答案是B,即人工智能是指“人的智能”。14.取20度為一個區(qū)間統(tǒng)計一個call的HOG特征,對稱的角度歸為一類,這個cell特征長度為?A、10B、7C、8D、9答案:D解析:這道題考察的是對HOG(HistogramofOrientedGradients,方向梯度直方圖)特征的理解。HOG特征通常用于圖像處理和計算機(jī)視覺領(lǐng)域,特別是在對象檢測中。題目中提到“取20度為一個區(qū)間統(tǒng)計”,意味著360度被分成了18個區(qū)間(360/20=18)。但題目又指出“對稱的角度歸為一類”,即對稱的區(qū)間合并,那么18個區(qū)間將合并成9個(因為對稱的區(qū)間會合并成一個)。所以,這個cell的特征長度是9。15.通過圖像算法,對一副普通手機(jī)拍攝照片的人物前景和背景進(jìn)行分割,再對()部分做()操作,可實現(xiàn)如同單反相機(jī)的虛化效果()A、背景,中值濾波B、背景,均值濾波C、前景,均值濾波D、前景,中值濾波答案:B解析:虛化背景,所以只能在AB中選擇。均值濾波模糊的圖像更均勻,中指濾波主要用于小噪點處理16.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B解析:這道題考察的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中感知器的結(jié)構(gòu)特點。感知器作為最簡單的神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)特點包括沒有隱含層或僅含有一層隱含層。根據(jù)這一點,我們可以判斷選項A錯誤,因為它提到隱含層有兩層。選項B正確,因為它符合感知器可能只有一層隱含層或沒有隱含層的特點。至于選項C和D,它們涉及到激活函數(shù)的使用。然而,感知器并不特定于使用Sigmoid或ReLU激活函數(shù),這兩種激活函數(shù)是現(xiàn)代神經(jīng)網(wǎng)絡(luò)中常用的,但不是感知器的定義特征。因此,C和D選項都不能作為正確答案。17.以下哪個選項是自動計算梯度的方法。A、自動微分B、多元函數(shù)微分C、數(shù)值微分D、符號微分答案:A解析:在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,自動微分是一種自動計算梯度的方法。當(dāng)需要計算一個函數(shù)的梯度時,自動微分能夠自動地根據(jù)輸入的變化來計算梯度,從而避免了手動計算梯度的繁瑣過程。因此,選項A是正確的。18.以下關(guān)于昇騰AI軟件棧中任務(wù)調(diào)度器的描述,正確的是哪一個選項?A、負(fù)責(zé)完成神經(jīng)網(wǎng)絡(luò)在昇騰AI芯片上的落地與實現(xiàn),統(tǒng)籌了整個神經(jīng)網(wǎng)絡(luò)生效的過程,控制離線模型的加載和執(zhí)行過程.B、為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管理通道。C、可對輸入的數(shù)據(jù)進(jìn)行處理與修飾。D、為異騰AI芯片提供具體的目標(biāo)任務(wù)。答案:D解析:在昇騰AI軟件棧中,任務(wù)調(diào)度器的主要職責(zé)是為昇騰AI芯片提供具體的目標(biāo)任務(wù),以確保芯片能夠正確、高效地執(zhí)行預(yù)期的計算任務(wù)。它并不直接負(fù)責(zé)神經(jīng)網(wǎng)絡(luò)的實現(xiàn)、加載和執(zhí)行過程(這是模型加載器和執(zhí)行器的工作),也不專注于資源管理的通道提供(這是資源管理器的職責(zé)),更不是對數(shù)據(jù)進(jìn)行處理與修飾的模塊。因此,選項D正確描述了任務(wù)調(diào)度器的作用。19.以下關(guān)于分詞說法不正確的是?()A、基于規(guī)則的分詞簡單高效,但是詞典維護(hù)困難。B、統(tǒng)計分詞的目的就是對分詞結(jié)果進(jìn)行概率計算,獲得概率最大的分詞方式。C、中文不同于英文自然分詞,中文分詞是文本處理的一個基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法樹等其他模塊的性能。D、在實際工程應(yīng)用中,分詞一般只采用一種分詞方法。答案:D解析:規(guī)則分詞:是一種機(jī)械分詞方法,主要是通過維護(hù)字典,在切分語句時,將語句中的每個字符串與詞表中的詞進(jìn)行逐一匹配,找到則切分,否則不予切分,按照匹配切分的方式主要有正向最大匹配法、逆向最大匹配法、雙向最大匹配法。特點:簡單高效,詞典維護(hù)困難。統(tǒng)計分詞:概率,如果相連的字在不同的文本中出現(xiàn)的次數(shù)越多,就證明這相連的字很可能就是一個詞。深度學(xué)習(xí)分詞:使用word2vec對語料的詞進(jìn)行嵌入,得到詞嵌入后,用詞嵌入特征輸入給雙向LSTM,對輸出的隱層加一個線性層,然后加一個CRF得到最終實現(xiàn)的模型?;旌戏衷~:在實際工程應(yīng)用中,多是基于一種分詞算法,然后用其他分詞算法加以輔助20.以下哪個激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、softsignC、ReluD、Sigmoid答案:C解析:這道題考察的是對激活函數(shù)特性的理解。梯度消失是深度學(xué)習(xí)中常見的問題,特別是在使用Sigmoid或Tanh這類飽和激活函數(shù)時。Relu函數(shù)(RectifiedLinearUnit)由于其非飽和性,在正數(shù)部分梯度恒為1,因此可以有效緩解梯度消失問題。而Sigmoid和Tanh函數(shù)在輸入值較大或較小時,梯度接近于0,容易導(dǎo)致梯度消失。softsign函數(shù)雖然形狀與Tanh相似,但其梯度消失問題并未得到很好的解決。因此,選擇C(Relu)作為答案。21.Softmax函數(shù)主要用于什么層?()A、輸入層B、隱藏層C、輸出層答案:C解析:神經(jīng)網(wǎng)絡(luò)最后一層,輸出層一般會使用sotfmax。多分類函數(shù)22.坐標(biāo)為(21,13)和坐標(biāo)為(22,12)的兩個像素在空間上存在什么鄰接關(guān)系?A、不存在鄰接關(guān)系B、對角鄰接C、8-鄰接D、4-鄰接答案:B解析:對角鄰接,對角鄰接和4連接共同構(gòu)成8連接23.Cell提供了定義執(zhí)行計算的基本模塊,Cell的對象可以直接執(zhí)行,以下說法有誤的是?A、還有一些optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定CellB、coststruct,定義執(zhí)行的過程。圖模式時,會被編譯成圖來執(zhí)行,沒有語法限制C、bprop(可選),自定義模塊的反向_init_.初始化參數(shù)(Parameter),子模塊D、(Cell),算子(Primitive)等組件,進(jìn)行初始化的校驗答案:B解析:這道題考察的是對深度學(xué)習(xí)框架中Cell對象的理解。Cell是深度學(xué)習(xí)框架中定義執(zhí)行計算的基本模塊,它包含了多種組件和功能。A選項提到的optim常用優(yōu)化器、wrap常用網(wǎng)絡(luò)包裝函數(shù)等預(yù)定Cell,這是正確的,因為這些是Cell中常用的組件。B選項說“coststruct,定義執(zhí)行的過程。圖模式時,會被編譯成圖來執(zhí)行,沒有語法限制”,這是有誤的。實際上,coststruct并不是定義執(zhí)行過程的,而是用于定義損失函數(shù)的結(jié)構(gòu)。而且,在圖模式下執(zhí)行時,是有語法限制的,需要遵循框架的語法規(guī)則。C選項提到的bprop是自定義模塊的反向傳播函數(shù),用于初始化參數(shù)和子模塊,這是正確的。D選項提到的(Cell),算子(Primitive)等組件,進(jìn)行初始化的校驗,這也是正確的,因為這些是Cell對象在初始化時需要進(jìn)行校驗的組件。綜上所述,B選項的說法有誤。24.以下常見分布中,哪一項是一般認(rèn)為的線性回歸中的誤差服從的分布A、指數(shù)分布B、伯努利分布C、正態(tài)分布D、泊松分布答案:C解析:線性回歸模型的一個基本假設(shè)是誤差項服從正態(tài)分布。這是因為正態(tài)分布具有許多便于數(shù)學(xué)處理的性質(zhì),如對稱性、可加性等,使得線性回歸模型的參數(shù)估計和假設(shè)檢驗變得簡單可行。指數(shù)分布常用于描述等待時間或生存時間等數(shù)據(jù),伯努利分布用于描述只有兩種可能結(jié)果的隨機(jī)試驗,泊松分布則常用于描述單位時間內(nèi)發(fā)生某事件的次數(shù)。因此,對于這道題目,正確答案是C,即正態(tài)分布。25.自拍時,手機(jī)前置鏡頭顯示的畫面需要通過哪個變換后才能是真實的場景圖像?A、垂直鏡像B、水平鏡像C、旋轉(zhuǎn)D、平移答案:B解析:手機(jī)的前置攝像頭就好像是一面鏡子,自拍時顯示的圖像就好像是你在照鏡子一樣,方向跟前置攝像頭的拍攝方向是相反的,所以自拍時會顯示左右反過來的圖像。26.以下哪一項是語音識別的簡稱?()A、TTSB、ASRC、STTD、AST答案:B解析:SSP(SpeechSignalProcessing,語音信號處理,簡稱語音處理)ASR(Automaticspeechrecognition,自動語音識別)27.John在開發(fā)一個昇騰推理應(yīng)用,需要在一個Stream中代碼執(zhí)行完成之后另一個Stream才能開始執(zhí)行代碼關(guān)于整體代碼編寫,以下哪種說法是正確的?A、可以使用Event模塊同步不同Stream之間的任務(wù)。B、AscendCL不支持不同Stream中的信息同步。C、可以使用Context模塊同步不同Stream之間的任務(wù)。D、可以在一個Stream中創(chuàng)建一個子Stream來完成這種操作。答案:A解析:Context作為一個容器,管理了所有對象(包括Stream、Event、設(shè)備內(nèi)存等)的生命周期。不同Context的Stream、不同Context的Event是完全隔離的,無法建立同步等待關(guān)系。Stream用于維護(hù)一些異步操作的執(zhí)行順序,確保按照應(yīng)用程序中的代碼調(diào)用順序在Device上執(zhí)行。Event支持調(diào)用AscendCL接口同步Stream之間的任務(wù),包括同步Host與Device之間的任務(wù)、Device與Device[間的任務(wù)。28.以下哪一項是代碼mox.file.exists('obs://bucket_name/test01')執(zhí)行的操作?A、創(chuàng)建一個文件夾B、讀取一個OBS上的文件C、列舉—個OBS路徑D、檢查文件夾是否存在答案:D解析:mox.file.exists是檢查文件或目錄是否存在更多文件操作詳見:/moxing-devg-modelarts/modelarts_11_0005.html更多文件操作詳見:/moxing-devg-modelarts/modelarts_11_0004.html29.我們可以利用以下哪種方法實現(xiàn)反向傳播?()A、計算圖B、鏈?zhǔn)椒▌tC、代價函數(shù)D、高階微分答案:B解析:反向傳播算法的實現(xiàn)方法是基于鏈?zhǔn)椒▌t的。在神經(jīng)網(wǎng)絡(luò)中,輸入輸出和權(quán)重值之間的關(guān)系需要通過一系列的神經(jīng)元和節(jié)點進(jìn)行傳遞,而鏈?zhǔn)椒▌t能夠逐層計算每對節(jié)點之間的輸出誤差,從而實現(xiàn)反向傳播。因此,選項B是正確的。30.以下哪個激活函數(shù)可以很好的緩解梯度消失問題?A、SigmoidB、TanhC、SoftsignD、Relu答案:D解析:這道題考察的是對激活函數(shù)特性的理解。在深度學(xué)習(xí)中,激活函數(shù)的選擇對模型的訓(xùn)練效果有很大影響。梯度消失是一個常見問題,它會導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過程中權(quán)重更新緩慢或停止。ReLU(RectifiedLinearUnit)激活函數(shù)在正數(shù)部分保持梯度為1,這有助于緩解梯度消失問題,因為它允許梯度在反向傳播時保持不變,從而有助于保持網(wǎng)絡(luò)的學(xué)習(xí)能力。因此,ReLU是一個很好的選擇來緩解梯度消失問題。31.MindSpore中的nn.cell提供了定義執(zhí)行計算的基本模塊,cell的對象可以直接執(zhí)行以下說法有誤的是?A、還有一些optim常用優(yōu)化器,wrap常用網(wǎng)絡(luò)包裝函數(shù)等與定義cellB、Coststruct,定義執(zhí)行的過程,圖模式時,會被編譯成圖來執(zhí)行,沒有語法限制,C、Bprop(可選)自定義模塊的方向D、__init__,初始化參數(shù)(parameter),子模塊(cell),算子(Primitive)等組件,進(jìn)行初始化的校驗。答案:B解析:在MindSpore中,nn.cell提供了定義執(zhí)行計算的基本模塊,它可以與一些優(yōu)化器、網(wǎng)絡(luò)包裝函數(shù)等一起使用。在圖模式中,cell會被編譯成圖來執(zhí)行,沒有語法限制。而選項B中提到的Coststruct并不是cell對象執(zhí)行過程中的一部分,因此選項B的說法是錯誤的。其他選項中的內(nèi)容都是cell對象執(zhí)行過程中的一部分,因此選項A、C、D都是正確的。32.以下關(guān)于分析說法不正確的是?A、基于規(guī)則的分詞簡單高效,,但是詞典維護(hù)困難B、在實際工程應(yīng)用中,分詞一般只采用一種分詞方法福C、中文不同于英文自然分詞,中文分詞是文本處理的一個基礎(chǔ)步驟。分詞性能的好壞直接影響比如詞性、句法等其他模塊的性能D、統(tǒng)計分詞的目的就是對分詞結(jié)果進(jìn)行概率計算,獲得概率最大的分詞方式答案:B解析:在實際工程應(yīng)用中,分詞通常采用多種分詞方法,以適應(yīng)不同的文本和場景。然而,B選項中的“分詞一般只采用一種分詞方法”是不正確的。其他選項如A、C、D都與分詞的特點和重要性相關(guān),是正確的。33.以下哪一項不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域?A、音樂類B、鬧鐘類C、笑話類D、娛樂類答案:D解析:華為云EI自然語言處理服務(wù)提供的意圖理解API支持的領(lǐng)域包括音樂類、鬧鐘類和笑話類等。因此,不屬于該API支持的領(lǐng)域的選項是D,即娛樂類。34.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、GDC、MGDD、MBGD答案:A解析:在梯度下降算法中,不同的算法對應(yīng)著損失函數(shù)曲面上不同的軌跡特性。SGD(隨機(jī)梯度下降)由于其每次更新只隨機(jī)選取一個樣本來計算梯度,導(dǎo)致梯度方向的變化較大,因此軌跡相對較為混亂。相比之下,BGD(批量梯度下降)使用全部數(shù)據(jù)來計算梯度,每次更新的方向更加穩(wěn)定。MGD并不是一個標(biāo)準(zhǔn)的梯度下降算法名稱,可能是對某種特定變體或誤解的表述。MBGD(小批量梯度下降)則是每次更新使用一小批數(shù)據(jù),其軌跡介于SGD和BGD之間。因此,軌跡最混亂的算法是SGD,即選項A。35.在坐標(biāo)變化時,我們可以使用以下哪種方法得到像素點的整數(shù)值?()A、采樣B、均值C、量化D、插值答案:C解析:采樣:將空間上連續(xù)的圖像變換成離散點的操作稱為采樣。量化:經(jīng)采樣圖像被分割成空間上離散的像素,但其灰度是連續(xù)的,還不能用計算機(jī)進(jìn)行處理,所以需要量化操作將灰度轉(zhuǎn)換成離散的整數(shù)值。插值:坐標(biāo)變化后得到的坐標(biāo)不一定是整數(shù),非整數(shù)坐標(biāo)處的像素值需要用周圍的整數(shù)坐標(biāo)的像素值來進(jìn)行計算。36.反向傳播算法是神經(jīng)網(wǎng)絡(luò)更新參數(shù)的重要方法,反向傳播算法借助于以下哪個計算方法得以實現(xiàn)。()A、計算圖B、高階微分C、代價函數(shù)D、鏈?zhǔn)椒▌t答案:D解析:鏈?zhǔn)角髮?dǎo)方法37.以下哪個不是LSTM中cell的門?A、輸入門B、遺忘門C、記憶門D、輸出門答案:C解析:LSTM(長短期記憶網(wǎng)絡(luò))是一種特殊的RNN(遞歸神經(jīng)網(wǎng)絡(luò))結(jié)構(gòu),用于解決傳統(tǒng)RNN在處理長序列數(shù)據(jù)時出現(xiàn)的梯度消失或梯度爆炸問題。LSTM的核心是其cell結(jié)構(gòu),它包含三個主要的“門”來控制信息的流動:輸入門、遺忘門和輸出門。?輸入門控制新信息流入cell的程度。?遺忘門決定哪些信息應(yīng)該被遺忘,即從cell狀態(tài)中去除。?輸出門控制cell狀態(tài)中有多少信息應(yīng)該被輸出?!坝洃涢T”不是LSTMcell中的一個標(biāo)準(zhǔn)組成部分。因此,根據(jù)LSTM的定義和結(jié)構(gòu),選項C“記憶門”是不正確的,答案是C。38.Mindspore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個模塊?A、mindspore.numpyB、mindspore.nnC、mindspore.opsD、mindspore.dataset.vision答案:D解析:MindSpore是一款全場景深度學(xué)習(xí)框架,其中集成了多種用于深度學(xué)習(xí)和數(shù)據(jù)處理的功能模塊。其中,`mindspore.dataset.vision`是用于圖像和視頻數(shù)據(jù)增強(qiáng)的模塊。因此,當(dāng)用戶問到“MindSpore深度學(xué)習(xí)框架專門用于圖像增強(qiáng)的是以下哪一個模塊”時,正確是D.mindspore.dataset.vision。39.語音識別的難度有?()A、個人特征因素B、場景因素C、地域因素D、以上都是答案:D解析:全選40.神經(jīng)網(wǎng)絡(luò)語言模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是什么?A、TanhB、ReLUC、SigmoidD、Softmax答案:D解析:在神經(jīng)網(wǎng)絡(luò)語言模型中,特別是在處理文本生成或分類任務(wù)時,網(wǎng)絡(luò)輸出層通常采用Softmax激活函數(shù)。Softmax函數(shù)能夠?qū)⒛P偷妮敵鲛D(zhuǎn)化為概率分布,這對于生成離散的文本序列(如單詞)或選擇分類標(biāo)簽特別有用。?Tanh和Sigmoid函數(shù)通常用于隱藏層,因為它們可以將輸入值壓縮到[-1,1]或[0,1]的范圍內(nèi),但不適合用于輸出層,因為它們不能產(chǎn)生真正的概率分布。?ReLU(RectifiedLinearUnit)函數(shù)也常用于隱藏層,因為它在輸入為正時保持輸入值不變,而在輸入為負(fù)時輸出零,有助于引入稀疏性。因此,在神經(jīng)網(wǎng)絡(luò)語言模型中,網(wǎng)絡(luò)輸出層采用的激活函數(shù)是Softmax,所以正確答案是D。41.以下哪個不是MindSpore核心架構(gòu)的特點?A、自動并行B、自動調(diào)優(yōu)C、自動編碼D、自動微分答案:C解析:MindSpore是一款面向全場景深度學(xué)習(xí)框架,其核心架構(gòu)特點主要圍繞自動化和高效性展開。具體來說,自動并行(A)能夠提升模型訓(xùn)練速度,通過并行計算減少時間成本;自動調(diào)優(yōu)(B)則是優(yōu)化模型性能,減少人為調(diào)試的時間和精力;自動微分(D)是深度學(xué)習(xí)中的關(guān)鍵技術(shù),用于自動計算梯度,支持高效的模型訓(xùn)練。而自動編碼(C)并不屬于MindSpore核心架構(gòu)的特點,它更多是指代碼自動生成或編寫,與MindSpore的核心功能和優(yōu)化目標(biāo)不直接相關(guān)。因此,答案是C。42.以下哪一項是在標(biāo)準(zhǔn)RNN結(jié)構(gòu)中的隱藏層中使用的激活函數(shù)?A、RaLUB、tanhC、SoftmaxD、Sigmoid答案:B解析:在標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)結(jié)構(gòu)中,隱藏層通常使用激活函數(shù)來增加模型的非線性性質(zhì)和表示能力。其中,tanh函數(shù)是一個常用的激活函數(shù),用于處理二值輸入的輸出層或者隱藏層,使模型在某些特定任務(wù)中表現(xiàn)出色。因此,選項B“tanh”是正確的。43.FrommindsporeimportopsOnespke=ops.OnesLikeX=Tensor(np.array(123.[123.[0,1].123.[2.1]]).astype(32))Oneput=onespke(x)A、創(chuàng)建一個2?2的張量output,其中每一個元素值都為1B、創(chuàng)建一個2?2的張量output,其中元素的值為0,1,2,1C、創(chuàng)建一個2?2的張量output,其中每個元素的值隨機(jī)確定D、創(chuàng)建一個2?1的張量值從123.[0,1]和123.[2,1]中隨機(jī)挑選答案:A解析:老師給的答案是B。有大神驗證完是A。如果不會已A答案為主。44.John自己編寫了一個人工智能計算框架,其中部分算子不適配昇騰芯片,則John需要如何操作來解決這個問題?A、通過CANN(ComputeArchitectureforneuralnetwork)中的已有算子進(jìn)行適配。B、通過適配層,完成不同框架的圖到FE(FusionEngine)lRGraph的轉(zhuǎn)換。C、通過TBE(TensorBoostEngine),完成不同框架的算子到昇騰算子的映射。D、通過ATC(AscendTensorCompiler)完成算子轉(zhuǎn)換。答案:C解析:John需要通過TBE(TensorBoostEngine)完成不同框架的算子到昇騰算子的映射,以解決算子不適配昇騰芯片的問題。這是因為TBE是華為Ascend(昇騰)系列芯片的配套工具,能夠?qū)⒉煌蚣艿乃阕舆m配到昇騰芯片上,從而實現(xiàn)高效的計算和推理。其他選項如CANN、適配層、ATC等,雖然在某些情況下可能有用,但它們并不是針對昇騰芯片的專門工具。45.在達(dá)芬奇架構(gòu)中關(guān)于矩陣計算,以下哪個選項和矩陣計算單元主要完成矩陣相關(guān)運算?A、寄存器B、累加器C、運算器D、控制器答案:B解析:這道題考察的是對達(dá)芬奇架構(gòu)中矩陣計算單元的理解。在達(dá)芬奇架構(gòu)中,矩陣計算單元是專門用于處理矩陣相關(guān)運算的。根據(jù)架構(gòu)的設(shè)計,矩陣計算單元主要依賴?yán)奂悠鱽硗瓿删仃嚨倪\算任務(wù)。運算器雖然也參與計算,但不是特指矩陣運算;寄存器用于存儲數(shù)據(jù);控制器則負(fù)責(zé)指令的控制,不直接參與矩陣運算。因此,正確答案是C,累加器。46.高斯濾波可以克服均值濾波的什么問題?()A、去噪(高斯濾波主要作用就是降噪)B、模糊化C、計算慢(計算原理一樣,所以計算速度取決于數(shù)據(jù)大小)D、計算量大(同答案:B解析:均值濾波會產(chǎn)生模糊化高斯則避免這個問題產(chǎn)生。47.使用ModelArts自動學(xué)習(xí)構(gòu)建預(yù)測分析項目時,若標(biāo)簽列為枚舉型數(shù)據(jù),以下哪一項是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、連續(xù)數(shù)值和回歸模型B、離散值和回歸模型C、連續(xù)數(shù)值和分類模型D、離散值和分類模型答案:D解析:在使用ModelArts自動學(xué)習(xí)構(gòu)建預(yù)測分析項目時,標(biāo)簽列的數(shù)據(jù)類型是一個重要的考慮因素,因為它決定了可以選擇的模型類型。枚舉型數(shù)據(jù)本質(zhì)上是離散的,意味著標(biāo)簽是由一組有限的、可數(shù)的值組成的。對于這類數(shù)據(jù),通常會使用分類模型來進(jìn)行訓(xùn)練和預(yù)測。因此,標(biāo)簽列數(shù)據(jù)類型為離散值,訓(xùn)練的模型類型為分類模型,選項D是正確的。48.以下關(guān)于詞向量說法錯誤的是哪一項?A、BERT與ELMo都可以生成動態(tài)詞向量。B、Word2Vec有兩種類型,Skip-gram與CBOW。C、原始的Glove方法可以很好的處理未登錄詞問題。D、用fastText獲取詞向量能夠考慮子詞級別信息。答案:C解析:對于題目中關(guān)于詞向量的各個說法,我們可以根據(jù)各模型與方法的特性和使用情況來進(jìn)行分析:A項正確。BERT和ELMo都是目前主流的動態(tài)詞向量生成模型。B項也正確。Word2Vec是一個可以用于生成詞向量的算法,它主要分為Skip-gram和CBOW兩種訓(xùn)練模式。D項同樣正確。fastText除了能獲取詞向量之外,它的算法特點是可以考慮子詞級別信息。然而,對于C項,原始的Glove方法雖然可以生成詞向量,但并不特別擅長處理未登錄詞問題。因此,這個說法是錯誤的。綜上所述,正確答案是C項。49.某機(jī)器學(xué)習(xí)模型對訓(xùn)練集的準(zhǔn)確率很高,但對測試集則效果不佳,其原因可能是以下哪一項?A、欠擬合B、過擬合C、參數(shù)辻少D、機(jī)器性能問題答案:B解析:答案選B。過擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但在新的測試集上表現(xiàn)不佳。當(dāng)模型過度學(xué)習(xí)訓(xùn)練集的細(xì)節(jié)和噪聲,導(dǎo)致其泛化能力變差,無法很好地適應(yīng)新的數(shù)據(jù)。而欠擬合是模型在訓(xùn)練集和測試集上表現(xiàn)都不好;參數(shù)過少通常導(dǎo)致模型無法充分學(xué)習(xí)數(shù)據(jù)特征;機(jī)器性能問題一般不會導(dǎo)致這種訓(xùn)練集和測試集表現(xiàn)差異的情況。所以該題答案為B過擬合。50.在一個任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)算法類型的理解。半監(jiān)督學(xué)習(xí)是指同時使用有標(biāo)記數(shù)據(jù)和無標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的學(xué)習(xí)方法。根據(jù)題目描述,學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這正是半監(jiān)督學(xué)習(xí)的特點。因此,正確答案是A。51.在坐標(biāo)變化時,計算得到的坐標(biāo)數(shù)值不是整數(shù),需要使用什么方法獲取像素的值?A、插值B、采樣C、量化D、均值答案:A解析:坐標(biāo)數(shù)值不是整數(shù)的情況下,需要進(jìn)行插值計算,以獲得該像素的真實數(shù)值。選項A“插值”方法正是用于這一目的。因此,正確是A。52.一副8位RGB的彩色圖像中,(255,255,255)代表著什么著色A、紅色B、白色C、黑色D、藍(lán)色答案:B解析:在8位RGB色彩空間中,(255,255,255)代表白色,因為這三種顏色的強(qiáng)度值都達(dá)到了最大值,表示了明亮的白色。所以,選項B是正確的。53.以下算法中不屬于有監(jiān)督學(xué)習(xí)的是?()A、線性回歸B、決策樹C、KNND、K-means答案:D解析:有監(jiān)督學(xué)習(xí)是指在訓(xùn)練過程中,使用有標(biāo)簽的數(shù)據(jù)來訓(xùn)練模型,以便模型能夠?qū)ξ粗獢?shù)據(jù)進(jìn)行預(yù)測或分類。常見的有監(jiān)督學(xué)習(xí)算法包括線性回歸、決策樹、KNN(k近鄰算法)等。而K-means是一種無監(jiān)督學(xué)習(xí)算法,它用于將數(shù)據(jù)集分成k個簇,使得每個簇內(nèi)的數(shù)據(jù)點相似度較高,而不同簇之間的數(shù)據(jù)點相似度較低。因此,K-means不屬于有監(jiān)督學(xué)習(xí)算法。所以,正確答案是D。54.GMM在傳統(tǒng)語音識別任務(wù)中主要的功能是?A、輸出特征對應(yīng)幀的概率B、輸出特征對應(yīng)語音的概率C、輸出特征對應(yīng)狀態(tài)的概率D、輸出特征對應(yīng)因素的概率答案:D解析:GMM(高斯混合模型)在傳統(tǒng)語音識別任務(wù)中,主要用于對語音信號的特征進(jìn)行建模。具體到功能,它輸出的是特征對應(yīng)因素的概率,這里的“因素”指的是影響語音信號的各種變量或?qū)傩?。因此,選項D“輸出特征對應(yīng)因素的概率”是正確的。這一功能使得GMM能夠有效地用于語音信號的建模和識別任務(wù)中。55.John在使用AscendCL開發(fā)一個實時推理的應(yīng)用,在編寫代碼時,應(yīng)該選擇同步還是異步的接口?A、選擇同步B、選擇異步C、選擇同步和異步都可以D、代碼中必須同時使用同步和異步答案:A解析:在AscendCL開發(fā)實時推理的應(yīng)用時,由于需要確保程序的實時性和性能,通常建議選擇同步的接口。這是因為同步接口可以保證代碼的執(zhí)行順序和時間,避免出現(xiàn)延遲或錯誤。異步接口雖然可以提高程序的性能,但在實時應(yīng)用中可能會引入不確定性和風(fēng)險。因此,為A,即選擇同步接口。56.圖像處理任務(wù)中,數(shù)據(jù)集的真實標(biāo)簽被稱為?A、GreatTrurhB、GreatTargetC、GroundTruthD、GroundTarget答案:C解析:在圖像處理任務(wù)中,數(shù)據(jù)集的真實標(biāo)簽通常被稱為GroundTruth,因為它代表了真實的數(shù)據(jù)和信息,是進(jìn)行算法訓(xùn)練和評估的重要參考。因此,選項C是正確的。57.下面哪種卷積神經(jīng)網(wǎng)絡(luò)的層數(shù)最多.()A、ResNetB、AlexNetC、VGG16D、LeNet答案:A解析:卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)的層數(shù)因網(wǎng)絡(luò)架構(gòu)的不同而異。AlexNet、VGG16和LeNet通常具有較少的層數(shù),通常為幾層到十幾層。而ResNet是一種特殊的CNN,其設(shè)計思想是通過引入殘差連接和塊(ResidualBlocks)來克服深度CNN中的梯度消失和退化問題,因此其層數(shù)較多,可以達(dá)到幾十層甚至上百層。因此,是A.ResNet。58.CANN(ComputeArchitectureforNeuralNetwork)中包含多個子系統(tǒng),其中哪個子系統(tǒng)負(fù)責(zé)對子圖進(jìn)行優(yōu)化?A、TBE(TensorBoostEngine)B、FE(FusionEngine)C、算子適配插件D、GE(GraphEngine)答案:B解析:FE定位于AlCore的數(shù)據(jù)引擎,它提供圖的優(yōu)化分析、管理算子融合規(guī)則、算子融合功能、算子信息庫管理、使能自定義算子等功能。59.以下哪一項是異騰310芯片的功耗?A、8WB、7WC、9wD、6w答案:A解析:昇騰310為推理芯片,最大功耗8W;昇騰910為訓(xùn)練芯片,最大功耗310W60.以下哪個選項是AI芯片業(yè)務(wù)從應(yīng)用上的分類?()A、推理和加速B、加速和訓(xùn)練C、訓(xùn)練和推理D、編譯和訓(xùn)練答案:C解析:這道題考察的是對AI芯片業(yè)務(wù)應(yīng)用分類的理解。在AI領(lǐng)域,芯片業(yè)務(wù)主要圍繞兩大核心應(yīng)用:訓(xùn)練和推理。訓(xùn)練是指使用大量數(shù)據(jù)來優(yōu)化AI模型的過程,而推理則是使用訓(xùn)練好的模型進(jìn)行實際預(yù)測或分類的過程。根據(jù)這個知識點,我們可以分析每個選項:?A選項“推理和加速”中,加速并不是AI芯片業(yè)務(wù)的一個核心應(yīng)用分類。?B選項“加速和訓(xùn)練”同樣包含了非核心應(yīng)用“加速”。?C選項“訓(xùn)練和推理”準(zhǔn)確地列出了AI芯片業(yè)務(wù)的兩大核心應(yīng)用。?D選項“編譯和訓(xùn)練”中,編譯并不是AI芯片業(yè)務(wù)的一個核心應(yīng)用分類。因此,正確答案是C,即AI芯片業(yè)務(wù)從應(yīng)用上分為訓(xùn)練和推理。61.N-gram被定義為N個關(guān)鍵詞組合在一起。從給定的句子可以產(chǎn)生多少三元組短語?[AnalyticsVidhyaisagreatsourcetolearndatascience]。()A、6B、7C、8D、9答案:C解析:AnalyticsVidhyais;Vidhyaisa;isagreat;agreatsource;greatsourceto;sourcetolearn;tolearndata;learndatascience。N-gram基于馬爾科夫假設(shè)只考慮前n個詞語62.在ModelArts提供的功能中,在線服務(wù)屬于以下哪一項服務(wù)?()A、模型管理B、部署C、模型訓(xùn)練D、數(shù)據(jù)處理答案:B解析:模型準(zhǔn)備完成后,您可以將模型部署為在線服務(wù),對在線服務(wù)進(jìn)行預(yù)測和調(diào)用63.使用ModelArts自動學(xué)習(xí)構(gòu)建預(yù)測分析項目時,若標(biāo)簽列為數(shù)值型連續(xù)數(shù)據(jù),以下哪一項是標(biāo)簽列數(shù)據(jù)類型和訓(xùn)練的模型類型?A、離散值和回歸模型B、連續(xù)數(shù)值和分類模型C、離散值和分類模型D、連續(xù)數(shù)值和回歸模型答案:C64.spectrogram函數(shù)中的nperseg參數(shù)可以設(shè)置以下哪一項參數(shù)?A、采樣頻率B、幀移C、窗函數(shù)D、幀長答案:D解析:這道題考察的是對spectrogram函數(shù)中參數(shù)的理解。在spectrogram函數(shù)中,noverlap參數(shù)是用來設(shè)置幀移的,也就是連續(xù)幀之間的重疊樣本數(shù)。通過調(diào)整這個參數(shù),可以控制幀之間的重疊程度,進(jìn)而影響頻譜分析的結(jié)果。因此,正確答案是C,表示noverlap參數(shù)設(shè)置的是幀移。65.以下選項中,哪個選項的模型無法分割非線性數(shù)據(jù)集?A、一元線性回歸B、神經(jīng)網(wǎng)絡(luò)C、svmD、KNN答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)模型的理解,特別是它們處理非線性數(shù)據(jù)集的能力。一元線性回歸模型是基于線性方程的,因此它無法捕捉數(shù)據(jù)中的非線性關(guān)系。相比之下,神經(jīng)網(wǎng)絡(luò)、SVM(支持向量機(jī))和KNN(K-最近鄰)都是能夠處理非線性數(shù)據(jù)集的模型,因為它們能夠?qū)W習(xí)數(shù)據(jù)中的復(fù)雜模式和關(guān)系。所以,正確答案是A,一元線性回歸模型無法分割非線性數(shù)據(jù)集。66.John在使用模型生成文本時,發(fā)現(xiàn)模型會產(chǎn)生不準(zhǔn)確、無關(guān)或虛構(gòu)的信息,這是模型的什么特性?A、涌現(xiàn)B、真實性C、幻覺D、可解釋性答案:C解析:在自然語言處理中,當(dāng)模型生成不準(zhǔn)確、無關(guān)或虛構(gòu)的信息時,這種現(xiàn)象被稱為“幻覺”?!坝楷F(xiàn)”通常指復(fù)雜系統(tǒng)中突然出現(xiàn)的新特性或行為。“真實性”明顯與產(chǎn)生錯誤信息不符?!翱山忉屝浴笔侵改P蜎Q策和輸出的可理解和可追溯程度,并非指生成錯誤信息。所以,正確答案是選項C。67.不屬于LSTM的cell當(dāng)中的門的選項是?A、輸入門B、遺忘門C、記憶門D、輸出門答案:C解析:這道題考察的是對LSTM(長短期記憶網(wǎng)絡(luò))結(jié)構(gòu)的理解。LSTM是一種特殊的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過引入三個“門”結(jié)構(gòu)來控制信息的流動,分別是遺忘門、輸入門和輸出門。這三個門分別負(fù)責(zé)決定哪些信息應(yīng)該被遺忘、哪些新信息應(yīng)該被存儲以及哪些信息應(yīng)該被輸出。而“記憶門”并不是LSTM結(jié)構(gòu)中的一部分,因此選項C是不屬于LSTM的。68.伽馬變化是()處理,直方圖均衡化是()處理,均值濾波是()處理。A、點處理,局部處理,大局處理B、局部處理,點處理,大局處理C、點處理,大局處理,局部處理D、大局處理,點處理,局部處理答案:C解析:伽馬變化是對圖像的每個像素點進(jìn)行獨立的調(diào)整,不涉及其周圍的像素,因此屬于點處理。直方圖均衡化是通過調(diào)整圖像的直方圖來改變圖像的對比度,這是一個全局性的調(diào)整,影響圖像的所有像素,因此屬于大局處理。均值濾波是通過計算像素點周圍鄰域內(nèi)像素的平均值來替換該像素值,這是一個局部性的處理,因此屬于局部處理。綜上所述,正確答案是C。69.根據(jù)已標(biāo)注的數(shù)據(jù)訓(xùn)練得到模型,使用該模型預(yù)測輸出的是一個連續(xù)的數(shù)值,這類任務(wù)的應(yīng)用示例:預(yù)測投保人的索賠金額(用于設(shè)置保險費)。那么該機(jī)器學(xué)習(xí)屬于哪—種類型的任務(wù)?()A、回歸B、聚類C、生成D、分類答案:A解析:根據(jù)題目的描述,使用已標(biāo)注的數(shù)據(jù)訓(xùn)練得到的模型用于預(yù)測輸出連續(xù)數(shù)值,例如預(yù)測投保人的索賠金額以設(shè)置保險費。這種任務(wù)屬于回歸任務(wù),因為回歸任務(wù)是預(yù)測一個連續(xù)變量的任務(wù)。因此,為A,即回歸任務(wù)。70.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯誤的是哪一項?A、各層節(jié)點中具有計算功能的神經(jīng)元,稱為計算單元,每個神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點具有計算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。答案:B解析:輸入層節(jié)點的功能不只是為了表征輸入矢量各元素值,而是起到了收集輸入信息、并決定進(jìn)入隱含層的節(jié)點的數(shù)據(jù)成分的功能。選項B表述錯誤,所以為B。71.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、梯度下降B、DropoutC、交叉驗證D、正則化答案:A解析:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,我們的主要目標(biāo)是讓損失函數(shù)不斷減少,以達(dá)到模型性能的優(yōu)化。梯度下降法是一種常用的優(yōu)化算法,它通過計算損失函數(shù)關(guān)于模型參數(shù)的梯度,并更新這些參數(shù)以使損失函數(shù)減小。Dropout主要用于防止模型過擬合,正則化也是減少過擬合的一種技術(shù),而交叉驗證主要用于模型評估。因此,對于最小化損失函數(shù),梯度下降是最直接且常用的方法。所以,選項C是正確的。72.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯誤的是哪一項?A、CPU的功能主要是解釋計算機(jī)指令以及處理計算機(jī)硬件中的數(shù)據(jù)。B、FPGA實現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個人電腦、工作站,游戲和一些移動設(shè)備上進(jìn)行圖像運算工作的微處理器。答案:A解析:這道題考察的是對AI芯片相關(guān)技術(shù)架構(gòu)的理解。A選項提到CPU的功能,但實際上在AI芯片領(lǐng)域,CPU雖然可以解釋計算機(jī)指令和處理數(shù)據(jù),但其并不是AI芯片的主要組成部分,AI芯片更多關(guān)注于如GPU、FPGA、SIC等針對特定計算任務(wù)優(yōu)化的硬件。B選項描述FPGA(現(xiàn)場可編程門陣列)實現(xiàn)了半定制芯片的功能,這是正確的,F(xiàn)PGA可以根據(jù)需要進(jìn)行編程,實現(xiàn)特定的硬件邏輯功能。C選項中的ASIC(專用集成電路)屬于專用集成電路,這也是正確的,ASIC是為了執(zhí)行特定任務(wù)而設(shè)計的集成電路。D選項描述GPU(圖形處理單元)是一種專門在個人電腦、工作站、游戲和一些移動設(shè)備上進(jìn)行圖像運算工作的微處理器,這是準(zhǔn)確的,GPU在圖像處理和并行計算方面表現(xiàn)出色,也是AI計算中常用的硬件。綜上所述,A選項的描述與AI芯片的技術(shù)架構(gòu)不符,是錯誤的。73.以下哪一選項不屬于馬爾科夫模型的三要素?()A、狀態(tài)集合B、觀測概率C、轉(zhuǎn)移概率D、初始概率答案:A解析:馬爾科夫模型三要素:狀態(tài)轉(zhuǎn)移矩陣,觀測概率,初始狀態(tài)概率向量74.如果想要對圖像翻拍情況進(jìn)行檢測,可以調(diào)用華為云圖像標(biāo)簽服務(wù)提供的功能,主要由以下哪個函數(shù)實現(xiàn)?A、image_tagging_aksk()B、init_global_envoC、recapture_detect_aksk()答案:A解析:華為云圖像標(biāo)簽服務(wù)提供的功能可以通過調(diào)用`image_tagging_aksk()`函數(shù)來實現(xiàn)對圖像翻拍情況的檢測。這個函數(shù)是華為云圖像標(biāo)簽服務(wù)提供的API之一,它允許用戶上傳圖像并獲取圖像的標(biāo)簽信息,包括翻拍情況等。因此,正確答案是A。需要注意的是,使用這個函數(shù)需要用戶先開通華為云圖像識別服務(wù),并獲取相應(yīng)的AK/SK(訪問密鑰)和project_id。同時,用戶還需要將圖像內(nèi)容轉(zhuǎn)換為Base64編碼,并構(gòu)建API請求參數(shù),然后發(fā)送POST請求到華為云圖像識別服務(wù)的圖像搜索API端點,并解析API響應(yīng)。最終,用戶可以處理搜索結(jié)果,例如打印相似圖像的URL或進(jìn)行其他操作??傊?,`image_tagging_aksk()`函數(shù)是華為云圖像標(biāo)簽服務(wù)中用于檢測圖像翻拍情況的重要函數(shù)之一。75.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項是正確的?A、二次代價函數(shù)更多得用于分類問題問題,而交叉熵代價函數(shù)一般用于聚類問題。B、二次代價函數(shù)關(guān)心目標(biāo)輸出和實際輸出之間的類別差異。C、二次代價函數(shù)刻畫了兩個概率分布之間的距離。D、訓(xùn)練的目的是使得損失函數(shù)逐漸減小,直至達(dá)到0。答案:B解析:二次代價函數(shù)更多用于回歸問題,交叉熵代價函數(shù)更多用于分類問題,所以A錯誤。二次代價函數(shù)刻畫的是目標(biāo)值與輸出值之間的距離,而不是概率分布的距離,所以C錯誤。訓(xùn)練的目的是使得損失函數(shù)減小,然后趨于穩(wěn)定,不一定會降至0,所以D錯誤。76.知識圖譜構(gòu)建過程中需要進(jìn)行信息抽取,以下哪一項不屬于信息抽取的關(guān)鍵技術(shù)?A、屬性抽取B、參數(shù)抽取C、實體抽取D、關(guān)系抽取答案:B解析:在知識圖譜構(gòu)建過程中,信息抽取是一個關(guān)鍵步驟,其主要任務(wù)是從原始數(shù)據(jù)中提取出結(jié)構(gòu)化的信息,如實體、屬性和關(guān)系。其中,實體抽取用于識別文本中的實體(如人名、地名、事物名稱等);屬性抽取用于識別實體的屬性(如年齡、性別、顏色等);關(guān)系抽取用于識別實體之間的關(guān)聯(lián)和交互。而參數(shù)抽取一般是指從數(shù)學(xué)、統(tǒng)計學(xué)等領(lǐng)域的特定數(shù)據(jù)中提取參數(shù)信息,與信息抽取的關(guān)鍵技術(shù)不直接相關(guān)。因此,選項B是正確答案。77.MindSpore中用于保存模型權(quán)重的接口是以下哪個選項?A、mindspore.save_checkpoint(model,"model.ckpt")B、mindspore.load_checkpoint("model.ckpt")C、mindspore.load_param_into_net(model,param_dict)D、mindspore.ops.no_gradient答案:A解析:這道題考察的是對MindSpore框架中模型保存接口的了解。在MindSpore中,`save_checkpoint`是用于保存模型權(quán)重和參數(shù)的接口,而`load_checkpoint`是用于加載模型權(quán)重和參數(shù)的接口,`load_param_into_net`用于將參數(shù)加載到網(wǎng)絡(luò)中,`ops.no_gradient`用于指定某個操作不計算梯度。因此,正確答案是A。78.John在開發(fā)昇騰應(yīng)用,現(xiàn)在他在筆記本電腦上創(chuàng)建了開發(fā)環(huán)境,遠(yuǎn)程連接了一個搭載了Atlas300l推理卡的服務(wù)器,在這種場景下,Device指的是以下那一個選項?A、筆記本B、服務(wù)器C、推理卡D、Ascend910芯片答案:C解析:在這個場景下,John在筆記本電腦上創(chuàng)建了開發(fā)環(huán)境,并遠(yuǎn)程連接了一個搭載了Atlas300l推理卡的服務(wù)器。這里的“Device”通常指的是執(zhí)行計算任務(wù)的具體硬件設(shè)備。在這個上下文中,Atlas300l推理卡是負(fù)責(zé)執(zhí)行推理任務(wù)的硬件設(shè)備,因此“Device”指的是推理卡。所以,正確答案是C。79.以下關(guān)于非線性支持向量機(jī)的描述中,哪一項是錯誤的?A、高斯核函數(shù)是使用較為頻繁的核函數(shù)。B、使用線性支持向量機(jī)可以很好的作用在線性可分?jǐn)?shù)據(jù)集上,因此非線性支持向量機(jī)效果比較差C、可以使用核函數(shù)來構(gòu)建非線性支持向量機(jī)。D、核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面答案:B解析:這道題考察的是非線性支持向量機(jī)的理解。高斯核函數(shù)確實是常用的核函數(shù)之一,所以A選項描述正確。核函數(shù)的作用是在高維空間中找到最佳的超平面進(jìn)行分類,這是支持向量機(jī)的基本原理,B選項正確。通過使用核技巧,支持向量機(jī)可以實現(xiàn)非線性分類,C選項描述也是準(zhǔn)確的。至于D選項,線性支持向量機(jī)適用于線性可分?jǐn)?shù)據(jù)集,但這并不意味著非線性支持向量機(jī)效果就差,它的優(yōu)勢在于處理非線性問題,因此D選項描述錯誤。80.計算機(jī)通過具有標(biāo)簽的圖片數(shù)據(jù)學(xué)習(xí)分辨哪些圖片是蘋果,哪些圖片是梨,這一場景最符合以下哪一類型的學(xué)習(xí)?A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A解析:這道題考察的是對機(jī)器學(xué)習(xí)類型的理解。在計算機(jī)視覺任務(wù)中,如果計算機(jī)通過已標(biāo)記的圖片數(shù)據(jù)學(xué)習(xí)分類,這屬于監(jiān)督學(xué)習(xí)。因為監(jiān)督學(xué)習(xí)是指使用一組已知類別的樣本來訓(xùn)練模型,使其學(xué)會將輸入數(shù)據(jù)映射到相應(yīng)的類別標(biāo)簽。在這個場景中,圖片數(shù)據(jù)已經(jīng)具有了“蘋果”或“梨”的標(biāo)簽,因此最符合監(jiān)督學(xué)習(xí)的定義。81.以下關(guān)于交叉驗證的描述中,哪一項是錯誤的A、k-折交叉驗證是常用的交叉驗證方法B、交叉驗證首先用訓(xùn)練集對分類器進(jìn)行訓(xùn)練再利用驗證集來測試訓(xùn)練得到的模型以此來做為評價分類器的性能指標(biāo)C、交叉驗證是用來驗證分類器的性能一種統(tǒng)計分析方法D、k-折交叉驗證方法中的k不是超參數(shù)是由模型訓(xùn)練得來的答案:D解析:這道題考察的是對交叉驗證的理解。交叉驗證是一種評估模型性能的方法,其中k-折交叉驗證是常用的一種。在這個過程中,數(shù)據(jù)集被分成k份,每次用其中k-1份作為訓(xùn)練集,剩余的一份作為驗證集,重復(fù)k次,每次選擇不同的驗證集。選項A正確描述了k-折交叉驗證是常用的方法。選項B正確描述了交叉驗證的基本過程。選項C正確指出交叉驗證是一種統(tǒng)計分析方法。而選項D錯誤,因為k-折交叉驗證中的k是人為設(shè)定的,不是由模型訓(xùn)練得來的,它是一個超參數(shù)。82.以下屬于語言模型的是?()A、daboostB、N-gramC、GTD、T答案:B解析:Adaboost屬于集成學(xué)習(xí)思想;DT即決策樹,通用機(jī)器學(xué)習(xí)模型;N-gram是專門用于NLP的模型83.在深度學(xué)習(xí)領(lǐng)域中,以下哪些激活函數(shù)的值域位于0到正無窮的區(qū)間內(nèi)?()A、SeLUB、sigmoidC、tanhD、ReLU答案:D解析:SeLU的值可能小于0,tanh位于-1~1,Sigmoid位于0~184.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個模型?A、K-MeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)答案:C解析:“近朱者赤近墨者黑”這一說法形象地表達(dá)了相似樣本之間的相互影響。在有監(jiān)督學(xué)習(xí)中,KNN(K-最近鄰)算法正是基于這種思想,即一個樣本的標(biāo)簽受其最近的K個鄰居樣本的標(biāo)簽影響。因此,這個說法用來形容KNN模型是最貼切的。選項A的K-Means是聚類算法,屬于無監(jiān)督學(xué)習(xí);選項B的SVM(支持向量機(jī))和選項D的神經(jīng)網(wǎng)絡(luò),雖然都是有監(jiān)督學(xué)習(xí)模型,但它們的決策機(jī)制并不直接基于樣本之間的相似性。因此,正確答案是C。85.FusionDirector為服務(wù)器和華為邊緣設(shè)備統(tǒng)一運維管理軟件,以下哪一項不是它的特性?A、為數(shù)據(jù)中心提供硬件精細(xì)化管理能力B、為智算中心提供一站式軟件部署服務(wù)C、為公有云提供大規(guī)模服務(wù)器自動化運維能力D、為私有云提供一站式硬件管理能力答案:B解析:FusionDirector是華為提供的一款服務(wù)器和邊緣設(shè)備統(tǒng)一運維管理軟件。根據(jù)軟件的功能描述:A項,F(xiàn)usionDirector確實為數(shù)據(jù)中心提供了硬件的精細(xì)化管理能力,這是其基礎(chǔ)功能之一。C項,F(xiàn)usionDirector支持公有云的大規(guī)模服務(wù)器自動化運維,這也是其重要特性。D項,F(xiàn)usionDirector同樣為私有云提供了一站式硬件管理能力,這也是它作為運維管理軟件的核心功能。然而,B項提到“為智算中心提供一站式軟件部署服務(wù)”并非FusionDirector的核心特性或主要功能。FusionDirector主要關(guān)注硬件的管理和運維,而非軟件部署服務(wù)。因此,B項不是FusionDirector的特性,答案選B。86.遷移學(xué)習(xí)是將某個領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識或模式應(yīng)用到不同但相關(guān)的領(lǐng)域或問題中。以下哪一種是實現(xiàn)遷移學(xué)習(xí)常用的技術(shù)手段?A、重新訓(xùn)練B、模型微週(Fine-tuning)C、暫退法(Drput)D、標(biāo)簽平滑答案:B解析:遷移學(xué)習(xí)旨在將一個領(lǐng)域或任務(wù)中學(xué)到的知識應(yīng)用于另一個相關(guān)但不同的領(lǐng)域或任務(wù)。在給出的選項中,A項“重新訓(xùn)練”通常意味著從頭開始訓(xùn)練一個新模型,不涉及遷移學(xué)習(xí)的概念。C項“暫退法(Dropout)”和D項“標(biāo)簽平滑”是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時用于防止過擬合的技術(shù),而非遷移學(xué)習(xí)的技術(shù)手段。B項“模型微調(diào)(Fine-tuning)”是遷移學(xué)習(xí)中常用的技術(shù)手段,它利用在源任務(wù)上預(yù)訓(xùn)練的模型,在新的目標(biāo)任務(wù)上進(jìn)行調(diào)整和優(yōu)化,以實現(xiàn)知識的遷移和應(yīng)用。因此,正確答案是B。87.全連接層的主要作用是?()A、分類B、提取特征(卷積層)C、降低維度(池化層)D、改變圖像大小(圖像縮放、降采樣、升采樣)答案:A解析:全連接層作用:把所有局部特征結(jié)合變成全局特征,用來計算最后每一類得分88.以下說法錯誤的是?A、tlas200DK基于昇騰310芯片B、Atlas900系列主要為AI集群C、Atlas500智能小站主要用于推理D、昇騰310處理器常用于進(jìn)行模型訓(xùn)練答案:D解析:昇騰310處理器主要用于推理,而不用于模型訓(xùn)練。推理和訓(xùn)練是人工智能中的兩個不同階段,推理主要用于執(zhí)行已訓(xùn)練好的模型,而訓(xùn)練則是為了生成可推理的模型。因此,選項D是錯誤的說法。89.以下哪個不是MindSpore常用的Operation?A、signalB、mathC、arrayD、nn答案:A解析:這道題考察的是對MindSpore框架中常用Operation的了解。MindSpore是一個全場景深度學(xué)習(xí)框架,它提供了豐富的API供開發(fā)者使用。在這些API中,"math"、"array"和"nn"都是常用的Operation,它們分別提供了數(shù)學(xué)運算、數(shù)組操作和神經(jīng)網(wǎng)絡(luò)相關(guān)的功能。而"signal"并不是MindSpore中常用的Operation,它更多與信號處理相關(guān),不是MindSpore框架的核心部分。因此,正確答案是A。90.John在使用MindSpore練續(xù)里的時候保存了一個ckpt格式的檢查點,然后他發(fā)現(xiàn)這種格式無法直接在昇騰310芯片上進(jìn)行推理使用,為了可以利用當(dāng)前模型在昇騰310處理器完成推理,以下選項中哪種做法是正確的?A、使用MindSpore加載當(dāng)前檢查點文件,然后導(dǎo)出為OM格式,即可在昇騰310處理器上進(jìn)行推理。B、使用Mindspore加載當(dāng)前檢查點文件,然后導(dǎo)出為AIR格式,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。C、將ckpt格式文件的后綴名修改為AlR,隨后使用ATC(AscendTensorCompiler)工具轉(zhuǎn)換為OM格式,即可在昇騰310處理器上進(jìn)行推理。D、多查閱官方文檔,ckpt格式文件可以直接在昇騰310處理器上進(jìn)行推理。答案:B解析:這道題考察的是對MindSpore框架和昇騰310芯片兼容性的理解。在MindSpore框架中,ckpt格式的檢查點文件是模型訓(xùn)練過程中的快照,但它并不直接適用于昇騰310芯片的推理。為了能在昇騰310上進(jìn)行推理,通常需要將模型轉(zhuǎn)換為OM格式。正確的步驟是首先使用MindSpore加載ckpt文件,然后導(dǎo)出為AIR格式,接著使用ATC工具將AIR格式轉(zhuǎn)換為OM格式,這樣就可以在昇騰310處理器上進(jìn)行推理了。因此,選項B是正確的。91.以下哪個選項不屬于LSTM?A、遺忘門B、輸入門C、記憶門D、輸出門答案:C解析:這道題考察的是對LSTM(長短期記憶網(wǎng)絡(luò))結(jié)構(gòu)的理解。LSTM是一種特殊的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它通過引入三個“門”結(jié)構(gòu)來控制信息的流動,分別是遺忘門、輸入門和輸出門。這三個門分別負(fù)責(zé)決定哪些信息應(yīng)該被遺忘、哪些新信息應(yīng)該被存儲以及哪些信息應(yīng)該被輸出。而“記憶門”并不是LSTM結(jié)構(gòu)中的一部分,因此選項C是不屬于LSTM的。92.Atlas加速AI推理使用的是什么處理器?A、異騰310處理器B、GPUC、異騰910處理器D、FPGA答案:A解析:華為公司在2019年發(fā)布的Atlas200AI加速模塊(型號:3000)集成了昇騰310AI處理器,可以在端側(cè)實現(xiàn)人臉識別、圖像分類等,廣泛用于智能攝像機(jī)、機(jī)器人、無人機(jī)等端側(cè)AI場景93.下列選項中,哪個不是關(guān)鍵詞提取常用的算法?()A、TextRankB、SSAC、LDAD、TF-IDF答案:B解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA)94.1ohn最近正在學(xué)習(xí)搭建卷積神經(jīng)網(wǎng)絡(luò),假設(shè)輸入圖像大小是15?15?3(w?ht),經(jīng)過一個含4個卷積核的卷積層,其中卷積核大小均為5?5,步長為2,無填充,在不計算ias的情況下,該卷積層共有多少權(quán)重參數(shù)?A、75B、100C、300D、600答案:C解析:每個卷積核的大小為5×5×3(因為輸入圖像有3個通道),所以每個卷積核的參數(shù)數(shù)量為5×5×3=75個。卷積層共有4個卷積核,所以總的權(quán)重參數(shù)數(shù)量為75×4=300個。因此,答案選C。95.以下哪項技術(shù)的研究與發(fā)展能夠提升模型訓(xùn)練的精度?A、自動并行B、二階優(yōu)化C、數(shù)據(jù)加速D、內(nèi)存復(fù)用答案:B解析:這道題考察的是對模型訓(xùn)練精度提升技術(shù)的理解。在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域,優(yōu)化算法的選擇對模型訓(xùn)練的精度有著至關(guān)重要的影響。二階優(yōu)化算法相較于一階優(yōu)化算法,使用了二階導(dǎo)數(shù)信息,能夠更準(zhǔn)確地逼近全局最優(yōu)解,從而提升模型訓(xùn)練的精度。因此,選項B“二階優(yōu)化”是正確答案。96.以下關(guān)于邏輯回歸的描述中,哪一項是錯誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題。B、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù))。C、邏輯回歸與線性回歸都是廣義線性模型。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。答案:D解析:邏輯回歸和線性回歸的損失函數(shù)并不是最小二乘損失函數(shù),而是對數(shù)損失函數(shù)。因此,選項D是錯誤的。邏輯回歸是一種廣義線性模型,它在線性回歸的基礎(chǔ)上引入了非線性因素(sigmoid函數(shù)),用于解決二分類問題。邏輯回歸是一種分類模型,主要用于預(yù)測一個樣本屬于某個類別(通常是二分類)的概率。97.如果采樣頻率為f,幀數(shù)為a,則以下哪一項是聲音信號的長度?()A、/2fB、2a/fC、a/fD、a?f答案:C解析:采樣頻率又稱采樣率,表示單位時間內(nèi)從連續(xù)信號中提取并組成離散信號的采樣個數(shù),幀數(shù)/采樣率為信號長度98.關(guān)于反向傳播,以下哪種說法是錯誤的?A、反向傳播會經(jīng)過激活函數(shù)B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運用D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:C解析:這道題考察的是對反向傳播算法的理解。反向傳播算法是神經(jīng)網(wǎng)絡(luò)中用于計算梯度的一種技術(shù),它確實會經(jīng)過激活函數(shù),可以結(jié)合梯度下降算法來更新網(wǎng)絡(luò)權(quán)重,也確實是誤差通過網(wǎng)絡(luò)反向傳播的過程。而反向傳播不僅適用于前饋神經(jīng)網(wǎng)絡(luò),也適用于其他類型的神經(jīng)網(wǎng)絡(luò),如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等。因此,選項B的說法是錯誤的。99.一副圖像的亮部太亮,暗部太暗,為了改善圖像的視覺效果可以使用哪個技術(shù)?A、反轉(zhuǎn)B、伽馬矯正C、灰度拉伸D、灰度壓縮答案:B解析:在圖像處理中,伽馬矯正是一種常用的技術(shù),用于改善圖像的視覺效果。當(dāng)一副圖像的亮部太亮,暗部太暗時,使用伽馬矯正可以調(diào)整圖像的亮度對比度,使得圖像整體看起來更加自然和清晰。因此,選項B是正確的答案。100.核函數(shù)允許算法在變換后的高維特征空間中擬合最大的超平面,以下選項中不是常見核函數(shù)的是哪一項?A、線性核函數(shù)B、多項式核函數(shù)C、高斯核函數(shù)D、泊松核函數(shù)答案:D解析:這道題考察的是對核函數(shù)的理解。在機(jī)器學(xué)習(xí)中,核函數(shù)用于支持向量機(jī)(SVM)等算法,可以將數(shù)據(jù)映射到高維空間,以便更好地進(jìn)行分類或回歸。常見的核函數(shù)包括線性核、多項式核和高斯核(也稱為RBF核)。泊松核函數(shù)并不是常見的核函數(shù),因此選項D是不正確的。101.在MindSpore中Tensor可以和NumP數(shù)據(jù)類型進(jìn)行互相轉(zhuǎn)換。以下哪個函數(shù)可以將Tesor轉(zhuǎn)換為NumPy的數(shù)據(jù)類型?A、benumpy()B、numpy()C、tonumpy0D、asnumpy()答案:D解析:這道題考察的是對MindSpore框架中Tensor與NumPy數(shù)據(jù)類型轉(zhuǎn)換函數(shù)的理解。在MindSpore中,Tensor對象可以通過特定的函數(shù)轉(zhuǎn)換為NumPy數(shù)組,以便進(jìn)行進(jìn)一步的數(shù)據(jù)處理或分析。根據(jù)MindSpore的官方文檔和API,正確的函數(shù)是`asnumpy()`,它用于將Tensor對象轉(zhuǎn)換為NumPy數(shù)組。因此,選項D是正確的。102.以下哪個選項使得GPU適用于神經(jīng)網(wǎng)絡(luò)的加速運算?()A、控制調(diào)度能力B、并行計算能力C、串行計算能力D、從內(nèi)存調(diào)用數(shù)據(jù)的能力答案:B解析:并行計算是對矩陣計算加速的一種有效方法,GPU在對圖像進(jìn)行訓(xùn)練是,采用了并行計算進(jìn)行加速103.一個汽車公司的產(chǎn)品,A廠占60%,B廠占40%,A的次品率是1%,B的次品率是3%,現(xiàn)在抽出一輛汽車是次品,問是A廠生產(chǎn)的可能性是多少?()A、1/2B、1/3C、2/3D、1/6答案:B解析:帶入貝葉斯公式,p(甲|廢品)=p(廢品|甲)/p(廢品)=(0.6×0.01)/(0.6×0.01+0.4×0.03)=0.33(核實)104.ReLU激活函數(shù)相比Sigmoid函數(shù)主要解決了什么問題?()A、坐標(biāo)0位置沒有導(dǎo)數(shù)B、分割不平滑C、單調(diào)遞增D、梯度消失答案:D解析:這道題考察的是對ReLU激活函數(shù)和Sigmoid函數(shù)特性的理解。ReLU函數(shù)相比Sigmoid函數(shù),主要優(yōu)勢在于其梯度特性。Sigmoid函數(shù)在輸入值非常大或非常小時,梯度接近于0,這會導(dǎo)致在深度神經(jīng)網(wǎng)絡(luò)中訓(xùn)練時出現(xiàn)梯度消失問題。而ReLU函數(shù)在正數(shù)部分梯度恒為1,有效解決了梯度消失問題。因此,ReLU激活函數(shù)相比Sigmoid函數(shù)主要解決了梯度消失問題,選項D正確。105.某公司辦公樓準(zhǔn)入系統(tǒng)用來識別待進(jìn)人員的所屬部門,該公司共有六個不同的部門,適合此種應(yīng)用需求的學(xué)習(xí)方法是以下哪一種?A、二分類問題B、多分類問題C、聚類問題D、回歸問題答案:B解析:此問題是一個典型的分類問題,因為系統(tǒng)需要根據(jù)待進(jìn)人員的特征(如身份卡、面部識別等)將其劃分到六個不同的部門之一。二分類問題只涉及兩個類別,而此問題涉及六個部門,因此是多分類問題。聚類問題涉及無監(jiān)督學(xué)習(xí),即沒有預(yù)定義的類別;回歸問題則用于預(yù)測連續(xù)數(shù)值。因此,適合此種應(yīng)用需求的學(xué)習(xí)方法是多分類問題,選項B正確。106.神將網(wǎng)絡(luò)訓(xùn)練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Softsign函數(shù)B、Relu函數(shù)C、tanh函數(shù)D、Sigmoid函數(shù)答案:B解析:這道題考察的是對神經(jīng)網(wǎng)絡(luò)中激活函數(shù)特性的理解。梯度消失是深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的一個常見問題,特別是在使用Sigmoid或tanh這類飽和激活函數(shù)時更為顯著。Relu函數(shù)由于其非飽和的特性,在正數(shù)區(qū)域內(nèi)梯度恒為1,這有助于緩解梯度消失問題。因此,選擇A選項,即Relu函數(shù),是減輕梯度消失問題的一個有效方法。107.下列選項中不是TensorFlow2.0支持的運算符是A、powB、C、^D、//答案:C解析:TensorFlow2.0是一個廣泛使用的深度學(xué)習(xí)框架,它支持多種運算符用于構(gòu)建和訓(xùn)練模型。在TensorFlow中,`pow`是冪運算符,``表示矩陣乘法,`//`表示整除。而`^`在Python中通常用作異或運算符,并不是TensorFlow支持的運算符,特別是在進(jìn)行深度學(xué)習(xí)模型計算時。因此,選項C是正確的答案。108.在對抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?A、作為生成模型的輸出值B、作為判別模型的輸入值C、作為判別模型的輸出值D、作為生成模型的輸入值答案:B解析:在對抗生成網(wǎng)絡(luò)(GAN)中,判別模型的任務(wù)是區(qū)分輸入數(shù)據(jù)是真實的還是由生成模型生成的。為了實現(xiàn)這一點,判別模型需要接收帶有標(biāo)簽的數(shù)據(jù),以便學(xué)習(xí)如何區(qū)分真實數(shù)據(jù)和生成數(shù)據(jù)。因此,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該作為判別模型的輸入值,選項B正確。109.HSV每個字母代表什么A、色相(H),飽和度(S),亮度(V)B、飽和度(H),色調(diào)(S),亮度(V)C、明度(H),飽和度(S),色調(diào)(V)D、明度(H),色調(diào)(S),飽和度(V)答案:A解析:根據(jù)顏色理論,顏色通常被劃分為三個基本屬性色相(Hue)、飽和度(Saturation)和亮度(Value)。其中,HSV中的字母分別代表色相、飽和度和亮度。因此,正確是A。110.在MindSpore中,運行圖片中的這段代碼可以得到以下哪一項結(jié)果?FrommindsporeimportopsOneslike=ops.OnesLike()X=Tensor(np.array([[0,1].[2.1]]).astype(32))Oneput=oneslike(x)A、創(chuàng)建一個2?2的張量output,其中每一個元素值都為1B、創(chuàng)建一個2?2的張量output,其中元素的值為0,1,2,1C、創(chuàng)建一個2?2的張量output,其中每個元素的值隨機(jī)確定D、創(chuàng)建一個2?1的張量值從[0,1]和[2,1]中隨機(jī)挑選答案:A解析:這道題考察的是對MindSpore框架中OnesLike操作的理解。OnesLike操作會創(chuàng)建一個與輸入張量形狀相同的張量,且所有元素值都為1。根據(jù)題目中的代碼,輸入張量X是一個2?2的張量,因此OnesLike操作會創(chuàng)建一個同樣形狀的張量,且所有元素值都為1。所以答案是A。111.以下哪個不是文本向量化的常用方法?A、EMB、CBOWC、BDOWD、M答案:A解析:文本向量化是自然語言處理中的一種技術(shù),用于將文本轉(zhuǎn)換為數(shù)值向量表示。常用的方法包括CBOW、BDOW和DM等。而EM算法是一種聚類方法,與文本向量化無關(guān)。因此,選項A是正確的。112.一副照片在存放過程中出現(xiàn)了很多小的噪點,對其掃描件進(jìn)行()操作去噪效果最好。()A、中值濾波B、高斯濾波C、均值濾波D、拉普拉斯濾波答案:A解析:小噪點中值濾波效果較好113.使用MindSpore執(zhí)行圖片中的代碼時,以下哪一項是這段代碼的正確輸出結(jié)果?圖片代碼:P=tensor([4,0,5,0,0,0],的type.float64)Print(p)A、Tensor(shape=[3],dtype=Float64,value=[4,5,6])B、Array({4,0,5,06,0})C、Tensor(shape=[3],dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年無錫市南長人民醫(yī)院無錫市老年病醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 2024年滬科版九年級科學(xué)上冊階段測試試卷
- 2024年華師大新版八年級生物下冊月考試卷
- 機(jī)場配電房施工安裝合同
- 2025年教科新版七年級科學(xué)下冊階段測試試卷
- 2024年滬教版選修1歷史上冊月考試卷
- 2024快遞包裹收寄與派送合同
- 2024年北師大版高二數(shù)學(xué)下冊階段測試試卷
- 商場專柜裝修合同范本
- 2024年滬科版必修2歷史下冊階段測試試卷
- 2023年農(nóng)業(yè)綜合行政執(zhí)法理論考試題庫(含答案)
- GB/T 231.3-2022金屬材料布氏硬度試驗第3部分:標(biāo)準(zhǔn)硬度塊的標(biāo)定
- 過敏性紫癜-教學(xué)課件
- GB/T 24183-2021金屬材料薄板和薄帶制耳試驗方法
- GB/T 11446.8-2013電子級水中總有機(jī)碳的測試方法
- 醫(yī)院患者壓力性損傷情況登記表
- 醫(yī)院手術(shù)分級動態(tài)管理表
- 湖南2023消耗量定額說明及計算規(guī)則-市政工程
- 危險化學(xué)品儲存柜安全管理
- 公共政策學(xué)政策分析的理論方法和技術(shù)課件
- 教案:孔門十弟子
評論
0/150
提交評論