2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第1頁
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第2頁
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第3頁
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第4頁
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題)_第5頁
已閱讀5頁,還剩245頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGE2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫大全-下(多選、判斷題匯總)多選題1.文本分類常見的特征選擇方法有()A、卡方檢驗(yàn)B、互信息C、信息增益D、以上皆不是答案:ABC解析:見PPT438頁2.ModelArts是面向AI開發(fā)者的一站式開發(fā)平臺(tái),“一站式”是指AI開發(fā)的各個(gè)環(huán)節(jié),包括以下哪些選項(xiàng)?A、模型部署B(yǎng)、模型訓(xùn)練C、數(shù)據(jù)處理D、模型管理E、算法開發(fā)答案:ABCDE解析:ModelArts作為面向AI開發(fā)者的一站式開發(fā)平臺(tái),"一站式"意味著它涵蓋了AI開發(fā)的各個(gè)環(huán)節(jié)。具體來看,這些環(huán)節(jié)包括模型部署(A),即把訓(xùn)練好的模型部署到實(shí)際運(yùn)行環(huán)境中;模型訓(xùn)練(B),即利用算法和數(shù)據(jù)訓(xùn)練出模型;數(shù)據(jù)處理(C),即對(duì)原始數(shù)據(jù)進(jìn)行清洗、轉(zhuǎn)換等預(yù)處理工作;模型管理(D),即管理訓(xùn)練好的模型,包括版本控制、性能評(píng)估等;算法開發(fā)(E),即研究和開發(fā)新的算法。因此,所有選項(xiàng)A、B、C、D、E都是“一站式”開發(fā)平臺(tái)所包含的內(nèi)容,故答案為ABCDE。3.與ASIC芯片相比,以下哪些選項(xiàng)是FPGA芯片的特征?A、實(shí)現(xiàn)相同功能時(shí),需要的芯片規(guī)模更大。B、相同工藝條件下,功耗更小。C、研發(fā)風(fēng)險(xiǎn)較低。D、運(yùn)行時(shí)無需加載配置,可立即運(yùn)行。答案:ACD解析:這道題考察的是FPGA芯片與ASIC芯片的特征對(duì)比。FPGA芯片在實(shí)現(xiàn)相同功能時(shí),由于靈活性高,通常需要的芯片規(guī)模更大。研發(fā)風(fēng)險(xiǎn)較低,因?yàn)镕PGA允許在硬件層面進(jìn)行反復(fù)編程和測試。運(yùn)行時(shí)需加載配置,與ASIC的固定功能不同。因此,A、C描述準(zhǔn)確,D描述與FPGA特征相反。B選項(xiàng)描述與實(shí)際情況不符,F(xiàn)PGA功耗通常較高。4.華為Ascend系列芯片是面向哪些AI場景的?A、私有云B、邊緣計(jì)算C、消費(fèi)終端D、IoT行業(yè)終端E、公有云答案:ABCDE解析:“外界一直傳說華為在研發(fā)AI芯片,今天我要告訴大家這是事實(shí)!”華為輪值董事長徐直軍今日在2018華為全聯(lián)接大會(huì)(HuaweiConnect2018)的開幕演講中發(fā)布了全球首個(gè)覆蓋全場景人工智能(AI)的昇騰(Ascend)系列IP和芯片,包括Ascend910和Ascend310兩款。所謂"全場景",是指包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等部署環(huán)境,意味著華為有能力實(shí)現(xiàn)智能無所不及,構(gòu)建萬物互聯(lián)的智能世界。5.華為的AI發(fā)展戰(zhàn)略包括哪幾個(gè)方面?A、打造全站方案B、解決方案增強(qiáng)C、內(nèi)部效率提升D、投資開放生態(tài)和人才培養(yǎng)E、投資基礎(chǔ)研究答案:ABCDE6.以下哪些選項(xiàng)屬于CANN中昇騰計(jì)算基礎(chǔ)層提供的服務(wù)?A、主機(jī)-設(shè)備通信B、共享虛擬內(nèi)存C、高級(jí)內(nèi)存復(fù)用D、設(shè)備虛擬化答案:ABD解析:CANN(中國人工智能可計(jì)算網(wǎng)絡(luò))中昇騰計(jì)算基礎(chǔ)層提供了一系列服務(wù),其中包括主機(jī)-設(shè)備通信(A正確)、共享虛擬內(nèi)存(B正確)以及設(shè)備虛擬化(D正確)。至于C選項(xiàng)的高級(jí)內(nèi)存復(fù)用,雖然在技術(shù)白皮書中有所提及,但在實(shí)際的服務(wù)列表中并未明確提供。因此,答案是ABD。7.為了將數(shù)字圖像有效地轉(zhuǎn)換為結(jié)構(gòu)化數(shù)據(jù),需要用到圖像特征提取的技術(shù)降低數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低數(shù)據(jù)維度的主要思路?()A、分割感興趣區(qū)域B、降采樣C、特征描述子D、模式識(shí)別答案:ABC解析:圖像特征提取的主要思路包括分割感興趣區(qū)域、降采樣和特征描述子。這些方法可以有效地從數(shù)字圖像中提取出有意義的信息,降低數(shù)據(jù)的維度,從而方便后續(xù)的數(shù)據(jù)分析和處理。因此,ABC都是正確的選項(xiàng)。8.以下哪些是圖像處理的形式?()A、單幅圖像輸入,進(jìn)行處理,輸出單幅圖像B、多幅圖像輸入,進(jìn)行處理,輸出單幅圖像C、單幅圖像輸入,進(jìn)行處理,輸出數(shù)字或符號(hào)等結(jié)構(gòu)化信息D、多幅圖像輸入,進(jìn)行處理,輸出數(shù)字或符號(hào)等結(jié)構(gòu)化信息答案:ABCD解析:圖像處理通常涉及多幅圖像的輸入、處理,以及輸出數(shù)字或符號(hào)等結(jié)構(gòu)化信息。這種處理可以是單幅圖像輸入,經(jīng)過處理后輸出單幅圖像,也可以是多幅圖像輸入,經(jīng)過處理后輸出單幅圖像或者其他形式的處理結(jié)果。因此,ABD都是正確的。這個(gè)來源于試題集《新認(rèn)證試題庫》的題目,與前面的題目不是同一套試題。但是根據(jù)圖像處理的一般流程和常見應(yīng)用,可以得出以上。9.自然語言處理是目前比較火熱的領(lǐng)域,但其工程過程中也會(huì)遇到很多問題和難點(diǎn),其中命名實(shí)體識(shí)別有哪些難點(diǎn)?()A、嵌套情況復(fù)雜。B、長度不確定。C、命名實(shí)體的構(gòu)成規(guī)律復(fù)雜。D、各類命名實(shí)體的數(shù)量眾多。答案:ABCD解析:全選10.John需要完成圖像分類任務(wù),準(zhǔn)備對(duì)訓(xùn)練后的模型進(jìn)行評(píng)估,常用的評(píng)估指標(biāo)包含以下哪些選項(xiàng)?A、準(zhǔn)確率B、精確率C、召回率D、均方誤差答案:ABC解析:在圖像分類任務(wù)中,準(zhǔn)確率衡量模型整體的正確分類比例;精確率關(guān)注預(yù)測為正例的樣本中真正正例的比例;召回率關(guān)注實(shí)際正例被正確預(yù)測的比例。這三個(gè)指標(biāo)對(duì)于評(píng)估模型在圖像分類任務(wù)中的性能非常重要。而均方誤差主要用于回歸任務(wù)評(píng)估模型預(yù)測值與真實(shí)值的偏差,不適合圖像分類任務(wù)的評(píng)估。所以答案選ABC。11.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取答案:BD解析:這道題考察深度學(xué)習(xí)中的自動(dòng)化步驟。在深度學(xué)習(xí)中,模型訓(xùn)練是通過算法自動(dòng)調(diào)整模型參數(shù)以最小化損失函數(shù)的過程,顯然是由模型自動(dòng)完成的。特征提取也是自動(dòng)進(jìn)行的,模型能從原始數(shù)據(jù)中學(xué)習(xí)并提取有用的特征。而特征選擇和分析定位任務(wù)通常需要人為干預(yù)和指導(dǎo),不屬于模型自動(dòng)完成的范疇。12.以下關(guān)于語音信號(hào)特點(diǎn)的描述,正確的是哪些選項(xiàng)?A、短時(shí)范圍一般認(rèn)為在10-30msB、語音信號(hào)具有短時(shí)平穩(wěn)性C、語音信號(hào)會(huì)隨著時(shí)間的變化而變化,它是一種平穩(wěn)態(tài)的時(shí)變信號(hào)D、短時(shí)分析技術(shù)貫穿于語音信號(hào)分析的全過程答案:ABD解析:語音信號(hào)特點(diǎn)(見PPT247頁):1)語音信號(hào)會(huì)隨著時(shí)間的變化而變化,它是一種非平穩(wěn)態(tài)的時(shí)變信號(hào)。但是,由于人的發(fā)音受口腔肌肉的影響,語音信號(hào)在一個(gè)短時(shí)范圍內(nèi)相對(duì)穩(wěn)定,可以看做是一個(gè)準(zhǔn)穩(wěn)態(tài)的過程,所以語音信號(hào)具有短時(shí)平穩(wěn)性.2)短時(shí)分析技術(shù)貫穿于語音信號(hào)分析的全過程.3)語音由口腔肌肉運(yùn)動(dòng)而產(chǎn)生,肌肉的運(yùn)動(dòng)相較于語音的頻率是非常緩慢的.4)短時(shí)范圍一般認(rèn)為在10-30ms.故C答案錯(cuò)誤.13.以下哪些項(xiàng)是多層感知機(jī)(全連接結(jié)構(gòu))在處理圖像時(shí)的弊端?A、多層感知機(jī)的輸入形式會(huì)破壞圖像像素的空間關(guān)系。B、多層感知機(jī)無法解決圖像不變性的問題。C、人是通過圖像的局部特征來理解圖像,而多層感知機(jī)中每個(gè)神經(jīng)元都處理整幅圖像的像素點(diǎn)。D、計(jì)算機(jī)存儲(chǔ)和處理圖像的方式會(huì)使多層感知知機(jī)模型參數(shù)巨大。答案:ABCD解析:這道題考察多層感知機(jī)處理圖像時(shí)的弊端。多層感知機(jī)將圖像轉(zhuǎn)換為一維向量,這會(huì)破壞像素間的空間關(guān)系,是其弊端之一。同時(shí),它難以處理圖像的不變性問題,如旋轉(zhuǎn)、縮放等變換。而且,其神經(jīng)元處理整幅圖像的像素點(diǎn),與人類通過局部特征理解圖像的方式不符。另外,處理高維圖像數(shù)據(jù)會(huì)導(dǎo)致模型參數(shù)巨大,增加計(jì)算和存儲(chǔ)負(fù)擔(dān)。14.以下哪些項(xiàng)可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中?A、LSTMB、CNNC、RNND、GRU答案:ACD解析:在處理序列數(shù)據(jù)的場景中,我們需要選擇適合處理時(shí)間序列或序列文本的模型。A選項(xiàng),CNN(卷積神經(jīng)網(wǎng)絡(luò))主要用于圖像識(shí)別等領(lǐng)域,它并不擅長處理序列數(shù)據(jù),因?yàn)樗窃诳臻g上處理數(shù)據(jù)的。B選項(xiàng),LSTM(長短期記憶網(wǎng)絡(luò))是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的一種特殊類型,非常適合處理和預(yù)測時(shí)間序列中的間隔和延遲相對(duì)較長的重要事件。C選項(xiàng),RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))是專門用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),它通過循環(huán)的方式處理序列中的每個(gè)元素。D選項(xiàng),GRU(門控循環(huán)單元)也是RNN的一種,它同樣適用于處理序列數(shù)據(jù),并且在某些情況下比LSTM更簡單且效果相當(dāng)。因此,可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中的是B、C、D選項(xiàng)。15.在人工智能領(lǐng)域,三大主義學(xué)派包含以下哪些選項(xiàng)?A、行為主義B、連接主義C、符號(hào)主義D、機(jī)器主義答案:ABC解析:在人工智能領(lǐng)域,有三大主義學(xué)派,分別是符號(hào)主義、行為主義和連接主義。這些學(xué)派在人工智能的研究和應(yīng)用中有著不同的理論和方法,但都為人工智能的發(fā)展做出了重要貢獻(xiàn)。符號(hào)主義強(qiáng)調(diào)使用符號(hào)和邏輯進(jìn)行推理和解決問題,他們認(rèn)為人工智能的本質(zhì)是符號(hào)操作和推理。行為主義則強(qiáng)調(diào)通過模擬人類的感知、運(yùn)動(dòng)和情感等行為來構(gòu)建智能系統(tǒng)。連接主義則關(guān)注神經(jīng)網(wǎng)絡(luò)和計(jì)算模型,試圖模擬人腦的工作方式。因此,為ABC。16.以下哪些MindSpore中模塊的對(duì)應(yīng)關(guān)系是正確的?()A、Mmon對(duì)應(yīng)張量、權(quán)重、數(shù)據(jù)類型等接口B、Mindspore.dataset對(duì)應(yīng)數(shù)據(jù)處理接口C、Mindspore.nn對(duì)應(yīng)神經(jīng)網(wǎng)絡(luò)常用算子D、Mindspore.train對(duì)應(yīng)訓(xùn)練相關(guān)接口答案:ABCD解析:在MindSpore框架中,各個(gè)模塊有其特定的功能和接口。根據(jù)MindSpore的官方文檔和API設(shè)計(jì),我們可以確認(rèn):A選項(xiàng)正確,Mmon模塊確實(shí)提供了張量、權(quán)重、數(shù)據(jù)類型等基礎(chǔ)接口,這些是構(gòu)建和操作神經(jīng)網(wǎng)絡(luò)的基本元素。B選項(xiàng)正確,Mindspore.dataset模塊用于數(shù)據(jù)處理,提供了數(shù)據(jù)加載、預(yù)處理和增強(qiáng)的接口,方便用戶對(duì)輸入數(shù)據(jù)進(jìn)行操作。C選項(xiàng)正確,Mindspore.nn模塊包含了神經(jīng)網(wǎng)絡(luò)中常用的算子,如卷積、池化、激活函數(shù)等,這些算子是構(gòu)建神經(jīng)網(wǎng)絡(luò)層的基礎(chǔ)。D選項(xiàng)正確,Mindspore.train模塊提供了訓(xùn)練神經(jīng)網(wǎng)絡(luò)所需的各種接口,包括優(yōu)化器、損失函數(shù)以及訓(xùn)練過程中的各種操作和監(jiān)控工具。因此,選項(xiàng)ABCD都是正確的。17.以下哪些是隱藏單元?()A、logisticsigmoid與雙曲正切函數(shù)B、整流線性單元(RELU的另一種翻譯方法)C、Borel單元D、maxout單元答案:ABCD解析:softmaxsoftplussigmoidtanhReLU線性修正單元整流線性單元maxoutBorel徑向基函數(shù)18.HiAI是面向移動(dòng)終端的AI能力開放平臺(tái),三層AI能力開放包括以下哪些?A、應(yīng)用能力開放B、框架能力開放C、服務(wù)能力開放D、芯片能力開放答案:ACD解析:HiAI是面向移動(dòng)終端的AI能力開放平臺(tái),它主要分為三個(gè)層次進(jìn)行AI能力開放,分別是1.應(yīng)用能力開放這一層主要開放與應(yīng)用程序相關(guān)的AI能力,以方便第三方應(yīng)用開發(fā)者利用這些能力進(jìn)行應(yīng)用創(chuàng)新。2.服務(wù)能力開放這一層主要開放能夠提供服務(wù)的AI能力,比如語音識(shí)別、圖像識(shí)別等,以方便第三方服務(wù)提供者使用。3.芯片能力開放這一層主要開放與芯片相關(guān)的AI能力,比如AI處理器的計(jì)算能力、內(nèi)存管理等,以方便第三方芯片廠商使用。因此,選項(xiàng)A、C、D都是正確的。19.關(guān)于U-Net網(wǎng)絡(luò)相關(guān)的描述中,錯(cuò)誤的有哪幾項(xiàng)?A、由于輸入的訓(xùn)練數(shù)據(jù)是patches,相當(dāng)于進(jìn)行了數(shù)據(jù)下采樣,所以在需要后接全連接網(wǎng)絡(luò)來增強(qiáng)模型性能。B、U-Net網(wǎng)絡(luò)用滑動(dòng)窗口提供像素的周圍區(qū)域(patch)作為輸入來預(yù)測每個(gè)像素的類標(biāo)簽。C、U-Net屬于強(qiáng)化學(xué)習(xí)。D、U-Net網(wǎng)絡(luò)應(yīng)用于生物醫(yī)學(xué)圖像處理領(lǐng)域,目標(biāo)輸出包括目標(biāo)類別的位置,最終以矩形框圈出目標(biāo)區(qū)域并給與標(biāo)簽。答案:ACD解析:這道題考察的是對(duì)U-Net網(wǎng)絡(luò)的理解。U-Net是一種常用于生物醫(yī)學(xué)圖像分割的卷積神經(jīng)網(wǎng)絡(luò),特點(diǎn)是能輸出像素級(jí)的分類,而非矩形框。它使用滑動(dòng)窗口處理輸入,但無需后接全連接網(wǎng)絡(luò)。U-Net屬于深度學(xué)習(xí),非強(qiáng)化學(xué)習(xí)。因此,A選項(xiàng)描述的目標(biāo)輸出方式錯(cuò)誤;C選項(xiàng)提到的后接全連接網(wǎng)絡(luò)不必要;D選項(xiàng)將U-Net歸類于強(qiáng)化學(xué)習(xí),也是錯(cuò)誤的。B選項(xiàng)描述正確。20.以下哪些項(xiàng)可以作為深度學(xué)習(xí)的優(yōu)化方法?A、梯度下降法B、最小二乘法C、牛頓法D、擬牛頓法答案:ACD解析:這道題考察深度學(xué)習(xí)優(yōu)化方法。深度學(xué)習(xí)優(yōu)化常用方法包括梯度下降法及其變種,擬牛頓法和牛頓法也是尋找最優(yōu)解的算法。梯度下降法通過迭代減小誤差,擬牛頓法和牛頓法則利用二階導(dǎo)數(shù)信息加速收斂。而最小二乘法主要用于線性回歸,不屬于深度學(xué)習(xí)優(yōu)化方法。21.語音合成方法有哪些?()A、共振峰合成器B、串聯(lián)共振峰合成器C、并聯(lián)共振峰合成器D、PSOLA方法答案:ABCD解析:語音合成是將文字信息轉(zhuǎn)化為語音的技術(shù)。共振峰合成器是早期的語音合成方法之一。串聯(lián)共振峰合成器和并聯(lián)共振峰合成器則是在共振峰合成器基礎(chǔ)上的改進(jìn)和發(fā)展。PSOLA方法也是一種常用的語音合成技術(shù)。這幾種方法都在語音合成領(lǐng)域有著不同的應(yīng)用和特點(diǎn)。所以選項(xiàng)ABCD均正確。22.以下哪些項(xiàng)是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢?()A、輸出關(guān)于0點(diǎn)對(duì)稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1答案:ACD解析:這道題考查激活函數(shù)特性。Softsign相比Sigmoid的優(yōu)勢在于:Softsign梯度飽和速度更緩,能減緩梯度消失問題;其導(dǎo)數(shù)最大值接近1,有助于保持梯度穩(wěn)定。選項(xiàng)A描述的是關(guān)于原點(diǎn)對(duì)稱,并非Softsign相對(duì)于Sigmoid的優(yōu)勢,因?yàn)镾igmoid也是關(guān)于0.5點(diǎn)對(duì)稱。B項(xiàng)表述過于絕對(duì),Softsign雖能緩解梯度消失,但不能說完全沒有。23.MindSpore支持以下哪些運(yùn)行模式?A、動(dòng)態(tài)圖模式B、靜態(tài)圖模式C、動(dòng)靜結(jié)合,在靜態(tài)圖模式下,部分代碼以動(dòng)態(tài)圖模式運(yùn)行D、動(dòng)靜結(jié)合,在動(dòng)態(tài)圖模式下,部分代碼以靜態(tài)圖模式運(yùn)行答案:ABD解析:這道題考察的是對(duì)MindSpore運(yùn)行模式的了解。MindSpore是一個(gè)全場景深度學(xué)習(xí)框架,它支持動(dòng)態(tài)圖模式和靜態(tài)圖模式。動(dòng)態(tài)圖模式適合模型調(diào)試和快速原型開發(fā),靜態(tài)圖模式則利于模型優(yōu)化和部署。它還支持動(dòng)靜結(jié)合,即在靜態(tài)圖模式下,允許部分代碼以動(dòng)態(tài)圖模式運(yùn)行,這提供了更大的靈活性。因此,A、B、D選項(xiàng)正確描述了MindSpore的運(yùn)行模式。C選項(xiàng)描述不準(zhǔn)確,因?yàn)閯?dòng)靜結(jié)合主要是指在靜態(tài)圖模式下嵌入動(dòng)態(tài)圖模式,而非反過來。24.以下哪些選項(xiàng)屬于華為云ModeArts提供的服務(wù)?A、自動(dòng)學(xué)習(xí)B、PycharmSDKC、數(shù)據(jù)集自動(dòng)標(biāo)注D、多人數(shù)據(jù)標(biāo)注答案:ABCD解析:華為云ModeArts是一個(gè)云服務(wù)平臺(tái),提供了多種服務(wù),包括自動(dòng)學(xué)習(xí)、PycharmSDK、數(shù)據(jù)集自動(dòng)標(biāo)注、多人數(shù)據(jù)標(biāo)注等選項(xiàng)。這些服務(wù)可以幫助用戶更高效地處理數(shù)據(jù)、開發(fā)應(yīng)用和進(jìn)行標(biāo)注等任務(wù)。因此,ABCD都是正確的答案。25.華為的AI全場景包含有以下哪些選項(xiàng)?A、IoT行業(yè)終端B、邊緣計(jì)算設(shè)備C、消費(fèi)終端D、公有云答案:ABCD26.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項(xiàng)?A、一個(gè)好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型答案:ABD解析:這道題考察的是模型偏差和方差的理解。偏差低意味著模型預(yù)測準(zhǔn)確度高,方差低表示模型穩(wěn)定。因此,好的模型需要偏差和方差都低。高偏差+低方差通常意味著模型過于簡單,導(dǎo)致欠擬合。高偏差+高方差則表明模型既不準(zhǔn)確也不穩(wěn)定,是不良模型。低偏差+高方差實(shí)際上可能造成過擬合,而非欠擬合。所以A、B、D選項(xiàng)描述正確。27.AI相關(guān)硬件的發(fā)展趨勢主要包括以下哪幾項(xiàng)?A、單核計(jì)算密度減小。B、帶寬提高,工藝提升,核數(shù)增加,多硅片封裝。C、SIMD廣泛應(yīng)用,TensorCore處理規(guī)模變大。D、支持新數(shù)據(jù)類型,片內(nèi)片間高速互聯(lián),支持虛擬化。答案:BCD解析:AI相關(guān)硬件的發(fā)展趨勢主要包括帶寬提高、工藝提升、核數(shù)增加、多硅片封裝、SIMD廣泛應(yīng)用、TensorCore處理規(guī)模變大以及支持新數(shù)據(jù)類型、片內(nèi)片間高速互聯(lián)、支持虛擬化等。這些趨勢是為了滿足人工智能算法對(duì)計(jì)算能力、數(shù)據(jù)傳輸和處理的需求,以及適應(yīng)未來數(shù)據(jù)和模型規(guī)模的增長。因此,為BCD。28.分詞是自然語言處理中的基本步驟,常見的分詞方法有哪些?()A、基于規(guī)則的分詞B、基于統(tǒng)計(jì)的分詞C、基于深度學(xué)習(xí)的分詞D、基于規(guī)則于基于統(tǒng)計(jì)相結(jié)合的混合分詞答案:ABCD解析:規(guī)則分詞:是一種機(jī)械分詞方法,主要是通過維護(hù)字典,在切分語句時(shí),將語句中的每個(gè)字符串與詞表中的詞進(jìn)行逐一匹配,找到則切分,否則不予切分。統(tǒng)計(jì)分詞:將分詞作為字在字符串中的序列標(biāo)注任務(wù)來實(shí)現(xiàn)。每個(gè)字在構(gòu)造一個(gè)特定詞語時(shí)都占據(jù)著一個(gè)確定的構(gòu)詞位置,如果相連的字在不同的文本中出現(xiàn)的次數(shù)越多,就證明著相連的字可能就是一個(gè)詞。深度學(xué)習(xí):使用Word2vec對(duì)語料對(duì)詞進(jìn)行嵌入,得到詞嵌入后,用詞嵌入特征輸入給雙向LSTM,對(duì)輸出的銀層加一個(gè)線性層,然后加一個(gè)CRF得到最終實(shí)現(xiàn)的模型。混合分詞:基于一種分詞算法,然后再用其他分詞算法加以輔助29.以下哪些方法可以減少過擬合的問題?A、添加L1或L2正則懲訓(xùn)項(xiàng)B、提前停止訓(xùn)練C、使用Dropout方法隨機(jī)丟棄一部分輸入D、擴(kuò)充數(shù)據(jù)集,引入噪聲答案:ABCD解析:這道題考察的是減少過擬合問題的方法。過擬合發(fā)生時(shí),模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在新數(shù)據(jù)上表現(xiàn)差。添加L1或L2正則懲訓(xùn)項(xiàng),能讓模型參數(shù)更小,避免過擬合。提前停止訓(xùn)練,防止模型在訓(xùn)練數(shù)據(jù)上學(xué)習(xí)過多細(xì)節(jié)。使用Dropout方法,隨機(jī)丟棄一部分輸入,能增加模型泛化能力。擴(kuò)充數(shù)據(jù)集,引入噪聲,能讓模型學(xué)習(xí)到更多樣化的數(shù)據(jù),減少過擬合風(fēng)險(xiǎn)。30.以下屬于決策樹主要構(gòu)建步驟的是哪些選項(xiàng)?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝答案:BCD解析:決策樹的主要構(gòu)建步驟包括特征選擇、構(gòu)建子學(xué)習(xí)器、決策樹生成和剪枝。這些步驟都是為了優(yōu)化決策樹的性能,提高預(yù)測精度和泛化能力。其中,特征選擇是決策樹構(gòu)建的第一步,用于選擇最有用的特征進(jìn)行進(jìn)一步的分析和預(yù)測。構(gòu)建子學(xué)習(xí)器是決策樹生成的基礎(chǔ),需要基于特征選擇的結(jié)果來構(gòu)建子學(xué)習(xí)器。剪枝則是為了防止過擬合,對(duì)決策樹進(jìn)行優(yōu)化和調(diào)整,使其更加簡單、有效。因此,選項(xiàng)BCD都是正確的答案。31.以下關(guān)于哪些結(jié)構(gòu)屬于LSTM?A、輸出門B、遺忘門C、記憶門D、輸入門答案:ABD解析:這道題考察的是LSTM(長短期記憶網(wǎng)絡(luò))的結(jié)構(gòu)知識(shí)。LSTM包含三個(gè)主要結(jié)構(gòu):輸入門、遺忘門和輸出門。輸入門決定哪些新信息被加入到細(xì)胞狀態(tài)中,遺忘門決定從細(xì)胞狀態(tài)中丟棄哪些信息,輸出門決定細(xì)胞狀態(tài)的哪些部分將被輸出。因此,A、B、D選項(xiàng)正確描述了LSTM的結(jié)構(gòu),而C選項(xiàng)“記憶門”并非LSTM的標(biāo)準(zhǔn)組成部分。32.異騰AI處理器主要的硬件架構(gòu)包括以下哪些選項(xiàng)?A、I計(jì)算擎B、多層級(jí)的片上系統(tǒng)緩存或緩沖區(qū)C、芯片系統(tǒng)控制CPUD、數(shù)字視覺預(yù)處理模塊答案:ABCD解析:這道題考察異騰AI處理器的硬件架構(gòu)知識(shí)。異騰AI處理器架構(gòu)包含AI計(jì)算擎,用于加速AI計(jì)算任務(wù);多層級(jí)的片上系統(tǒng)緩存或緩沖區(qū),提高數(shù)據(jù)處理效率;芯片系統(tǒng)控制CPU,負(fù)責(zé)整體調(diào)度和管理;數(shù)字視覺預(yù)處理模塊,處理圖像數(shù)據(jù)。這些共同構(gòu)成了異騰AI處理器的主要硬件架構(gòu)。33.知識(shí)圖譜可以應(yīng)用到以下哪些場景中?A、智能間答機(jī)器人B、電影推薦C、量子計(jì)算D、搜索引擎答案:ABD解析:知識(shí)圖譜是一種數(shù)據(jù)模型,能夠通過圖結(jié)構(gòu)展示知識(shí)庫中不同概念及其之間的關(guān)聯(lián),廣泛應(yīng)用于各個(gè)領(lǐng)域。對(duì)于教育機(jī)器人來說,它可以更加精準(zhǔn)地理解和回答用戶的問題。同時(shí),在搜索引擎、電影推薦、自動(dòng)駕駛等領(lǐng)域,知識(shí)圖譜也能發(fā)揮重要作用。因此,選項(xiàng)A和D都是正確的答案。34.Dropout層的主要作用是?()A、提取特征B、防止過擬合C、增強(qiáng)泛化能力D、降維答案:BC解析:Dropout丟棄層,我們在前向傳播的時(shí)候,讓某個(gè)神經(jīng)元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強(qiáng)防止過擬合35.只有更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),才是AI技術(shù)能更好發(fā)展的基石。關(guān)于數(shù)據(jù),下列哪些選項(xiàng)是正確的?A、更安全的數(shù)據(jù)共享是AI技術(shù)更好發(fā)展的基石之一。B、消除數(shù)據(jù)壁壘對(duì)AI技術(shù)發(fā)展很重要。C、消除數(shù)據(jù)孤島現(xiàn)象對(duì)AI技術(shù)拓展很重要。D、數(shù)據(jù)質(zhì)量對(duì)AI的發(fā)展沒那么重要,保證數(shù)據(jù)量龐大就夠了。答案:ABC解析:為了促進(jìn)AI技術(shù)的發(fā)展,需要完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),包括更安全的數(shù)據(jù)共享和消除數(shù)據(jù)孤島現(xiàn)象等。同時(shí),數(shù)據(jù)的質(zhì)量和數(shù)量同樣重要,但數(shù)據(jù)的質(zhì)量也是基石之一,因?yàn)殄e(cuò)誤的數(shù)據(jù)可能導(dǎo)致AI模型的錯(cuò)誤預(yù)測和決策。36.以下哪些選項(xiàng)屬于通用量子算法?A、?算法B、Shor算法C、HHL算法D、Grover算法答案:BCD解析:通用量子算法是指適用于不同量子計(jì)算任務(wù)和問題的算法,可以在不同的量子計(jì)算機(jī)上運(yùn)行。常見的通用量子算法包括Shor算法、HHL算法和Grover算法。因此,選項(xiàng)BCD屬于通用量子算法。題目中的工藝用空氣壓力一般要控制在選項(xiàng)A≥0.4MPa,這是一個(gè)特定場景下的壓力控制要求,不屬于通用量子算法的范疇。37.對(duì)掃描的文檔做字符識(shí)別時(shí),由于掃描件沒有擺放好,造成文字有角度傾斜,造成識(shí)別困難,可以使用下面的哪些技術(shù)手段進(jìn)行校正?()A、旋轉(zhuǎn)變換B、仿射變換C、灰度變換D、透視變換答案:ABD解析:如果為單選,則選透視變換。如果是多選則選ABD。答案C屬于色彩變換38.MoXing框架包含以下哪些功能()(待核實(shí))A、超參自動(dòng)搜索B、API易用性封裝C、batch_size自適應(yīng)D、分布式訓(xùn)練加速答案:BD解析:TensorFlow等深度學(xué)習(xí)引撃的分布式訓(xùn)練加速框架、API接口的封裝和加速39.使用深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)處理語音識(shí)別的優(yōu)點(diǎn)有哪些?()A、不需要標(biāo)注樣本B、可以處理更長的序列信號(hào)C、不需要語音信號(hào)特征提取(該答案待確定)D、可以end-to-end實(shí)現(xiàn)任務(wù)答案:BD解析:可以處理更長的序列信號(hào);可以end-to-end實(shí)現(xiàn)任務(wù)。end-to-end即端到端學(xué)習(xí),同一個(gè)模型輸入、輸出40.ModelArts支持的硬件有()A、CPUB、GPUC、華為自研昇騰AI芯片D、以上皆是答案:ABCD解析:在人工智能領(lǐng)域,硬件是進(jìn)行深度學(xué)習(xí)和模型訓(xùn)練的重要基礎(chǔ)。ModelArts作為華為云提供的AI開發(fā)平臺(tái),通常支持多種硬件來滿足不同場景下用戶的需求。A選項(xiàng)中的CPU(中央處理器)是一種通用計(jì)算設(shè)備,在許多應(yīng)用中被用于推理和訓(xùn)練任務(wù)。B選項(xiàng)中的GPU(圖形處理器)由于其并行計(jì)算能力,被廣泛使用于深度學(xué)習(xí)任務(wù),加速了訓(xùn)練過程。C選項(xiàng)中的華為自研昇騰AI芯片則是華為AI芯片所特有的高性能硬件設(shè)備,更適用于某些特定場景下的深度學(xué)習(xí)計(jì)算要求。綜上所述,ModelArts支持的硬件包括CPU、GPU和華為自研昇騰AI芯片,因此正確答案為選項(xiàng)ABCD。41.在機(jī)器學(xué)習(xí)訓(xùn)練中,以下哪些選項(xiàng)是正確的?A、真實(shí)的數(shù)據(jù)需要進(jìn)行數(shù)據(jù)清理與特征工程。B、如果出現(xiàn)過擬合,可以使用更加復(fù)雜的模型。C、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的模型D、當(dāng)訓(xùn)練完成之后,我們需要使用測試集進(jìn)行測試,確保模型的泛化能力。答案:AD解析:B選項(xiàng)正確,在機(jī)器學(xué)習(xí)中,訓(xùn)練完成后使用測試集來評(píng)估模型在新數(shù)據(jù)上的表現(xiàn),以檢測模型的泛化能力,這是常見且必要的步驟。D選項(xiàng)正確,真實(shí)數(shù)據(jù)往往存在噪聲、缺失值等問題,進(jìn)行數(shù)據(jù)清理和特征工程能夠提高數(shù)據(jù)質(zhì)量和模型性能。A選項(xiàng)錯(cuò)誤,出現(xiàn)過擬合應(yīng)采取正則化、減少特征數(shù)量等措施,而不是使用更復(fù)雜的模型。C選項(xiàng)錯(cuò)誤,出現(xiàn)欠擬合通常需要增加模型的復(fù)雜度、增加訓(xùn)練輪數(shù)等,而不是直接使用更復(fù)雜的模型。綜上,正確答案是BD。42.以不選項(xiàng)中哪些是自然語言處理的應(yīng)用?A、輿情分析B、文本分類C、自動(dòng)文摘D、問答系統(tǒng)E、風(fēng)格遷移答案:ABCD解析:自然語言處理的應(yīng)用包括但不限于輿情分析、文本分類、自動(dòng)文摘、問答系統(tǒng)等。43.以下哪幾項(xiàng)屬于常用的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法?A、隨機(jī)梯度下降法B、小批量梯度下降法C、動(dòng)量法D、遺傳算法答案:ABC解析:神經(jīng)網(wǎng)絡(luò)優(yōu)化算法主要用于最小化損失函數(shù),以提高模型的性能。A選項(xiàng)隨機(jī)梯度下降法,B選項(xiàng)小批量梯度下降法,C選項(xiàng)動(dòng)量法,都是常用的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法。它們通過不同的方式來調(diào)整模型的權(quán)重,以加速訓(xùn)練過程并可能找到更好的局部最小值。D選項(xiàng)遺傳算法雖然是一種優(yōu)化算法,但它并不屬于神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的常用范疇,而是更多地應(yīng)用于遺傳學(xué)和進(jìn)化計(jì)算領(lǐng)域。因此,正確答案是ABC。44.Word2vec的訓(xùn)練需要進(jìn)行的是以下哪幾項(xiàng)步驟?A、模型參數(shù)的更新B、使用反向傳播方法C、構(gòu)建共現(xiàn)矩陣D、計(jì)算損失函數(shù)答案:ABD解析:Word2Vec訓(xùn)練主要步驟涉及模型的學(xué)習(xí)和優(yōu)化。首先,模型參數(shù)的更新是訓(xùn)練過程中的核心,它根據(jù)學(xué)習(xí)規(guī)則調(diào)整參數(shù)以最小化誤差。其次,使用反向傳播方法計(jì)算梯度,指導(dǎo)參數(shù)更新的方向。計(jì)算損失函數(shù)也是關(guān)鍵步驟,它評(píng)估當(dāng)前模型輸出的誤差,指導(dǎo)訓(xùn)練過程。而構(gòu)建共現(xiàn)矩陣是Word2Vec的預(yù)處理步驟,不屬于訓(xùn)練過程本身,因此不選C。45.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1B、TanhC、ReluD、L2答案:AD解析:在深度學(xué)習(xí)中,正則項(xiàng)用于控制模型的復(fù)雜度,以防止過擬合。L1正則項(xiàng)(也稱為L1范數(shù))和L2正則項(xiàng)(也稱為L2范數(shù)或權(quán)重衰減)是兩種常用的正則化方法,它們通過對(duì)模型參數(shù)的絕對(duì)值或平方值進(jìn)行懲罰來實(shí)現(xiàn)正則化。因此,選項(xiàng)A和D是正確的。而選項(xiàng)B的Tanh和選項(xiàng)C的ReLU都是激活函數(shù),用于決定一個(gè)節(jié)點(diǎn)(神經(jīng)元)是否應(yīng)該被激活,即是否對(duì)某個(gè)輸入信號(hào)產(chǎn)生響應(yīng),它們并不是正則項(xiàng)。所以,正確答案是AD。46.圖像數(shù)字化包括的處理過程有哪些?()A、二值化B、量化C、灰度變換D、采樣答案:BD解析:數(shù)字化過程包括量化、采樣47.某公司現(xiàn)在使用MindSpore框架來訓(xùn)練自己的Al模型,現(xiàn)在機(jī)房需要擴(kuò)容,采購硬件用于加速模型訓(xùn)練,以下哪些硬件是他們可以采購的?A、tlas300T訓(xùn)練卡B、英偉達(dá)V100顯卡C、Lntel至強(qiáng)系列CPUD、Atlas500智能小站答案:ABC48.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的答案:ABC解析:這道題考察機(jī)器學(xué)習(xí)算法與傳統(tǒng)規(guī)則方法的差異。傳統(tǒng)基于規(guī)則的方法,規(guī)律可以人工明確,采用顯性編程。而機(jī)器學(xué)習(xí)模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的,可以是顯性或隱性。因此,A、B描述了傳統(tǒng)方法的特性,C描述了機(jī)器學(xué)習(xí)的特性,均正確。D錯(cuò)誤,因?yàn)闄C(jī)器學(xué)習(xí)模型的映射關(guān)系并非必須是隱性的。49.以下哪些算法可以應(yīng)用于文本分類?()A、樸素貝葉斯B、SVMC、TextCNND、線性回歸答案:ABC解析:基于傳統(tǒng)的文本分類方法有樸素貝葉斯、邏輯回歸、SVM、決策樹等,基于深度學(xué)習(xí)的方法有TextCNN、TextRNN、BERT等(見PPT第432頁)50.華為云EI目前支持哪些格式的圖像識(shí)別?A、GIFB、PNGC、BMPD、JPG答案:BCD解析:華為云圖像識(shí)別服務(wù)支持的圖像包括:PNG、JPEG、BMP格式.其它限制:圖像各邊的像素大小在15px至4096px之間;圖片base64編碼后大小不超過10MB(原圖像大小不超過7.5MB);默認(rèn)API調(diào)用最大并發(fā)為10,更高并發(fā)需要,請?zhí)峤还温?lián)系專業(yè)工程師申請.51.文字識(shí)別技術(shù)可應(yīng)用于以下哪些場景()A、姿態(tài)識(shí)別(一般指人體姿態(tài))B、發(fā)票識(shí)別C、身份證識(shí)別D、表情識(shí)別(人臉識(shí)別)答案:BC解析:文字識(shí)別技術(shù)又稱OCR(光學(xué)字符識(shí)別)姿態(tài)識(shí)別主要指人體姿態(tài)識(shí)別表情識(shí)別屬于人臉識(shí)別的范圍52.以下哪些選項(xiàng)是GAN的應(yīng)用?()A、數(shù)據(jù)增強(qiáng)B、圖像轉(zhuǎn)換C、照片修復(fù)D、提高照片分辨率答案:ABCD解析:數(shù)據(jù)增強(qiáng)∶即增加訓(xùn)練數(shù)據(jù)樣本。防止過擬合最有效的方法是增加訓(xùn)練樣本,足夠多的數(shù)據(jù)可以讓模型看見盡可能多的例外情況并不斷修正自己,從而效果更好。數(shù)據(jù)增強(qiáng)是一個(gè)省時(shí)有效的方法,在不同領(lǐng)域有不同的實(shí)現(xiàn)方法:在目標(biāo)識(shí)別領(lǐng)域常用的方法是將圖片進(jìn)行旋轉(zhuǎn)、平移、縮放等(圖片變換的前提是通過變換不能改變圖片所屬類別,例如手寫數(shù)字識(shí)別,類別6和9進(jìn)行旋轉(zhuǎn)后容易改變類目)。語音識(shí)別中對(duì)輸入數(shù)據(jù)添加隨機(jī)噪聲。NLP中常用思路是進(jìn)行近義詞替換。53.命名實(shí)體識(shí)別是指識(shí)別文本中具有特定意義的實(shí)體,主要包括哪些?A、人名B、地名C、機(jī)構(gòu)名D、時(shí)間答案:ABCD解析:命名實(shí)體識(shí)別(NamedEntityRecognition,NER)是自然語言處理中的一個(gè)重要任務(wù),它旨在從文本中識(shí)別出具有特定意義的實(shí)體。這些實(shí)體通常包括人名(A)、地名(B)、機(jī)構(gòu)名(C)以及時(shí)間(D)等。這些實(shí)體在文本中扮演著關(guān)鍵角色,為文本理解和信息抽取提供了重要基礎(chǔ)。因此,ABCD都是命名實(shí)體識(shí)別所包括的內(nèi)容,答案為ABCD。54.以下哪些選項(xiàng)是常見的數(shù)據(jù)預(yù)處理方法?A、零均值化B、主成分分析C、數(shù)據(jù)漂移D、白化答案:ABD解析:數(shù)據(jù)預(yù)處理是數(shù)據(jù)處理的重要步驟,常見的預(yù)處理方法包括零均值化、歸一化、數(shù)據(jù)清洗、特征選擇、主成分分析(PCA)、數(shù)據(jù)漂移檢測和白化等。其中,零均值化用于將數(shù)據(jù)集中的所有數(shù)值變量轉(zhuǎn)換為具有平均值為0的標(biāo)準(zhǔn)變量,以消除數(shù)據(jù)中的偏態(tài)和波動(dòng);歸一化則是將數(shù)據(jù)集中的數(shù)值變量縮放到一個(gè)特定的范圍,以提高算法的效率和準(zhǔn)確性;數(shù)據(jù)漂移通常是由于數(shù)據(jù)集不均衡引起的,需要檢測并進(jìn)行糾正;而白化則用于消除非平穩(wěn)和非線性的特征影響,將非數(shù)值變量轉(zhuǎn)化為數(shù)值型數(shù)據(jù),方便進(jìn)一步的處理和分析。因此,ABD是常見的數(shù)據(jù)預(yù)處理方法。55.以下哪些任務(wù)屬于序列標(biāo)注任務(wù)?A、中文分詞B、語義槽填充C、命名實(shí)體識(shí)別D、意圖識(shí)別答案:ABC解析:序列標(biāo)注任務(wù)是對(duì)序列中的每個(gè)元素進(jìn)行標(biāo)注。中文分詞是將句子分解為詞序列,每個(gè)詞對(duì)應(yīng)一個(gè)標(biāo)注,屬于序列標(biāo)注。語義槽填充是給句子中的每個(gè)詞分配一個(gè)語義角色標(biāo)簽,也符合序列標(biāo)注的定義。命名實(shí)體識(shí)別是識(shí)別文本中的實(shí)體并將其分類,同樣是對(duì)序列中的元素進(jìn)行標(biāo)注。而意圖識(shí)別是判斷整個(gè)句子的意圖,屬于句子級(jí)別的分類任務(wù),不屬于序列標(biāo)注。56.以下關(guān)于語言模型的描述,錯(cuò)誤的是哪些項(xiàng)?A、N-Gram窗口越大,越不容易出現(xiàn)稀疏的問題。B、N-Gram簡單易用,對(duì)存儲(chǔ)資源的需求較大。C、RNN語言模型比n-gram能處理更長的上下文,而且沒有稀疏的問題。D、固定窗口神經(jīng)網(wǎng)絡(luò)語言模型想要更好的性能,就要減小窗口,窗口越小,參數(shù)量越大。答案:AD解析:這道題考察語言模型的特點(diǎn)。RNN語言模型確實(shí)能處理更長上下文,但也可能面臨梯度消失或爆炸的問題,說它沒有稀疏問題不完全準(zhǔn)確,所以A描述有誤但不是本題答案。N-Gram模型窗口增大,稀疏問題通常會(huì)加劇,因?yàn)樾枰嗟倪B續(xù)詞共現(xiàn),所以B描述錯(cuò)誤。C描述正確,N-Gram模型簡單易用,但隨著n的增大,模型大小和存儲(chǔ)需求也會(huì)增大。D描述錯(cuò)誤,固定窗口神經(jīng)網(wǎng)絡(luò)語言模型性能通常與窗口大小正相關(guān),窗口越大,能捕獲的上下文信息越多,但參數(shù)量也會(huì)相應(yīng)增大,不是減小窗口。所以,B和D是錯(cuò)誤描述。57.以下關(guān)于Relu激活函數(shù)缺點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)急B、轉(zhuǎn)折點(diǎn)定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對(duì)發(fā)散答案:ABCD解析:ReLU激活函數(shù)雖然因其簡單和計(jì)算高效而廣泛使用,但它也存在一些缺點(diǎn)。選項(xiàng)A提到的“神經(jīng)元死亡”現(xiàn)象,指的是當(dāng)ReLU輸入為負(fù)時(shí),輸出為零,導(dǎo)致該神經(jīng)元在反向傳播中不再更新,即“死亡”。選項(xiàng)B指出ReLU在轉(zhuǎn)折點(diǎn)(0點(diǎn))處定義的曲面有“棱角”,這在某些需要平滑輸出的回歸問題中可能是一個(gè)缺點(diǎn)。選項(xiàng)C提到ReLU在0處不可導(dǎo),雖然在實(shí)踐中通常為其定義一個(gè)導(dǎo)數(shù)(如0或1),但這確實(shí)是一個(gè)數(shù)學(xué)上的不連續(xù)點(diǎn)。選項(xiàng)D指出ReLU無上界,可能導(dǎo)致訓(xùn)練過程中激活值無限制地增長,從而使訓(xùn)練變得相對(duì)發(fā)散。因此,所有選項(xiàng)A、B、C、D都是關(guān)于ReLU激活函數(shù)缺點(diǎn)的正確描述。58.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?A、多元線性回歸分析出來的一定是高維空間中的一條直線。B、由于算法復(fù)雜度,線性回歸無法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最小的時(shí)候的權(quán)重參數(shù)C、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)D、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律誤差服從正態(tài)分布答案:ABC解析:這道題考察線性回歸相關(guān)知識(shí)。多元線性回歸在高維空間中是一個(gè)平面或超平面,不是直線,A錯(cuò)誤。線性回歸的損失函數(shù)是凸函數(shù),可以使用梯度下降法求解,B錯(cuò)誤。線性回歸的損失函數(shù)是基于最小二乘法的,不是通過正態(tài)分布函數(shù)與最大似然估計(jì)求出,C錯(cuò)誤。線性回歸誤差項(xiàng)通常假設(shè)服從正態(tài)分布,這是基于中心極限定律,D正確。59.以下屬于LDA訓(xùn)練過程的是?()A、初始化B、吉布斯采樣C、生成語句D、生成主題答案:AB解析:見PPT435頁60.像素常用的連通方式有哪些?A、8連通B、16連通C、12連通D、4連通答案:AD解析:連通域分為4聯(lián)通、8聯(lián)通61.下面哪些是訓(xùn)練模型時(shí)會(huì)定義的超參數(shù)?A、訓(xùn)練輪次(epoch)B、批次大?。╞atchsize)C、學(xué)習(xí)率(learningrate)D、損失值(loss)答案:ABC解析:HCIA-AIV3.5_華為職業(yè)認(rèn)證_AI人工智能工程師_模擬考試第22題(原題)62.圖像預(yù)處理的主要流程包括A、灰度變換B、幾何校正C、圖像增強(qiáng)D、圖像濾波答案:ABCD解析:圖像預(yù)處理是為了改善圖像質(zhì)量、便于后續(xù)處理與分析?;叶茸儞Q可以調(diào)整圖像的灰度分布,增強(qiáng)對(duì)比度等。幾何校正用于糾正圖像的幾何失真。圖像增強(qiáng)能夠突出圖像中的有用信息,抑制無用信息。圖像濾波則可以去除圖像中的噪聲,平滑或銳化圖像。綜上所述,ABCD選項(xiàng)均是圖像預(yù)處理的主要流程。63.以下哪些項(xiàng)是神經(jīng)網(wǎng)絡(luò)在感知機(jī)的基礎(chǔ)上做的改進(jìn)?A、引入了損失函數(shù)。B、輸出層的神經(jīng)元也可以不止一個(gè),可以有多個(gè)輸出C、加入隱藏層,隱藏層可以有多層,增強(qiáng)模型的表達(dá)能力。D、對(duì)激活函數(shù)做擴(kuò)展,包括Sigmoid函數(shù)、Softmax和ReLU等。答案:ABCD解析:這道題考查神經(jīng)網(wǎng)絡(luò)相較于感知機(jī)所做的改進(jìn)。感知機(jī)是一個(gè)簡單的線性二分類模型,而神經(jīng)網(wǎng)絡(luò)在其基礎(chǔ)上進(jìn)行了多項(xiàng)改進(jìn):加入隱藏層,能增強(qiáng)模型的表達(dá)能力;擴(kuò)展了激活函數(shù),使得模型可以處理非線性問題;輸出層神經(jīng)元數(shù)量不再限制為一個(gè),實(shí)現(xiàn)了多輸出;引入了損失函數(shù)來指導(dǎo)模型訓(xùn)練。這些改進(jìn)使得神經(jīng)網(wǎng)絡(luò)的應(yīng)用更加廣泛和強(qiáng)大。64.處理實(shí)際問題時(shí),以下什么情況下該使用機(jī)器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述比如人臉識(shí)別和語音識(shí)別B、任務(wù)的規(guī)會(huì)隨時(shí)間改變,比如生產(chǎn)線上的瑕疵檢測比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題答案:ABC解析:機(jī)器學(xué)習(xí)適用于處理復(fù)雜或難以明確描述的規(guī)則問題,如人臉識(shí)別和語音識(shí)別,這類問題規(guī)則復(fù)雜,難以用傳統(tǒng)編程方法解決。同時(shí),當(dāng)任務(wù)規(guī)則隨時(shí)間改變,如瑕疵檢測或銷售趨勢預(yù)測,機(jī)器學(xué)習(xí)能自動(dòng)適應(yīng)新規(guī)則。數(shù)據(jù)分布變化時(shí),機(jī)器學(xué)習(xí)也能重新適應(yīng)。但對(duì)于規(guī)則簡單、問題規(guī)模小的情況,傳統(tǒng)編程方法更合適,無需機(jī)器學(xué)習(xí)。65.文本向量化方法有?()A、word2vecB、Doc2vecC、str2vecD、vec2vec答案:ABC解析:參照PPT,沒有vec2vec66.John使用AscendCL/AscendComputingLanguage開發(fā)了一個(gè)昇騰推理應(yīng)用,使用了TensorFlow的摸型,后來發(fā)現(xiàn)推理效果不好,然后使用MindSpore框架重新訓(xùn)練了一個(gè)模型,現(xiàn)需要修改工程文件代碼,以下哪些說法是正確的?A、模型執(zhí)行推理的代碼可以不改。B、模型加載的代碼可以不改。C、使用MindSpore訓(xùn)練的模型無需使用ATC(AscendTensorCompiler)工具進(jìn)行轉(zhuǎn)換。D、AIPP的設(shè)置可以保留。答案:ABD解析:由于AscendCL/AscendComputingLanguage是基于TensorFlow的昇騰推理應(yīng)用,因此推理代碼本身不需要修改。模型加載的代碼也不需要改動(dòng),因?yàn)閮煞N框架的數(shù)據(jù)結(jié)構(gòu)兼容。由于MindSpore與TensorFlow具有較好的兼容性,所以無需使用ATC(AscendTensorCompiler)工具進(jìn)行轉(zhuǎn)換。此外,對(duì)于AIPP的設(shè)置可以保留的說法也是正確的,因?yàn)檫@涉及到優(yōu)化配置和參數(shù)設(shè)置,通常不需要修改。因此,正確是ABD。67.當(dāng)使用機(jī)器學(xué)習(xí)建立模型的過程中,以下哪些屬于必備的操作?A、模型構(gòu)建B、數(shù)據(jù)獲取C、特征選擇D、超參數(shù)調(diào)節(jié)答案:ABCD解析:這道題考察的是機(jī)器學(xué)習(xí)建模的必備操作。建模首要步驟是數(shù)據(jù)獲取,它是機(jī)器學(xué)習(xí)的基礎(chǔ)。接著進(jìn)行特征選擇,即從數(shù)據(jù)中挑選出對(duì)模型預(yù)測最有用的特征。模型構(gòu)建是將算法應(yīng)用于選定的特征上,創(chuàng)建出預(yù)測模型。最后,超參數(shù)調(diào)節(jié)是優(yōu)化模型性能的關(guān)鍵步驟,確保模型能達(dá)到最佳效果。68.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項(xiàng)?A、數(shù)據(jù)降維B、數(shù)據(jù)清理C、模型訓(xùn)練D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:ABD解析:這道題考察的是對(duì)數(shù)據(jù)預(yù)處理步驟的理解。數(shù)據(jù)預(yù)處理是機(jī)器學(xué)習(xí)項(xiàng)目中的關(guān)鍵步驟,包括數(shù)據(jù)清理以去除或修正錯(cuò)誤數(shù)據(jù),數(shù)據(jù)標(biāo)準(zhǔn)化以統(tǒng)一數(shù)據(jù)格式,以及數(shù)據(jù)降維以減少計(jì)算復(fù)雜度和避免過擬合。模型訓(xùn)練是預(yù)處理后的步驟,不屬于預(yù)處理范疇。因此,選項(xiàng)B、C、D均屬于數(shù)據(jù)預(yù)處理步驟。69.哪些目錄是ME模塊組件包含的?A、trainB、cmakeC、model_zooD、nn答案:AD解析:這道題考察的是對(duì)ME模塊組件目錄的了解。ME模塊主要包含用于模型訓(xùn)練的“train”目錄和用于定義神經(jīng)網(wǎng)絡(luò)的“nn”目錄。這兩個(gè)目錄是ME模塊的核心組成部分,直接關(guān)聯(lián)到模型的訓(xùn)練和網(wǎng)絡(luò)的構(gòu)建。而“cmake”通常與項(xiàng)目構(gòu)建相關(guān),“model_zoo”則指模型庫,它們并非ME模塊特有的目錄,因此不包含在ME模塊組件內(nèi)。70.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時(shí),需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進(jìn)行搜索B、一個(gè)人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個(gè)人臉集中的人臉數(shù)據(jù)答案:ACD解析:人臉?biāo)阉鞣?wù)通常涉及人臉集的管理和搜索功能。沒有人臉集,自然需要先創(chuàng)建,再添加數(shù)據(jù)以進(jìn)行搜索,這是基本操作流程。同時(shí),為了數(shù)據(jù)管理和隱私保護(hù),通常會(huì)提供刪除人臉集或其中特定人臉數(shù)據(jù)的接口。而關(guān)于人臉集的圖片數(shù)量限制,并非人臉?biāo)阉鞣?wù)的核心特性,具體數(shù)量可能因服務(wù)提供商而異,因此不選B。71.以下哪些是激活函數(shù)設(shè)計(jì)的考慮因素()A、非線性B、連續(xù)可微性C、有界性D、單調(diào)性E、平滑性答案:ABCDE解析:在設(shè)計(jì)激活函數(shù)時(shí),需要考慮多個(gè)因素,包括但不限于非線性、連續(xù)可微性、有界性、單調(diào)性、平滑性和對(duì)稱性等。這些因素都是為了確保激活函數(shù)能夠有效地提升神經(jīng)網(wǎng)絡(luò)的性能和表現(xiàn)。72.MFCC提取過程中的步驟包含以下哪些?A、加窗B、分幀C、傅里葉變換D、倒譜分析答案:ABCD解析:MFCC提取是語音信號(hào)處理中的一個(gè)常見步驟,主要用于語音識(shí)別、語音合成等領(lǐng)域。其基本過程包括加窗、分幀、傅里葉變換以及倒譜分析等步驟。因此,ABCD都是MFCC提取過程中的步驟。73.以下關(guān)于詞袋模型和TF-IDF的描述,正確的是哪些選項(xiàng)?A、詞袋模型無法區(qū)分常用詞和專有名詞對(duì)文本的重要性B、詞袋模型和TF-IDF都忽略了詞的位置信息C、詞袋向量化或TF-IDF向量化后的特征通常都有高維稀疏的問題D、TF-IDF無法區(qū)分常用詞和專有名詞對(duì)文本的重要性答案:ABC74.ModelArts目前有支持哪幾種預(yù)置模型?A、基因測序B、物體檢測C、圖像分類D、圖像分割答案:BCD解析:ModelArts是華為云提供的人工智能平臺(tái),它支持多種預(yù)置模型,包括圖像分類、物體檢測和圖像分割等。因此,為BCD。75.BPTT得步驟包括以下哪些信息?A、計(jì)算神經(jīng)元的層數(shù)B、前向計(jì)算每個(gè)神經(jīng)元的輸出值C、反向計(jì)算每個(gè)神經(jīng)元的誤差值D、計(jì)算每個(gè)權(quán)重的梯度答案:BCD解析:BPTT(BackpropagationTraining)是一種神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,用于通過反向傳播算法優(yōu)化神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏差。其步驟包括1.計(jì)算神經(jīng)元的層數(shù),確定網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。2.前向計(jì)算每個(gè)神經(jīng)元的輸出值,即根據(jù)輸入數(shù)據(jù)和權(quán)重計(jì)算神經(jīng)元的輸出結(jié)果。3.反向計(jì)算每個(gè)神經(jīng)元的誤差值,即根據(jù)損失函數(shù)和輸出結(jié)果,計(jì)算誤差在神經(jīng)元之間的傳播和調(diào)整。4.計(jì)算每個(gè)權(quán)重的梯度,根據(jù)誤差傳播的結(jié)果,對(duì)每個(gè)權(quán)重進(jìn)行更新。76.以下屬于序列標(biāo)注任務(wù)的是()A、情感分析B、中文分詞C、實(shí)體識(shí)別D、詞性標(biāo)注答案:BCD解析:情感分析是屬于文本分類問題,不屬于序列標(biāo)注任務(wù)。其它都是77.快應(yīng)用的云測試的主要測試內(nèi)容有哪些?A、遍歷UI測試B、機(jī)型測試C、JavaScript異常D、功能邏輯測試答案:ABC解析:快應(yīng)用的云測試主要測試內(nèi)容包括遍歷UI測試、機(jī)型測試以及JavaScript異常測試。這是因?yàn)榭鞈?yīng)用主要依賴于云端運(yùn)行,因此對(duì)用戶界面(UI)的測試至關(guān)重要;同時(shí),由于不同機(jī)型可能存在差異,因此機(jī)型測試也是必不可少的;而JavaScript異常測試則是針對(duì)快應(yīng)用中可能出現(xiàn)的JavaScript運(yùn)行錯(cuò)誤進(jìn)行測試。因此,為ABC。78.ModelArts是面向AI開發(fā)者的一站式開發(fā)平臺(tái),“一站式”是指AI開發(fā)的各個(gè)環(huán)節(jié),包括以下哪些選項(xiàng)?A、模型部署B(yǎng)、模型訓(xùn)練C、數(shù)據(jù)處理D、模型管理E、算法開發(fā)答案:ABCDE解析:ModelArts作為面向AI開發(fā)者的一站式開發(fā)平臺(tái),"一站式"意味著它涵蓋了AI開發(fā)的各個(gè)環(huán)節(jié)。具體來看,這些環(huán)節(jié)包括模型部署(A),即把訓(xùn)練好的模型部署到實(shí)際運(yùn)行環(huán)境中;模型訓(xùn)練(B),即利用算法和數(shù)據(jù)訓(xùn)練出模型;數(shù)據(jù)處理(C),即對(duì)原始數(shù)據(jù)進(jìn)行清洗、轉(zhuǎn)換等預(yù)處理工作;模型管理(D),即管理訓(xùn)練好的模型,包括版本控制、性能評(píng)估等;算法開發(fā)(E),即研究和開發(fā)新的算法。因此,所有選項(xiàng)A、B、C、D、E都是“一站式”開發(fā)平臺(tái)所包含的內(nèi)容,故答案為ABCDE。79.John是一名AI工程師,第一次接觸昇騰相關(guān)的產(chǎn)品,在查看介紹時(shí)發(fā)現(xiàn)AscendCL/AscendComputingLanguage具備模型加載能力,他認(rèn)為只要把訓(xùn)練好的任意格式的模型提供給AcendCL即可,AscendCL會(huì)自動(dòng)識(shí)別模型框架并完成模型加載,關(guān)于他的理解,說法是錯(cuò)誤的是以下哪些選項(xiàng)?A、scendCL具備模型直接加載能力,不需要借助其他工具。B、AscendCL具備自動(dòng)識(shí)別模型框架的能力,但是需要使用ATC(AscendTensorCompiler)對(duì)模型進(jìn)行轉(zhuǎn)換。C、AscendCL可以直接加載模型,但是需要ATC(AscendTensorCompiler)工具先把模型轉(zhuǎn)換為OM模型。D、AscendCL可以直接加載MindSpore訓(xùn)練出的模型,其他框架的模型需要由ATC(AscendTensorCompiler)工具進(jìn)行轉(zhuǎn)換,然后由GE(GraphEngine)層加載。答案:ABCD解析:對(duì)于這個(gè)問題的,首先要明確AscendCL是一種針對(duì)Ascend框架的計(jì)算平臺(tái),其支持自動(dòng)識(shí)別并加載模型,而模型的轉(zhuǎn)換是使用ATC(AscendTensorCompiler)進(jìn)行的。也就是說,選項(xiàng)A和B的說法都是錯(cuò)誤的。此外,雖然AscendCL可以直接加載MindSpore訓(xùn)練出的模型,但是對(duì)于其他框架的模型,仍需要使用ATC(AscendTensorCompiler)進(jìn)行轉(zhuǎn)換后,再由GE(GraphEngine)層加載。因此,選項(xiàng)C和D也是錯(cuò)誤的。所以,正確的是ABCD。80.CCE算子庫包含以下哪些類型的算子?A、矩陣乘B、控制類C、Vector類D、卷積類答案:ABCD解析:這道題考查對(duì)CCE算子庫的了解。CCE算子庫是一個(gè)廣泛使用的計(jì)算庫,它包括了多種類型的算子,用于執(zhí)行不同的計(jì)算任務(wù)。矩陣乘是基本的數(shù)學(xué)運(yùn)算,控制類算子用于流程控制,Vector類算子處理向量數(shù)據(jù),卷積類算子常用于圖像處理等領(lǐng)域。這些都屬于CCE算子庫中的算子類型。81.華為MDC可以應(yīng)用在以下那些場景中?A、港口貨運(yùn)汽車B、航天飛行器C、智能醫(yī)療器械D、私人出行汽車答案:AD解析:華為MDC是一款智能駕駛計(jì)算平臺(tái),可以應(yīng)用于各種場景,根據(jù)題目的描述,可以應(yīng)用于港口貨運(yùn)汽車、航天飛行器、私人出行汽車等場景。因此,答案是ABD。82.以下哪些項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)—的類型?A、音樂生成B、動(dòng)作識(shí)別C、機(jī)器翻譯D、情感分析答案:BD解析:在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的應(yīng)用中,"多對(duì)一"指的是多個(gè)輸入對(duì)應(yīng)一個(gè)輸出。對(duì)于提供的選項(xiàng):A.音樂生成通常是“一對(duì)多”的任務(wù),即給定一個(gè)初始音符或旋律,生成一系列的音符或旋律。B.動(dòng)作識(shí)別是“多對(duì)一”的任務(wù),它將一系列的動(dòng)作幀作為輸入,輸出一個(gè)動(dòng)作標(biāo)簽。C.機(jī)器翻譯也可以是“多對(duì)一”的任務(wù),尤其是在將一句話(多個(gè)詞)翻譯成單個(gè)詞或短語時(shí)。但更常見的是“多對(duì)多”,即將一句話翻譯成另一句話。在此題的上下文中,我們可以考慮其簡化的形式,即輸出為單個(gè)主要意思或詞匯。D.情感分析通常是“多對(duì)一”的任務(wù),將一段文本或句子作為輸入,輸出一個(gè)情感標(biāo)簽。但考慮到某些情感分析可能輸出多個(gè)標(biāo)簽或維度,這里可能存在爭議。然而,按照最簡化的形式,它也可以被視為“多對(duì)一”??紤]到題目的具體要求和最常見的應(yīng)用場景,動(dòng)作識(shí)別和機(jī)器翻譯在更嚴(yán)格的“多對(duì)一”定義下更為貼切,因此答案選擇B和C。83.發(fā)音器官包括哪些()A、喉中B、喉上C、喉頭D、喉下答案:BCD解析:發(fā)音器官分喉下、喉頭、喉上三個(gè)部分。喉下部分是由氣管到肺。從肺呼出的氣流成為語音的聲援。喉頭部是聲門和聲帶。聲帶是兩條韌帶,起著喉的閥門作用,它的閉攏和打開成為聲門。喉上部分包括咽腔,口腔和鼻腔三個(gè)區(qū)域84.關(guān)于sigmoid函數(shù)說法正確的是()A、Sigmoid函數(shù)單調(diào)連續(xù),求導(dǎo)容易,輸出有界,網(wǎng)絡(luò)比較容易收斂B、在網(wǎng)絡(luò)非常深的時(shí)候,梯度的模越來越小C、一般來說,Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會(huì)產(chǎn)生梯度退化為0的現(xiàn)象,難以訓(xùn)練。這種現(xiàn)象稱為梯度消失現(xiàn)象D、Sigmoid的輸出并是以0為中心的答案:ABC解析:Sigmoid函數(shù)因其單調(diào)連續(xù)、易求導(dǎo)、輸出有界的特點(diǎn),使得網(wǎng)絡(luò)較容易收斂。但在深層網(wǎng)絡(luò)中,其梯度模會(huì)逐漸減小,導(dǎo)致梯度消失問題,一般在5層內(nèi)就可能發(fā)生,使得網(wǎng)絡(luò)難以訓(xùn)練。而Sigmoid函數(shù)的輸出值域?yàn)?0,1),并非以0為中心。85.下列關(guān)于護(hù)照識(shí)別服務(wù)的說法正確的是?A、country_code代表護(hù)照簽發(fā)國家的國家碼B、nationality代表持有人國籍C、passport_number代表護(hù)照號(hào)碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識(shí)別的對(duì)應(yīng)字段的可靠性越高,在統(tǒng)計(jì)意義上,置信度越大,準(zhǔn)確率越高答案:ABCD解析:護(hù)照識(shí)別服務(wù)涉及解析護(hù)照信息。其中,country_code確指護(hù)照簽發(fā)國的國家碼,nationality代表持有者的國籍,passport_number是護(hù)照的唯一標(biāo)識(shí)號(hào)碼。置信度信息反映識(shí)別可靠性,置信度越高,識(shí)別準(zhǔn)確率在統(tǒng)計(jì)上越高,表明對(duì)應(yīng)字段的識(shí)別結(jié)果更可信。86.下列選項(xiàng)中,關(guān)于AK/SK說法正確的是?A、通過API網(wǎng)關(guān)向下層服務(wù)發(fā)送請求時(shí),必須使用AK、SK對(duì)請求進(jìn)行簽名B、訪問密鑰ID和私有訪問密鑰一起使用,對(duì)請求進(jìn)行加密簽名C、AK:訪問密鑰ID。與私有訪問密鑰關(guān)聯(lián)的唯一標(biāo)識(shí)D、SK:與訪問密鑰ID結(jié)合使用的密鑰,對(duì)請求進(jìn)行加密簽名、可標(biāo)識(shí)發(fā)送方,并防止請求被修改答案:ABCD解析:AK/SK(訪問密鑰ID和私有訪問密鑰)是身份驗(yàn)證的重要憑據(jù),在API請求中扮演著關(guān)鍵角色。A選項(xiàng)正確,通過API網(wǎng)關(guān)向下層服務(wù)發(fā)送請求時(shí),確實(shí)需要使用AK、SK對(duì)請求進(jìn)行簽名,這是為了驗(yàn)證請求的合法性和完整性。B選項(xiàng)正確,訪問密鑰ID和私有訪問密鑰是成對(duì)使用的,它們共同對(duì)請求進(jìn)行加密簽名,確保請求的安全性。C選項(xiàng)正確,AK即訪問密鑰ID,是與私有訪問密鑰關(guān)聯(lián)的唯一標(biāo)識(shí),用于標(biāo)識(shí)請求的發(fā)送方。D選項(xiàng)正確,SK即私有訪問密鑰,與訪問密鑰ID結(jié)合使用,對(duì)請求進(jìn)行加密簽名。它不僅可以標(biāo)識(shí)發(fā)送方,還可以防止請求在傳輸過程中被篡改。綜上所述,ABCD四個(gè)選項(xiàng)均正確。87.將圖像降維的方法主要有?A、降采樣B、分割感興趣區(qū)域C、特征描述子D、去噪答案:ABC解析:降采樣,主要指圖像縮小;分割感興趣區(qū)域也是一種降維的方式特征描述子值經(jīng)過計(jì)算,取出圖像特征降噪是為了去除干擾信息,不屬于降維88.以下哪些選項(xiàng)不是Word2Vec訓(xùn)練中可以采用的加速技巧?A、DataAugmentationB、Up-slingC、NegativeSlingD、SoftPlus答案:ABD解析:Word2Vec是一種用于計(jì)算詞向量的模型,其訓(xùn)練過程中可以采用多種加速技巧。在這些選項(xiàng)中,NegativeSling是一種常用的加速技巧,它通過減少需要更新的權(quán)重?cái)?shù)量來提高訓(xùn)練速度。而DataAugmentation(數(shù)據(jù)增強(qiáng))、Up-sling(上采樣)通常用于圖像處理領(lǐng)域,與Word2Vec訓(xùn)練加速無關(guān)。SoftPlus是一個(gè)激活函數(shù),與訓(xùn)練加速技巧不直接相關(guān)。因此,選項(xiàng)A、B、C不是Word2Vec訓(xùn)練中可以采用的加速技巧,答案是ABC。89.為了衡量數(shù)據(jù)中心的效率,主要參考以下哪幾項(xiàng)指標(biāo)?A、PUEB、數(shù)據(jù)中心溫度C、數(shù)據(jù)中心面積D、碳使用效率答案:AD解析:PUE(PowerUsageEffectiveness,電源使用效率)是用于衡量數(shù)據(jù)中心能源效率的關(guān)鍵指標(biāo),它表示數(shù)據(jù)中心總能耗與IT設(shè)備能耗的比值,比值越低,效率越高。碳使用效率反映了數(shù)據(jù)中心在運(yùn)營過程中的碳排放情況,對(duì)于評(píng)估其對(duì)環(huán)境的影響和可持續(xù)性具有重要意義。而數(shù)據(jù)中心溫度和面積并非直接衡量數(shù)據(jù)中心效率的核心指標(biāo)。綜上所述,正確答案是AD。90.ModelArts中訓(xùn)練平臺(tái)可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)IDE+PyCharmToolKit)B、云上開發(fā)(Notebook+SDKC、本地開發(fā)IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)答案:AD解析:這道題考察的是對(duì)ModelArts訓(xùn)練平臺(tái)支持的開發(fā)模式的了解。ModelArts支持多種開發(fā)模式,包括云上開發(fā)和本地開發(fā)。云上開發(fā)可通過Notebook和SDK進(jìn)行,本地開發(fā)同樣支持IDE搭配PyCharmToolKit或Notebook搭配SDK的模式。因此,云上開發(fā)IDE并非ModelArts支持的模式,A選項(xiàng)不正確。其余選項(xiàng)均準(zhǔn)確描述了ModelArts支持的開發(fā)模式。91.以下哪些門屬于LSTM的結(jié)構(gòu)?()A、輸入門B、輸出門C、記憶門D、遺忘門答案:ABD解析:這道題考察的是LSTM(長短期記憶網(wǎng)絡(luò))的結(jié)構(gòu)知識(shí)。LSTM包含三個(gè)主要結(jié)構(gòu):輸入門、遺忘門和輸出門。輸入門決定哪些新信息被加入到細(xì)胞狀態(tài)中,遺忘門決定從細(xì)胞狀態(tài)中丟棄哪些信息,輸出門決定細(xì)胞狀態(tài)的哪些部分將被輸出。因此,A、B、D選項(xiàng)正確描述了LSTM的結(jié)構(gòu),而C選項(xiàng)“記憶門”并非LSTM的標(biāo)準(zhǔn)組成部分。92.語音合成方法有哪些?()A、串聯(lián)共振峰合成器B、并聯(lián)共振峰合成器C、共振峰合成器D、PSOLA方法答案:ABCD解析:語音合成的方法有很多種,包括但不限于共振峰合成器、串聯(lián)共振峰合成器、并聯(lián)共振峰合成器等傳統(tǒng)方法,也可以使用PSOLA方法等現(xiàn)代技術(shù)。因此,ABCD都是正確的。93.關(guān)于L1正則化與L2正則化,以下哪項(xiàng)表是正確的?A、L1正則項(xiàng)有利于增強(qiáng)模型的泛化能力B、L1,L2正則項(xiàng)不能作用在損失函數(shù)之上C、L2正則化比L1正則化產(chǎn)生更加稀疏的模型D、加上L2正則向后,無法使用梯度下降算法迭代參數(shù)值答案:AC解析:這道題考察的是對(duì)L1和L2正則化的理解。L1正則化通過引入模型參數(shù)的絕對(duì)值之和作為懲罰項(xiàng),有助于生成稀疏權(quán)重矩陣,進(jìn)而增強(qiáng)模型的泛化能力。L2正則化則是引入模型參數(shù)的平方和作為懲罰項(xiàng),它傾向于分散權(quán)重向量,使模型更加平滑。兩者都可以作用在損失函數(shù)上,且使用L2正則化后,仍然可以使用梯度下降算法迭代參數(shù)值。因此,選項(xiàng)A正確。94.以下關(guān)于梯度下降的描述中,哪些選項(xiàng)是正確的?A、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,因此對(duì)于所有任務(wù)這種方法是最好的。B、隨機(jī)梯度下降(SGD),隨機(jī)選取一個(gè)數(shù)據(jù)集中的樣本在當(dāng)前的梯度來對(duì)權(quán)重參數(shù)進(jìn)行更新操作。C、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,每次選擇數(shù)據(jù)集中N個(gè)樣本的梯度來對(duì)權(quán)重參數(shù)進(jìn)行更新操作。D、批量梯度下降(BGD),使用所有數(shù)據(jù)集中的樣本(共M個(gè)樣本)在當(dāng)前的梯度之和來對(duì)權(quán)重參數(shù)進(jìn)行更新操作答案:BCD解析:正確答案是BCD。解釋如下:B選項(xiàng)描述的是隨機(jī)梯度下降(SGD),它是一種常用的優(yōu)化算法,通過隨機(jī)選擇一個(gè)數(shù)據(jù)集中的樣本在當(dāng)前梯度下的操作來更新權(quán)重參數(shù)。C選項(xiàng)描述的是小批量梯度下降(MBGD),它結(jié)合了批量梯度下降(BGD)和SGD的特性,每次選擇數(shù)據(jù)集中N個(gè)樣本的梯度來對(duì)權(quán)重參數(shù)進(jìn)行更新操作。這種方法可以更好地利用數(shù)據(jù),提高算法的收斂速度和精度。D選項(xiàng)描述的是批量梯度下降(BGD),它使用所有數(shù)據(jù)集中的樣本在當(dāng)前的梯度之和來對(duì)權(quán)重參數(shù)進(jìn)行更新操作。雖然這種方法在大規(guī)模數(shù)據(jù)集上可能表現(xiàn)不佳,但在處理小規(guī)模數(shù)據(jù)集時(shí),BGD仍然是常用的優(yōu)化算法之一。因此,這三個(gè)選項(xiàng)都是關(guān)于梯度下降的正確描述。95.圖像識(shí)別的基本任務(wù)()A、圖像分類B、目標(biāo)檢測C、圖像分割D、目標(biāo)跟蹤答案:ABCD解析:圖像識(shí)別的基本任務(wù)涉及對(duì)圖像內(nèi)容的理解和分析。圖像分類是識(shí)別圖像中的主體類別;目標(biāo)檢測不僅要分類,還要定位圖像中的每個(gè)目標(biāo);圖像分割則進(jìn)一步區(qū)分圖像中的不同區(qū)域和對(duì)象;目標(biāo)跟蹤是連續(xù)幀中定位同一目標(biāo)。這些任務(wù)共同構(gòu)成了圖像識(shí)別的基礎(chǔ),涵蓋了從簡單分類到復(fù)雜場景理解的全過程。96.RESTAPI的請求/響應(yīng)包含哪些A、請求URLB、請求消息頭C、請求消息體D、響應(yīng)消息頭E、響應(yīng)消息體答案:ABCDE解析:RESTAPI的請求/響應(yīng)通常包含以下內(nèi)容A.請求URL用于指定請求的目標(biāo)資源或操作。B.請求消息頭用于傳遞與請求相關(guān)的附加信息,如身份驗(yàn)證、頭部信息等。C.請求消息體包含實(shí)際的請求數(shù)據(jù),如POST請求中的數(shù)據(jù)。D.響應(yīng)消息頭包含與響應(yīng)相關(guān)的元數(shù)據(jù),如狀態(tài)碼、響應(yīng)時(shí)間等。E.響應(yīng)消息體包含實(shí)際的數(shù)據(jù)或結(jié)果,如GET請求的響應(yīng)結(jié)果。97.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力答案:ABCD解析:華為云El服務(wù)提供Al和大數(shù)據(jù)服務(wù),可以幫助企業(yè)加速業(yè)務(wù)發(fā)展,并造福社會(huì)。這種服務(wù)可以包括行業(yè)數(shù)據(jù)、行業(yè)智慧、算法和算力等方面,以滿足企業(yè)的不同需求。因此,正確答案是ABCD。98.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、33和10C、10和和33D、9和33答案:ABC解析:全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)總量計(jì)算公式是“上一層神經(jīng)元數(shù)量乘以本層神經(jīng)元數(shù)量加上本層神經(jīng)元數(shù)量(如果考慮偏置項(xiàng))”。A選項(xiàng)(32?10+10=330)計(jì)算不符合,B選項(xiàng)(10?33=330)符合,C選項(xiàng)(33?10=330)符合,D選項(xiàng)(9?33=297)不符合。因此,正確答案是B和C,它們滿足參數(shù)總量的條件。99.以下哪些是Mindspore中Tensor常見的操作?A、switch()B、size()C、asnumpy()D、tensor_add(other:tensor)答案:BC解析:在MindSpore框架中,Tensor是一個(gè)基本的數(shù)據(jù)結(jié)構(gòu),用于表示多維數(shù)組。對(duì)于給出的選項(xiàng):A.`switch()`并不是MindSpore中Tensor的常見操作。B.`size()`是Tensor的一個(gè)常見操作,用于獲取Tensor中元素的數(shù)量。C.`asnumpy()`也是Tensor的一個(gè)常見操作,用于將Tensor轉(zhuǎn)換為NumPy數(shù)組,方便與其他Python庫進(jìn)行交互。D.`tensor_add(other:tensor)`看起來像是一個(gè)Tensor添加另一個(gè)Tensor的操作,但在MindSpore中,Tensor的加法通常使用`+`運(yùn)算符或`add()`方法,而不是`tensor_add()`函數(shù)。因此,正確的選項(xiàng)是B和C。100.以下哪些華為云EI自然語言處理服務(wù)提供了基礎(chǔ)版和領(lǐng)域版的API?()A、文本分類B、情感分析C、文本摘要D、命名實(shí)體識(shí)別答案:ABCD解析:華為云EI自然語言處理服務(wù)提供了多個(gè)API,包括文本分類、情感分析、文本摘要和命名實(shí)體識(shí)別等。這些服務(wù)的基礎(chǔ)版和領(lǐng)域版API都是提供給用戶使用的,以滿足不同領(lǐng)域和不同需求的自然語言處理任務(wù)。因此,所有選項(xiàng)都是正確的。101.華為云文字識(shí)另別OCR技術(shù)的優(yōu)勢有哪幾項(xiàng)?A、識(shí)別精度高B、降低成本C、高適應(yīng)性D、快速高效答案:ABCD解析:華為云文字識(shí)別OCR技術(shù)具有多方面的優(yōu)勢,如高識(shí)別精度、降低成本、高適應(yīng)性以及快速高效。這些優(yōu)勢使其在很多場景中都得到了廣泛的應(yīng)用。因此,正確答案是ABCD。102.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的?A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不韻選擇其他方法。B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級(jí)的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特征。C、全連接層把所有局部特征結(jié)合變成全局特征用來計(jì)算最后每一類的得分。D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。答案:BCD解析:這道題考察卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。池化層有多種方法,不僅限于最大池化,故A項(xiàng)錯(cuò)誤。卷積運(yùn)算的目的是提取特征,從低級(jí)到高級(jí),所以B項(xiàng)正確。全連接層將局部特征整合為全局特征,用于分類,C項(xiàng)正確。卷積層由卷積單元構(gòu)成,其參數(shù)通過反向傳播優(yōu)化,D項(xiàng)正確。103.RESTAPI的請求方法包括A、GETB、PUTC、POSTD、ELETE、PATCH答案:ABCDE解析:RESTAPI(RepresentationalStateTransferApplicationProgrammingInterface)是一種網(wǎng)絡(luò)應(yīng)用程序的設(shè)計(jì)風(fēng)格和開發(fā)方式,基于HTTP協(xié)議。在RESTAPI中,請求方法用于指示對(duì)資源的操作類型。A.GET方法用于請求訪問已被URI識(shí)別的資源,可以通過URL傳送查詢參數(shù)來指定資源狀態(tài)。B.PUT方法用于更新資源,客戶端發(fā)送的數(shù)據(jù)會(huì)替換指定URI的資源內(nèi)容。C.POST方法用于向指定資源提交數(shù)據(jù),請求服務(wù)器進(jìn)行處理(例如提交表單或者上傳文件)。數(shù)據(jù)被包含在請求體中。D.DELETE方法用于刪除指定的資源。E.PATCH方法用于對(duì)資源進(jìn)行部分修改。因此,RESTAPI的請求方法確實(shí)包括GET、PUT、POST、DELETE和PATCH,所以答案是ABCDE。104.下面哪些技術(shù)屬于圖像分割的應(yīng)用?A、連通域分割B、運(yùn)動(dòng)分割C、目標(biāo)分割D、閾值分割答案:ABCD解析:圖像分割是一種在圖像處理中常見的技術(shù),它將圖像分成多個(gè)部分或區(qū)域,以識(shí)別圖像中的不同對(duì)象或區(qū)域。其中,連通域分割、運(yùn)動(dòng)分割、目標(biāo)分割和閾值分割都是常見的圖像分割技術(shù)。因此,ABCD都是正確的。需要注意的是,用戶輸入的題目來源不同,所以可能存在差異。但總體來說,大學(xué)教授的知識(shí)儲(chǔ)備和推理能力可以幫助用戶找到正確的。105.以下哪些選項(xiàng)屬于正則化方法的有哪些選項(xiàng)?A、DropoutB、atchNormalizationC、NND、RNN答案:AB解析:正則化是一種通過引入額外的約束或懲罰項(xiàng)來防止過擬合的技術(shù)。常見的正則化方法包括L1和L2正則化、Dropout等。在深度學(xué)習(xí)中,BatchNormalization也可以被看作是一種正則化技術(shù),它通過對(duì)每個(gè)小批量的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,減少了內(nèi)部協(xié)變量偏移,從而有助于穩(wěn)定訓(xùn)練過程和減少過擬合的風(fēng)險(xiǎn)。而CNN(卷積神經(jīng)網(wǎng)絡(luò))和RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))則是兩種不同類型的神經(jīng)網(wǎng)絡(luò)架構(gòu),不屬于正則化方法。因此,屬于正則化方法的選項(xiàng)是AB。106.自動(dòng)學(xué)習(xí)的圖像分類數(shù)據(jù)可以從哪些途徑獲取()A、從ModelArts市場導(dǎo)入B、從網(wǎng)頁端上傳C、從OBS上傳D、從其他云服務(wù)商存儲(chǔ)服務(wù)載入答案:ACD解析:實(shí)驗(yàn)手冊規(guī)定107.以下哪些服務(wù)屬于華為EI服務(wù)家族?A、對(duì)話機(jī)器人B、EI基礎(chǔ)服務(wù)C、自然語言處理D、EI大數(shù)據(jù)服務(wù)答案:ABCD解析:華為EI服務(wù)家族是華為提供的一系列企業(yè)級(jí)智能服務(wù),旨在幫助企業(yè)實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型和智能化升級(jí)。其中,對(duì)話機(jī)器人屬于EI服務(wù)家族中的一員,它利用自然語言處理技術(shù),實(shí)現(xiàn)與用戶的交互和智能應(yīng)答。EI基礎(chǔ)服務(wù)提供了構(gòu)建和運(yùn)行智能應(yīng)用所需的基礎(chǔ)能力和平臺(tái)支持。自然語言處理是EI服務(wù)家族中的核心技術(shù)之一,用于理解和處理人類語言。EI大數(shù)據(jù)服務(wù)則提供了對(duì)大規(guī)模數(shù)據(jù)的存儲(chǔ)、處理和分析能力,以支持企業(yè)的數(shù)據(jù)驅(qū)動(dòng)決策。因此,選項(xiàng)A、B、C、D均屬于華為EI服務(wù)家族的一部分,答案是ABCD。108.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)?A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)答案:ABCD解析:這道題考察深度學(xué)習(xí)中的激活函數(shù)知識(shí)。在深度學(xué)習(xí)里,激活函數(shù)幫助模型引入非線性,提升表達(dá)能力。tanh、ReLU、Softsign、Sigmoid都是廣泛使用的激活函數(shù),它們各有特點(diǎn),適用于不同場景和需求。因此,所有這些選項(xiàng)都是常用的深度學(xué)習(xí)激活函數(shù)。109.為了將數(shù)字圖像有效地轉(zhuǎn)換為結(jié)構(gòu)化數(shù)據(jù),需要用到圖像特征提取的技術(shù)降低數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低數(shù)據(jù)維度的主要思路?()A、分割感興趣區(qū)域B、降采樣C、特征描述子D、模式識(shí)別答案:ABC解析:圖像特征提取的主要思路包括分割感興趣區(qū)域、降采樣和特征描述子。這些方法可以有效地從數(shù)字圖像中提取出有意義的信息,降低數(shù)據(jù)的維度,從而方便后續(xù)的數(shù)據(jù)分析和處理。因此,ABC都是正確的選項(xiàng)。110.自然語言處理的基本方法有?()A、能力模型B、應(yīng)用模型C、監(jiān)理模型D、強(qiáng)化模型答案:AB解析:能力模型通常是基于語言學(xué)規(guī)則的模型,建立在人腦中先天存在的語法通則這一假設(shè)的基礎(chǔ)上,認(rèn)為語言是人腦的語言能力推導(dǎo)出來的,建立語言模型就是通過建立人工編輯的語言規(guī)則集來模擬這種先天的語言能力。應(yīng)用模型,通常是通過建立特定的數(shù)學(xué)模型來學(xué)習(xí)復(fù)雜的、廣泛的語言結(jié)構(gòu),然后利用統(tǒng)計(jì)學(xué)、模式識(shí)別和機(jī)器學(xué)習(xí)等方法來訓(xùn)練模型的參數(shù),以擴(kuò)大語言實(shí)用的規(guī)模111.梯度下降法是一種常見的優(yōu)化算法,其特點(diǎn)包括以下哪幾項(xiàng)?A、多步迭代B、步長會(huì)影響收斂性C、更新方向梯度的反方向D、更新方向梯度的同方向答案:AB解析:梯度下降法是一種常見的優(yōu)化算法,其特點(diǎn)包括多步迭代和步長會(huì)影響收斂性。在每次迭代中,算法會(huì)根據(jù)當(dāng)前點(diǎn)的梯度信息,沿著梯度的反方向進(jìn)行更新,即選項(xiàng)C錯(cuò)誤,而沿著梯度的同方向進(jìn)行更新,即選項(xiàng)D正確。因此,答案為AB。112.華為云人臉識(shí)別服務(wù),是基于人的臉部特征信息,利用計(jì)算機(jī)對(duì)人臉圖像進(jìn)行處——分析和理解,進(jìn)行身份識(shí)別的一種智能服務(wù),當(dāng)前華為云人臉識(shí)別提供了哪幾種子服務(wù)()A、人臉?biāo)阉鰾、人臉跟蹤C(jī)、人臉檢測D、人臉對(duì)比答案:ACD解析:華為云人臉識(shí)別服務(wù)是一種基于人臉圖像分析和理解的智能服務(wù),其中包括人臉?biāo)阉?、人臉跟蹤、人臉檢測和人臉對(duì)比等子服務(wù)。因此,為ACD。113.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?A、MomentumB、AdagradC、NesterovD、RMSprop答案:ABD解析:Adam優(yōu)化器結(jié)合了Momentum和RMSprop的優(yōu)點(diǎn)。Momentum可以加速梯度下降,避免陷入局部最優(yōu)解;RMSprop則可以自適應(yīng)地調(diào)整學(xué)習(xí)率。Momentum為Adam優(yōu)化器提供了利用之前梯度信息加速收斂的特性。RMSprop為Adam優(yōu)化器提供了自適應(yīng)調(diào)整學(xué)習(xí)率的能力。綜上所述,Adam優(yōu)化器可以看做是Momentum和RMSprop的結(jié)合。114.在利用MindStudio連接Device進(jìn)行應(yīng)用開發(fā)時(shí),Device的芯片層包含的功能特性有以下哪些選項(xiàng)?A、流程編排器B、GEC、TBED、運(yùn)行管理器答案:ABCD解析:在MindStudio中,當(dāng)連接到Device進(jìn)行應(yīng)用開發(fā)時(shí),Device的芯片層集成了多種功能特性以支持高效的應(yīng)用開發(fā)和部署。A選項(xiàng)的“流程編排器”通常用于定義和管理復(fù)雜的工作流程;B選項(xiàng)的“GE”(通用執(zhí)行環(huán)境)是運(yùn)行應(yīng)用所必需的底層環(huán)境;C選項(xiàng)的“TBE”(TensorBoostEngine)是針對(duì)AI推理和訓(xùn)練優(yōu)化的硬件加速引擎;D選項(xiàng)的“運(yùn)行管理器”則負(fù)責(zé)應(yīng)用的執(zhí)行和資源管理。因此,ABCD四個(gè)選項(xiàng)都是Device芯片層可能包含的功能特性。115.以下哪些是MindSpore的優(yōu)點(diǎn)()A、通過實(shí)現(xiàn)Al算法即代碼,使開發(fā)態(tài)變得更加友好,顯著減少模型開發(fā)時(shí)間,降低了模型開發(fā)門檻B(tài)、通過MindSpore自身的技術(shù)創(chuàng)新及MindSpore與Ascend處理器協(xié)同優(yōu)化,實(shí)現(xiàn)了運(yùn)行態(tài)的高效,大大提高了計(jì)算性能C、原生適應(yīng)每個(gè)場景包括端,邊緣和云,并能夠按需協(xié)同,部署態(tài)靈活D、支持GPU、CPU等其它處理器答案:ABCD解析:這道題考查對(duì)MindSpore優(yōu)點(diǎn)的理解。MindSpore是一款全場景深度學(xué)習(xí)框架,其優(yōu)點(diǎn)包括:實(shí)現(xiàn)AI算法即代碼,簡化開發(fā)流程,降低開

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論