




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
華為ICT大賽2024-2025中國區(qū)實(shí)踐賽(昇騰AI賽道)省決賽考試題庫及答案(供參考)6.以下哪個(gè)選項(xiàng)不是在自然語言處理發(fā)展過程中的方法?7.一副4位的圖形能夠區(qū)分多少種亮度變化?個(gè)4位的圖形意味著每個(gè)像素點(diǎn)可以用4位二進(jìn)制數(shù)來表示其亮度。由于二進(jìn)制數(shù)的每一位都可以是0或1,因此4位二進(jìn)制數(shù)可以組合成2^4=16種不同的亮B、自變型個(gè)選項(xiàng)?()B、Tanh函數(shù)是關(guān)于0點(diǎn)對稱的的收斂速度,所以A選項(xiàng)錯(cuò)誤。tanh函數(shù)是關(guān)于0點(diǎn)對因此B選項(xiàng)正確。Sigmoid函數(shù)雖然簡單易懂,但存在梯度消失正確答案是B。17.伽馬變化是()處理,直方圖均衡化是(),均值濾波是()處理。18.HIAIEngine-ASR前置靜音檢測的默認(rèn)時(shí)間是?答案:B答案:A22.使用ModeIArts自動(dòng)學(xué)習(xí)構(gòu)建圖像分類或物體檢測項(xiàng)目時(shí),數(shù)據(jù)集不支持以下哪一圖片格式?()解析:在使用ModeIArts自動(dòng)學(xué)習(xí)構(gòu)建圖像分類或物體檢測項(xiàng)目時(shí),數(shù)據(jù)集支持常見的圖片格式,如PNG(PortableNetworkGraphicExpertsGroup)、BMP(Bitmap)等。然而,對于WebP格式(一種谷歌開發(fā)的旨在加快網(wǎng)絡(luò)傳輸和節(jié)省帶寬的圖像壓縮格式),可能由于格式特性或兼容性23.以下哪一項(xiàng)不屬于MindSpore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)—模型R帶來一致性的部署體驗(yàn)。端云協(xié)同F(xiàn)ederalMetaLearning打破端解析:這道題考察的是對MindSpore全場景部署和協(xié)同關(guān)鍵特性的理解。MindSpore作為一個(gè)全場景深度學(xué)習(xí)框架,其核心特性包括統(tǒng)一的模型部署體驗(yàn)、端云協(xié)同的聯(lián)邦元學(xué)習(xí)、以及軟硬協(xié)同的圖優(yōu)同的圖優(yōu)化技術(shù)。而C選項(xiàng),“數(shù)據(jù)+計(jì)算整圖到Ascend芯片”,并不直接體現(xiàn)MindSpore全場景部署和協(xié)同的關(guān)鍵特性,它更多關(guān)注的是數(shù)據(jù)處理和芯片優(yōu)化24.以下選項(xiàng)中,哪個(gè)選項(xiàng)的模型無法分割線性不可分?jǐn)?shù)據(jù)集?在0和1之間,并且所有類別的輸出值之和為1。這使得Softmax函數(shù)非常適合式,我們可以看出,當(dāng)x趨近于負(fù)無窮時(shí),σ(x)趨近于0;當(dāng)x趨近于正無窮時(shí),σ(x)趨近于1。因此,Sigmoid函數(shù)的取值范圍是(0,1),選項(xiàng)B正確。32.一副4位的圖形能夠區(qū)分多少種亮度的變化?個(gè)4位的圖形意味著每個(gè)像素點(diǎn)可以用4位二進(jìn)制數(shù)來表示其亮度。由于二進(jìn)制數(shù)的每一位都可以是0或1,因此4位二進(jìn)制數(shù)可以組合成2^4=16種不同的亮33.利用gensim實(shí)現(xiàn)Doc2Vec時(shí),哪個(gè)參數(shù)代表選擇的具體模型?36.MindSpore提供了靈活的數(shù)據(jù)集加載方法,當(dāng)用戶通過Python實(shí)現(xiàn)自定義數(shù)re中,為了實(shí)現(xiàn)自定義數(shù)據(jù)集的讀取,用戶需要定義一個(gè)Python類,并通過特定的接口進(jìn)行數(shù)據(jù)加載。根據(jù)MindSpore的官方文檔和API設(shè)計(jì),`GeneratorD37.John在使用MindSpore練續(xù)里的時(shí)候保存了一個(gè)ckpt格式的檢查點(diǎn),然后他發(fā)現(xiàn)這種格式無法直接在昇騰310芯片上進(jìn)行推型在昇騰310處理器完成推理,以下選項(xiàng)中哪種做法是正確的?A、使用MindSpore加載當(dāng)前檢查點(diǎn)文件,然scendTensorCompiler)工具轉(zhuǎn)換為0M格式,即可在昇騰310處理器上進(jìn)行推理。A、Tanh函數(shù)C、Softmax函數(shù)解析:這道題考察的是對五官特征檢測API返回的關(guān)鍵點(diǎn)坐標(biāo)數(shù)量的了解。在人臉五官特征檢測中,API會(huì)返回代表五官輪廓位置的關(guān)鍵點(diǎn)坐標(biāo),這些坐標(biāo)點(diǎn)稱為landmark點(diǎn)。根據(jù)目前的技術(shù)標(biāo)準(zhǔn)和API設(shè)計(jì),通常支持68個(gè)landmark點(diǎn),用于詳細(xì)描繪人臉五官的輪廓和特征。46.某個(gè)汽車公司的產(chǎn)品,A廠占40%,B廠占60%,A的次品率是1%,B的次品A、0.25品占比*A廠的次品率+B廠的產(chǎn)品占比*B廠的次品率)=(0.4*0.01)/(0.4*0.是()49.以下在深度學(xué)習(xí)全流程描述中關(guān)于數(shù)據(jù)集的補(bǔ)充,正確的是哪一項(xiàng)?在模型訓(xùn)練中,需要遍歷(1)進(jìn)行訓(xùn)練,在訓(xùn)練過程中,可以邊訓(xùn)練,邊在(2)上進(jìn)型,在(3)上評估效果。A、1.驗(yàn)證集2.訓(xùn)練集3.測試集B、1.測試集2.訓(xùn)練集3.測試集C、1.訓(xùn)練集2.測試集3.驗(yàn)證集D、1.訓(xùn)練集2.驗(yàn)證集3.測試集解析:在深度學(xué)習(xí)全流程描述中,關(guān)于數(shù)據(jù)集的補(bǔ)充成后評估模型的最終性能。因此,正確的選項(xiàng)是D1.訓(xùn)練集2.驗(yàn)證集3.測試50.反向傳播算法的做法是:計(jì)算之后將其進(jìn)行反向傳播。以下哪一的正確內(nèi)容?B、各個(gè)輸入樣本的平方差之和C、各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和解析:正確的內(nèi)容是“C.各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和”。反向傳播算法是一種用A、cv2.GaussianBlur(im,(5,5)52.在坐標(biāo)變化時(shí),計(jì)算得到的坐標(biāo)數(shù)值不是整數(shù),需要使用什么方素的值?A、插值C、量化53.華為深度學(xué)習(xí)框架MindSpore的亮點(diǎn)有?B、圖像識(shí)別與處理技術(shù)C、圖像生成與增強(qiáng)技術(shù)技術(shù),虛擬助理能夠解析和處理用戶的語音輸入,進(jìn)而55.常用的梅爾倒譜系數(shù)(Mel-FrequencyCepstralCoefficients)一般是一個(gè)多技術(shù)?本中的實(shí)體(如人名、地名、事物名稱等);屬性抽取用于識(shí)別實(shí)體的屬性(如62.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以是正確的?A、先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度C、只有反向傳播計(jì)算梯度D的描述。A、一元線性回歸B、400:沒有操作權(quán)限C、每個(gè)隱藏層的單元數(shù)越多分類精度越高,但是也會(huì)帶來計(jì)算性能的下降,因度,選擇合適的隱藏層數(shù)量。綜上所述,選項(xiàng)D是錯(cuò)誤的。68.“批量推理是對批量數(shù)據(jù)進(jìn)行推理的批量作業(yè),使用對模型進(jìn)行訓(xùn)練。”關(guān)于上述描述,以下哪操作之前都需要先對模型進(jìn)行訓(xùn)練。因此,正確答案是B,即該描述錯(cuò)誤,推理69.Pytorch是有哪一個(gè)公司首先推出的?A、百度70.以下哪個(gè)選項(xiàng)不屬于語音識(shí)別預(yù)處理的步驟?B、增加隨機(jī)噪點(diǎn)C、去除標(biāo)簽相同的重復(fù)音頻提高識(shí)別準(zhǔn)確率。而B選項(xiàng)不屬于這個(gè)步驟,因此是正確。答案:C72.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?答案:B似性和差異性。1.分析選項(xiàng)A,最大功率:不同型號(hào)的處理器,由于設(shè)計(jì)、用途75.以下哪個(gè)不是Mindspore核心架構(gòu)的特點(diǎn)?B、自動(dòng)調(diào)優(yōu)D、自動(dòng)并行碼并不是MindSpore的核心架構(gòu)特點(diǎn)。C、優(yōu)化參數(shù)型訓(xùn)練完成后的應(yīng)用,不是梯度下降法的直接目的。因此,正確答案是C。77.在華為云EI中哪一項(xiàng)是面向開發(fā)者的一站式AI開發(fā)平臺(tái),為機(jī)器學(xué)習(xí)與深度學(xué)習(xí)提供海量數(shù)據(jù)預(yù)處理及半自動(dòng)化標(biāo)注,大規(guī)模分布式Training自動(dòng)化模期AI工作流?包括:*海量數(shù)據(jù)預(yù)處理及半自動(dòng)化標(biāo)注:這意味著開發(fā)者可以更容易地處理大的工作量。*大規(guī)模分布式Training:ModeIArts支持大規(guī)模分布式訓(xùn)練,這意得訓(xùn)練大規(guī)模模型成為可能。*自動(dòng)化模型生成:這地生成模型,而無需手動(dòng)進(jìn)行復(fù)雜的建模過程。*端-邊-云模型按需部署能力:ModeIArts允許開發(fā)者根據(jù)需要將模型部署到不同的環(huán)境(如終端、邊緣或云端),解析:新版AndroidUI設(shè)計(jì)器默認(rèn)的布局設(shè)計(jì)風(fēng)格為ConstraintLayout,這是t、FrameLayout和RelativeLayout都是AndroidUI設(shè)計(jì)中常見的布局方式,但82.圖像中的目標(biāo)對中心位置偏右了15個(gè)像素,可以使用下面哪種平移量的平移解析:根據(jù)題目描述,圖像中的目標(biāo)相對中心位置偏右了15個(gè)像素。為了將其平移量為負(fù)值(即向左移動(dòng)),考慮到題目要求使用選項(xiàng)中的數(shù)值進(jìn)行平移,所以平移坐標(biāo)應(yīng)為(-15,0),即選項(xiàng)D。83.Tensorboard是什么()A、MXNet官方提供的深度學(xué)習(xí)可視化工具B、ModeIArts自研的可視化工具C、Python提供的可視化工具包D、TensorFlow官方提供的深度學(xué)習(xí)可視化工具B、layout優(yōu)化答案:B答案:BA、極大的降供了車輛生產(chǎn)成本,B、能夠讓特殊人群上路C、減少交通事故89.自然語言處理的應(yīng)用場景不包括以下哪一個(gè)選項(xiàng)?A、輿情分析B、機(jī)器翻譯D、圖像識(shí)別不是NLP的應(yīng)用場景。因此,選項(xiàng)D“圖像識(shí)別”不屬于自然語言處理的應(yīng)用范93.我們通常說的720P的視頻格式,720代表什么D、深度圖優(yōu)化解析:這道題考察的是對MindSpore計(jì)算性能優(yōu)化措施的一個(gè)深度學(xué)習(xí)框架,為了提升計(jì)算性能,確實(shí)此,選項(xiàng)D不屬于MindSpore在提升計(jì)算性能方面所做的優(yōu)化內(nèi)容。97.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)NN)確實(shí)可以根據(jù)時(shí)間軸展開,LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種,專門設(shè)計(jì)來解決項(xiàng)A、C、D都是正確的。而選項(xiàng)B的說法“LSTM無法解決梯度消失的問題”是錯(cuò)誤的,因?yàn)長STM的主要改進(jìn)之一就是引入了門控機(jī)制,正是為了解決梯度消98.(單選題)哪個(gè)MindSpore組件幫助實(shí)現(xiàn)“一次訓(xùn)練,多處部署”?()解析:這道題考察的是對EI服務(wù)應(yīng)用領(lǐng)域的理解。首先,從題干中我們可以了A選項(xiàng)“園區(qū)智能體”,通常用于園區(qū)的智能化管理,與網(wǎng)絡(luò)性能問題不直接相關(guān)。*B選項(xiàng)“交通智能體”,主要應(yīng)用于交通領(lǐng)域的智能化,同樣與網(wǎng)絡(luò)性能問題不直接相關(guān)。*C選項(xiàng)“網(wǎng)絡(luò)智能體”,專注于網(wǎng)絡(luò)的智能化管理,包括性商公司面臨的網(wǎng)絡(luò)問題,最適用的EI服務(wù)是“網(wǎng)絡(luò)智能體”,因此答案是C。D、內(nèi)存復(fù)用提升模型訓(xùn)練的精度。因此,選項(xiàng)B“二階優(yōu)化”是正確答案。102.將NumPy轉(zhuǎn)換為Tensr的方式是以下哪一種?111.用一個(gè)3*3的卷積核對一幅三通道彩色圖像進(jìn)行卷積,要學(xué)習(xí)的參數(shù)的哪個(gè)數(shù)為?圖像中的對應(yīng)像素相乘,然后將所有的乘積相加。對于一個(gè)3*3的卷積核,其卷積運(yùn)算實(shí)際上是對一個(gè)3*3的窗口在圖像上進(jìn)行滑動(dòng),因此需要學(xué)習(xí)的參數(shù)數(shù)量為窗口內(nèi)所有像素的乘積,即27個(gè)參數(shù)。因此,為A。112.我們可以利用以下哪種方法實(shí)現(xiàn)反向傳播?()A、計(jì)算圖C、代價(jià)函數(shù)層計(jì)算每對節(jié)點(diǎn)之間的輸出誤差,從而實(shí)現(xiàn)反向傳播。因此,選項(xiàng)B是正確的。A、內(nèi)嵌keras并不內(nèi)嵌Keras,Keras是另一個(gè)深度學(xué)習(xí)框架,通常與TensorFlow一起使用。因此,選項(xiàng)A是正確答案。因此,該選項(xiàng)不屬于MindRT子系統(tǒng)的功能特性。所以,正確答案是D。像?在題目所給的選項(xiàng)中,伽馬值可以選擇為0.5。這是因?yàn)?,是C,即伽馬值為0.5。Authorization(身份驗(yàn)證信息)型為分類模型,選項(xiàng)D是正確的。下使用,以下那個(gè)場景需要使用動(dòng)態(tài)AIPP?因此需要?jiǎng)討B(tài)地調(diào)整預(yù)處理參數(shù),如YUV420和RGB等。在這種情況下,需要使根據(jù)靜態(tài)AIPP提供的預(yù)設(shè)參數(shù)進(jìn)行處理。A、get_all為False時(shí),會(huì)對所有揄入求導(dǎo)D、Grad0peration方法在梯度下降和反向傳播中沒有任何用處135.圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽被稱為?解析:在圖像處理任務(wù)中,數(shù)據(jù)集的真實(shí)標(biāo)簽通常被稱為GroundTruth,因?yàn)樗砹苏鎸?shí)的數(shù)據(jù)和信息,是進(jìn)行算法訓(xùn)練和評估的重要參考。因此,選項(xiàng)C解析:這道題考察的是對Atlas300(3000)加速卡檢測命令的了解。在Linux系統(tǒng)中,`Ispci`命令用于列出所有PCI設(shè)備,`grep`命令用于搜索特定文本。對138.X=Tensor(np.array([[1,2],[3,4]]),32)在MindSpore中,D、創(chuàng)建ndarray解析:這道題考察的是對MindSpore框架中Tensor對象創(chuàng)建的理解。在MindSpore中,`Tensor`是用于表示多維數(shù)組的對象,類似于NumPy的`ndarray`。代ensor`對象,而不是修改其維度、創(chuàng)建`ndarray`或刪除`Te答案是B,表示這段代碼的作用是創(chuàng)建一個(gè)`Tensor`對象。注意,原答案C提到139.華為云EI提供RestfuIAPI,以下哪個(gè)選項(xiàng)是請求服務(wù)器返回指定資源的方法?A、GET解析:在使用RestfulAPI請求服務(wù)器返回指定資源時(shí),通常使用HTTP方法中的GET方法。GET方法用于從服務(wù)器獲取資源,不對資源做任何修改,僅僅是請求數(shù)據(jù)。因此,在提供RestfulAPI服務(wù)時(shí),以GET方法進(jìn)行請求是獲得指定資源140.如果采樣頻率為f,幀數(shù)為a,則以下哪一項(xiàng)是聲音信號(hào)的長度?()A、/2f為D。從圖像中提取特征。因此,對于圖像分類問題,卷積神149.以下對于深度學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)的關(guān)系的描述,正確的是哪一項(xiàng)?學(xué)習(xí)。人工神經(jīng)網(wǎng)絡(luò)(ANN)是深度學(xué)習(xí)的核心組成部分,其中深度神經(jīng)網(wǎng)絡(luò)是度學(xué)習(xí)與ANN密切相關(guān);D項(xiàng)錯(cuò)誤,因?yàn)樯疃葘W(xué)習(xí)的模型除了ANN還包括其他模答案:D153.MindX包括多個(gè)組件,提供了集群調(diào)度、邊緣推理、應(yīng)用快速開發(fā)等功能,其中哪個(gè)組件提供了開源模型下載功能?154.如果有100個(gè)卷積核,每個(gè)卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項(xiàng)是正確的參數(shù)量A、100答案:C求出()個(gè)對應(yīng)關(guān)鍵點(diǎn)坐標(biāo),對圖像進(jìn)行()變換,將文檔圖像修正。A、4,仿射D、3,仿射所以B并不符合題意。因此,最終答案是A。算法是一種基于概率的分類方法,而長短周期記憶網(wǎng)絡(luò)(LSTM)則列數(shù)據(jù),如時(shí)間序列或文本數(shù)據(jù)。因此,選項(xiàng)C“卷積神經(jīng)網(wǎng)絡(luò)”是正確答案。162.快應(yīng)用中用于繪制幾何圖形的組件是?來創(chuàng)建tensor(張量)。在TensorFlow2.0中,`zerosA、165.以下哪一項(xiàng)是代碼mox.file.exists('obs://bucket_name/test01')執(zhí)行//moxing-devg-modelarts/modelarts_11_0005B、人工神經(jīng)網(wǎng)絡(luò)是從微觀結(jié)構(gòu)和功能上對人腦的抽象、簡化,是模擬人類智能C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)以便進(jìn)行進(jìn)一步的數(shù)據(jù)處理或分析。根據(jù)MindSpore的官方文檔和API,正確的函數(shù)是`asnumpy()`,它用于將Tensor對象轉(zhuǎn)換為NumPy數(shù)組。因此,選項(xiàng)DA、srcustomizationclien172.John是某公司的提示詞工程師,他在設(shè)計(jì)提示時(shí),不需要考慮以下哪一項(xiàng)因素?A、提示詞長度B、任務(wù)的復(fù)雜度D、算力的消耗解析:在設(shè)計(jì)提示詞時(shí),提示詞長度會(huì)影響表達(dá)的清晰和簡潔程度(任務(wù)的復(fù)雜度決定了提示詞需要提供的信息量和詳細(xì)程度(B選項(xiàng));提示詞的準(zhǔn)確性直接關(guān)系到能否有效引導(dǎo)和獲得準(zhǔn)確的結(jié)果(C選項(xiàng))。而算力的消耗通以,選項(xiàng)D是不需要考慮的因素,答案選D。177.ModeIArts預(yù)置模型的本質(zhì)是什么()C、強(qiáng)化學(xué)習(xí)一個(gè)任務(wù)中178.ModeIArts自動(dòng)學(xué)習(xí)的使用流程是什么?部署上線,選項(xiàng)D正確。案是A。解析:樸素貝葉斯算法是一種基于貝葉斯定理和特征條時(shí),特征之間不存在關(guān)系。因此,對于描述住房時(shí)使用的屬性(如住宅面積、戶型、裝修類型等),如果將它們作為樸素貝葉斯模型的特征來應(yīng)用,可以假設(shè)這個(gè)cell特征長度為?檢測中。題目中提到“取20度為一個(gè)區(qū)間統(tǒng)計(jì)”,意味著360度被分成了18個(gè)區(qū)間(360/20=18)。但題目又指出“對稱的角度歸為一類”,即對稱的區(qū)間合并,那么18個(gè)區(qū)間將合并成9個(gè)(因?yàn)閷ΨQ的區(qū)間會(huì)合并成一個(gè))。所以,這個(gè)cell的特征長度是9。185.以下哪個(gè)激活函數(shù)可以很好的解決梯度消失dLinearUnit)由于其非飽和性,在正數(shù)部分梯度恒為1,因此可以有效緩解梯度消失問題。而Sigmoid和Tanh函數(shù)在輸入值較大或較小時(shí),梯度接近于0,容易導(dǎo)致梯度消失。softsign函數(shù)雖然形狀與Tanh相似,但其梯度消失問題并未得到很好的解決。因此,選擇C(Relu)作為答案。186.以下對超參數(shù)學(xué)習(xí)率的作用的描述,正確的是哪A、減少過擬合C、減少偏差解析:正確答案是B.控制參數(shù)更新速度。學(xué)習(xí)率是一個(gè)超參數(shù),它控制了每次更新參數(shù)時(shí)更新的步長。如果學(xué)習(xí)率過大,參數(shù)可能會(huì)在最小值附近“震蕩”,測性和有限性(D選項(xiàng)正確),并且是一種離散性的隨機(jī)過程(C選項(xiàng)錯(cuò)誤)。D、推理文件準(zhǔn)備解析:在大模型部署過程中,通常會(huì)經(jīng)過以下流程:1.**模型轉(zhuǎn)換**:將訓(xùn)A、輸出關(guān)于0點(diǎn)對稱D、導(dǎo)數(shù)最大值為1答案:ACD答案:ACD該請求,不要重試該請求401-在客戶端提供認(rèn)證信息后,返回該狀態(tài)碼,表明服務(wù)端指出客戶端所提供的認(rèn)證信息不正確或非法403-沒有權(quán)限404-資源不存在500-表明服務(wù)端能被請求訪問到,但是不能理解客戶的請求17.以下哪些應(yīng)用屬于機(jī)器學(xué)習(xí)的監(jiān)督學(xué)習(xí)任務(wù)?A、專家系統(tǒng)B、手寫字符識(shí)別A、sigmoid,tanh,Softsign函數(shù)在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,都無法回避C、sigmoid函數(shù)單調(diào)連續(xù),求導(dǎo)容易,輸出有界D、tanh函數(shù)關(guān)于原點(diǎn)對稱,均值更接近于0。的特點(diǎn)如下A選項(xiàng),Sigmoid函數(shù)在中間區(qū)域單調(diào)遞減,但在接近0和1的兩端容易收斂。因此,A選項(xiàng)不正確。B選項(xiàng),Sigmoid、Tanh和Softsign函數(shù)在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,都存在梯度21.使用token的認(rèn)證方式訪問華為云EI服務(wù)需要提供以下哪些信息?A、子賬號(hào)名解析:Https:///qB、縮放D、CRF中需要對不同序列的結(jié)果進(jìn)行概率歸一化。D、概率密度函數(shù)在正負(fù)無窮的積分為141.在利用MindStudio連接Device進(jìn)行應(yīng)用開發(fā)時(shí),Device的芯片層包含的功解析:在MindStudio中,當(dāng)連接到Device進(jìn)行應(yīng)用開發(fā)時(shí),Device的芯片層常用于定義和管理復(fù)雜的工作流程;B選項(xiàng)的“GE”(通用執(zhí)行環(huán)境)是運(yùn)行應(yīng)42.圖引擎服務(wù)(GraphEngineservice)是針對以“關(guān)系”為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),進(jìn)行一體化查詢、分析的服務(wù)。下列哪幾項(xiàng)是B、簡單易用D、高性能43.以下哪些選項(xiàng)屬于華為云EI的相關(guān)服務(wù)()B、EI智能體44.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、ReLU函數(shù)A、更安全的數(shù)據(jù)共享是AI技術(shù)更好發(fā)展的基石之一。解析:為了促進(jìn)AI技術(shù)的發(fā)展,需要完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),包括更安全的47.以下哪幾項(xiàng)屬于MindSpore中與nn(神經(jīng)網(wǎng)絡(luò))相關(guān)算子?激活函數(shù),用于神經(jīng)網(wǎng)絡(luò)中的非線性變換。因此,它們都與nn相關(guān)。而Mul是乘法算子,雖然可能在神經(jīng)網(wǎng)絡(luò)中用到,但它本身不屬于nn特有的算子范疇。48.以下屬于文本分析的具體內(nèi)容的是?()A、文本歸一化B、語音合成是誤寫或虛構(gòu)。因此,正確選項(xiàng)是B和C。共享主要出現(xiàn)在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,它通過共享卷積核的權(quán)重來減少參數(shù)數(shù)量,提高計(jì)算效率。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和全連接神經(jīng)網(wǎng)絡(luò)(FCN)并不具備這一特性,它們的權(quán)重是獨(dú)立設(shè)置的。感知器(Perceptron)作為最簡單的神經(jīng)網(wǎng)絡(luò)模型,同樣不涉及權(quán)重共享。因此,正確答案是A,即卷積神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生52.以下哪些屬于AI訓(xùn)練和推理框架?于訓(xùn)練模型和執(zhí)行模型推理。常見的AI訓(xùn)練和推理框架包括因此不包含在AI訓(xùn)練和推理框架之內(nèi)。因此,答案為ACD,即MindSpore、Pytorch和TensorFlow屬于AI訓(xùn)練和推理框架。53.關(guān)于L1正則化與L2正則化,以下哪項(xiàng)表是正確的?B、L1,L2正則項(xiàng)不能作用在損失函數(shù)之上解析:這道題考察的是對L1和L2正則化的理解。L1正則化通過引入模型參數(shù)使用梯度下降算法迭代參數(shù)值。因此,選項(xiàng)A正確。D、以上都不是果最好55.以下關(guān)于lindSpore自動(dòng)并行關(guān)鍵技術(shù)的描述中,哪些選項(xiàng)是正確的?C、mindSpore可以應(yīng)對超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)MindSpore的這些特性。選項(xiàng)B錯(cuò)誤,因?yàn)镸indSpore不僅支持手動(dòng)模型并行,56.ModeIArts中自動(dòng)學(xué)習(xí)功能不需要代碼編寫和模型開發(fā)屬于ModeIArts中自動(dòng)學(xué)習(xí)的功能?D、自動(dòng)調(diào)參E自動(dòng)壓縮景60.圖像的目標(biāo)檢測算法需要完成()?(多選)61.馬爾科夫鏈?zhǔn)亲匀徽Z言常用的算法,馬爾科夫鏈的性質(zhì)包括?()解析:馬爾科夫鏈描述了一種狀態(tài)序列,其每個(gè)狀態(tài)值取決于前面有限個(gè)狀態(tài)。馬爾可夫鏈?zhǔn)蔷哂旭R爾可夫性質(zhì)的隨機(jī)變量的一個(gè)數(shù)列。這些變量的范圍,即它們所有可能取值的集合被稱為狀態(tài)空間。具有正定性和有限性。正定性:狀態(tài)轉(zhuǎn)移矩陣中每一個(gè)元素被稱為狀態(tài)轉(zhuǎn)移概率,由概率論知識(shí)可知,每個(gè)狀態(tài)轉(zhuǎn)移概率皆為正數(shù);有限性:轉(zhuǎn)移矩陣中的每一行相加皆為1.62.下列哪些是關(guān)鍵詞提取的方法?()解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA),HMM隱馬爾可夫模型一般用于生成序列,例如語音識(shí)別、詞性標(biāo)注、分詞63.在某些應(yīng)用場景中(比如推薦系統(tǒng)、分子動(dòng)力學(xué)、圖神經(jīng)網(wǎng)絡(luò)等),數(shù)據(jù)的B、MindSpre現(xiàn)在已經(jīng)支持最常用的CSR和C兩種稀疏數(shù)據(jù)格式C、MindSpre常用稀疏張量的表達(dá)形式是&It;indices:Tensr,values:Tensr,shlumn)是兩種常用的稀疏數(shù)據(jù)格式,MindSpore支持這兩種格式,那么B選項(xiàng)描述正確。C選項(xiàng)錯(cuò)誤,在稀疏張量的64.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可解訣?A、批量刪除66.華為云人臉識(shí)別服務(wù),是基于人的臉部特征信息,利用計(jì)算機(jī)對人臉圖像進(jìn)務(wù)。該服務(wù)提供了多種子服務(wù),包括人臉?biāo)阉?A)、人臉跟蹤(B)、人臉檢測(C)和人臉比對(D)。人臉檢測是進(jìn)行人臉識(shí)別服務(wù)的基礎(chǔ),它能夠自動(dòng)識(shí)別頁)分辨率)69.從技術(shù)架構(gòu)來看AI芯片的分類包括?A、FPGA是從大量數(shù)據(jù)中提取出有用信息和模式的過程,與AI緊密相關(guān)。人機(jī)交互研究78.TensorF1ow2.0中可以用來查看是否是tensor的方法有?C、istensor解析:在TensorFlow2.0中,可以使用`dtype`、`isinstance`和`is_tensor`這三個(gè)方法來查看是否是tensor。其中,`dtype`可以用來獲取tensor的數(shù)據(jù)類型,`isinstance`可以用來檢查對象是否屬于特定的類型(在這個(gè)情況下,就否是Tensor。C、無人駕駛D、智能機(jī)器人C、Borel單元架95.以下哪些選項(xiàng)是TensorFlow2.0中的Keras接口C、升騰910B、K-Means中的K110.華為快應(yīng)用IDE的功能包括哪些?()其中Atlas300型號(hào)的價(jià)格為9000,Atlas800型號(hào)的價(jià)格介于78,668至9,529處理計(jì)算密集和易于并行的程序,如圖像渲染,這使得D選項(xiàng)也是正確的。而A123.John想要使用華為云ModeIArts開發(fā)下哪一種方式登錄0BSBrowser+?()K方式登錄、帳號(hào)登錄以及授權(quán)碼登錄方式其中,service-endpoint項(xiàng)?D、有界的函數(shù)已經(jīng)被證明在某些情況下泛化效果更好化效果更好127.以下哪些選項(xiàng)是決策樹用于劃分節(jié)點(diǎn)C、信息嫡包括Gini系數(shù)和信息嫡,它們用于衡量數(shù)據(jù)分布的不純度,幫助選擇最佳劃分當(dāng)前模型輸出的誤差,指導(dǎo)訓(xùn)練過程。而構(gòu)建共現(xiàn)矩陣是Word2Vec的預(yù)處理步項(xiàng)(也稱為L1范數(shù))和L2正則項(xiàng)(也稱為L2范數(shù)或權(quán)重衰減)是兩種常用的D、使用Dropout方法Tensr操作解析:A選項(xiàng)正確,神經(jīng)網(wǎng)絡(luò)模型通常由多個(gè)神經(jīng)網(wǎng)絡(luò)層組合,并通過Tensord函數(shù)并非在所有繼承類中都必須重寫。D選項(xiàng)輯。綜上所述,正確答案是AC。A、是二分類函數(shù)sigmoid的推廣B、softmax函數(shù)又稱作歸一化指數(shù)函教C、Softmax回歸模型是解決二分類回歸問題的算法D、softmax函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用輸出值之和為1,因此也被稱為歸一化指數(shù)函數(shù),B正確。Softmax回歸模型是135.自然語言領(lǐng)域處理文本時(shí),句法分析的主要任務(wù)是什么?試題。但是根據(jù)圖像處理的一般流程和常見應(yīng)用,可以得出以上。137.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,可能出現(xiàn)梯度爆炸的現(xiàn)象有以下B、模型權(quán)重變?yōu)镹aN值C、每個(gè)節(jié)點(diǎn)和層的誤差梯度值持續(xù)超過1.0爆炸的現(xiàn)象,符合題意。B選項(xiàng)“模型權(quán)重變?yōu)镹aN值”通常是由數(shù)值計(jì)算中的差梯度值持續(xù)超過1.0”并不直接表示梯度爆炸,因?yàn)樘荻戎档拇笮”旧砣Q于138.自然語言領(lǐng)域處理文本時(shí),句法分析的主要任務(wù)是什么?B、句法結(jié)構(gòu)分析143.2018年10月10日,華為發(fā)布了全場景AI解決方案,華為的全棧方案具體包括()C、應(yīng)用使能解析:芯片算子庫和高度自動(dòng)化算子開發(fā)工具——CANN;支持端、邊、云獨(dú)立的和協(xié)同的統(tǒng)一訓(xùn)練和推理框架——MindSpoert:BERT(BidirectionalEncoderRepresentationsfromTransformers)由AlexKrizhevsky等人在2012年提出,并在當(dāng)年的ImageNet圖像識(shí)別競賽中括智能寫詩模型。通過MindSpore,可以構(gòu)建和訓(xùn)練模型,并將其部署為預(yù)測服8.Bert網(wǎng)絡(luò)使用了Transformer結(jié)構(gòu),拋棄了傳統(tǒng)的RNN和CNN結(jié)構(gòu),11.ModeIArts平臺(tái)支持自動(dòng)學(xué)習(xí)功能,意味著對任何復(fù)雜大型問題且對AI完全對AI完全不了解就可以上手操作并且訓(xùn)練出很好的模型。自動(dòng)學(xué)習(xí)功能需要一orFlow框架,用戶可以通過Anaconda的包管理器conda來安裝TensorFlow。16.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。稱為Lasso回歸(嶺回歸)解析:MindSpore確實(shí)允許通過繼承其基礎(chǔ)類(如nn.Cell),并重寫`_init_ult∩GroundTruth/Detect解析:Hue相位角表色相0-360;Saturation飽和度0-1,所選顏色的純度和該顏34.word2vec是google的一個(gè)開源工具,能夠根據(jù)輸入的詞的集合計(jì)算出詞與35.圖像任務(wù)中,我們收集圖片時(shí)往往使用0,1,2,3,4等來表示圖片的類別,36.MindSpore支持整圖卸載執(zhí)行,充分發(fā)揮昇騰大算力,支持Pipeline并行和42.參數(shù)懲罰只能使用在神經(jīng)網(wǎng)絡(luò)中用來防止過擬合解析:參數(shù)懲罰(例如L1或L2正則化)可以用于多種機(jī)器學(xué)習(xí)模型,不僅僅是n-gram模型中的窗口限制49.MindSpore異構(gòu)并行訓(xùn)練方法是通過分析圖上算子內(nèi)存占用和計(jì)算密集度,將內(nèi)存消耗較小計(jì)算密集型算子切分到CP子圖,將內(nèi)存消耗巨大的算子切分到解析:將“MindSpore”修改為“MindSpore框架”。解析:Sobel算子能
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025四月份光伏幕墻透光板材發(fā)電效率擔(dān)保協(xié)議書
- 門面房屋出租合同書
- 擔(dān)保協(xié)議書模板二零二五年
- 房屋贈(zèng)與協(xié)議模板二零二五年
- 流動(dòng)資金借款及保證協(xié)議
- 二零二五棉花地承包合同
- 安全生產(chǎn)及環(huán)境保護(hù)協(xié)議二零二五年
- 二零二五汽車試駕協(xié)議書
- 二零二五版股權(quán)無償轉(zhuǎn)讓合同范例
- 科技型中小企業(yè)技術(shù)創(chuàng)新基金投訴和舉報(bào)處理辦法(暫行)
- 手壓式手電筒設(shè)計(jì)(棘輪機(jī)構(gòu)及電路設(shè)計(jì))
- 滇10J6-1住宅廚房、衛(wèi)生間煙氣道及管道井構(gòu)造圖集
- 110kv變電站電氣主接線設(shè)計(jì)資料全
- 華中科技大學(xué)版五年級信息技術(shù)教案
- 圍術(shù)期患者轉(zhuǎn)運(yùn)專家共識(shí)
- 鐵路貨物運(yùn)價(jià)規(guī)則鐵運(yùn)[2005]46號(hào)
- 固定收益研究報(bào)告透過x系統(tǒng)看銀行間交易未來發(fā)展
- 上海實(shí)驗(yàn)學(xué)校幼升小測試題(共49頁)
- PHC管樁-樁基工程監(jiān)理質(zhì)量評估報(bào)告
- 上海實(shí)驗(yàn)學(xué)校幼升小測試題
- 好書推薦——《伊索寓言》.ppt
評論
0/150
提交評論