所有(按順序)及答案_第1頁
所有(按順序)及答案_第2頁
所有(按順序)及答案_第3頁
所有(按順序)及答案_第4頁
所有(按順序)及答案_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余34頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

所有(按順序)[復(fù)制]1.關(guān)于Python程序的描述正確的是?()A.程序由模塊組成(正確答案)B.模塊包含語句(正確答案)C.語句包含表達(dá)式(正確答案)D.表達(dá)式建立并處理對(duì)象(正確答案)2.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?()A.卷積神經(jīng)網(wǎng)絡(luò)(正確答案)B.循環(huán)神經(jīng)網(wǎng)絡(luò)(正確答案)C.全連接神經(jīng)網(wǎng)絡(luò)D.以上都是3.華為哪一年開始正式以云服務(wù)方式提供服務(wù),聯(lián)合更多的伙伴一起對(duì)外提供更豐富的人工智能實(shí)踐?()[單選題]A.2002B.2013(正確答案)C.2015D.20174.TensorFlow支持多TPU集群計(jì)算。()[單選題]A.正確(正確答案)B.錯(cuò)誤5.關(guān)于深度前饋網(wǎng)絡(luò)描述正確的是?()[單選題]A.深度前饋網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)的一種(正確答案)B.深度前饋網(wǎng)絡(luò)只有一個(gè)隱藏層C.深度前饋網(wǎng)絡(luò)隱藏上的unit一般會(huì)有無數(shù)個(gè)D.深度前饋網(wǎng)絡(luò)用于處理線性問題6.關(guān)于Python元組描述正確的是。()A.列表與元組不同之處在于元組的元素不能修改(正確答案)B.列表使用方括號(hào),元組使用小括號(hào)(正確答案)C.元組創(chuàng)建很簡(jiǎn)單,只需要在括號(hào)中添加元素,并使用逗號(hào)隔開即可。(正確答案)D.元組中只包含一個(gè)元素時(shí),需要在元素后面添加逗號(hào)(正確答案)7.把矩陣A行與列相互交換產(chǎn)生的矩陣成為A的轉(zhuǎn)置,關(guān)于矩陣轉(zhuǎn)置的性質(zhì)那些是正確的。()A.(AT)T=A(正確答案)B.(A+B)T=AT+BT(正確答案)C.(入A)T=入AT(正確答案)D.(AB)T=ATBT8.深度學(xué)習(xí)不同于機(jī)器學(xué)習(xí),沒有非監(jiān)督類算法。()[單選題]A.正確B.錯(cuò)誤(正確答案)9.下面那個(gè)選項(xiàng)不是線性代數(shù)的中心內(nèi)容?()[單選題]A.概率論(正確答案)B.線性變換C.矩陣?yán)碚揇.向量空間10.Python中數(shù)學(xué)運(yùn)算常用的函數(shù)基本都在math模塊和cmath模塊中。()[單選題]A.正確(正確答案)B.錯(cuò)誤11.關(guān)于行列式的行數(shù)和列數(shù)正確的是?()[單選題]A.行數(shù)大于列數(shù)B.行數(shù)等于列數(shù)(正確答案)C.行數(shù)小于列數(shù)D.行數(shù)與列數(shù)沒有大小關(guān)系12.華為云El企業(yè)智能包含的服務(wù)類別有那些?()A.EI視覺認(rèn)知(正確答案)B.EI網(wǎng)絡(luò)游戲C.El語音語義(正確答案)D.El行業(yè)場(chǎng)景(正確答案)13.Python語言可使用的引號(hào)包括那些?()A.單引號(hào)(正確答案)B.雙引號(hào)(正確答案)C.三引號(hào)(正確答案)D.四引14.TensorFlow是Google第一代專有機(jī)器學(xué)習(xí)系統(tǒng)。()[單選題]A.正確B.錯(cuò)誤(正確答案)15.TensorFlow中的核心概念包含那些?A.網(wǎng)格B.計(jì)算圖(正確答案)C.點(diǎn)積D.張量(正確答案)16.不屬于深度學(xué)習(xí)開發(fā)框架的是?()[單選題]A.CNTKB.KerasC.BAFA(正確答案)D.MXNet17.TensorFlow的應(yīng)用場(chǎng)景包括下列那些?()A.語音識(shí)別(正確答案)B.人臉識(shí)別(正確答案)C.圖像風(fēng)格變化(正確答案)D.自動(dòng)駕駛(正確答案)18.不屬于Python2和Python3的區(qū)別是?()[單選題]A.printB.unicodeC.import(正確答案)D.xrange19.Python是完全面向?qū)ο蟮恼Z言。下列選項(xiàng)屬于Python的對(duì)象的是?()A.函數(shù)(正確答案)B.模塊(正確答案)C.數(shù)字(正確答案)D.字符串(正確答案)20.人工智能有那些研究領(lǐng)域?()A.自然語言處理(正確答案)B.計(jì)算機(jī)視覺(正確答案)C.機(jī)器學(xué)習(xí)(正確答案)D.語音識(shí)別(正確答案)21.下面關(guān)于無監(jiān)督學(xué)習(xí)描述正確的是?()[單選題]A.無監(jiān)督算法只處理“特征”,不處理“標(biāo)簽”(正確答案)B.降維算法不屬于無監(jiān)督學(xué)習(xí)C.K-means算法和SVM算法都屬于無監(jiān)督學(xué)習(xí)D.以上都不是22.PEP8規(guī)定Python的首行縮進(jìn)需要縮進(jìn)幾個(gè)空格?()[單選題]A.1B.2C.4(正確答案)D.823.以下那種環(huán)境不支持安裝TensorFlow?()[單選題]A.LinuxB.MacOSC.DockerD.OpenStack(正確答案)24.深度學(xué)習(xí)算法可以分為監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)兩類。()[單選題]A.正確B.錯(cuò)誤(正確答案)25.人工智能是研究開發(fā)用于模擬延伸和擴(kuò)展人的智能的理論方法及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),是機(jī)器學(xué)習(xí)的核心研究領(lǐng)域之一。()[單選題]A.正確(正確答案)B.錯(cuò)誤26.以下選項(xiàng)中那個(gè)是TensorFlow的計(jì)算模型?()[單選題]A.計(jì)算圖(正確答案)B.張量C.會(huì)話D.變量27.機(jī)器人的歷史并不算長(zhǎng),1959年美國英格伯格和德沃爾制造出世界上的第一代工業(yè)機(jī)器人,機(jī)器人的歷史才真正開始。根據(jù)機(jī)器人的發(fā)展進(jìn)程,通常把它分為三代,分別為?()A.示教再現(xiàn)型機(jī)器人(正確答案)B.帶感覺的機(jī)器人(正確答案)C.會(huì)思考的機(jī)器人D.智能機(jī)器人(正確答案)28.以下那個(gè)選項(xiàng)不是TensorFlow的構(gòu)建流程?()[單選題]A.構(gòu)建計(jì)算圖B.輸入張量C.生成會(huì)話D.更新權(quán)重(正確答案)29.主成分分析(PrincipalComponentAnalysis,PCA)是一種統(tǒng)計(jì)方法通過正交變換將一組可能存在相關(guān)性的變量轉(zhuǎn)換為一組線性相關(guān)的變量,轉(zhuǎn)換后的這組變量叫主成分。()[單選題]A.正確B.錯(cuò)誤(正確答案)30.不屬于深度學(xué)習(xí)算法的是?()[單選題]A.自編碼器B.卷積神經(jīng)網(wǎng)絡(luò)C.循環(huán)神經(jīng)網(wǎng)絡(luò)D.支持向量機(jī)(正確答案)31.Python優(yōu)點(diǎn)有哪些?()A.簡(jiǎn)單(正確答案)B.免費(fèi)(正確答案)C.高級(jí)語言(正確答案)D.豐富的庫(正確答案)32.關(guān)于頻率與概率的關(guān)系描述正確的是?()[單選題]A.頻率等于概率B.頻率小于概率C.頻率大于概率D.當(dāng)重復(fù)試驗(yàn)的次數(shù)逐漸增大時(shí),頻率呈現(xiàn)出穩(wěn)定性,接近于概率(正確答案)33.m行n列矩陣A與p行q列矩陣B需要滿足什么條件才可以相乘?()[單選題]A.m=pn=qB.n=p(正確答案)C.m=nD.p=q34.訓(xùn)練誤差會(huì)降低模型的準(zhǔn)確率,產(chǎn)生欠擬合,此時(shí)如何提升模型擬合度?()A.增加數(shù)據(jù)量(正確答案)B.特征工程(正確答案)C.減少正則化參數(shù)(正確答案)D.增加特征(正確答案)35.關(guān)于超參數(shù)描述錯(cuò)誤的是?()[單選題]A.超參數(shù)是算法開始學(xué)習(xí)之前設(shè)置值的參數(shù)B.大多數(shù)機(jī)器學(xué)習(xí)算法都有超參數(shù)C.超參數(shù)是不能修改的(正確答案)D.超參數(shù)的值不是通過算法本身學(xué)習(xí)出來的36.Python列表可以用“[]”進(jìn)行標(biāo)識(shí),其第一個(gè)元素從左到右的默認(rèn)索引是1。()[單選題]A.正確B.錯(cuò)誤(正確答案)37.關(guān)于Python正則表達(dá)式描述不正確的是?()[單選題]A.Python自1.5版本起增加了re正則表達(dá)式模塊B.re正則表達(dá)式模塊使Python語言擁有全部的正則表達(dá)式功能C.re正則表達(dá)式是用于處理字符串的強(qiáng)大工具D.re正則表達(dá)式只能處理字符串?dāng)?shù)據(jù),不能處理數(shù)值數(shù)據(jù)(正確答案)38.人工智能包括哪些要素?()A.算法(正確答案)B.算力(正確答案)C.數(shù)據(jù)(正確答案)D.場(chǎng)景(正確答案)39.循環(huán)神經(jīng)網(wǎng)絡(luò)更適合于處理圖像識(shí)別問題。()[單選題]A.正確B.錯(cuò)誤(正確答案)40.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有?()A.VGGNet(正確答案)B.ResNet(正確答案)C.AlexNet(正確答案)D.GoogleNet(正確答案)41.Python語言中的時(shí)間戳都是從1970年1月1日午夜(歷元)經(jīng)過了多長(zhǎng)時(shí)間(秒)來表示。()[單選題]A.正確(正確答案)B.錯(cuò)誤42.線性代數(shù)是代數(shù)學(xué)的一個(gè)分支,主要處理線性問題,線性關(guān)系是指數(shù)學(xué)對(duì)象之間的關(guān)系是以()次形式來表達(dá)的?()[單選題]A.1(正確答案)B.2C.3D.443.TensorFlow支持的算法有那些?()A.CNN(正確答案)B.ZNNC.RNN(正確答案)D.HUT44.屬于Python語言特征的是?()A.解釋型(正確答案)B.面向過程C.面向?qū)ο?正確答案)D.動(dòng)態(tài)數(shù)據(jù)類型(正確答案)45.機(jī)器學(xué)習(xí)服務(wù)的商業(yè)應(yīng)用有多種,主要涵蓋的商業(yè)場(chǎng)景包括那些?()A.金融產(chǎn)品推薦(正確答案)B.預(yù)測(cè)性維護(hù)(正確答案)C.電信客戶挽留(正確答案)D.零售商分群(正確答案)46.不屬于自動(dòng)超參數(shù)優(yōu)化算法的是?()[單選題]A.網(wǎng)格搜索B.隨機(jī)梯度下降C.隨機(jī)搜索D.基于模型的超參數(shù)優(yōu)化(正確答案)47.Python3中“print”必須要和“()”搭配使用。()[單選題]A.正確(正確答案)B.錯(cuò)誤48.關(guān)于Python說法正確的是?()A.由荷蘭人GuidovanRossum于1989年發(fā)明,第一個(gè)公開發(fā)行版發(fā)行于1991年。(正確答案)B.Python是純粹的自由軟件,源代碼遵循GPL(GUNGeneralPublicLicense)協(xié)議。(正確答案)C.Python語法簡(jiǎn)潔清晰,特色之一是強(qiáng)制用空白字符作為語句縮進(jìn)。(正確答案)D.Python常被昵稱為膠水語言,能夠把其他語言制作的各種模塊輕松地聯(lián)結(jié)在一起。(正確答案)49.不屬于深度學(xué)習(xí)中的優(yōu)化方法是?()[單選題]A.隨機(jī)梯度下降B.反向傳播算法C.主成分分析(正確答案)D.動(dòng)量50.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)描述正確的是?()[單選題]A.可以用于處理序列數(shù)據(jù)(正確答案)B.不能處理可變長(zhǎng)序列數(shù)據(jù)C.不同于卷積神經(jīng)網(wǎng)絡(luò),RNN的參數(shù)不能共享。D.隱藏層上面的unit彼此沒有關(guān)聯(lián)51.關(guān)于Python創(chuàng)建函數(shù)描述正確的是?()A.創(chuàng)建的函數(shù)以def關(guān)鍵詞開頭,后接函數(shù)名稱和圓括號(hào)(正確答案)B.參數(shù)需放在圓括號(hào)之中(正確答案)C.函數(shù)內(nèi)容以冒號(hào)起始,且需要縮進(jìn)(正確答案)D.用return返回結(jié)果,函數(shù)結(jié)束52.下列關(guān)于矩陣的正定性描述正確的是?()A.所有特征值都是正數(shù)的矩陣稱為正定(正確答案)B.所有特征值都是非負(fù)數(shù)的矩陣稱為半正定(正確答案)C.所有特征值都是負(fù)數(shù)的矩陣稱為負(fù)定(正確答案)D.所有特征值都是非正數(shù)的矩陣稱為半負(fù)定(正確答案)53.TensorFlow不支持一下那種數(shù)據(jù)類型?()[單選題]A.int8B.float32C.double64(正確答案)D.bool54.隨機(jī)試驗(yàn)需要滿足的如下那些條件?()A.可以在相同的條件下重復(fù)進(jìn)行(正確答案)B.每次試驗(yàn)的可能結(jié)果不止一個(gè),并且能事先明確試驗(yàn)的所有可能結(jié)果(正確答案)C.事先不能明確試驗(yàn)的所有結(jié)果D.進(jìn)行一次試驗(yàn)之前不能確定哪一個(gè)結(jié)果會(huì)出現(xiàn)(正確答案)55.以下那些是華為云E日行業(yè)場(chǎng)景的解決方案?()A.智能物流(正確答案)B.智能水務(wù)(正確答案)C.智能交通(正確答案)D.智能金融(正確答案)E.智能制造(正確答案)56.Python語言可在單行代碼最前面采用#進(jìn)行代碼注釋。()[單選題]A.正確(正確答案)B.錯(cuò)誤57.以下那個(gè)條件不是n重伯努利試驗(yàn)需要滿足的條件?()[單選題]A.每次試驗(yàn)都在相同的條件下重復(fù)進(jìn)行B.每次試驗(yàn)只有兩個(gè)可能的結(jié)果,即事件A發(fā)生與事件A不發(fā)生C.每次試驗(yàn)本身要服從正態(tài)分布(正確答案)D.每次試驗(yàn)的結(jié)果相互獨(dú)立58.以下那個(gè)函數(shù)可以對(duì)上溢和下溢進(jìn)行數(shù)值穩(wěn)定?()[單選題]A.Softminus函數(shù)B.Softplus函數(shù)C.Softmax函數(shù)(正確答案)D.Softmin函數(shù)59.下面梯度下降說法錯(cuò)誤的是?()[單選題]A.隨機(jī)梯度下降是梯度下降中最常用的一種。B.梯度下降包括隨機(jī)梯度下降和批量梯度下降C.梯度下降算法速度快且可靠(正確答案)D.隨機(jī)梯度下降是深度學(xué)習(xí)算法當(dāng)中常用的優(yōu)化算法之一60.三個(gè)矩陣A/B/C的行列數(shù)分別是3行2列/2行3列/3行3列,則下列那個(gè)運(yùn)算有意義?()[單選題]A.ACB.BC(正確答案)C.A+BD.AB+BC61.Python元組用“0”標(biāo)識(shí),內(nèi)部元素用“;”隔開。()[單選題]A.正確B.錯(cuò)誤(正確答案)62.人工智能的含義最早由一位科學(xué)家于1950年提出,并且同時(shí)提出一個(gè)機(jī)器智能的測(cè)試模型,請(qǐng)問這個(gè)科學(xué)家是?()[單選題]A.明斯基B.扎德C.圖靈(正確答案)D.馮?諾依曼63.以下那個(gè)選項(xiàng)不是TensorFlow程序讀取數(shù)據(jù)的方法?()[單選題]A.預(yù)加載數(shù)據(jù)(Preload)B.供給數(shù)據(jù)(Feeding)C.從文件中讀取D.編寫一個(gè)文件格式讀寫器(正確答案)64.一個(gè)標(biāo)量K與矩陣A相乘等于K與A中的每個(gè)數(shù)相乘。()[單選題]A.正確(正確答案)B.錯(cuò)誤65.Python腳本執(zhí)行模式包括交互模式和腳本模式。()[單選題]A.正確(正確答案)B.錯(cuò)誤66.Pthon語言中的continue語句用于桃出本次循環(huán),然后繼續(xù)執(zhí)行下輪的語句。()[單選題]A.正確(正確答案)B.錯(cuò)誤67.TensorFlow的Operation和ComputationGraph不一定運(yùn)行在Session中。()[單選題]A.正確B.錯(cuò)誤(正確答案)68.常用的梯度下降優(yōu)化函數(shù)有那些?()A.隨機(jī)梯度下降(正確答案)B.Adadelta(正確答案)C.Adagrad(正確答案)D.Momentum(正確答案)E.RMSProp(正確答案)69.Python語言中if條件語句的返回結(jié)果包括那些?()A.TRUE(正確答案)B.0C.FALSE(正確答案)D.null70.如下圖所示,求行列式A的值?A=|123456789|()[單選題]A.24B.18C.-24D.0(正確答案)71.Python支持那些操作系統(tǒng)?()A.DOS(正確答案)B.Linux(正確答案)C.MaC.OSX(正確答案)D.Windows(正確答案)72.不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的模型是?()[單選題]A.RNNB.LSTMC.GBDT(正確答案)D.GRU73.以下不屬于人工智能學(xué)派的是?()[單選題]A.符號(hào)主義B.統(tǒng)計(jì)主義(正確答案)C.行為主義D.連接主義74.TensorFlow框架不支持Windows系統(tǒng)。()[單選題]A.正確B.錯(cuò)誤(正確答案)75.以下選項(xiàng)中,哪個(gè)不屬于傳統(tǒng)機(jī)器學(xué)習(xí)算法促進(jìn)深度學(xué)習(xí)發(fā)展的原因?()[單選題]A.維度災(zāi)難B.局部不變性和平滑正則化C.流形學(xué)習(xí)D.特征工程(正確答案)76.X.Y是隨機(jī)變量,C.是常數(shù),下列選頓中對(duì)數(shù)學(xué)期望的性質(zhì)描述不正確的是?()[單選題]A.E(C)=CB.E(X+Y)=E(X)+E(Y)C.E(CX)=CE(X)D.E(XY)=E(X)E(Y)(正確答案)77.Python正則表達(dá)式是一個(gè)特殊的字符序列,它能方便的檢查一個(gè)字符串是否與某種模式匹配。()[單選題]A.正確(正確答案)B.錯(cuò)誤78.張量中存儲(chǔ)的是數(shù)或矩陣。()[單選題]A.正確B.錯(cuò)誤(正確答案)79.常用的損失函數(shù)有那些?()A.均方差(正確答案)B.Sigmoid.交叉熵(正確答案)C.Softmax交叉熵(正確答案)D.Sparse交叉熵(正確答案)E.加權(quán)Sigmoid.交叉篇(正確答案)80.促進(jìn)人工智能發(fā)展的因素不包括?()[單選題]A.大數(shù)據(jù)B.計(jì)算能力C.算法理論D.區(qū)塊鏈(正確答案)81.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支。()[單選題]A.正確(正確答案)B.錯(cuò)誤82.關(guān)于神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系表述不正確的是?()[單選題]A.深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究B.含有多個(gè)隱層的神經(jīng)網(wǎng)絡(luò)算法就是一種深度學(xué)習(xí)算法C.單層神經(jīng)網(wǎng)絡(luò)也是深度學(xué)習(xí)的一種(正確答案)D.卷積神經(jīng)網(wǎng)絡(luò)屬于深度學(xué)習(xí)的一種83.Python代碼的特點(diǎn)有那些?()A.易讀性(正確答案)B.簡(jiǎn)潔性(正確答案)C.快速性(正確答案)D.可擴(kuò)展性(正確答案)84.根據(jù)信息嫡的定義,拋一枚均勻硬幣的信息熵是多少bit?()[單選題]A.0B.0.5C.1(正確答案)D.-185.XY是隨機(jī)變量,C.是常數(shù),下列選項(xiàng)中對(duì)方差的性質(zhì)描述不正確的是?()A.D(C)=0B.D(X+Y)=D(X)+D(Y)(正確答案)C.D(CX)=C*C*D(X)D.D(XY)=D(X)D(Y)(正確答案)86.卷積神經(jīng)網(wǎng)絡(luò)更適合于處理語音識(shí)別問題。()[單選題]A.正確B.錯(cuò)誤(正確答案)87.Al的英文縮寫是?()[單選題]A.AutomatiIntelligenceB.ArtificalIntelligence(正確答案)C.AutomatiInformationD.ArtificalInformation88.以下選項(xiàng)中對(duì)期望和方差描述錯(cuò)誤的是?()[單選題]A.期望反映的是隨機(jī)變量取值的平均水平B.方差反映的是隨機(jī)變量和其數(shù)學(xué)期望之間的偏離程度C.期望和方差都是隨機(jī)變量的數(shù)字特征D.期望越大.方差越小(正確答案)89.以下選項(xiàng)中,是Python語言設(shè)計(jì)哲學(xué)的有那些?()A.Beautiful(正確答案)B.ExpensiveC.Explicit(正確答案)D.Simple(正確答案)90.以下選項(xiàng)中屬于TensorFlow中的概念是?()A.張量(正確答案)B.變量(正確答案)C.占位符(正確答案)D.運(yùn)算(正確答案)E.會(huì)話(正確答案)91.自編碼器是非監(jiān)督學(xué)習(xí)類算法。()[單選題]A.正確(正確答案)B.錯(cuò)誤92.關(guān)于Python中字典描述正確的是?()A.每個(gè)鍵及其對(duì)應(yīng)的值之間都需要用“:”隔開(正確答案)B.不同鍵值對(duì)之間用“,”分隔(正確答案)C.整個(gè)字典包括在“{}”之中(正確答案)D.字典的鍵是唯一的且數(shù)據(jù)類型統(tǒng)一93.TensorFlow是谷歌基于()研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng)。()[單選題]A.DistBelief(正確答案)B.PaleyFunctionC.ConvexOneD.Infinity94.方陣A的行列式就是一個(gè)標(biāo)量。()[單選題]A.正確(正確答案)B.錯(cuò)誤95.下面那些是華為云E日視覺認(rèn)知提供的云服務(wù)對(duì)?()A.文字識(shí)別(正確答案)B.人臉識(shí)別(正確答案)C.圖像識(shí)別(正確答案)D.內(nèi)容檢測(cè)(正確答案)E.圖像處理(正確答案)96.數(shù)值計(jì)算:指有效使用數(shù)字計(jì)算機(jī)求數(shù)學(xué)問題近似解的方法與過程,以及由相關(guān)理論構(gòu)成的學(xué)科。其中用計(jì)算機(jī)解決實(shí)際問題包含以下那些過程?()A.認(rèn)識(shí)實(shí)際問題(正確答案)B.數(shù)學(xué)模型(正確答案)C.數(shù)值計(jì)算方法(正確答案)D.程序設(shè)計(jì)(正確答案)E.上機(jī)計(jì)算結(jié)果(正確答案)97.以下選項(xiàng)中能提升神經(jīng)網(wǎng)絡(luò)模型計(jì)算效率的是?()A.TPU(正確答案)B.GPU(正確答案)C.FPGA(正確答案)D.大規(guī)模分布式集群(正確答案)98.循環(huán)神經(jīng)網(wǎng)絡(luò)使用場(chǎng)景不包括?()[單選題]A.機(jī)器翻譯B語音課別C.圖像風(fēng)格遷移(正確答案)D.文本生成99.機(jī)器學(xué)習(xí)服務(wù)是一項(xiàng)數(shù)據(jù)挖據(jù)分析平臺(tái)服務(wù),幫助用戶通過機(jī)器學(xué)習(xí)技術(shù)迅速發(fā)現(xiàn)數(shù)據(jù)規(guī)律和構(gòu)建預(yù)測(cè)模型,并將其部署為預(yù)測(cè)分析解決方案。()[單選題]A.正確(正確答案)B.錯(cuò)誤100.不屬于Python運(yùn)算符的是?()[單選題]A.算數(shù)運(yùn)算符B.推理運(yùn)算符(正確答案)C.邏輯運(yùn)算符D.比較運(yùn)算符101.Python語言數(shù)據(jù)類型包括哪些?(多選)()A.number(數(shù)字)B.string(字符串)(正確答案)C.list(列表)(正確答案)D.tuple(元組)(正確答案)E.dictionary(字典)(正確答案)102.關(guān)于矩陣的行數(shù)與列數(shù)描述正確的是?()[單選題]A.行數(shù)大于列B.行數(shù)等于列數(shù)C.行數(shù)小于列數(shù)D.行數(shù)和列數(shù)大小沒有關(guān)系(正確答案)103.TensorFlow僅支持Python及R語言?()[單選題]A.正確B.錯(cuò)誤(正確答案)104.信息論是應(yīng)用數(shù)學(xué)的一個(gè)分支,主要研究的是對(duì)一個(gè)信號(hào)包含信息的多少進(jìn)行量化。信息篇是由誰第一次提出的?()[單選題]A.明斯基B.圖靈C.西蒙D.香農(nóng)(正確答案)105.人工智能目前比較適合“已知環(huán)境.目標(biāo)明確。行動(dòng)可預(yù)測(cè)”的場(chǎng)景。深度學(xué)習(xí)在圖像識(shí)別、語音識(shí)別、翻譯等領(lǐng)域,人工智能基本具備人的識(shí)別能力,甚至超越了人類,基于這些能力應(yīng)用到了很多場(chǎng)景,如醫(yī)療公共安全等。但在推理、認(rèn)知等方面仍十分欠缺。()[單選題]A.正確(正確答案)B.錯(cuò)誤106.關(guān)于驗(yàn)證集的描述錯(cuò)誤的是()[單選題]A.驗(yàn)證集可以跟測(cè)試集重合B.測(cè)試集可以跟訓(xùn)練集重合C.用于挑選超參數(shù)的子集叫做驗(yàn)證集(正確答案)D.通常80%的訓(xùn)練數(shù)據(jù)用于訓(xùn)練,20%用于驗(yàn)證107.不屬于長(zhǎng)短記憶LSTM(long-shorttermmemory)網(wǎng)絡(luò)結(jié)構(gòu)的是?()[單選題]A.記憶門(正確答案)B.忘記門C.輸入門D.輸出門108.下面哪個(gè)不是人工智能的具體技術(shù)?()[單選題]A.知識(shí)圖譜B.機(jī)器翻譯C.黎曼幾何(正確答案)D.語義理解109.通過深度學(xué)習(xí)可以很容易的從大量高維度數(shù)據(jù)中導(dǎo)出簡(jiǎn)單的數(shù)學(xué)函數(shù)來描述復(fù)雜的決策界面。()[單選題]A.正確(正確答案)B.錯(cuò)誤110.Python語言中for循環(huán)語句可以遍歷任何序列里面的項(xiàng)目。()[單選題]A.正確(正確答案)B.錯(cuò)誤111.常用的梯度下降優(yōu)化函數(shù)有哪些?(多選)()A.隨機(jī)梯度下降(正確答案)B.Adadelta(正確答案)C.momenturn(正確答案)D.RMSProp(正確答案)112.以下選項(xiàng)哪個(gè)不是張量的屬性?()[單選題]A.name(標(biāo)識(shí))B.shape(維度)C.type(類型)D.node(節(jié)點(diǎn))(正確答案)113.下面不屬于監(jiān)督學(xué)習(xí)的是?()[單選題]A.邏輯回歸B.支持向量機(jī)C.決策樹D.主成分分析(正確答案)114.以下哪個(gè)選項(xiàng)不是TensorFlow的構(gòu)建流程?()[單選題]A.構(gòu)建計(jì)算圖B.輸入張量C.生成會(huì)話D.更新權(quán)重(正確答案)115.相比循環(huán)神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)更適合處理圖像識(shí)別問題.()[單選題]A.正確(正確答案)B.錯(cuò)誤116.函數(shù)是組織好的,不可重復(fù)使用,用來實(shí)現(xiàn)單一,或相關(guān)聯(lián)功能的代碼段。()[單選題]A.正確B.錯(cuò)誤(正確答案)117.向量就是一個(gè)數(shù)。()[單選題]A.正確B.錯(cuò)誤(正確答案)118.在TensorFlow中,數(shù)據(jù)都是以張量和計(jì)算圖的形式表示?()[單選題]A.正確(正確答案)B.錯(cuò)誤119.縮小訓(xùn)練誤差與測(cè)試誤差間的差距會(huì)產(chǎn)生過擬合,該如何防止過擬合?()A.交叉驗(yàn)證(正確答案)B.集成方法C.增加正則化(正確答案)D.特征工程120.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程會(huì)產(chǎn)生很多數(shù)據(jù),TensorFlow利用什么機(jī)制避免輸入數(shù)據(jù)過多的問題?()[單選題]A.ClientB.feed.C.placeholder(正確答案)D.fetch121.跡運(yùn)算返回的是矩陣對(duì)角元素的和。因此矩陣A與其轉(zhuǎn)置矩陣的跡是相等的。()[單選題]A.正確(正確答案)B.錯(cuò)誤122.Python的作者有意的設(shè)計(jì)限制性很強(qiáng)的愈發(fā),使得不好的編程習(xí)慣(例如if語句的下一行不向右縮進(jìn))都不能通過編譯()[單選題]A.正確B.錯(cuò)誤(正確答案)123.大規(guī)模關(guān)系分析場(chǎng)景下,以下哪個(gè)選項(xiàng)屬于海量關(guān)系處理的三高需求?多選()A.對(duì)海量數(shù)據(jù)的高效關(guān)系發(fā)現(xiàn)需求(正確答案)B.對(duì)海量數(shù)據(jù)的高效共享需求C.對(duì)海量數(shù)據(jù)的高效存儲(chǔ)和訪問需求(正確答案)D.對(duì)關(guān)系分析平臺(tái)的高可擴(kuò)展性和高可用性(正確答案)124.以下哪個(gè)不是TensorFlow庫中的模塊?()[單選題]A.tf.nnB.tf.layersC.tf.boost(正確答案)D.tf.contrib125.Python模塊time引入方法錯(cuò)誤的是?()[單選題]A.importtimeB.fromtimeimport*C.importtimeastD.fromtime(正確答案)126.關(guān)于Python的索引描述正確的是?(多選)()A.從左到右索引默認(rèn)從0開始(正確答案)B.從左到右索引默認(rèn)從1開始C.從右到左索引默認(rèn)從-1開始(正確答案)D.從右到左索引默認(rèn)從0開始127.華為堅(jiān)信Al的價(jià)值最終體現(xiàn)在解決企業(yè)實(shí)際業(yè)務(wù)問題,因此華為在AI技術(shù)發(fā)展上,堅(jiān)決以領(lǐng)域解決方案為牽引,聚焦基礎(chǔ)技術(shù)和使能平臺(tái),并與行業(yè)實(shí)踐的領(lǐng)導(dǎo)者合作開發(fā)行業(yè)領(lǐng)域解決方案。()[單選題]A.正確(正確答案)B.錯(cuò)誤128.Python語言可以在同一行中使用多條語句,語句之間使用逗號(hào)”,”分割。()[單選題]A.正確B.錯(cuò)誤(正確答案)129.常用激活函數(shù)有哪些?()A.sigmod(正確答案)B.tainh(正確答案)C.relu(正確答案)D.danish130.以下關(guān)于矩陣的說法不正確的是?()[單選題]A.任意矩陣與單位矩陣相乘,都不會(huì)改變B.對(duì)稱矩陣A的轉(zhuǎn)置還是A本身C.正交矩陣A的轉(zhuǎn)置等于A的逆D.對(duì)角矩陣不存在逆矩陣(正確答案)131.GAN是一種深度學(xué)習(xí)模型,是近年來復(fù)雜分布上無監(jiān)督學(xué)習(xí)最具前景的方法之一。()[單選題]A.正確(正確答案)B.錯(cuò)誤132.關(guān)于反向傳播描述錯(cuò)誤的是?()[單選題]A.反向傳播算法的學(xué)習(xí)過程由正向傳播過程和反向傳播過程組成B.反向傳播算法適合于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降法的基礎(chǔ)上C.反向傳播階段將訓(xùn)練輸入送入網(wǎng)絡(luò)以獲得激勵(lì)響應(yīng)(正確答案)D.反向傳播算法主要由兩個(gè)環(huán)節(jié)(激勵(lì)傳播.權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)的目標(biāo)范圍為止133.只有矩陣A與矩陣B的行列數(shù)一樣,A與B才可以相加。()[單選題]A.正確(正確答案)B.錯(cuò)誤134.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么?()[單選題]A.隨機(jī)賦值,祈禱它們是正確的B.搜索所有權(quán)重和偏差的組合,直到得到最佳值C.賦于一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重(正確答案)D.以上都不正確135.以下選項(xiàng)中關(guān)于圖像識(shí)別云服務(wù)器描述錯(cuò)誤的是?()[單選題]A.服務(wù)可以識(shí)別出摩天大樓.建筑.船舶這樣具體的物體B.服務(wù)也可以識(shí)別出大海.城市.港口等場(chǎng)景C.服務(wù)可對(duì)圖片中的內(nèi)容進(jìn)行語義分析,提取出具體抽象意義的標(biāo)簽D.服務(wù)可以提供物體和場(chǎng)景標(biāo)簽,也能較多的提供概念標(biāo)簽(正確答案)136.TensorFlow中不支持哪種方式定義變量?()[單選題]A.隨機(jī)數(shù)B.常數(shù)C.通過其他變初始值計(jì)算得到D.null(正確答案)137.把矩陣A行與列相互交換產(chǎn)生的矩陣稱為A的轉(zhuǎn)置,關(guān)于矩陣轉(zhuǎn)置的性質(zhì)哪些是正確的?()A.矩陣A轉(zhuǎn)置的轉(zhuǎn)置還是A本身(正確答案)B.矩陣A和矩陣B的和的轉(zhuǎn)置等于A的轉(zhuǎn)置(正確答案)C.一個(gè)數(shù)乘以A的積的轉(zhuǎn)置等于這個(gè)數(shù)乘以A的轉(zhuǎn)置(正確答案)D.矩陣A矩陣B的乘積的轉(zhuǎn)置等于矩陣A的轉(zhuǎn)置乘以矩陣B的轉(zhuǎn)置138.以下關(guān)于數(shù)值計(jì)算中上溢和下溢的說法正確的是?()A.當(dāng)接近零的數(shù)被四舍五入為零時(shí)發(fā)生下溢(正確答案)B.當(dāng)接近零的數(shù)被四舍五入為零時(shí)發(fā)生上溢C.當(dāng)大量級(jí)的數(shù)被近似為正無窮或負(fù)無窮時(shí)發(fā)生上溢(正確答案)D.當(dāng)大量級(jí)的數(shù)被近似為正無窮或負(fù)無窮時(shí)發(fā)生下溢139.相關(guān)系數(shù)又叫做線性相關(guān)系數(shù),用來度量?jī)蓚€(gè)變量間的線性關(guān)系,其值為大于0的實(shí)數(shù)。()[單選題]A.正確B.錯(cuò)誤(正確答案)140.人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法及應(yīng)用系統(tǒng)的一門新的科學(xué),是機(jī)器學(xué)習(xí)的核心研究領(lǐng)域之一。()[單選題]A.正確(正確答案)B.錯(cuò)誤141.關(guān)于貝葉斯公式:P(W|X)=P(X|W)*P(W)/P(X)描述正確的是?()[單選題]A.P(W|X)是先驗(yàn)概率B.P(X|W)是條件概率(正確答案)C.P(W)是后驗(yàn)概率D.P(X)是后驗(yàn)概率142.首次提出人工智能是在哪一年?()[單選題]A.1946B.1960C.1916D.1956(正確答案)143.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)和技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)科叫?()[單選題]A.專家系統(tǒng)B.機(jī)器學(xué)習(xí)(正確答案)C.神經(jīng)網(wǎng)絡(luò)D.自然語言處理144.Python語言中時(shí)間間隔是以秒為單位的浮點(diǎn)小數(shù)。()[單選題]A.正確(正確答案)B.錯(cuò)誤145.適合Python的場(chǎng)景或者行業(yè)是哪些?()A.人工智能(正確答案)B.Web開發(fā)(正確答案)C.游戲開發(fā)(正確答案)D.硬件開發(fā)146.Python支持以下哪些功能?()A.繼承(正確答案)B.重載(正確答案)C.派生(正確答案)D.多繼承(正確答案)147.TensorFlow有哪些實(shí)現(xiàn)模式?()A.單機(jī)模式B.分布式模式C.反向模式(正確答案)D.正向模式(正確答案)148.深度學(xué)習(xí)中的正則化有哪些?()A.L1范數(shù)L2范數(shù)(正確答案)B.數(shù)據(jù)集增強(qiáng)C.集成方法(正確答案)D.Dropout(正確答案)149.如下圖所示,以下哪些選項(xiàng)是矩陣A的特征值?A=[3-1]()A.2(正確答案)B.-2C.-4D.4(正確答案)150.下列選項(xiàng)中對(duì)泊松分布與二項(xiàng)分布的關(guān)系描述正確的是?()[單選題]A.泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概率B.泊松分布與二項(xiàng)分布當(dāng)n很大p很小的近似計(jì)算(正確答案)C.泊松分布與二項(xiàng)分布沒有關(guān)系D.泊松分布可以替代二項(xiàng)分布151.向量組a1=(1,1,1),a2=(0,2,5),a3=(1,3,6)以下選項(xiàng)中正確的是()A.線性相關(guān)(正確答案)B.線性無關(guān)C.a1+a2+a3=0(正確答案)D.2a1+a2+a3=0(正確答案)152.Python語言的lambda函數(shù)描述錯(cuò)誤的是?()A.lambda只是一個(gè)表達(dá)式,函數(shù)體比def簡(jiǎn)單很多B.lambda的主體可以是一個(gè)表達(dá)式,也可以是一個(gè)代碼快(正確答案)C.lambda函數(shù)可以訪問全局命名空間里的參數(shù)D.lambda函數(shù)只接受一個(gè)參數(shù)值(正確答案)153.不屬于Python語言re正則表達(dá)式模塊函數(shù)的是?()[單選題]A.搜索searchB.匹配matchC.更新update(正確答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論