人工智能單選模擬試題含答案_第1頁(yè)
人工智能單選模擬試題含答案_第2頁(yè)
人工智能單選模擬試題含答案_第3頁(yè)
人工智能單選模擬試題含答案_第4頁(yè)
人工智能單選模擬試題含答案_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能單選模擬試題含答案一、單選題(共100題,每題1分,共100分)1、對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A、以上選項(xiàng)均不正確B、硬間隔C、核函數(shù)D、軟間隔正確答案:B2、留出法直接將數(shù)據(jù)集劃分為(___)個(gè)互斥的集合。A、四B、一C、二D、三正確答案:C3、關(guān)于遞歸函數(shù)基例的說(shuō)明,以下選項(xiàng)中錯(cuò)誤的是A、遞歸函數(shù)的基例不再進(jìn)行遞歸B、每個(gè)遞歸函數(shù)都只能有一個(gè)基例C、遞歸函數(shù)的基例決定遞歸的深度D、遞歸函數(shù)必須有基例正確答案:B4、第三次工業(yè)革命的地點(diǎn)是A、英國(guó)倫敦B、美國(guó)硅谷C、美國(guó)辛辛那提農(nóng)場(chǎng)D、德國(guó)漢諾威正確答案:B5、關(guān)于OLAP的特性,下面正確的是:()(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性A、(1)(2)(3)(4)(5)B、(1)(2)(3)C、(2)(3)(4)D、(1)(2)(3)(4)正確答案:A6、()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點(diǎn)盡可能接近、異類樣例投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來(lái)確定樣本的類別.A、&對(duì)數(shù)幾率回歸&B、&多分類學(xué)習(xí)C、&線性判別分析&D、多分類學(xué)習(xí)&正確答案:C7、信息熵是度量樣本集合(___)最常用的一種指標(biāo)。A、準(zhǔn)確率B、純度C、召回率D、精確度正確答案:B8、()是將人類語(yǔ)言經(jīng)過(guò)處理轉(zhuǎn)化為機(jī)器所能理解語(yǔ)言的一門技術(shù)。A、大數(shù)據(jù)B、語(yǔ)音識(shí)別C、計(jì)算機(jī)視覺(jué)D、自然語(yǔ)言處理正確答案:D9、以下技術(shù)中,不屬于人工智能技術(shù)的是()A、文字識(shí)別,如通過(guò)OCR快速獲得的圖像中出漢字,保存為文本B、語(yǔ)音輸入,通過(guò)話筒將講話內(nèi)容轉(zhuǎn)成文本C、自動(dòng)計(jì)算,通過(guò)編程計(jì)算456*457*458*459的值D、麥克風(fēng)陣列,如利用靈云該技術(shù)實(shí)現(xiàn)遠(yuǎn)場(chǎng)語(yǔ)音交互的電視正確答案:C10、()是指在各個(gè)領(lǐng)域都比人類要強(qiáng)的人工智能。A、強(qiáng)人工智能B、弱人工智能C、超人工智能D、人工智能正確答案:C11、遺傳算法借鑒的生物進(jìn)化的三個(gè)基本原則是A、適者生存兩性繁衍進(jìn)化B、適者生存突變進(jìn)化C、適者生存兩性繁衍突變D、兩性繁衍突變進(jìn)化正確答案:C12、()網(wǎng)絡(luò)是一種競(jìng)爭(zhēng)學(xué)習(xí)型的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時(shí)保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點(diǎn)映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。A、RBF網(wǎng)絡(luò)B、SOM網(wǎng)絡(luò)C、ELman網(wǎng)絡(luò)D、ART網(wǎng)絡(luò)正確答案:B13、某人回到家說(shuō)了一聲“燈光”,房間的燈就亮了,這主要應(yīng)用了人工智能中的()A、文字識(shí)別技術(shù)B、語(yǔ)音識(shí)別技術(shù)C、指紋識(shí)別技術(shù)D、光學(xué)字符識(shí)別正確答案:B14、Google與Facebook分別提出SimCLR與MoCo兩個(gè)算法,實(shí)現(xiàn)在()上學(xué)習(xí)圖像數(shù)據(jù)表征。兩個(gè)算法背后的框架都是對(duì)比學(xué)習(xí)(contrastivelearning)A、二維數(shù)據(jù)B、標(biāo)注數(shù)據(jù)C、無(wú)標(biāo)注數(shù)據(jù)D、圖像數(shù)據(jù)正確答案:C15、在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過(guò)程。A、模型B、程序C、算法模型D、算法正確答案:C16、在圖靈測(cè)試中,如果有超過(guò)()的測(cè)試者不能分清屏幕后的對(duì)話者是人還是機(jī)器,就可以說(shuō)這臺(tái)計(jì)算機(jī)通過(guò)了測(cè)試并具備人工智能.A、60%B、30%C、50%D、40%正確答案:B17、討論變量之間的關(guān)系,主要有三個(gè)方法:()、方差分析和回歸分析A、邏輯分析B、相關(guān)分析C、假設(shè)分析D、參數(shù)分析正確答案:B18、下列關(guān)于Python的描述正確的是()。A、單分支結(jié)構(gòu)的格式為if-elifB、Python中采用“#”表示一行注釋的幵始C、字典中不可以嵌套字典D、Python中整數(shù)的默認(rèn)書(shū)寫(xiě)格式是二進(jìn)制正確答案:B19、關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()A、學(xué)習(xí)率不同場(chǎng)景是相同的B、學(xué)習(xí)率是根據(jù)不同場(chǎng)景,人為設(shè)定的C、學(xué)習(xí)率不是人為設(shè)定的D、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的正確答案:B20、以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說(shuō)法是正確的?A、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、決策樹(shù)是一種監(jiān)督式學(xué)習(xí)D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練正確答案:C21、神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問(wèn)題,對(duì)于梯度消失問(wèn)題,我們可以通過(guò)選擇使用以下哪種函數(shù)減輕該問(wèn)題?A、Softsign函數(shù)B、Relu函數(shù)C、tanh函數(shù)D、Sigmoid函數(shù)正確答案:B22、HUAWEIHiAIEngine能夠輕松將多種AI能力與App集成。A、FALSEB、TRUE正確答案:B23、下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)B、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)C、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立D、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)正確答案:B24、()的特點(diǎn)是使用先驗(yàn)知識(shí)來(lái)分析或解釋每個(gè)訓(xùn)練樣本,以推理出樣本哪些特征與目標(biāo)函數(shù)相關(guān)或不相關(guān)。A、遺傳算法B、分析學(xué)習(xí)C、歸納學(xué)習(xí)D、貝葉斯學(xué)習(xí)正確答案:B25、Boosting算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),可通過(guò)()實(shí)施,對(duì)無(wú)法接受帶權(quán)樣本的基學(xué)習(xí)算法,則可通過(guò)()來(lái)處理A、重賦權(quán)法,重采樣法B、重采樣法,重賦權(quán)法C、賦權(quán)法,采樣法D、采樣法,賦權(quán)法正確答案:A26、從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的應(yīng)用類產(chǎn)品。A、桌面應(yīng)用B、洞見(jiàn)與行動(dòng)C、實(shí)施指南D、預(yù)料庫(kù)正確答案:A27、淺拷貝的含義是A、僅是引用子對(duì)象B、完全拷貝父對(duì)象和子對(duì)象C、拷貝父對(duì)象,不拷貝父對(duì)象的內(nèi)部對(duì)象D、僅是引用父對(duì)象正確答案:C28、Keras是用哪種語(yǔ)言編寫(xiě)的神經(jīng)網(wǎng)絡(luò)庫(kù)()A、JavaB、CC、ScalaD、Python正確答案:D29、二十世紀(jì)五十年代到七十年代初,人工智能處于()期。A、知識(shí)B、理論C、智能D、推理正確答案:D30、()是一切AI模型的基礎(chǔ),完善數(shù)據(jù)的基礎(chǔ)設(shè)施建設(shè)對(duì)于AI項(xiàng)目開(kāi)發(fā)至關(guān)重要。A、算力B、程序C、算法D、數(shù)據(jù)正確答案:D31、如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,哪一個(gè)必然可以得到該最優(yōu)解A、廣度優(yōu)先搜索B、啟發(fā)式搜索C、有界深度優(yōu)先搜索D、深度優(yōu)先搜索正確答案:A32、()函數(shù)一般用在多分類問(wèn)題中,它是對(duì)邏輯斯蒂回歸logistic的一種推廣,也被稱為多項(xiàng)式邏輯斯蒂回歸模型。A、sigmoidB、TanhC、softmaxD、Relu正確答案:C33、python循環(huán)效率低的根本原因是()A、以上都不對(duì)B、numpy等python庫(kù)的效率更高C、python的可解釋性強(qiáng)D、python運(yùn)行程序時(shí)逐行翻譯正確答案:D34、下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+1時(shí)刻狀態(tài)和t時(shí)刻狀態(tài)相互獨(dú)立B、t+2時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)C、t-1時(shí)刻狀態(tài)取決于t+1時(shí)刻狀態(tài)D、t+1時(shí)刻狀態(tài)取決于t時(shí)刻狀態(tài)正確答案:D35、若一個(gè)屬性可以從其他屬性中推演出來(lái),那這個(gè)屬性就是()A、冗余屬性B、模式屬性C、集成屬性D、結(jié)構(gòu)屬性正確答案:A36、執(zhí)行完語(yǔ)句X_train,X_test,y_train,y_test=train_test_split(...iris.data,iris.target,test_size=0.4,random_state=0),訓(xùn)練集占比多少?A、70%B、50%C、40%D、60%正確答案:D37、對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、$2B、1和2C、1D、1和3正確答案:C38、()的數(shù)目通常也被稱作卷積核的個(gè)數(shù)A、輸出通道B、通道C、輸入維度D、輸入通道正確答案:A39、假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:①如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。②如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。關(guān)于這兩句話,下列說(shuō)法正確的是?A、①和②都錯(cuò)誤B、①正確,②錯(cuò)誤C、①和②都正確D、①錯(cuò)誤,②正確正確答案:B40、在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時(shí)間后,搖臂的獎(jiǎng)賞能很好的近似出來(lái),不再需要探索,則可讓?duì)烹S著嘗試次數(shù)增加而(___)A、增大B、置為0C、置為無(wú)窮D、減少正確答案:D41、已知函數(shù)y=f(x)=x^2+1,則在x=2,Δx=0.1時(shí),Δy的值為()A、0.43B、0.41C、$0.44D、0.4正確答案:B42、以下哪類算法屬于關(guān)聯(lián)分析()。A、K-MeanB、決策樹(shù)C、EMD、Apriori算法正確答案:D43、早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。A、全局特征丟掉了圖像細(xì)節(jié)B、太多的錯(cuò)誤匹配C、存儲(chǔ)效率低下D、提取不到主要特征正確答案:A44、深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A、情感分析B、所有選項(xiàng)C、機(jī)器翻譯D、問(wèn)答系統(tǒng)正確答案:B45、關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布正確答案:D46、向量[0.1,0.1,0.2,0.3,0.6]的維數(shù)是()。A、5B、10C、$1D、3正確答案:A47、不屬于人工智能的學(xué)派是A、符號(hào)主義B、連接主義C、機(jī)會(huì)主義D、行為主義正確答案:C48、ILP系統(tǒng)通常采用(___)的規(guī)則生成策略A、自小而大B、自大而小C、自底而上D、自頂而下正確答案:C49、下列哪些沒(méi)有使用Anchorbox?()A、YOLOv3B、YOLOv1C、YOLOv2D、FasterRCNN正確答案:B50、多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()A、一對(duì)多B、一對(duì)其余C、一對(duì)一D、多對(duì)多正確答案:A51、在有監(jiān)督學(xué)習(xí)中,我們?nèi)绾问褂镁垲惙椒??①我們可以先?chuàng)建聚類類別,然后在每個(gè)類別上用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)②我們可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)③在進(jìn)行監(jiān)督學(xué)習(xí)之前,我們不能新建聚類類別④我們不可以使用聚類“類別id”作為一個(gè)新的特征項(xiàng),然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)A、①和③B、②和④C、①和②D、③和④正確答案:C52、為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()A、字符B、英文C、符號(hào)D、數(shù)字正確答案:D53、下列哪項(xiàng)不屬于聚類算法()A、BIRCHB、K-meansC、SVMD、DBSCAN正確答案:C54、數(shù)據(jù)清洗的方法不包括()A、噪聲數(shù)據(jù)清除B、缺失值處理C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理正確答案:D55、考慮值集{12243324556826},其四分位數(shù)極差是A、3B、31C、24D、55正確答案:B56、決策樹(shù)的生成是一個(gè)(___)過(guò)程。A、回歸B、KNNC、遞歸D、聚類正確答案:C57、數(shù)據(jù)的存儲(chǔ)結(jié)構(gòu)分為兩種,它們是()A、數(shù)組存儲(chǔ)和指針存儲(chǔ)B、線性存儲(chǔ)和樹(shù)型存儲(chǔ)C、線性存儲(chǔ)和數(shù)組存儲(chǔ)D、順序存儲(chǔ)和鏈?zhǔn)酱鎯?chǔ)正確答案:D58、“相似度度量”,距離越大,相似度()A、越小B、相等C、無(wú)關(guān)D、越大正確答案:A59、命名實(shí)體識(shí)別任務(wù)是識(shí)別出人名、地名和組織機(jī)構(gòu)名這三類命名實(shí)體,如果用1來(lái)標(biāo)注人名,0標(biāo)注其他,那么“HarryPotterandHermioneGrangerinventedanewspell”這句話中,Potter、and這兩個(gè)單詞應(yīng)該標(biāo)注為:A、1,0B、0,1C、0,0D、1,1正確答案:A60、下列極大似然估計(jì)描述錯(cuò)誤的是(___)A、概率模型的訓(xùn)練過(guò)程就是參數(shù)估計(jì);B、極大似然估計(jì)先假定其具有某種確定的概率分布形式;C、貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機(jī)變量;D、極大似然估計(jì)沒(méi)有確定的概率分布形式;正確答案:D61、信念傳播算法將變量消去法中的求和操作看作一個(gè)()過(guò)程,較好地解決了求解多個(gè)邊際分布時(shí)的重復(fù)計(jì)算問(wèn)題。A、消息傳遞B、消息分辨C、消息累加D、以上都對(duì)正確答案:A62、創(chuàng)建一個(gè)3x3并且值從0到8的矩陣A、np.arange(9).reshape(8)B、np.arange(9)C、np.arange(8).reshape(8)D、np.arange(9).reshape(3,3)正確答案:D63、在長(zhǎng)度為n的順序表中查找一個(gè)元素,假設(shè)需要查找的元素有一半的機(jī)會(huì)在表中,并且如果元素在表中,則出現(xiàn)在表中每個(gè)位置上的可能性是相同的。則在平均情況下需要比較的次數(shù)大約為A、n/4B、nC、3n/4D、n/2正確答案:C64、pandas每個(gè)索引都有一些方法和屬性,下列()方法用來(lái)刪除傳入的值,并得到新的Index。A、diffB、dropC、deleteD、isin正確答案:B65、在NoSQL數(shù)據(jù)庫(kù)的復(fù)制機(jī)制中,“主從復(fù)制”是將數(shù)據(jù)復(fù)制到多個(gè)節(jié)點(diǎn),用戶可以讀取該節(jié)點(diǎn)的數(shù)據(jù),但不能直接更新它,此類節(jié)點(diǎn)為()。A、Slave節(jié)點(diǎn)B、Save節(jié)點(diǎn)C、Master節(jié)點(diǎn)D、Main節(jié)點(diǎn)正確答案:A66、新一代調(diào)度技術(shù)支持系統(tǒng)以運(yùn)行控制平臺(tái)、()兩種平臺(tái)協(xié)同為支撐。A、云計(jì)算平臺(tái)(調(diào)控云)B、能量管理系統(tǒng)C、調(diào)度數(shù)據(jù)網(wǎng)平臺(tái)D、調(diào)度管理系統(tǒng)正確答案:A67、長(zhǎng)短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM中增加了()導(dǎo)致單元內(nèi)的處理過(guò)程不同。A、輸入門B、記憶門C、忘記門D、輸出門正確答案:C68、下列哪個(gè)包不是用于處理圖像的?()A、skimageB、gensimC、opencvD、Scipy正確答案:B69、HBase依靠()存儲(chǔ)底層數(shù)據(jù)。A、HadoopB、MemoryC、HDFSD、MapReduce正確答案:C70、設(shè)z=xyz+z^2+5,則u在點(diǎn)M(0,1,-1)處的梯度是()。A、(-1,1,0)B、(0,2,-2)C、(-1,0,-2)D、(1,0,2)正確答案:C71、強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型A、馬可夫決策&B、&貝葉斯&C、&最大后驗(yàn)概率D、&HMM&正確答案:A72、將一個(gè)字符串格式的日期轉(zhuǎn)換為時(shí)間格式,應(yīng)使用以下哪個(gè)函數(shù)A、to_timedeltaB、to_datetimeC、date_timeD、date_range正確答案:B73、python字體切片時(shí)(S[0,10])下標(biāo)的取值范圍為()。A、[0,10)B、(0,10]C、[0,10]D、(0,10)正確答案:A74、假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋。()A、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-loss的相應(yīng)分布會(huì)非常大。B、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它。C、以上都是D、log-loss越低,模型越好正確答案:C75、LSTM是一個(gè)非常經(jīng)典的面向序列的模型,可以對(duì)自然語(yǔ)言句子或是其他時(shí)序信號(hào)進(jìn)行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、深度殘差網(wǎng)絡(luò)C、樸素貝葉斯D、卷積神經(jīng)網(wǎng)絡(luò)正確答案:A76、________命令既可以刪除列表中的一個(gè)元素,也可以刪除整個(gè)列表。A、delB、deleteFromC、dropD、delete正確答案:A77、在CNN中,梯度下降法的作用是()。A、線性變換B、求函數(shù)最小值C、加速訓(xùn)練D、非線性變換正確答案:B78、MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、reduceB、diskC、hashD、map正確答案:C79、()聚類算法采用概率模型來(lái)表達(dá)聚類原型。A、高斯混合聚類B、學(xué)習(xí)向量量化C、K均值算法正確答案:A80、假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-00001」。X可能是以下哪一個(gè)激活函數(shù)()A、tanhB、ReLUC、以上都不是D、SIGMOID正確答案:A81、numpy中產(chǎn)生全1的矩陣使用的方法是A、emptyB、arangeC、onesD、zeros正確答案:C82、一種將數(shù)據(jù)轉(zhuǎn)換成信息的分析過(guò)程叫做()。A、描述性分析B、規(guī)范性分析C、預(yù)測(cè)性分析D、診斷性分析正確答案:A83、()是自然語(yǔ)言處理的重要應(yīng)用,也可以說(shuō)是最基礎(chǔ)的應(yīng)用。A、機(jī)器翻譯B、文本分類C、文本識(shí)別D、問(wèn)答系統(tǒng)正確答案:B84、感知機(jī)描述錯(cuò)誤的是A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整B、輸入層接收外界輸入信號(hào)傳遞給輸出層C、輸出層是M-P神經(jīng)元D、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算正確答案:A85、學(xué)習(xí)器在訓(xùn)練集上的誤差稱為“訓(xùn)練誤差”或()。A、經(jīng)驗(yàn)誤差B、精度誤差C、特定誤差D、泛化誤差正確答案:A86、在TensorFlow中,TensorBoard運(yùn)行時(shí)的默認(rèn)訪問(wèn)端口是以下哪個(gè)端口號(hào)?A、8080B、4004C、$6,006D、8008正確答案:C87、添加用戶時(shí)使用參數(shù)()可以指定用戶目錄。A、-pB、-uC、-cD、-d正確答案:D88、如果在內(nèi)存中采用鏈?zhǔn)奖4婢€性表,則元素之間的邏輯關(guān)系通過(guò)()A、設(shè)立單獨(dú)的區(qū)域存儲(chǔ)元素之間的邏輯次序B、元素本身的關(guān)鍵字來(lái)表示邏輯次序C、保存在元素中的指針表示先后次序D、元素在內(nèi)存中的相對(duì)位置表示邏輯次序正確答案:C89、數(shù)據(jù)挖掘技術(shù)主要有分類、估計(jì)、()、關(guān)聯(lián)分析和預(yù)報(bào)。A、假設(shè)B、聚類C、統(tǒng)計(jì)D、回歸正確答案:B90、根據(jù)操作的反饋總結(jié)更好的策略,這個(gè)過(guò)程抽象出來(lái),就是(___)A、強(qiáng)化學(xué)習(xí)B、加強(qiáng)學(xué)習(xí)C、加強(qiáng)訓(xùn)練D、強(qiáng)化訓(xùn)練正確答案:A91、Root用戶無(wú)法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentK

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論