人工智能復(fù)習(xí)測(cè)試題_第1頁(yè)
人工智能復(fù)習(xí)測(cè)試題_第2頁(yè)
人工智能復(fù)習(xí)測(cè)試題_第3頁(yè)
人工智能復(fù)習(xí)測(cè)試題_第4頁(yè)
人工智能復(fù)習(xí)測(cè)試題_第5頁(yè)
已閱讀5頁(yè),還剩60頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)人工智能復(fù)習(xí)測(cè)試題1.下列哪些屬于頻繁模式挖掘算法()A、FP-growthB、DBSCANC、AprioriD、GDBT【正確答案】:AC解析:

見算法解析2.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()A、數(shù)字屬性的缺失值補(bǔ)0B、LabelEncoderC、one-hotencoderD、CountVectorize【正確答案】:ABCD解析:

見算法解析3.聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是___________的子集,每個(gè)子集稱為一個(gè)“簇”,每個(gè)簇對(duì)應(yīng)一定的概念(如無籽瓜、淺色瓜等),這些概念對(duì)聚類算法是___________的,聚類過程僅能自動(dòng)形成簇結(jié)構(gòu),簇對(duì)應(yīng)的概念含義由使用者來把握和命名。A、相交B、不相交C、事先已知D、事先未知【正確答案】:BD解析:

見算法解析4.復(fù)雜的深度學(xué)習(xí)模型需要消耗大量的存儲(chǔ)空間和計(jì)算資源,具備低內(nèi)存和低計(jì)算量?jī)?yōu)勢(shì)的技術(shù)成為業(yè)界需求。輕量化深度學(xué)習(xí)成為解決這一挑戰(zhàn)的重要技術(shù),比如()。A、OpenAI提出的GPT-3B、谷歌提出的MobileNetC、曠世提出的ShuffleNetD、百度提出的PaddleOCR【正確答案】:BCD5.以下說法正確的是()A、離散化本質(zhì)是將連續(xù)型數(shù)據(jù)分段B、數(shù)據(jù)中的離群值,會(huì)增強(qiáng)模型對(duì)于數(shù)據(jù)離群值的魯棒性C、離散化后的特征,其取值均轉(zhuǎn)化為有明確含義的區(qū)間號(hào)D、將連續(xù)型特征離散化后,特征的取值大大減少?!菊_答案】:ABCD6.幾乎所有的活動(dòng)都需要一些在不確定性存在的情況下進(jìn)行推理的能力。不確定性有()等可能的來源。A、被建模系統(tǒng)內(nèi)在的隨機(jī)性B、不完全觀測(cè)C、不完全建模D、不完全判斷【正確答案】:ABC解析:

參考《深度學(xué)習(xí)》P487.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化【正確答案】:ACD8.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在Mode1Arts上可以具備?A、數(shù)據(jù)治理B、AI市場(chǎng)C、可視化工作流D、自動(dòng)學(xué)習(xí)【正確答案】:ABCD9.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC10.人工智能歷經(jīng)兩波浪潮,此次人工智能風(fēng)潮再度崛起是因?yàn)椋ǎ〢、大量數(shù)據(jù)變得可得B、CPU計(jì)算能力的提升C、GPU計(jì)算能力的提升D、深度學(xué)習(xí)的發(fā)展【正確答案】:ACD11.根據(jù)結(jié)構(gòu)不同,智能傳感器可以分為()A、模塊式傳感器B、集成式傳感器C、混合式傳感器D、控制型傳感器【正確答案】:ABC解析:

基礎(chǔ)概念12.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?A、decoratorB、setuptoolsC、numpyD、tensorflow【正確答案】:ABC13.人工智能應(yīng)用類企業(yè)的切入領(lǐng)域有()。A、機(jī)器人B、教育培訓(xùn)C、醫(yī)療設(shè)備D、智能家居【正確答案】:ABCD14.HUAWEIHiAI賦能APP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)【正確答案】:ABCD15.考察人工智能(AI)的一些應(yīng)用,去發(fā)現(xiàn)目前下列哪些任務(wù)可以通過AI來解決A、以競(jìng)技水平玩德州撲克游戲B、打一場(chǎng)像樣的乒乓球比賽C、在Web上購(gòu)買一周的食品雜貨D、在市場(chǎng)上購(gòu)買一周的食品雜貨【正確答案】:ABC16.在搭建領(lǐng)域知識(shí)庫(kù)的過程中,知識(shí)圖譜實(shí)現(xiàn)了知識(shí)的()應(yīng)用,同時(shí)將相關(guān)知識(shí)進(jìn)行關(guān)聯(lián),達(dá)到智能化的知識(shí)應(yīng)用水平。A、建模B、抽取C、融合D、存儲(chǔ)【正確答案】:ABCD解析:

主要應(yīng)用17.“噪聲”是指測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有哪些?A、錯(cuò)誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、缺失數(shù)據(jù)【正確答案】:ABC18.關(guān)于Python組合數(shù)據(jù)類型,以下選項(xiàng)中描述正確的是A、Python的str、tuple和list類型都屬于序列類型B、Python組合數(shù)據(jù)類型能夠?qū)⒍鄠€(gè)同類型或不同類型的數(shù)據(jù)組織起來,通過單一的表示使數(shù)據(jù)操作更有序、更容易C、組合數(shù)據(jù)類型可以分為3類:序列類型、集合類型和映射類型D、序列類型是二維元素向量,元素之間存在先后關(guān)系,通過序號(hào)訪問【正確答案】:ABC19.一般來講,選擇統(tǒng)計(jì)量的標(biāo)準(zhǔn)有()三個(gè)。A、一致性B、有效性C、真實(shí)性D、無偏性【正確答案】:ABD20.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括()、()、()。A、輸入層B、卷積層C、隱含層D、輸出層【正確答案】:ACD解析:

見算法解析21.AI中臺(tái)通常具備哪些建模能力A、Notebook建模B、可視化建模C、自動(dòng)化建模D、數(shù)據(jù)驅(qū)動(dòng)建?!菊_答案】:ABCD22.卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A、卷積層后為池化層,然后還是卷積層-池化層。B、多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C、網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D、網(wǎng)絡(luò)中最開始的幾個(gè)層是全連接層【正確答案】:AC解析:

一般卷積層后為池化層,網(wǎng)絡(luò)最后為幾個(gè)全連接層。23.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD24.關(guān)于搜索與求解,描述正確的是()

A、搜索是為了達(dá)到某一目標(biāo)而多次進(jìn)行某種操作、運(yùn)算、推理或計(jì)算的過程B、所有的智能活動(dòng)過程,都可以看作或者抽象為一個(gè)基于搜索的問題求解C、搜索是人在求解問題時(shí)不知現(xiàn)成解法的情況下所采取的一種普遍方法D、搜索可以看作人類和其他生物所具有的一種元知識(shí)【正確答案】:ABCD解析:

見算法解析25.按用途分類,專家系統(tǒng)可分為()

A、診斷型解釋型B、預(yù)測(cè)型決策型C、設(shè)計(jì)型規(guī)劃型D、控制型調(diào)度型【正確答案】:ABCD解析:

基礎(chǔ)概念26.自然語(yǔ)言處理的應(yīng)用方向有()等A、信息檢索B、文本抽取C、問答系統(tǒng)D、機(jī)器翻譯【正確答案】:ABCD解析:

主要應(yīng)用27.()是AI的根基,為模型訓(xùn)練提供基本的資料;()是實(shí)現(xiàn)AI系統(tǒng)所需的硬件計(jì)算能力,為AI技術(shù)提供底層基礎(chǔ)設(shè)施的支撐;()是機(jī)器的學(xué)習(xí)方法,提供各種各樣的通用算法模型,并結(jié)合具體應(yīng)用場(chǎng)景提供特定技術(shù)接口。A、邏輯B、數(shù)據(jù)C、算力D、算法【正確答案】:BCD解析:

主要應(yīng)用28.數(shù)據(jù)真實(shí)性具備哪兩種特質(zhì)?A、準(zhǔn)確性B、不確定性C、可信賴度D、雜亂性【正確答案】:AC29.機(jī)器學(xué)習(xí)的主要應(yīng)用領(lǐng)域包括?A、圖像識(shí)別B、認(rèn)知模擬C、規(guī)劃問題求解D、數(shù)據(jù)挖掘【正確答案】:ABCD30.以下哪些說法是正確的A、使用print(crawl_content.decode(‘utf8-escape’))可以顯示crawl_content中的中文字符B、爬取同一個(gè)頁(yè)面,使用不同的編碼方式都可以顯示中文字符C、獲得系統(tǒng)默認(rèn)編碼的方式是importsysD、sys.getdefaultencoding()E、F、Python寫文件操作中,withopen()的參數(shù)’a’表示更新,’w’表示覆蓋【正確答案】:CD31.當(dāng)發(fā)現(xiàn)機(jī)器學(xué)習(xí)模型過擬合時(shí),以下操作正確的是()A、降低特征維度B、增加樣本數(shù)量C、添加正則項(xiàng)D、增加特征維度【正確答案】:ABC32.常用的數(shù)據(jù)分析工具包括()A、R語(yǔ)言B、C語(yǔ)言C、Python語(yǔ)言D、JAVA語(yǔ)言【正確答案】:AC33.目標(biāo)檢測(cè)存在的挑戰(zhàn)有()A、光照B、遮擋C、重疊D、多尺度【正確答案】:ABCD解析:

見算法解析34.自然語(yǔ)言分析技術(shù)大致分為()三個(gè)層面。A、詞法分析B、句法分析C、語(yǔ)境分析D、語(yǔ)義分析【正確答案】:ABD解析:

基礎(chǔ)知識(shí)35.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可以分為()。A、前向型B、反饋型C、自組織競(jìng)爭(zhēng)型D、隨機(jī)型【正確答案】:ABCD36.那種機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)進(jìn)行標(biāo)注A、有監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、深度學(xué)習(xí)【正確答案】:BC解析:

無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)不需要標(biāo)注37.使用()API加載MNIST數(shù)據(jù)集?使用()API定義優(yōu)化器?使用()API定義全連接層?A、paddle.vision.datasets.MNISTB、paddle.optimizer.SGDC、paddle.nn.LinearD、paddle.nn.functional.Linear【正確答案】:ABC解析:

見算法解析38.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?()A、計(jì)算簡(jiǎn)單B、非線性C、具有飽和區(qū)D、幾乎處處可微【正確答案】:ABD39.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語(yǔ)義分割C、信息檢索D、圖像生成【正確答案】:ABCD40.常見的數(shù)據(jù)增強(qiáng)方式有()A、對(duì)顏色的數(shù)據(jù)增強(qiáng)B、添加噪聲(高斯噪聲)C、水平垂直翻轉(zhuǎn)D、隨機(jī)旋轉(zhuǎn)、裁剪【正確答案】:ABCD解析:

見算法解析41.用于監(jiān)督分類的算法有()。A、支持向量機(jī)B、決策樹C、神經(jīng)網(wǎng)絡(luò)D、線性回歸【正確答案】:ABC42.人工智能平臺(tái)樣本分類為()、()、()、()。A、圖像B、視頻C、語(yǔ)音D、文本【正確答案】:ABCD解析:

主要應(yīng)用43.圍繞智能營(yíng)銷客服典型業(yè)務(wù)場(chǎng)景,支撐構(gòu)建全渠道簡(jiǎn)單、清晰、高效的自助智能服務(wù)需求,搭建營(yíng)銷客服知識(shí)庫(kù),利用()等技術(shù),研發(fā)營(yíng)銷客服機(jī)器人,為客戶提供24小時(shí)在線優(yōu)質(zhì)、高效的咨詢服務(wù),實(shí)現(xiàn)業(yè)擴(kuò)報(bào)裝、電費(fèi)查詢、故障報(bào)修等通用業(yè)務(wù)智能辦理。A、語(yǔ)音識(shí)別B、語(yǔ)義理解C、自然語(yǔ)言處理【正確答案】:ABC44.經(jīng)典邏輯推理有哪些?A、自然演繹推理B、歸結(jié)演繹推理C、不確定與非單調(diào)推理D、與、或形演繹推理【正確答案】:ABD45.知識(shí)圖譜的技術(shù)內(nèi)涵包括()。A、知識(shí)圖譜推理B、圖數(shù)據(jù)存儲(chǔ)與查詢C、知識(shí)圖譜融合D、基于圖的知識(shí)表示【正確答案】:ABCD46.在元宇宙電力系統(tǒng)中,隨著虛擬電力系統(tǒng)智能性的提高,人與電力系統(tǒng)關(guān)系則會(huì)演變?yōu)?),人與元宇宙電力系統(tǒng)(),形成以人為中心的智能化電力系統(tǒng)形態(tài),在穩(wěn)定運(yùn)行、智能優(yōu)化、故障診斷等方面提供更精準(zhǔn)的智慧化建設(shè)[50]。A、共存關(guān)系B、共生關(guān)系C、虛實(shí)交融D、虛實(shí)交互【正確答案】:BC47.當(dāng)我們?cè)诜治鲆环輸?shù)據(jù)的時(shí)候,如果發(fā)現(xiàn)這份數(shù)據(jù)的特征變量很多,成千上萬,如果直接基于所有的特征變量進(jìn)行分析,會(huì)浪費(fèi)過多的時(shí)間成本及計(jì)算資源,為了應(yīng)對(duì)這種情況,我們可以采用降維的方式對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,如下技術(shù)中,哪些屬于降維技術(shù)A、主成分分析B、因子分析C、獨(dú)立主成分分析D、SVM【正確答案】:ABC解析:

SVM解決分類問題48.下列哪些項(xiàng)是決策樹常用的屬性選擇指標(biāo)()A、Gini系數(shù)B、信息增益C、信息增益率D、距離平方和【正確答案】:ABC解析:

見算法解析49.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化成層以下描述正確的是?A、經(jīng)過池化的特征圖像變小了B、池化操作采用掃描窗口實(shí)現(xiàn)C、池化層可以起到降維的作用D、常用的池化方法有最大池化和平均池化【正確答案】:ABCD50.下列()是常用的深度學(xué)習(xí)框架A、TensorFlowB、PyTorchC、PaddleD、AnacondaE、pycharm【正確答案】:ABC解析:

TensorFlow、PyTorch和Paddle是常用計(jì)算框架;Anaconda是大量包的軟件工具;pycharm是一種python編譯器51.人工智能三要素包括()。A、計(jì)算力B、算法C、數(shù)據(jù)D、分析能力

【正確答案】:ABC解析:

人工智能三要素包括計(jì)算力、算法、數(shù)據(jù)。52.結(jié)構(gòu)化程序設(shè)計(jì)的基本原則包括A、多態(tài)性B、至頂向下C、模塊化D、逐步求精【正確答案】:BCD解析:

結(jié)構(gòu)化程序設(shè)計(jì)方法的主要原則可以概括為自頂向下,逐步求精,模塊化,限制使用goto語(yǔ)句。53.數(shù)據(jù)增強(qiáng)有哪些方式處理圖片A、翻轉(zhuǎn)B、縮放C、改變色溫D、亮度【正確答案】:ABCD解析:

數(shù)據(jù)增強(qiáng)處理圖片有翻轉(zhuǎn),縮放,改變色溫,亮度,對(duì)質(zhì)量較低的條片進(jìn)行去霧:對(duì)比增強(qiáng).無損放大拉伸復(fù)等重建高清條像條像對(duì)比度增強(qiáng)便圖像更加鮮明像修復(fù)智能去除對(duì)應(yīng)物體并進(jìn)行自動(dòng)填充54.數(shù)據(jù)的預(yù)處理方法有()A、特征編碼B、缺失值處理C、數(shù)據(jù)標(biāo)準(zhǔn)化D、特征離散化【正確答案】:ABCD55.深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常采用()等具有隱式正則化效果的策略。A、SVMB、隨機(jī)梯度下降C、隨機(jī)失活D、批標(biāo)準(zhǔn)化【正確答案】:BCD解析:

主要應(yīng)用56.車庫(kù)門禁的車牌識(shí)別系統(tǒng)中使用的兩個(gè)重要技術(shù)包括()。A、車紋識(shí)別B、圖像分割C、人臉識(shí)別D、圖像識(shí)別【正確答案】:BD57.數(shù)據(jù)分析的三個(gè)基本類型是()A、描述性分析B、流動(dòng)性分析C、預(yù)測(cè)性分析D、規(guī)范性分析E、范圍性分析【正確答案】:ACD58.以下python數(shù)據(jù)類型中支持索引訪問的是()A、字符串B、列表C、元組D、集合【正確答案】:ABC解析:

ABC都是Python中的序列,但set不是,set本身是無序且不重復(fù)的,因此,它不能夠通過索引及切片進(jìn)行訪問。59.FCN的優(yōu)點(diǎn)是?A、任意尺度輸入B、效率高C、結(jié)合淺層信息D、分割不夠精細(xì)【正確答案】:ABC解析:

主要應(yīng)用60.采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱為()

A、連接主義B、邏輯學(xué)派C、生理學(xué)派D、符號(hào)主義【正確答案】:AC解析:

見算法解析61.樣本庫(kù)功能要求為:數(shù)據(jù)預(yù)處理包括()等。A、特征提取B、灰度校正C、加注標(biāo)簽D、平滑去噪【正確答案】:ABD解析:

主要應(yīng)用62.計(jì)算機(jī)視覺具有()等優(yōu)點(diǎn)A、速度快B、精度高C、成本低D、成本高【正確答案】:ABC解析:

主要應(yīng)用63.函數(shù)能處理比定義時(shí)更多的參數(shù),他們是()參數(shù)。A、不定長(zhǎng)B、收集C、可變D、不可變【正確答案】:ABC64.下列哪些方法的輸出結(jié)果,通常包含boundingbox?()A、MTCNNB、FasterRCNNC、MaskRCNND、AlexNet【正確答案】:ABC解析:

見算法解析65.自然語(yǔ)言處理產(chǎn)生的對(duì)話系統(tǒng),對(duì)企業(yè)有哪些好處?A、節(jié)省人工B、提高獎(jiǎng)金C、節(jié)省費(fèi)用D、降低耗電【正確答案】:AC66.以下屬于目標(biāo)檢測(cè)技術(shù)應(yīng)用的場(chǎng)景的有:()A、機(jī)器人視覺B、自動(dòng)駕駛C、人機(jī)交互【正確答案】:ABC67.One-hot獨(dú)熱編碼有哪些特點(diǎn)?A、特征稠密B、特征稀疏C、詞之間相互獨(dú)立,沒有順序關(guān)系D、不能表征詞與詞之間的關(guān)系,one-hot之間正交【正確答案】:BCD解析:

見算法解析68.關(guān)于連接主義,描述正確的是()A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱為仿生學(xué)派D、產(chǎn)生在20實(shí)際50年代【正確答案】:ABCD69.Spark的技術(shù)架構(gòu)分為()層A、資源管理層B、Spark核心層C、服務(wù)層D、采集層E、處理層【正確答案】:ABC70.卷積神經(jīng)網(wǎng)絡(luò)的核心思想是A、局部感知B、參數(shù)共享C、全連接【正確答案】:AB解析:

卷積神經(jīng)網(wǎng)絡(luò)相鄰的兩層只有部分節(jié)點(diǎn)相連,因此排除全連接。卷積神經(jīng)網(wǎng)絡(luò)具有局部感知和參數(shù)共享兩個(gè)特點(diǎn),局部感知即卷積神經(jīng)網(wǎng)絡(luò)的每個(gè)神經(jīng)元只對(duì)圖像的局部像素進(jìn)行感知,然后在更高層將這些局部的信息進(jìn)行合并,從而得到圖像的全部表征信息;權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。71.C語(yǔ)言中三種基本的類型為()。A、intB、charC、floatD、struct【正確答案】:ABC72.數(shù)據(jù)脫敏的三個(gè)基本活動(dòng)是()A、識(shí)別敏感信息B、脫敏處理C、脫敏處理的評(píng)價(jià)D、脫敏操作E、脫敏標(biāo)準(zhǔn)制定【正確答案】:ABC73.語(yǔ)音識(shí)別的方法()。A、聲道模型方法B、模板匹配的方法C、利用仍神經(jīng)網(wǎng)絡(luò)的方法D、語(yǔ)音知識(shí)方法【正確答案】:ABCD74.配置關(guān)鍵詞時(shí),我們可以按照以下哪個(gè)方法來進(jìn)行操作?A、僅配置數(shù)字;B、僅配置字母;C、使用核心的詞匯或詞組來配置D、針對(duì)任一問題來提取關(guān)鍵詞配置【正確答案】:CD解析:

見算法解析75.k近鄰算法包含哪幾個(gè)要素?A、距離度量B、k值選擇C、分類決策規(guī)則D、函數(shù)間隔定義【正確答案】:ABC解析:

函數(shù)間隔定義是支持向量機(jī)的要素76.下列屬于“統(tǒng)計(jì)學(xué)習(xí)”的有()A、BP算法B、支持向量機(jī)C、一般的“核”方法習(xí)D、決策樹【正確答案】:BC解析:

二十世紀(jì)九十年代中期,“統(tǒng)計(jì)學(xué)習(xí)”閃亮登場(chǎng)并迅速占據(jù)主流舞臺(tái),代表性技術(shù)是支持向量機(jī)以及更一般的“核方法”。77.神經(jīng)網(wǎng)絡(luò)的感知機(jī)由()兩層神經(jīng)元組成。A、輸入層B、輸出層C、感知層D、網(wǎng)絡(luò)層【正確答案】:AB78.)python數(shù)據(jù)分析常用包pandas中用于數(shù)據(jù)透視的函數(shù)(方法)是以下哪兩個(gè)A、mergeB、concatC、pivotD、pivot_table【正確答案】:CD解析:

Pivot、pivot_table方法可用于數(shù)據(jù)透視79.在運(yùn)行環(huán)境,單精度浮點(diǎn)算力至少達(dá)到()TFLOPS或半精度浮點(diǎn)算力至少達(dá)到()TFLOPS或INT8精度算力至少達(dá)到()TOPS。A、9B、15C、18D、$36【正確答案】:ACD解析:

主要應(yīng)用80.可以通過應(yīng)用()圖像識(shí)別等技術(shù),提取數(shù)據(jù)文件核心信息A、機(jī)器學(xué)習(xí)B、模式聚類C、自然語(yǔ)言處理D、語(yǔ)義分析【正確答案】:ABCD解析:

主要應(yīng)用81.從產(chǎn)業(yè)鏈的角度來講,人工智能分為三層,由()組成A、基礎(chǔ)層B、技術(shù)層C、應(yīng)用層D、過程層【正確答案】:ABC解析:

基礎(chǔ)概念82.缺失數(shù)據(jù)的處理主要涉及以下哪三個(gè)關(guān)鍵活動(dòng)。()A、缺失數(shù)據(jù)的識(shí)別B、缺失數(shù)據(jù)的分析C、刪除或插補(bǔ)缺失數(shù)據(jù)D、缺失數(shù)據(jù)的忽略【正確答案】:ABC83.下面關(guān)于聯(lián)合分布、邊緣分布和條件分布之間的關(guān)系,正確的是:A、若已知(X,Y)的聯(lián)合分布,可以求出X的邊緣分布和Y的邊緣分布B、若已知(X,Y)的聯(lián)合分布和X的邊緣分布,可以求出Y的條件分布C、若已知X的邊緣分布和Y的條件分布,可以求出(X,Y)的聯(lián)合分布D、若已知X的邊緣分布和Y的邊緣分布,可以求出(X,Y)的聯(lián)合分布【正確答案】:ABC解析:

若已知X的邊緣分布率和Y的邊緣分布率,只有當(dāng)X和Y相互獨(dú)立時(shí),才可以求出(X,Y)的聯(lián)合分布率84.國(guó)家電網(wǎng)客服中心構(gòu)建人工智能服務(wù)體系,搭建AI基礎(chǔ)平臺(tái)和AI運(yùn)營(yíng)平臺(tái),賦能()三大應(yīng)用。A、智能客服B、智能座席C、智能運(yùn)營(yíng)D、智能助理【正確答案】:ABC解析:

主要應(yīng)用85.程序的基本構(gòu)成包括()A、數(shù)組描述B、數(shù)據(jù)描述C、算法描述D、存儲(chǔ)空間描述【正確答案】:BC86.知識(shí)表示必須兼顧()。A、表達(dá)能力強(qiáng)B、易于推理C、易于擴(kuò)展D、容易修改知識(shí)庫(kù)【正確答案】:ABCD87.HiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API【正確答案】:ABCD88.從未來看,通用型人工智能是發(fā)展趨勢(shì)。具體來說,需要機(jī)器一方面能夠通過()、()去理解世界;另一方面通過()去模擬世界。A、感知學(xué)習(xí)B、統(tǒng)計(jì)學(xué)習(xí)C、認(rèn)知學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)【正確答案】:ACD解析:

從未來看,通用型人工智能是發(fā)展趨勢(shì)。具體來說,需要機(jī)器一方面能夠通過感知學(xué)習(xí)、認(rèn)知學(xué)習(xí)去理解世界;另一方面通過強(qiáng)化學(xué)習(xí)去模擬世界。89.Skip-gram的算法實(shí)現(xiàn)包括()幾個(gè)部分?A、輸入層B、卷積層C、隱藏層D、輸出層【正確答案】:ACD解析:

見算法解析90.傳統(tǒng)目標(biāo)檢測(cè)分類的方式有()A、SIFTB、HOGC、SVMD、Adaboost【正確答案】:CD解析:

見算法解析91.根據(jù)個(gè)體學(xué)習(xí)器的生成方式,目前集成學(xué)習(xí)大致分為兩類,其中一種是個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴關(guān)系、可同時(shí)生成的并行化方法,該方法的代表是()A、BoostingBaggingC、隨機(jī)森林D、reboot【正確答案】:BC解析:

見算法解析92.字典a={'k1':'v1','k2':'v2','k3':'v3'},以下()語(yǔ)句執(zhí)行后,a的值為{'k1':'v1','k2':'v2'}。A、popitem()B、dela['k3']C、clear('k3')D、pop('k3')【正確答案】:ABD解析:

見函數(shù)庫(kù)93.以下說法正確的是()。A、聚類是監(jiān)督學(xué)習(xí)B、聚類是非監(jiān)督學(xué)習(xí)C、分類是非監(jiān)督學(xué)習(xí)D、分類是監(jiān)督學(xué)習(xí)【正確答案】:BD94.以下屬于文本預(yù)處理方法的是()。A、小寫(lowercasing)B、提取詞干(stemming)C、詞形化(lemmatization)D、文字?jǐn)U充與詞嵌套【正確答案】:ABCD95.下列哪些開發(fā)包,已包含一些常用的機(jī)器學(xué)習(xí)算法?()A、sklearnB、xgboostC、lightgbmD、numpy【正確答案】:ABC解析:

見算法解析96.以下常用于處理離散特征的方法有()A、OneHotEncoderB、NormalizerC、LabelEncoderD、Imputer【正確答案】:AC97.以下屬于機(jī)器學(xué)習(xí)的是()A、監(jiān)督式學(xué)習(xí)B、非監(jiān)督式學(xué)習(xí)C、半監(jiān)督式學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)【正確答案】:ABCD98.機(jī)器學(xué)習(xí)的基本活動(dòng)包括()。A、訓(xùn)練經(jīng)驗(yàn)的選擇B、目標(biāo)函數(shù)的選擇C、目標(biāo)函數(shù)的表示D、函數(shù)逼近算法的選擇【正確答案】:ABCD99.專家系統(tǒng)知識(shí)表示的方法主要有哪些?A、邏輯表示法(謂詞表示法)B、框架C、產(chǎn)生式D、語(yǔ)義網(wǎng)絡(luò)【正確答案】:ABCD100.下列哪些技術(shù)已被用于文本分類()A、文本卷積B、注意力機(jī)制C、GRUD、BiLSTM【正確答案】:ABCD解析:

見算法解析101.以下哪種方法是用來解決過擬合問題的?A、減少模型復(fù)雜度B、增加正則化項(xiàng)C、L1范數(shù)或L2范數(shù)D、使用特征選擇算法E、使用線性模型擬合二次曲線數(shù)據(jù)【正確答案】:ABCD102.一個(gè)好的學(xué)習(xí)訓(xùn)練模型應(yīng)該是()。A、模型應(yīng)該簡(jiǎn)單(防止過擬合);B、在訓(xùn)練時(shí)最小化錯(cuò)誤率(提高在訓(xùn)練集上的準(zhǔn)確率)C、可以利用已知的數(shù)據(jù)特性,例如稀疏、低秩等D、將模型函數(shù)正則化【正確答案】:ABCD解析:

見算法解析103.智能控制的開發(fā),目前認(rèn)為有以下途徑()

A、基于數(shù)據(jù)挖掘的專家智能控制B、基于遺傳算法的軟計(jì)算控制C、基于人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)控制D、以上說法都不對(duì)【正確答案】:AC解析:

基礎(chǔ)概念104.Transformer由且僅由()和()組成。只要計(jì)算資源夠,可以通過堆疊多層Transformer來搭建復(fù)雜網(wǎng)絡(luò)。A、Self-AttenionB、FeedForwardNeuralNetworkC、FeedBackwardNeuralNetworkD、Self-Action【正確答案】:AB解析:

見算法解析105.R包提供了()等數(shù)據(jù)分析中常用的算法。A、設(shè)計(jì)線性回歸B、神經(jīng)網(wǎng)絡(luò)C、聚類分析D、矩陣計(jì)算【正確答案】:ABCD106.決策樹分為兩大類()。A、回歸樹B、分類樹C、交叉樹D、森林【正確答案】:AB解析:

見算法解析107.python語(yǔ)言中用來管理程序執(zhí)行期間發(fā)生的錯(cuò)誤的對(duì)象是異常對(duì)象,可用()代碼塊處理。A、try-except-ifB、try-exceptC、try-except-if-elseD、try-except-else【正確答案】:BD解析:

見函數(shù)庫(kù)108.在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10w條數(shù)據(jù),負(fù)樣本只有1w條數(shù)據(jù),以下最合適的處理方法是A、將負(fù)樣本重復(fù)10次,生成10w樣本量,打亂順序參與分類&B、&直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)&C、&從10w正樣本中隨機(jī)抽取1w參與分類&D、&將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程【正確答案】:ACD解析:

基礎(chǔ)概念109.在數(shù)據(jù)清理中,下面哪個(gè)屬于處理缺失值的方法?A、估算B、整例刪除C、變量刪除D、成對(duì)刪除【正確答案】:ABCD110.UNIX中能實(shí)現(xiàn)從一臺(tái)服務(wù)器遠(yuǎn)程登錄至另一臺(tái)服務(wù)器的命令有()。A、sshB、ifconfigC、rshD、diff【正確答案】:AC111.我國(guó)人工智能基礎(chǔ)層產(chǎn)業(yè)發(fā)展至今,已在智能芯片設(shè)計(jì)領(lǐng)域取得一定成就,其產(chǎn)品主要聚焦()工具等應(yīng)用場(chǎng)景A、智能手機(jī)B、安防監(jiān)控C、智能運(yùn)載工具D、以上都不正確【正確答案】:ABC解析:

基礎(chǔ)概念112.關(guān)于信息熵,下列說法正確的是。A、變量的不確定性越大,熵也就越大B、一個(gè)系統(tǒng)越是有序,信息熵就越高C、信息熵也可以說是系統(tǒng)有序化程度的一個(gè)度量D、信息熵是對(duì)信息源整體不確定性的度量【正確答案】:ACD解析:

信息熵,描述信息源各可能事件發(fā)生的不確定性.來源于熱力學(xué)第二定律,一個(gè)系統(tǒng)越是有序,信息熵就越低;反之,一個(gè)系統(tǒng)越是混亂,信息熵就越高。所以,信息熵也可以說是系統(tǒng)有序化程度的一個(gè)度量。答案ACD113.關(guān)于樸素貝葉斯分類器說法正確的是()。A、樸素貝葉斯分類器假設(shè)每個(gè)屬性獨(dú)立地對(duì)分類結(jié)果發(fā)生影響B(tài)、面對(duì)孤立的噪聲點(diǎn),樸素貝葉斯分類器是健壯的C、面對(duì)無關(guān)屬性,樸素貝葉斯分類器是健壯的D、相關(guān)屬性可能會(huì)降低樸素貝葉斯分類器的性能【正確答案】:ABCD解析:

見算法解析114.以下選項(xiàng)中是Python語(yǔ)言的保留字的是A、exceptB、doC、passD、while【正確答案】:ACD115.神經(jīng)元分為三種不同類型的層次:A、輸入層B、隱藏層C、傳輸層D、輸出層【正確答案】:ABD解析:

見算法解析116.2021年人工智能技術(shù)趨勢(shì)有()。A、深度學(xué)習(xí)理論迎來整合與突破B、機(jī)器學(xué)習(xí)向集中式隱私保護(hù)方向演進(jìn)C、類腦計(jì)算系統(tǒng)從“專用”向“通用”逐步演進(jìn)D、基于因果學(xué)習(xí)的信息檢索模型與系統(tǒng)成為重要發(fā)展方向【正確答案】:ACD解析:

主要應(yīng)用117.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問題的算法有A、線性回歸B、邏輯回歸C、支持向量機(jī)D、隨機(jī)森林【正確答案】:BCD解析:

線性回歸無法解決分類問題118.聚類算法常見的性能評(píng)估指標(biāo)有哪些?AdjustRandIndex衡量?jī)蓚€(gè)序列相似性的算法。B、齊次性和完整性C、輪廓系數(shù)【正確答案】:ABC119.如何使featuremap尺寸變大?A、un-samplingB、Transpose-convC、un-poolingD、conv【正確答案】:ABC解析:

見算法解析120.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC121.一個(gè)典型人臉識(shí)別系統(tǒng)的識(shí)別流程包括哪些()。A、人臉檢測(cè)B、人臉對(duì)齊C、人臉特征提取D、人臉特征比對(duì)【正確答案】:ABCD解析:

見算法解析122.下面的Python開發(fā)包中,屬于深度學(xué)習(xí)框架的有()A、flaskB、TensorflowC、KerasD、Mxnet【正確答案】:BCD解析:

見算法解析123.()類型的數(shù)據(jù)集不適合用深度學(xué)習(xí)?A、數(shù)據(jù)集太小B、數(shù)據(jù)集有局部相關(guān)性C、數(shù)據(jù)集太大D、數(shù)據(jù)集沒有局部相關(guān)性【正確答案】:AD解析:

見算法解析124.選擇下列哪些方法可以用于表示表示智能體的狀態(tài)A、結(jié)構(gòu)式B、模塊式C、網(wǎng)絡(luò)式D、因子式【正確答案】:AD125.數(shù)據(jù)平臺(tái)可以幫助我們進(jìn)行()。A、數(shù)據(jù)集成B、數(shù)據(jù)管理C、數(shù)據(jù)治理D、數(shù)據(jù)可視化【正確答案】:ABCD解析:

主要應(yīng)用126.對(duì)故障及影響分析輔助決策系統(tǒng)的訴求有哪些?A、支撐多維度的數(shù)據(jù)分析方式B、基于知識(shí)之上的故障快速準(zhǔn)確研判恢復(fù)C、基于知識(shí)之上廣域的影響和風(fēng)險(xiǎn)分析D、持續(xù)的數(shù)據(jù)積累沉淀知識(shí)轉(zhuǎn)化價(jià)值【正確答案】:ABCD解析:

主要應(yīng)用127.以下表達(dá)式輸出結(jié)果中不包含重復(fù)元素的有A、{1,1,2,3}B、set([1,1,2,3])C、list({1,1,2,3})D、list((1,1,2,3))【正確答案】:ABC解析:

基礎(chǔ)概念128.下列陳述中哪些是描述強(qiáng)AI(通用AI)的正確答案?A、指的是一種機(jī)器,具有將智能應(yīng)用于任何問題的能力B、是經(jīng)過適當(dāng)編程的具有正確輸入和輸出的計(jì)算機(jī),因此有與人類同樣判斷力的頭腦C、指的是一種機(jī)器,僅針對(duì)一個(gè)具體問題D、其定義為無知覺的計(jì)算機(jī)智能,或?qū)W⒂谝粋€(gè)狹窄任務(wù)的AI【正確答案】:AB129.公司級(jí)人工智能平臺(tái)應(yīng)集成()、()、()、模型管理、模型驗(yàn)證、基礎(chǔ)模型服務(wù)及部分實(shí)時(shí)性要求不高的業(yè)務(wù)模型服務(wù)模塊A、語(yǔ)音識(shí)別B、數(shù)據(jù)訓(xùn)練C、推理計(jì)算D、樣本管理【正確答案】:BCD解析:

主要應(yīng)用130.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層【正確答案】:BCD131.下列關(guān)于LeNet的說法正確的是()A、使用卷積解決了全連接層的不足之處B、卷積和池化層組合使用,逐層級(jí)的提取圖像特征C、在網(wǎng)絡(luò)的最后使用全兩層連接作為輸出D、在網(wǎng)絡(luò)的最后使用全兩層連接作為輸入【正確答案】:ABC解析:

見算法解析132.目前的主流語(yǔ)音合成框架有:()A、GoogleNetB、WaveNetC、TacotronD、AlexNet【正確答案】:BC解析:

GoogleNe和AlexNet屬于計(jì)算機(jī)視覺模型133.決策樹的生成是一個(gè)遞歸過程.在決策樹基本算法中導(dǎo)致遞歸返回的情況包括()A、當(dāng)前屬性集為空,無法劃分B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無需劃分C、所有樣本在所有屬性上取值相同,無法劃分D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分【正確答案】:ABCD解析:

見算法解析134.哪些不能用來評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值與真實(shí)值之間的誤差大小A、優(yōu)化函數(shù)B、損失函數(shù)C、梯度下降D、反向傳播【正確答案】:ACD解析:

損失函數(shù)用來衡量神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值與真實(shí)值之間的誤差135.在機(jī)器學(xué)習(xí)中,建立假設(shè)或者模型的三個(gè)階段指的是()。A、建模B、模型測(cè)試C、模型應(yīng)用D、分析模型【正確答案】:ABC136.在Python中,執(zhí)行importdatetimeasdt語(yǔ)句后,如下時(shí)間或日期定義方式正確的是(____)。A、dt.datetime(2019,12,12,23,23,23)B、dt.datetime(2019,0,0,23,23,23))C、dt.datetime(2019,12,12,0)D、dt.time(23,23,23【正確答案】:ACD解析:

見函數(shù)庫(kù)137.A為n階方陣,且對(duì)任意n維向量x均滿足Ax=0,下列說法不正確的有()。A=0B、A=EC、r(A)=nD、0【正確答案】:BCD138.ROIpooling在哪些方法中被采用()A、RCNNB、fastRCNNC、fasterRCNND、maskRCNN【正確答案】:BC解析:

見算法解析139.新建數(shù)據(jù)庫(kù)至少包括()A、主要數(shù)據(jù)文件B、次要數(shù)據(jù)文件C、日志文件D、系統(tǒng)文件【正確答案】:AC140.通過繼承創(chuàng)建的新類稱為()。A、基類B、父類C、子類D、派生類【正確答案】:CD141.LibraRCNN從()幾個(gè)角度論證并增強(qiáng)了兩階段檢測(cè)模型A、FPN特征B、RPN結(jié)構(gòu)C、正負(fù)樣本采樣D、Loss【正確答案】:ACD解析:

見算法解析142.在Linux系統(tǒng)機(jī)器上安裝paddle可以使用()安裝方式。A、pipB、condaC、dockerD、源碼編譯【正確答案】:ABCD143.python導(dǎo)入模塊的方式正確的是A、importmoB、frommoimport*C、importmoasmD、importmfrommo【正確答案】:ABC144.可以有效解決過擬合的方法包括()A、增加樣本數(shù)量B、增加特征數(shù)量C、訓(xùn)練更多的迭代次數(shù)D、采用正則化方法【正確答案】:AD解析:

見算法解析145.廣義不確定性可分為()。A、粗糙性B、模糊性C、不完全性D、時(shí)變性【正確答案】:BC146.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD147.人工智能算法中,決策樹分類算法包括A、C4.5B、ID3C、SGDD、CART【正確答案】:ABD解析:

常見決策樹分類算法包括C4.5,ID3,CART。SGD隨機(jī)梯度下降算法屬于降維算法。148.以下關(guān)于張量說法正確的是。A、四階及以上的張量,如四維及以上的向量一樣沒有直接的幾何意義。B、數(shù)組是一個(gè)張量C、TensorFlow中的運(yùn)算與模型優(yōu)化過程都是基于張量完成的。D、一個(gè)矩陣是一個(gè)二階張量。【正確答案】:ABCD149.關(guān)于數(shù)據(jù)發(fā)掘,下列說法正確的是。A、數(shù)據(jù)挖掘的成功經(jīng)常依賴于數(shù)據(jù)挖掘工具的選擇B、雖然數(shù)據(jù)可視化具有很明顯的吸引力,高維數(shù)據(jù)上的圖形挖掘卻不能夠很輕易地完成C、主成分分析能在不明顯丟失信息的情況下降低數(shù)據(jù)維度D、數(shù)據(jù)挖掘就是從處理過后的數(shù)據(jù)中進(jìn)行知識(shí)提取【正確答案】:ABC解析:

數(shù)據(jù)挖掘是從大量的、不完全的、有噪聲的、模糊的、隨機(jī)的實(shí)際數(shù)據(jù)中,提取出蘊(yùn)涵在其中的,人們事先不知道的,但是具有潛在有用性的信息和知識(shí)的過程。并非是從處理后的數(shù)據(jù)提取知識(shí),D項(xiàng)錯(cuò)誤,其他選項(xiàng)正確,答案ABC150.張量是TensorFlow的核心數(shù)據(jù)單位,在本質(zhì)上是一個(gè)任意維的數(shù)組??捎玫膹埩款愋桶ǎǎ?。A、常數(shù)B、變量C、張量占位符D、稀疏張量【正確答案】:ABCD151.根據(jù)技術(shù)不同,智能傳感器可以分為()A、采集存儲(chǔ)型傳感器B、篩選型傳感器C、控制型傳感器D、集成式傳感器【正確答案】:ABC解析:

基礎(chǔ)概念152.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問題。A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)C、初始化權(quán)值和偏置D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來代替【正確答案】:ABCD解析:

見算法解析153.假設(shè)檢查的步驟()。A、提出假設(shè)B、設(shè)定檢驗(yàn)水準(zhǔn)C、選定統(tǒng)計(jì)方法D、確定檢驗(yàn)假設(shè)成立的可能性P大小并判斷【正確答案】:ABCD154.人工智能計(jì)算中心基于最新人工智能理論,是融合()的綜合平臺(tái)。A、公共算力服務(wù)B、數(shù)據(jù)開放共享C、智能生態(tài)建設(shè)D、產(chǎn)業(yè)創(chuàng)新聚集【正確答案】:ABCD解析:

主要應(yīng)用155.帶有記憶處理的神經(jīng)元有()A、LSTMB、GRUCNND、ResNet【正確答案】:AB156.在21世紀(jì)要建設(shè)人工智能大國(guó),需要具備哪幾個(gè)條件?A、大量的數(shù)據(jù)&B、&執(zhí)著的企業(yè)家&C、&優(yōu)秀的人工智能科學(xué)家&D、&有利的政策環(huán)境?!菊_答案】:ABCD157.下列模型屬于機(jī)器學(xué)習(xí)生成式模型的是()A、樸素貝葉斯B、隱馬爾科夫模型C、線性回歸模型D、深度信念網(wǎng)絡(luò)【正確答案】:ABD158.下列屬于語(yǔ)音識(shí)別主要步驟的有:()。A、語(yǔ)音輸入B、音頻信號(hào)特征提取C、聲學(xué)模型處理D、語(yǔ)言模型處理E、語(yǔ)義識(shí)別【正確答案】:ABCD解析:

語(yǔ)音識(shí)別不涉及對(duì)語(yǔ)音內(nèi)容的理解。159.給出以下代碼:TempStr='HelloWorld',可以輸出"World"子串的是A、TempStr[-5:]B、TempStr[-5:-1]C、TempStr[6:]D、TempStr[-4:-1]【正確答案】:AC解析:

字符串切片的基本用法160.下列有關(guān)數(shù)據(jù)歸一化操作的說法,正確的有:A、歸一化的目的是將數(shù)據(jù)限制在一定范圍B、歸一化后可加快梯度下降求最優(yōu)解的速度C、邏輯回歸等模型先驗(yàn)假設(shè)數(shù)據(jù)服從正態(tài)分布【正確答案】:ABC161.選擇下列哪些屬于可以通過機(jī)器學(xué)習(xí)解決的任務(wù)?A、聚類B、分類C、描述D、派生【正確答案】:AB162.關(guān)于OLAP和OLTP的區(qū)別描述,正確的是?A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù).C、OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.D、OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶是相同的.【正確答案】:ABD163.關(guān)于對(duì)數(shù)幾率回歸,以下說法正確的是()A、對(duì)數(shù)幾率回歸是一種分類學(xué)習(xí)方法B、對(duì)數(shù)幾率回歸無需事先假設(shè)數(shù)據(jù)分布C、對(duì)數(shù)幾率回歸是可得到近似概率預(yù)測(cè)D、對(duì)數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)【正確答案】:ABCD解析:

見算法解析164.模型評(píng)估包括()。A、模型選擇B、驗(yàn)證集選擇C、驗(yàn)證環(huán)境選擇D、結(jié)果展示【正確答案】:ABCD解析:

主要應(yīng)用165.人工智能研究范疇廣泛而又異常復(fù)雜,其發(fā)展需要與()和社會(huì)科學(xué)等學(xué)科深度融合。A、計(jì)算機(jī)科學(xué)B、數(shù)學(xué)C、認(rèn)知科學(xué)D、神經(jīng)科學(xué)【正確答案】:ABCD解析:

人工智能是一門綜合性行交叉學(xué)科,包含計(jì)算機(jī)科學(xué)、數(shù)學(xué)、認(rèn)知科學(xué)、神經(jīng)科學(xué)等多種技術(shù)。答案ABCD166.問答系統(tǒng)由哪些流程組成()。A、預(yù)處理B、召回C、排序D、決策【正確答案】:ABCD167.數(shù)據(jù)統(tǒng)計(jì)方法中的推斷統(tǒng)計(jì)包括以下()。A、集中趨勢(shì)分析B、相關(guān)分析C、采樣分布D、參數(shù)估計(jì)E、假設(shè)檢驗(yàn)【正確答案】:DE168.ResNet的特點(diǎn)有_。A、減少深層網(wǎng)絡(luò)的梯度消失問題B、特種的重用C、模型參數(shù)明顯增加D、增強(qiáng)特征的獲取能力【正確答案】:ABD解析:

考察ResNet理解169.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層【正確答案】:BCD170.傳統(tǒng)目標(biāo)檢測(cè)提取特征的方式有()A、SIFTB、HOGC、SVMD、Adaboost【正確答案】:AB解析:

見算法解析171.邊緣計(jì)算的優(yōu)勢(shì)包括()。A、接近實(shí)時(shí)的數(shù)據(jù)處理速度;B、減少數(shù)據(jù)傳輸量,節(jié)省帶寬成本,同時(shí)還能減小核心網(wǎng)絡(luò)的擁堵;C、一些比較敏感的數(shù)據(jù)直接在邊緣進(jìn)行分析,不用當(dāng)心數(shù)據(jù)泄漏D、分擔(dān)了中心服務(wù)器的計(jì)算任務(wù),一定程度上消除了主要的瓶頸,并且降低了出現(xiàn)單點(diǎn)故障的可能?!菊_答案】:ABCD172.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC173.為了突破人工智能核心技術(shù)瓶頸,應(yīng)(),打造民族企業(yè)品牌A、加大政策支持力度B、加強(qiáng)專業(yè)人才培養(yǎng)C、推進(jìn)商業(yè)化應(yīng)用落地D、建設(shè)產(chǎn)業(yè)發(fā)展基地【正確答案】:ABCD解析:

主要應(yīng)用174.基因遺傳算法的組成部分包括()。A、初始化編碼B、適應(yīng)度函數(shù)C、選擇D、交叉和變異【正確答案】:ABCD175.哪些屬于生成式對(duì)抗網(wǎng)絡(luò)模塊A、生成模型B、對(duì)抗模型C、判別模型D、回歸模型【正確答案】:AC解析:

生成式對(duì)抗網(wǎng)絡(luò)模塊由生成模型和判別模型組成176.Python序列類型包括()。A、字符串B、整型C、列表D、元組【正確答案】:ACD177.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?AscendB、CANNC、ModelArtsD、MindSpore【正確答案】:ABCD178.以下屬于現(xiàn)有的文本情感分析的途徑的是。A、關(guān)鍵詞識(shí)別B、詞匯關(guān)聯(lián)C、統(tǒng)計(jì)方法D、概念級(jí)技術(shù)【正確答案】:ABCD解析:

見算法解析179.關(guān)于歸一化描述正確的是A、歸一化可以預(yù)防過擬合B、歸一化沒有實(shí)質(zhì)作用C、歸一化將所有數(shù)據(jù)樣本之縮放到0-1之間D、歸一化是一種激活函數(shù)【正確答案】:AC解析:

數(shù)據(jù)的標(biāo)準(zhǔn)化和歸一化:數(shù)據(jù)的標(biāo)準(zhǔn)化是將數(shù)據(jù)按比例縮放,使之落入一個(gè)小的特定區(qū)間。在某些比較和評(píng)價(jià)的指標(biāo)中經(jīng)常會(huì)用到,去除數(shù)據(jù)的單位限制,將其轉(zhuǎn)化為無量綱的數(shù)值,便于不同單位或量級(jí)的指標(biāo)能夠進(jìn)行比較和加權(quán)。其中最典型的就是數(shù)據(jù)歸一化處理,既將數(shù)據(jù)統(tǒng)一映射到[0,1]區(qū)間上180.matplotlib中,subplots_adjust方法中的()和()參數(shù)分別控制圖片的寬度和高度百分比,以用作子圖間的間距。A、wspaceB、hspaceC、vspaceD、lspace【正確答案】:AB解析:

見算法解析181.下列關(guān)于梯度的說法正確的是()。A、某點(diǎn)處的梯度方向就是該點(diǎn)處函數(shù)值增長(zhǎng)最快的方向B、標(biāo)量場(chǎng)的梯度也是標(biāo)量場(chǎng)C、某點(diǎn)處的梯度方向就是過該點(diǎn)的等值面的法向矢量D、某點(diǎn)處的梯度大小是指標(biāo)量函數(shù)u在該點(diǎn)處的最大變化率【正確答案】:ACD解析:

標(biāo)量場(chǎng)的梯度是矢量場(chǎng)182.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()A、隨機(jī)分布B、隨機(jī)傅里葉特征C、采樣D、低秩逼近【正確答案】:BCD解析:

見算法解析183.下列關(guān)于Ridge回歸,說法正確的是(多選)?A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無窮大【正確答案】:AC184.兩步聚類的兩個(gè)主要步驟為()。A、建模B、測(cè)試C、聚類D、預(yù)聚類【正確答案】:CD185.計(jì)算智能的主要研究領(lǐng)域包括()。A、神經(jīng)計(jì)算B、進(jìn)化計(jì)算C、模糊計(jì)算D、數(shù)字計(jì)算【正確答案】:ABC186.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說法正確的是?A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的【正確答案】:AC解析:

見算法解析187.關(guān)于Python內(nèi)存管理,下列說法正確的是A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、變量無須指定類型D、可以使用del釋放資源【正確答案】:ACD解析:

變量不先賦值會(huì)報(bào)錯(cuò),isnotdefined。188.大規(guī)模自監(jiān)督預(yù)訓(xùn)練方法目前存在()等局限性。A、需要大規(guī)模算力和海量數(shù)據(jù)資源支持B、需要研究人員對(duì)相關(guān)研究領(lǐng)域的數(shù)據(jù)有深刻理解C、大規(guī)模預(yù)訓(xùn)練模型存在隱私數(shù)據(jù)的提取問題D、大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型在深層次的語(yǔ)言理解方面存在差距【正確答案】:ABCD解析:

主要應(yīng)用189.以下說法錯(cuò)誤的是()A、python不區(qū)分大小寫B(tài)、set不是python數(shù)據(jù)類型C、tuple和list不可以定義為空D、python可以在Linux系統(tǒng)運(yùn)行【正確答案】:ABC解析:

見函數(shù)庫(kù)190.常用損失函數(shù):()、()。A、平方損失函數(shù)B、softmax函數(shù)C、max函數(shù)D、交叉熵?fù)p失函數(shù)【正確答案】:AD解析:

見算法解析191.在某神經(jīng)網(wǎng)絡(luò)的隱層輸出中,包含0.75,那么該神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)可能是()A、sigmoidB、tanhC、relu【正確答案】:ABC192.以下屬于優(yōu)化器的是AdamB、SGDC、MomentumD、lr【正確答案】:ABC解析:

lr為learningrate縮寫,不屬于優(yōu)化器193.以下算法中可以應(yīng)用于圖像分割的是____。A、邊緣檢測(cè)技術(shù)B、C、閾值分割技術(shù)D、E、基于區(qū)域的分割技術(shù)【正確答案】:ABCD解析:

見算法解析194.選擇如下哪些搜索方法屬于無信息搜索A、貪婪搜索B、A*搜索C、雙向搜索D、寬度優(yōu)先搜索【正確答案】:CD195.下列哪些是DataFrame的特點(diǎn)?A、表格型的數(shù)據(jù)結(jié)構(gòu),含有一組無序的列,每列可以是不同的值類型B、既有行索引,也有列索引,可被看做有Series組成的字典C、與其他類似的數(shù)據(jù)結(jié)構(gòu)相比(如R語(yǔ)言的datframe),DataFrame中面向行和面向列的操作基本上是平衡的D、數(shù)據(jù)一一個(gè)或多個(gè)二維塊存放,而不是列表、字典或別的一維數(shù)據(jù)結(jié)構(gòu)【正確答案】:BCD解析:

見函數(shù)庫(kù)196.下列屬于人工智能發(fā)展預(yù)測(cè)的()A、長(zhǎng)期來看專用型人工智能的發(fā)展將依賴于對(duì)人腦認(rèn)知機(jī)制的科學(xué)研究B、短期內(nèi)構(gòu)建大型的數(shù)據(jù)集將會(huì)是各企業(yè)與研究機(jī)構(gòu)發(fā)展的重要方向。C、在商業(yè)應(yīng)用方面,短期內(nèi),專用型人工智能將會(huì)在數(shù)據(jù)豐富的行業(yè)、應(yīng)用場(chǎng)景成熟的業(yè)務(wù)前端(如營(yíng)銷、服務(wù)等)取得廣泛的應(yīng)用。D、人工智能技術(shù)將能在邊際成本不遞增的情況下將個(gè)性化服務(wù)普及到更多的消費(fèi)者與企業(yè)?!菊_答案】:BCD197.以下哪項(xiàng)屬于決策樹分析的步驟()A、確定分析維度B、跑決策樹分析C、修剪決策樹D、收集數(shù)據(jù)【正確答案】:ABC198.人工智能應(yīng)用層集成了某種或多種人工智能應(yīng)用場(chǎng)景,可以面向()等不同領(lǐng)域的產(chǎn)品或方案A、醫(yī)療B、教育C、交通D、金融【正確答案】:ABCD解析:

基礎(chǔ)概念199.TensorF1ow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、device【正確答案】:BC200.人工智能中臺(tái)可支撐()和企業(yè)經(jīng)營(yíng)等電力業(yè)務(wù)。A、設(shè)備運(yùn)維B、電網(wǎng)調(diào)度C、客戶服務(wù)D、安全管控【正確答案】:ABCD解析:

主要應(yīng)用201.word2vec包含兩個(gè)經(jīng)典模型,()和()。A、CBOWBCOWC、Skip-gramD、Skip-cram【正確答案】:AC解析:

見算法解析202.在shell中,當(dāng)用戶準(zhǔn)備結(jié)束登錄對(duì)話進(jìn)程時(shí),可用哪些命令()。A、logoutB、exitC、ctrl+dD、shutdown【正確答案】:ABC203.數(shù)組很重要,因?yàn)樗梢允刮覀儾挥镁帉懀ǎ┘纯蓪?duì)數(shù)據(jù)執(zhí)行批量運(yùn)算,這通常叫做()。A、標(biāo)量化B、表達(dá)式C、循環(huán)D、矢量化【正確答案】:CD解析:

見函數(shù)庫(kù)204.下列對(duì)于python定義函數(shù)的描述正確的有A、函數(shù)代碼塊以def關(guān)鍵詞開頭,后接函數(shù)標(biāo)識(shí)符名稱和圓括號(hào)()B、任何傳入?yún)?shù)和自變量必須放在圓括號(hào)中間,在無參數(shù)和自變量時(shí)可省去圓括號(hào)C、函數(shù)的第一行語(yǔ)句可以選擇性地使用文檔字符串—用于存放函數(shù)說明D、函數(shù)內(nèi)容以冒號(hào)起始,并且縮進(jìn)。【正確答案】:ACD205.數(shù)據(jù)脫敏需要滿足以下()要求。A、單向性B、匿名處理C、無殘留D、易于實(shí)現(xiàn)【正確答案】:ACD206.關(guān)于有向圖模型,說法正確的時(shí)()A、有向圖又稱為貝葉斯網(wǎng)絡(luò)或者信念網(wǎng)絡(luò)B、網(wǎng)絡(luò)中的邊用有向箭頭表示子節(jié)點(diǎn)依賴于父節(jié)點(diǎn)C、變量之間的關(guān)系通過箭頭對(duì)變量進(jìn)行了某種“拓?fù)洹盌、在排序條件下,每個(gè)節(jié)點(diǎn)都只依賴和它直接相連的父節(jié)點(diǎn),而不依賴與所有的前輩節(jié)點(diǎn)【正確答案】:ABCD207.人工智能的三大學(xué)派是A、符號(hào)主義學(xué)派B、連接主義學(xué)派C、統(tǒng)計(jì)主義學(xué)派D、行為主義學(xué)派【正確答案】:ABD解析:

人工智能主要分三大學(xué)派,分別是符號(hào)主義學(xué)派、連接主義學(xué)派和行為主義學(xué)派208.下列關(guān)于DSSM經(jīng)典模型的結(jié)構(gòu)的說法不正確的是()A、線性B、雙塔C、三塔D、非線性【正確答案】:ACD解析:

見算法解析209.下列有關(guān)python自定義函數(shù)返回值的說法,錯(cuò)誤的是A、允許返回空值B、不允許返回空值C、允許有多個(gè)返回值D、只允許有一個(gè)返回值【正確答案】:BD解析:

python自定義函數(shù)允許沒有返回值、返回空值、一個(gè)或多個(gè)返回值210.高效能的人工智能系統(tǒng)需要問題領(lǐng)域的知識(shí),通??砂堰@些知識(shí)細(xì)分為以下幾種基本類別()A、陳述性知識(shí)是關(guān)于表示綜合數(shù)據(jù)庫(kù)的知識(shí)。B、過程性知識(shí)是關(guān)于表示規(guī)則部分的知識(shí)。C、控制知識(shí)是關(guān)于表示控制策略方面的知識(shí)。D、規(guī)則表達(dá)的可以是與待求解的問題有關(guān)的客觀規(guī)律方面的知識(shí),也可以是對(duì)求解問題有幫助的策略方面的知識(shí)?!菊_答案】:ABC211.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前層自身作為輸入()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、LSTM網(wǎng)絡(luò)D、多層感知機(jī)【正確答案】:AC解析:

LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種,循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是前一層的輸出和當(dāng)前層自身212.強(qiáng)化學(xué)習(xí)主要由智能體(Agent)以及()組成。A、環(huán)境(Environment)B、狀態(tài)(State)C、動(dòng)作(Action)D、獎(jiǎng)勵(lì)(Reward)【正確答案】:ABCD解析:

見算法解析213.關(guān)于K均值和DBSCAN的比較,以下說法正確的是()。A、K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇【正確答案】:BCD214.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說法正確的是A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的【正確答案】:AC解析:

如果極大似然函數(shù)L(θ)在極大值處不連續(xù),一階導(dǎo)數(shù)不存在,則MLE不存在;L(θ)極大值不唯一,MLE并不唯一,例如極大值對(duì)應(yīng)兩個(gè)θ。215.對(duì)人工智能的發(fā)展趨勢(shì)劃分,一般可分為()。A、強(qiáng)人工智能B、泛人工智能C、弱人工智能D、超人工智能【正確答案】:ACD解析:

基礎(chǔ)概念理解216.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述正確的是A、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B、使用global保留字聲明簡(jiǎn)單數(shù)據(jù)類型變量后,該變量作為全局變量使用C、簡(jiǎn)單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進(jìn),在程序執(zhí)行全過程有效【正確答案】:BCD217.Relu激活函數(shù)的優(yōu)點(diǎn)?A、解決了梯度消失、爆炸的問題B、輸出不是以0為中心C、計(jì)算方便,計(jì)算速度快,求導(dǎo)方便D、加速網(wǎng)絡(luò)訓(xùn)練【正確答案】:ACD解析:

見算法解析218.符合強(qiáng)人工智能的描述是()。A、僅在某個(gè)特定的領(lǐng)域超越人類的水平B、可以勝任人類的所有工作C、是通用的人工智能D、在科學(xué)創(chuàng)造力、智慧等方面都遠(yuǎn)勝于人類【正確答案】:BC219.下列表達(dá)式的值為True的是()A、5+5j>2-3jB、3>2>2C、(3,2)>(2,4)D、'abc'>'ab0'【正確答案】:CD解析:

見函數(shù)庫(kù)220.計(jì)算機(jī)內(nèi)部總線分為()A、數(shù)據(jù)總線B、地址總線C、網(wǎng)絡(luò)總線D、控制總線【正確答案】:ABD221.數(shù)據(jù)質(zhì)量基本屬性是()A、一致性B、完整性C、可讀性D、正確性【正確答案】:ABD222.下列哪些模型可以E2E訓(xùn)練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN【正確答案】:ABD解析:

見算法解析223.下列屬于創(chuàng)建虛擬機(jī)必的要步驟操作是()。A、選擇虛擬機(jī)內(nèi)存B、制定虛擬機(jī)使用網(wǎng)絡(luò)C、選擇CPU個(gè)數(shù)D、選擇聲卡【正確答案】:ABC224.自然語(yǔ)言處理的應(yīng)用產(chǎn)品主要涉及以下()A、語(yǔ)音識(shí)別B、語(yǔ)音合成C、語(yǔ)義理解D、機(jī)器翻譯【正確答案】:ABCD225.下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()A、代碼編寫較為簡(jiǎn)潔和方便B、計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤C、無法使用pdb或print語(yǔ)句調(diào)試執(zhí)行D、控制流與Python不同,造成一定的學(xué)習(xí)門檻【正確答案】:BCD解析:

見算法解析226.MXNet框架算法模型源文件宜包括()。A、params文件B、prototxt文件C、data文件D、json文件【正確答案】:AD解析:

主要應(yīng)用227.關(guān)于缺失值處理,說法正確的是()A、數(shù)據(jù)缺失是指在數(shù)據(jù)采集傳輸和處理過程中,由于某些原因?qū)е碌臄?shù)據(jù)不完整的情況。B、數(shù)據(jù)采集過程不會(huì)造成數(shù)據(jù)缺失C、缺失值的存在不會(huì)給數(shù)據(jù)統(tǒng)計(jì)帶來問題D、缺失數(shù)據(jù)值的數(shù)據(jù)可采用刪除法來解決【正確答案】:AD228.分類問題的評(píng)估方法包括A、正確率B、精確率C、召回率D、均方誤差【正確答案】:ABC229.人工智能所涉及的學(xué)科有A、計(jì)算機(jī)科學(xué)B、心理學(xué)C、哲學(xué)D、數(shù)學(xué)【正確答案】:ABCD解析:

人工智能所涉及的學(xué)科有哲學(xué)和認(rèn)知科學(xué),數(shù)學(xué),神經(jīng)生理學(xué),心理學(xué),計(jì)算機(jī)科學(xué)等230.區(qū)間估計(jì)有兩個(gè)重要指標(biāo),分別為()。A、置信區(qū)間B、置信水平C、置信概率D、臨界值【正確答案】:AB231.《新一代人工智能發(fā)展規(guī)劃》指出,要構(gòu)建泛在安全高效的智能化基礎(chǔ)設(shè)施體系,具體包括()。A、網(wǎng)絡(luò)基礎(chǔ)設(shè)施B、大數(shù)據(jù)基礎(chǔ)設(shè)施C、高效能計(jì)算基礎(chǔ)設(shè)施D、數(shù)據(jù)存儲(chǔ)基礎(chǔ)設(shè)施【正確答案】:ABC232.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD解析:

SVM常用的核函數(shù)包括:線性核函數(shù)、多項(xiàng)式核函數(shù)、高斯核函數(shù)、Sigmiod核函數(shù)233.人工智能平臺(tái)技術(shù)架構(gòu)要求主要包括:()的要求。A、應(yīng)用層B、服務(wù)層C、能力層D、資源層【正確答案】:ABCD解析:

主要應(yīng)用234.處理數(shù)據(jù)的五個(gè)環(huán)節(jié)分別是:1.()2.()3.()4.()5.校驗(yàn)數(shù)據(jù)有效性A、讀入數(shù)據(jù)B、拆分樣本集合C、訓(xùn)練樣本集亂序D、生成批次數(shù)據(jù)【正確答案】:ABCD解析:

見算法解析235.人工智能研究的主要因素有()。A、計(jì)算能力B、算法C、數(shù)據(jù)D、天氣【正確答案】:ABC236.數(shù)字圖像中有哪些基本特征()A、顏色特征B、紋理特征C、形狀特征D、空間關(guān)系特征【正確答案】:ABCD解析:

見算法解析237.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC解析:

正則化和優(yōu)化策略是深度學(xué)習(xí)的兩個(gè)重要部分,L1、L2正則化和Dropout屬于正則化,而動(dòng)量?jī)?yōu)化屬于優(yōu)化策略。238.元宇宙的三大特征是A、與現(xiàn)實(shí)世界平行B、反作用于現(xiàn)實(shí)世界C、真實(shí)感與現(xiàn)實(shí)映射D、多種高技術(shù)綜合【正確答案】:ABD解析:

與現(xiàn)實(shí)世界平行、反作用于現(xiàn)實(shí)世界、多種高技術(shù)綜合,是未來元宇宙的三大特征239.關(guān)于謂詞邏輯,下列描述正確的是()A、緊接于量詞之后被量詞作用的謂詞公式稱為該量詞的轄域B、在一個(gè)量詞的轄域中與該量詞的指導(dǎo)變?cè)嗤淖冊(cè)Q為約束變?cè)狢、僅個(gè)體變?cè)涣炕闹^詞成為一階謂詞D、個(gè)體變?cè)?、函?shù)符號(hào)和謂詞符號(hào)都被量化的謂詞成為二階謂詞【正確答案】:ABCD240.數(shù)據(jù)結(jié)構(gòu)主要分為()等幾種形式。A、非線性結(jié)構(gòu)B、環(huán)狀結(jié)構(gòu)C、線性結(jié)構(gòu)D、條狀結(jié)構(gòu)【正確答案】:AC241.以下代碼會(huì)造成索引越界的是?A、[‘a(chǎn)bc’,123][2]B、[‘a(chǎn)bc’,123][0][3]C、(1,2,3,‘a(chǎn)bc’)[3][3]D、{1:‘123’,2:123}[1][3]【正確答案】:ABCD解析:

見函數(shù)庫(kù)242.Python中聲明一個(gè)列表,names=['jack','tom','tonney','superman','jay'],想要打印最后一個(gè)元素,可以用()。A、print(names[-1])B、print(names[0])C、print(names[len(names)])D、print(names[len(names)-1])【正確答案】:AD解析:

見函數(shù)庫(kù)243.線性回歸的基本假設(shè)包括哪個(gè)A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差C、隨機(jī)誤差項(xiàng)彼此相關(guān)D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立【正確答案】:ABD解析:

對(duì)于隨機(jī)誤差項(xiàng),要求服從正態(tài)分布,不要求彼此相關(guān)244.以下哪幾項(xiàng)是數(shù)據(jù)科學(xué)的重要活動(dòng)()A、數(shù)據(jù)加工B、數(shù)據(jù)審計(jì)C、數(shù)據(jù)分析D、數(shù)據(jù)呈現(xiàn)【正確答案】:ABCD245.人工智能主要分為()A、計(jì)算智能B、感知智能C、認(rèn)知智能D、以上都不正確【正確答案】:ABC解析:

基礎(chǔ)概念246.關(guān)于隨機(jī)森林說法正確的是()A、與Adaboost相比,隨機(jī)森林采用一個(gè)固定的概率分布來產(chǎn)生隨機(jī)向量B、隨著個(gè)體學(xué)習(xí)器數(shù)目的增加,隨機(jī)森林通常會(huì)收斂到更低的泛化誤差C、與Adaboost相比,隨機(jī)森林魯棒性更好D、隨機(jī)森林的訓(xùn)練效率往往低于Bagging【正確答案】:ABC解析:

見算法解析247.以下哪種評(píng)估方法受隨機(jī)樣本的影響?A、留一法B、交叉驗(yàn)證法C、流出法D、自助法【正確答案】:BCD248.下列關(guān)于Ridge回歸的說法,正確的是()。A、若λ=0,則等價(jià)于一般的線性回歸B、若λ=0,則不等價(jià)于一般的線性回歸C、若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D、若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無窮大【正確答案】:AC解析:

嶺回歸是一種專用于共線性數(shù)據(jù)分析的有偏估計(jì)回歸方法,實(shí)質(zhì)上是一種改良的最小二乘估計(jì)法,通過放棄最小二乘法的無偏性,以損失部分信息、降低精度為代價(jià)獲得回歸系數(shù)更為符合實(shí)際、更可靠的回歸方法,對(duì)病態(tài)數(shù)據(jù)的擬合要強(qiáng)于最小二乘法。249.服務(wù)層應(yīng)包括:()等基礎(chǔ)服務(wù),以及變壓器滲漏油識(shí)別等專用服務(wù)。A、計(jì)算機(jī)視覺B、自然語(yǔ)言處理C、智能語(yǔ)音D、知識(shí)圖譜【正確答案】:ABCD解析:

主要應(yīng)用250.常見的聚類算法有()。A、分層(Hierarchical)聚類B、兩步(TwoStep)聚類C、KohonennetworkD、KNN算法E、K平均值(K-means)算法【正確答案】:ABCE251.以下選項(xiàng)中是Python保留字的選項(xiàng)是A、delB、passC、notD、string【正確答案】:ABC解析:

string是字符串類型252.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了【正確答案】:ABCD253.常用的盲目搜索方法是什么?A、隨機(jī)碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索【正確答案】:AD254.新的算力架構(gòu)也在不斷研究中,()等備受關(guān)注。A、類腦芯片B、數(shù)字孿生C、存內(nèi)計(jì)算D、量子計(jì)算【正確答案】:ACD解析:

新的算力架構(gòu)也在不斷研究中,類腦芯片、存內(nèi)計(jì)算、量子計(jì)算等備受關(guān)注。255.云計(jì)算根據(jù)提供服務(wù)的層次可分為()。A、IaaSB、PaaSC、SaaSDaaS【正確答案】:ABC256.假設(shè)你有一個(gè)非常大的訓(xùn)練集合,如下機(jī)器學(xué)習(xí)算法中,你覺著有哪些是能夠使用map-reduce框架并能將訓(xùn)練集劃分到多臺(tái)機(jī)器上進(jìn)行并行訓(xùn)練?A、邏輯斯特回歸(LR),以及隨機(jī)梯度下降(SGD)B、線性回歸及批量梯度下降(BGD)C、神經(jīng)網(wǎng)絡(luò)及批量梯度下降(BGD)D、針對(duì)單條樣本進(jìn)行訓(xùn)練的在線學(xué)習(xí)【正確答案】:BC257.人工神經(jīng)網(wǎng)絡(luò)特點(diǎn)和優(yōu)越性主要表現(xiàn)在()。A、自學(xué)習(xí)功能B、自動(dòng)識(shí)別功能C、高速尋找優(yōu)化解的能力D、聯(lián)想存儲(chǔ)功能【正確答案】:ACD解析:

人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)和優(yōu)越性,主要表現(xiàn)在三個(gè)方面:

第一,具有自學(xué)習(xí)功能。例如實(shí)現(xiàn)圖像識(shí)別時(shí),只在先把許多不同的圖像樣板和對(duì)應(yīng)的應(yīng)識(shí)別的結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)就會(huì)通過自學(xué)習(xí)功能,慢慢學(xué)會(huì)識(shí)別類似的圖像。自學(xué)習(xí)功能對(duì)于預(yù)測(cè)有特別重要的意義。預(yù)期未來的人工神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)將為人類提供經(jīng)濟(jì)預(yù)測(cè)、市場(chǎng)預(yù)測(cè)、效益預(yù)測(cè),其應(yīng)用前途是很遠(yuǎn)大的。第二,具有聯(lián)想存儲(chǔ)功能。用人工神經(jīng)網(wǎng)絡(luò)的反饋網(wǎng)絡(luò)就可以實(shí)現(xiàn)這種聯(lián)想。第三,具有高速尋找優(yōu)化解的能力。尋找一個(gè)復(fù)雜問題的優(yōu)化解,往往需要很大的計(jì)算量,利用一個(gè)針對(duì)某問題而設(shè)計(jì)的反饋型人工神經(jīng)網(wǎng)絡(luò),發(fā)揮計(jì)算機(jī)的高速運(yùn)算能力,可能很快找到優(yōu)化解。選ACD258.有哪些因素推動(dòng)了大數(shù)據(jù)的出現(xiàn)?A、社交媒體B、數(shù)據(jù)挖掘C、普適計(jì)算D、摩爾定律【正確答案】:ABCD259.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC260.我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬個(gè),特征維度是5000,面對(duì)如此大數(shù)據(jù),有效地訓(xùn)練模型可以采取的措施是()。A、對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B、嘗試使用在線機(jī)器學(xué)習(xí)算法C、使用PCA算法減少特征維度【正確答案】:ABC解析:

基礎(chǔ)概念理解261.下列哪些是卷積操作的優(yōu)點(diǎn)?()A、具有局部感受野B、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享C、可有效捕捉序列化數(shù)據(jù)的特征D、操作復(fù)雜度與輸入尺寸無關(guān)【正確答案】:AB解析:

見算法解析262.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。A、VGGNetB、ResNetC、AlexNetD、GoogleNet【正確答案】:ABCD263.當(dāng)我們?cè)诜治鲆环輸?shù)據(jù)的時(shí)候,如果發(fā)現(xiàn)這份數(shù)據(jù)的特征變量很多,成千上萬,如果直接基于所有的特征變量進(jìn)行分析,會(huì)浪費(fèi)過多的時(shí)間成本及計(jì)算資源,為了應(yīng)對(duì)這種情況,我們可以采用降維的方式對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,如下技術(shù)中,哪些屬于降維技術(shù)()A、主成分分析B、因子分析C、獨(dú)立主成分分析D、SVM【正確答案】:ABC264.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉熵誤差損失函數(shù)D、自下降損失函數(shù)【正確答案】:BC265.以下哪些機(jī)器學(xué)習(xí)算法可以不對(duì)特征做歸一化處理:()A、隨機(jī)森林B、邏輯回歸C、SVMD、GBDT【正確答案】:AD266.圍繞電力企業(yè)審計(jì)典型業(yè)務(wù)場(chǎng)景,基于自然語(yǔ)言處理技術(shù),實(shí)現(xiàn)對(duì)各類審計(jì)依據(jù)、審計(jì)對(duì)象、審計(jì)結(jié)果中()的自動(dòng)化抽取,建立信息關(guān)聯(lián)關(guān)系,提升審計(jì)過程中的信息獲取、比對(duì)及統(tǒng)計(jì)效率。A、關(guān)鍵結(jié)構(gòu)B、信息字段C、標(biāo)簽【正確答案】:ABC267.Embedding編碼有哪些特點(diǎn)?A、特征稠密B、特征稀疏C、能夠表征詞與詞之間的相互關(guān)系(相似度計(jì)算)D、泛化性更好,支持語(yǔ)義運(yùn)算sim【正確答案】:ACD解析:

見算法解析268.哪些項(xiàng)屬于集成學(xué)習(xí)?A、KnnB、AdaboostC、隨機(jī)森林D、XGBoost【正確答案】:BCD269.Matplotlib庫(kù)中pyplot的基礎(chǔ)圖標(biāo)函數(shù)包括()。A、plt.bar(left,height,width,bottom)B、plt.barh(width,bottom,left,height)C、plt.cohere(x,y,NFFT=256

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論