2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題庫(kù)-下(多選、判斷題)_第1頁(yè)
2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題庫(kù)-下(多選、判斷題)_第2頁(yè)
2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題庫(kù)-下(多選、判斷題)_第3頁(yè)
2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題庫(kù)-下(多選、判斷題)_第4頁(yè)
2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題庫(kù)-下(多選、判斷題)_第5頁(yè)
已閱讀5頁(yè),還剩129頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題

庫(kù)-下(多選'判斷題匯總)

多選題

1.RNN在NLP領(lǐng)域的應(yīng)用包括(_)o

A、語(yǔ)言模型與文本生成

B、機(jī)器翻譯

C、語(yǔ)音識(shí)別

D、圖像描述生成

答案:ABCD

解析:語(yǔ)言模型與文本生成;機(jī)器翻譯;語(yǔ)音識(shí)別;圖像描述生成;情感分析;對(duì)話

系統(tǒng)等。

2.3D點(diǎn)云常見的任務(wù)有()。

A、3D物體識(shí)別

B、3D物體重建

G3D物體跟蹤

D、3D紋理貼圖

答案:AC

3.Analytics3.0的主要特點(diǎn)有().

A、引入嵌入式分析。

B、重視行業(yè)數(shù)據(jù),而不只是企業(yè)內(nèi)部數(shù)據(jù)。

C、以產(chǎn)品與服務(wù)的優(yōu)化為主要目的。

D、注重規(guī)范性分析。

答案:ABCD

4.下面對(duì)WEB描述正確的是()

A、WEB即全球廣域網(wǎng)

B、WEB即萬維網(wǎng)

C、WEB采用HTTP通訊協(xié)議

D、WEB采用HTTPS通訊協(xié)議

答案:ABCD

5.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()

A、翻譯語(yǔ)言

B、語(yǔ)音識(shí)別

C、圖像識(shí)別

D、股票預(yù)測(cè)

答案:ABD

解析:C:CNN應(yīng)用于圖像識(shí)別。

6.下面對(duì)數(shù)據(jù)集劃分表達(dá)正確的是()

A、測(cè)試集,訓(xùn)練集,驗(yàn)證集必須來源于同一個(gè)數(shù)據(jù)集

B、測(cè)試集,訓(xùn)練集,驗(yàn)證集可以來源于不同數(shù)據(jù)集

C、模型開發(fā)過程中,可以沒有驗(yàn)證集,但測(cè)試集和訓(xùn)練集必須有

D、模型開發(fā)過程中,可以沒有測(cè)試集,但驗(yàn)證集和訓(xùn)練集必須有

答案:AC

7.下列哪些概念是屬于強(qiáng)化學(xué)習(xí)的。()

A、動(dòng)作

B、環(huán)境和觀察狀態(tài)

C、智能體

D、獎(jiǎng)勵(lì)

答案:ABCD

8.人工智能產(chǎn)品采用B/S架構(gòu),B/S架構(gòu)優(yōu)點(diǎn)是()。

A、只需要在服務(wù)端對(duì)模型進(jìn)行升級(jí)

B、用戶不用為每個(gè)AI應(yīng)用單獨(dú)安裝客戶端軟件

C、數(shù)據(jù)、計(jì)算都在云端,更安全

D、模型計(jì)算在客戶端計(jì)算機(jī)上

答案:ABC

9.下列關(guān)于錯(cuò)誤率和精度描述有誤的是(_)。

A、錯(cuò)誤率是分類錯(cuò)誤的樣本占樣本總數(shù)的比例

B、精度是指分類正確的樣本數(shù)占樣本總數(shù)的比例

C、精度表示統(tǒng)計(jì)分類器預(yù)測(cè)出來的結(jié)果與真實(shí)結(jié)果不相同的個(gè)數(shù),然后除以總

的樣例集D的個(gè)數(shù)

D、錯(cuò)誤率表示用統(tǒng)計(jì)分類正確的樣本數(shù),除以總的樣例集D的個(gè)數(shù)

答案:CD

10.以下那些方法不常用于灰度內(nèi)插值。()

A、最近鄰內(nèi)插法

B、三次內(nèi)插法

C、雙線性內(nèi)插值法

D、三次樣條插值法

答案:ABD

11.下列關(guān)于L1正則化與L2正則化描述正確的是(_)。

A、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)

B、L2范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)

C、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解

D、L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解

答案:ABC

12.某廠商開發(fā)了一個(gè)聽歌識(shí)曲的應(yīng)用,該應(yīng)用使用了下列哪些技術(shù)()

A、聲紋識(shí)別

B、聲音特征提取

C、聲音特征比對(duì)

D、文本轉(zhuǎn)語(yǔ)音

答案:BC

13.數(shù)據(jù)能力的評(píng)價(jià)方法有哪些

A、評(píng)價(jià)結(jié)果

B、評(píng)價(jià)方法

C、評(píng)價(jià)過程

D、評(píng)價(jià)產(chǎn)品

答案:AC

14.下列()模型是強(qiáng)化學(xué)習(xí)模型

A、DQN

B、AC

C、YOLO

D、UNET

答案:AB

15.市面上哪些產(chǎn)品使用了語(yǔ)音合成技術(shù)。()

A、小米的小愛機(jī)器人

B、喜馬拉雅APP小說智能閱讀

C、微信的語(yǔ)音轉(zhuǎn)寫

D、抖音短視頻AI配音

答案:ABD

16.POC曲線由()和()構(gòu)成。

A、查準(zhǔn)率

B、命中率

C、虛警率

D、準(zhǔn)確率

答案:BC

17.下列關(guān)于密度聚類說法錯(cuò)誤的是(_)。

A、DBSCAN是一種著名的密度聚類算法

B、密度聚類從樣本數(shù)量的角度來考察樣本之間的可連接性

C、密度聚類基于不可連接樣本不斷擴(kuò)展聚類簇易獲得最終的聚類結(jié)果

D、密度直達(dá)關(guān)系通常滿足對(duì)稱性

答案:BCD

18.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。

A、可用于處理時(shí)間序列數(shù)據(jù)

B、可用于處理圖像數(shù)據(jù)

C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算

D、至少在網(wǎng)絡(luò)的一層中使用卷積

答案:ABD

解析:神經(jīng)網(wǎng)絡(luò)中的卷積:我們通常是指由多個(gè)并行卷積組成的運(yùn)算。(因?yàn)閱?/p>

個(gè)核只能特區(qū)一種類型的特征,我們usually希望可以在多個(gè)位置提取多個(gè)特征)

輸入也不僅僅是實(shí)值的網(wǎng)格,而是由一系列觀測(cè)數(shù)據(jù)的向量構(gòu)成的網(wǎng)格。我們有

的時(shí)候會(huì)希望跳出核中的一些位置來降低計(jì)算的開銷(相應(yīng)的代價(jià)是提取特征沒

有先前那么好了)我們就把這個(gè)過程看作對(duì)全卷積函數(shù)輸出的下采樣(downslin

g)■如果只是在輸出的每個(gè)方向上每間隔s個(gè)像素進(jìn)行采樣,那么可重新定義一

個(gè)下采樣卷積函數(shù)。我們把s稱為下采樣卷積的步幅(stride)。在任何卷積網(wǎng)

絡(luò)的實(shí)現(xiàn)中都有一個(gè)重要性質(zhì):能夠隱含地對(duì)輸入V用零進(jìn)行填充(pad)使得

它加寬。數(shù)學(xué)中的卷積:考慮到函數(shù)千和g應(yīng)該地位平等,或者說變量x和y

應(yīng)該地位平等,一種可取的辦法就是沿直線x+y=t卷起來。

19.下面關(guān)于L1范式正則化描述正確的是(_)。

A、壓縮感知問題可以通過L1范數(shù)最小化問題求解

B、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)

C、采用L1范數(shù)時(shí)平方誤差項(xiàng)等值線與正則化項(xiàng)等值線的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上

D、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解

答案:ABCD

20.實(shí)踐教學(xué)的四個(gè)圍繞包括()

A、圍繞“基礎(chǔ)”

B、圍繞“產(chǎn)品過程”

C、圍繞“技能”

D、圍繞“熟練”

答案:ABCD

21.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心

是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于(__)、(_)、

(_)規(guī)則。

A、邏輯關(guān)聯(lián)

B、布爾關(guān)聯(lián)

C、單維

D、單層

答案:BCD

22.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()

A、語(yǔ)音識(shí)別

B、語(yǔ)音建模

C、機(jī)器翻譯

D、圖像識(shí)別

答案:ABC

23.大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象有(一)。

A、價(jià)值涌現(xiàn)

B、質(zhì)量涌現(xiàn)

C、隱私涌現(xiàn)

D、數(shù)量涌現(xiàn)

答案:ABC

24.模型部署后,可以不依賴網(wǎng)絡(luò)才能工作的部署方式是()

A、云端部署

B、移動(dòng)端部署

C、邊緣端部署

D、以上都依賴

答案:BC

25.目前LSTM已經(jīng)應(yīng)用到()領(lǐng)域。

A、自然語(yǔ)言處理

B、語(yǔ)音識(shí)別

C、圖像標(biāo)注

D、發(fā)動(dòng)機(jī)

答案:ABC

26.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)?()

A、參數(shù)更少

B、可以獲得更大下采樣

G速度更快

D、有助于提升精度

答案:BCD

27.循環(huán)神經(jīng)網(wǎng)絡(luò)與普通全連接神經(jīng)網(wǎng)絡(luò)主要區(qū)別是()

A、循環(huán)神經(jīng)網(wǎng)絡(luò)有信息反饋機(jī)制

B、全連接神經(jīng)網(wǎng)絡(luò)輸出與歷史輸入無關(guān)

C、循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出與歷史輸入有關(guān)

D、以上都不是

答案:AB

28.()可以做LSTM學(xué)習(xí)。

A、MATLAB

B\tensorfIow

C、kreas

D\word

答案:ABC

29.遷移學(xué)習(xí)的目的()

A、降低數(shù)據(jù)量

B、加快模型收斂

C、提高模型泛化能力

D、加快模型推理速度

答案:ABC

30.(_)是“黑客精神和技能”。

A、大膽創(chuàng)新

B、喜歡挑戰(zhàn)

C、追求完美

D、不斷改進(jìn)

答案:ABCD

31.關(guān)于TPU,下列說法錯(cuò)誤的是()

A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片

B、TPU是一款專用于數(shù)據(jù)處理的芯片

C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練

D、TPU可以提供高吞吐量的高精度計(jì)算

答案:BD

32.下列關(guān)于嵌入式選擇描述正確的是(_)。

A、嵌入式選擇是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體

B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇

C、對(duì)于嵌入式選擇,特征選擇過程與學(xué)習(xí)器訓(xùn)練過程在同一個(gè)優(yōu)化過程中完成

D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化

答案:ABC

33.模型部署前,需要對(duì)模型進(jìn)行剪枝,下面模型剪枝描述正確的是()

A、模型剪枝目的是加快模型推理速度

B、模型剪枝后通常預(yù)測(cè)精度有所降低

C、模型剪枝后模型的參數(shù)量變少

D、模型剪枝后,模型訓(xùn)練收斂速度提高

答案:ABC

34.確定圖像分割的閾值的方法有(_)。

A、可變閾值法

B、判別分析法

C、中值濾波

D、p尾法

答案:ABD

35.馮?諾伊曼被人們稱為“()”和“。

A、博弈論之父

B、計(jì)算機(jī)之父

C、人工智能之父

D、深度學(xué)習(xí)之父

答案:AB

36.計(jì)算兩個(gè)框的IOU,不可能的值有0

A、-1

B、0

C、2

D、1

答案:AC

37.下面屬于范數(shù)規(guī)則化的作用的是(_)和(_)。

A、保證模型盡可能的簡(jiǎn)單,避免過擬合

B、約束模型特征

C、最小化問題

D、最大化問題

答案:AB

38.下列適用于圖像語(yǔ)義分割技術(shù)的應(yīng)用場(chǎng)景有()

A、CT腫瘤體積計(jì)算

B、眼球圖片血管提取

C、視頻會(huì)議智能更換背景

D、車流統(tǒng)計(jì)

答案:ABC

39.下列關(guān)于交叉驗(yàn)證法描述正確的是(_)。

A、交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集

B、交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性

C、通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證

D、假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交

叉驗(yàn)證法的一個(gè)特例:自助法

答案:ABC

40.下列哪些情況可以通過調(diào)整學(xué)習(xí)率來緩解()

A、模型收斂的太慢,調(diào)大學(xué)習(xí)率

B、模型發(fā)散,調(diào)小學(xué)習(xí)率

C、模型過擬合了

D、模型欠擬合了

答案:AB

41.下面屬于數(shù)據(jù)加工的有(_)o

A、數(shù)據(jù)審計(jì)

B、數(shù)據(jù)清洗

C、數(shù)據(jù)變換

D、數(shù)據(jù)集成

答案:ABCD

42.視頻內(nèi)容審核工作主要有兩個(gè)目的()

A、版權(quán)

B、合規(guī)

G正能量

D、廣告

E、質(zhì)量

答案:AB

43.以下可能會(huì)導(dǎo)致過擬合的是(—)。

A、訓(xùn)練集中含有噪聲樣本

B、訓(xùn)練集中缺乏代表性樣本

C、訓(xùn)練集的樣本數(shù)目過少

D、訓(xùn)練集中樣本的維度過少

答案:AB

44.下列關(guān)于貝葉斯分類器說法正確的是(_)。

A、貝葉斯分類算法是一大類分類算法的總稱

B、貝葉斯分類算法以樣本可能屬于某類的概率作為分類依據(jù)

C、樸素貝葉斯分類算法是貝葉斯分類算法中最簡(jiǎn)單的一種

D、樸素貝葉斯分類算法采用了屬性條件獨(dú)立性假設(shè)

答案:ABCD

45.層次聚類試圖在不同層次對(duì)數(shù)據(jù)集進(jìn)行劃分。這里數(shù)據(jù)集的劃分可采用(_)

或(_)策略。

A、自頂向下

B、自底向上

C、自左至右

D、自右至左

答案:AB

46.深度神經(jīng)網(wǎng)絡(luò)模型按部署端可分為()方式

A、云端部署

B、移動(dòng)端部署

C、邊緣端部署

D、以上都不是

答案:ABC

47.實(shí)現(xiàn)人工神經(jīng)元的方法有(_)。

A、感知器

B、線性單元

GSIGMOD單元

D、決策單元

答案:ABC

48.基于語(yǔ)義的情感詞典方法有(_)等流程。

A、構(gòu)建詞典

B、統(tǒng)計(jì)詞頻

C、構(gòu)建傾向性計(jì)算算法

D\確定閾值

答案:ACD

49.現(xiàn)代計(jì)算機(jī)的CPU是由()、()和存儲(chǔ)單元組成。

A、超導(dǎo)單兀

B、控制單元

C、輸入單元

D、輸出單元

答案:AB

50.關(guān)于《勞動(dòng)法》的相關(guān)規(guī)定,下列說法正確的是()

A、工作時(shí)間(又稱勞動(dòng)時(shí)間),是指法律規(guī)定的勞動(dòng)者在一晝夜和一周內(nèi)從事

生產(chǎn)、勞動(dòng)或工作的時(shí)間。

B、所謂全面保護(hù),是對(duì)勞動(dòng)者權(quán)益和權(quán)能的保護(hù),包括人身權(quán)益和財(cái)產(chǎn)權(quán)利、

法定權(quán)利和約定權(quán)益

C、小王在失業(yè)前公司為他累計(jì)繳費(fèi)失業(yè)保險(xiǎn)6年,他可以領(lǐng)取18個(gè)月的失業(yè)保

險(xiǎn)金

D、勞動(dòng)規(guī)章是勞動(dòng)法的最主要的表現(xiàn)形式

答案:AB

51.下列關(guān)于聚類法方法描述正確的是(_)。

A、k均值算法屬于原型聚類

B、學(xué)習(xí)向量化算法試圖找到一組原型向量來刻畫聚類結(jié)構(gòu)

C、高斯混合聚類采用概念模型來表達(dá)聚類原型

D、學(xué)習(xí)向量化算法屬于層次聚類

答案:AB

52.分類模型的誤差包括(_)。

A、訓(xùn)練誤差

B、泛化誤差

C、再代入誤差

D、表現(xiàn)誤差

答案:ABC

53.人工智能項(xiàng)目開發(fā)過程中,項(xiàng)目成本包括()

A、時(shí)間成本

B、資源成本

C、風(fēng)險(xiǎn)成本

D、市場(chǎng)成本

答案:ABC

54.假陽(yáng)率的其它名稱不正確的是()

A、錯(cuò)誤率

B、虛警率

C、查全率

D、查準(zhǔn)率

答案:ACD

55.下列屬于結(jié)合策略的是(_)。

A、投票法

B、平均法

C、學(xué)習(xí)法

D、排序法

答案:ABC

56.下面描述正確的是()。

A、開運(yùn)算是先腐蝕在膨脹

B、開運(yùn)算是先膨脹在腐蝕

C、閉運(yùn)算是先腐蝕在膨脹

D、閉運(yùn)算是先膨脹在腐蝕

答案:AD

57.人體姿態(tài)數(shù)據(jù)采集時(shí),屬于采集圖像數(shù)據(jù)質(zhì)量要求的是()

A、照片清晰度

B、拍攝光線要求

C、圖片大小

D、姿態(tài)要求

答案:ABD

58.為大數(shù)據(jù)提供基礎(chǔ)設(shè)施服務(wù),有(_)和數(shù)據(jù)計(jì)算、數(shù)據(jù)管理與監(jiān)控、集群服

務(wù),眾包等。

A、數(shù)據(jù)存儲(chǔ)

B、數(shù)據(jù)加工

C、數(shù)據(jù)治理

D、app開發(fā)

答案:ABCD

59.下面對(duì)后向計(jì)算描述錯(cuò)誤的是()

A、后向計(jì)算是模型學(xué)習(xí)過程

B、后向計(jì)算目的是預(yù)測(cè)數(shù)據(jù)結(jié)果

C、后向計(jì)算目的是訓(xùn)練模型參數(shù)

D、后向計(jì)算的時(shí)候容易發(fā)生梯度彌散現(xiàn)象

答案:ACD

60.下列關(guān)于Boosting算法說法正確的是(—)。

A、Boosting算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí)

B、oosting對(duì)無法接受帶權(quán)樣本的基學(xué)習(xí)算法,可通過重采樣法進(jìn)行處理

C、Boosting算法在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條

D、一旦當(dāng)前生成的基學(xué)習(xí)器不滿足條件,則當(dāng)前基學(xué)習(xí)器被拋棄,且學(xué)習(xí)過程

停止

答案:ABCD

61.L2正則化描述正確的是()

A、L2正則化是通過絕對(duì)值來約束模型權(quán)重

B、L2正則化是通過平方值來約束模型權(quán)重

C、L2正則化后,不重要的權(quán)重會(huì)被直接約束為0

D、L2正則化后,不重要的權(quán)重絕對(duì)值會(huì)被約束的很小

答案:BD

62.模型使用自監(jiān)督學(xué)習(xí)后,再訓(xùn)練當(dāng)前任務(wù),通常會(huì)使模型()

A、精度更高

B、需要的訓(xùn)練數(shù)據(jù)量降低

C、模型的推理速度更快

D、模型的收斂速度更快

答案:ABD

63.下列關(guān)于隨機(jī)森林說法正確的是(_)。

A、隨機(jī)森林是Bagging的一^1^擴(kuò)展變體

B、隨機(jī)森林在決策樹的訓(xùn)練過程中引入了隨機(jī)屬性選擇

C、隨機(jī)森林簡(jiǎn)單且容易實(shí)現(xiàn)

D、隨機(jī)森林計(jì)算開銷大

答案:ABC

64.訓(xùn)練模型時(shí)候的損失曲線圖,下列哪張圖最有可能是過擬合導(dǎo)致的()

A、1

B、2

C、3

D、4

答案:AC

65.NERF技術(shù)描述正確的是()

A、NERF技術(shù)被稱為神經(jīng)輻射場(chǎng)技術(shù)

B、NERF技術(shù)是通過多角度照片進(jìn)行的三維建模

C、NERF是通過3D點(diǎn)云設(shè)備采集的數(shù)據(jù)進(jìn)行建模

DvNERF技術(shù)通過幾個(gè)角度的對(duì)象照片信息來預(yù)測(cè)該對(duì)象其它角度照片信息

答案:ABD

66.智能問答系統(tǒng)模型結(jié)構(gòu)中編碼器的作用是()。

A、問題輸入

B、答案輸出

C、問題轉(zhuǎn)換為特征

D、特征轉(zhuǎn)換為答案

答案:AC

67.學(xué)習(xí)率變小,可能會(huì)使模型訓(xùn)練的時(shí)候()

A、模型發(fā)散

B、模型收斂速度變慢

C、訓(xùn)練數(shù)據(jù)損失曲線變得平滑

D、模型前向計(jì)算過程加快

答案:BC

68.下面描述錯(cuò)誤的是()。

A、阿爾法狗屬于強(qiáng)人工智能

B、人臉識(shí)別屬于弱人工智能

C、無人駕駛屬于強(qiáng)人工智能

D、工業(yè)機(jī)器人屬于強(qiáng)人工智能

答案:ACD

69.以下關(guān)于機(jī)器學(xué)習(xí)的發(fā)展歷程描述正確的是(—)。

A、機(jī)器學(xué)習(xí)是人工智能研究發(fā)展到一定階段的必然產(chǎn)物

B、二十世紀(jì)五十年代到七十年代出,人工智能研究處于“推理期”

C、圖靈在1950年關(guān)于圖靈測(cè)試的文章中,就曾提到了機(jī)器學(xué)習(xí)的可能

D、人工智能在二十世紀(jì)五十到八十年代經(jīng)歷了“推理期”和“知識(shí)期”

答案:ABCD

70.(_)由兩個(gè)簇的最近樣本決定,(_)由兩個(gè)簇的最遠(yuǎn)樣本決定,(_)由兩

個(gè)簇的所有樣本共同決定。

A、樣本距離

B、最小距離

C、最大距離

D、平均距離

答案:BCD

71.下列制度,()屬于勞動(dòng)標(biāo)準(zhǔn)制度

A、休息休假制度

B、工資制度

C、勞動(dòng)安全衛(wèi)生制度

D、女職工和未成年職工特殊保護(hù)制度

答案:ABCD

72.從互聯(lián)網(wǎng)下載開源數(shù)據(jù)集有()問題需要注意

A、數(shù)據(jù)版權(quán)和授權(quán)方式

B、數(shù)據(jù)有效性

C、數(shù)據(jù)一致性

D、數(shù)據(jù)來源

答案:ABCD

73.以下關(guān)于大數(shù)據(jù)描述正確的是(—)。

A、“涌現(xiàn)”是大數(shù)據(jù)的本質(zhì)特征

B、大數(shù)據(jù)是對(duì)數(shù)量巨大、來源分散、格式多樣的數(shù)據(jù)進(jìn)行采集、存儲(chǔ)和關(guān)聯(lián)分

C、促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要是2016年由國(guó)務(wù)院發(fā)布的

D、大數(shù)據(jù)是以容量大'類型多'存取速度快、應(yīng)用價(jià)值高為主要特征的數(shù)據(jù)集

答案:ABD

74.模型部署前,需要對(duì)模型進(jìn)行量化,下面常見的量化參數(shù)精度有()

A、doubIe64

B\int8

C、int4

D\int2

答案:BCD

75.圖像識(shí)別技術(shù)的過程分以下幾步:信息的獲取、(_)、(_)、分類器設(shè)計(jì)和

分類決策。

A、辨認(rèn)

B、預(yù)處理

C、統(tǒng)計(jì)

D、特征抽取和選擇

答案:BD

76.以下屬于數(shù)據(jù)科學(xué)的研究目的的是(一)。

A、數(shù)據(jù)洞見

B、數(shù)據(jù)生態(tài)系統(tǒng)建設(shè)

C、數(shù)據(jù)業(yè)務(wù)化

D、數(shù)據(jù)產(chǎn)品的研發(fā)

答案:ABCD

77.適用于內(nèi)容審核場(chǎng)景的有()

A、智能鑒黃

B、違禁違規(guī)

C、暴力犯罪

D\低俗惡趣

E、政治傾向

答案:ABCDE

78.(_)屬于圖像平滑的濾波。

A、盒式濾波

B、雙邊濾波

C、導(dǎo)向?yàn)V波

D、貝葉斯變換

答案:ABC

79.數(shù)據(jù)科學(xué)的基本流程包含(_)。

A、數(shù)據(jù)可視化

B、數(shù)據(jù)加工

C、數(shù)據(jù)化

D、數(shù)據(jù)洞見

答案:BCD

80.半監(jiān)督學(xué)習(xí)中,對(duì)未標(biāo)記樣本所揭示的數(shù)據(jù)分布信息與類別標(biāo)記相聯(lián)系的假

設(shè)的有(_)和(_)。

A、歸納假設(shè)

B、聚類假設(shè)

C、流形假設(shè)

D、基本假設(shè)

答案:BC

81.離散數(shù)據(jù)常用的編碼方式有()。

A、詞向量

B、霍夫曼編碼

C、標(biāo)準(zhǔn)化

D、獨(dú)熱編碼

答案:ABD

82.關(guān)于TPU,下列說法正確的是()

A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片

B、TPU是一款專用于數(shù)據(jù)處理的芯片

C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練

D、TPU可以提供高吞吐量的低精度計(jì)算

答案:ACD

83。.某廠商生產(chǎn)的手機(jī)中有一個(gè)對(duì)語(yǔ)音話機(jī)器人,該機(jī)器人使用了下列哪些技術(shù)

A、聲紋識(shí)別

B、語(yǔ)音識(shí)別

C、文本轉(zhuǎn)語(yǔ)音

D、自然語(yǔ)義問答模型

答案:BCD

84.下列哪些操作會(huì)使得圖像變模糊。()

A、去掉低頻信號(hào),保留高頻信號(hào)

B、去掉高頻信號(hào),保留低頻信號(hào)

C、使用高斯核對(duì)圖像進(jìn)行卷積運(yùn)算

D、使用拉普拉斯核對(duì)圖像進(jìn)行卷積運(yùn)算

答案:BC

85.下面哪些對(duì)3D點(diǎn)云描述正確的是()。

A、3D點(diǎn)云數(shù)據(jù)只有頂點(diǎn)數(shù)據(jù),無線和面的數(shù)據(jù)。

B、3D點(diǎn)云數(shù)據(jù)相對(duì)與完整3D數(shù)據(jù),數(shù)據(jù)量更少,處理起來更高效

C、3D點(diǎn)云技術(shù)常用到自動(dòng)駕駛行業(yè)中

D、可以通過3D點(diǎn)云數(shù)據(jù)完全還原物體的紋理貼圖信息

答案:ABC

86.模型采用WEB部署方式提供服務(wù),哪些協(xié)議是WEB服務(wù)的通訊協(xié)議()

A、HTTP

B、HTTPS

C\UDP

D、TCP

答案:AB

87.下列哪些設(shè)備屬于邊緣計(jì)算設(shè)備?()

A、GTX1080

B、RK3399

GRTX3060

D、JETSONNX

答案:CD

88.下列主流模型中屬于圖像偵測(cè)的模型有()、

A、RCNN

B、UNET

GSEQ2SEQ

D、YOLO

答案:AD

89.下列哪些分布是離散分布。()

A、高斯分布

B、均勻分布

C、伯努利分布

D、多項(xiàng)分布

答案:CD

90.SGD優(yōu)化器中用到了哪些技術(shù)()

A、反向傳播算法

B、小批量學(xué)習(xí)

C、動(dòng)態(tài)學(xué)習(xí)率

D、動(dòng)量學(xué)習(xí)

答案:AB

91.用區(qū)域聚合法分割圖像,要求(_)。

A、各個(gè)點(diǎn)在平面上相鄰接

B、各個(gè)點(diǎn)是在平面上分散

G鄰接點(diǎn)的特征相似

D、點(diǎn)與點(diǎn)之間無關(guān)

答案:AC

92.下列哪些算法可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)()。

A、kNN

B、線性回歸

G邏輯回歸

答案:BC

解析:kNN是一種基于實(shí)例的學(xué)習(xí)算法,不具有任何訓(xùn)練參數(shù)。因此不能用來構(gòu)

造神經(jīng)網(wǎng)絡(luò),線性回歸和邏輯回歸都可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)模型,其實(shí)二者就是

單神經(jīng)元的神經(jīng)網(wǎng)絡(luò)。

93.企業(yè)應(yīng)用包括(_)和人力資本、金融、生產(chǎn)能力、后臺(tái)自動(dòng)化等。

A、銷售

B、營(yíng)銷

C、法律

D、客戶服務(wù)

答案:ABCD

94.對(duì)圖像生成模型描述正確的是()。

A、圖像生成模型是通過特征轉(zhuǎn)換為圖像

B、圖像生成模型是通過圖像轉(zhuǎn)化為特征

C、圖像生成模型是無監(jiān)督學(xué)習(xí)

DxGAN是生成模型

答案:ACD

95.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過引入(_)和(_)

而得

A、層級(jí)結(jié)構(gòu)

B、高維映射

C、降維

D、分類

答案:AB

96.適用于推薦系統(tǒng)的業(yè)務(wù)場(chǎng)景的有()。

A、新聞分發(fā)

B、電商首頁(yè)商品展示

C、短視頻推送

D、電商商品自動(dòng)評(píng)價(jià)

答案:ABC

97.下面哪些計(jì)算卡是邊緣計(jì)算卡()

A、TesIaA100

BvJetsonNano

GRK3399PR0

D、HI3559A

答案:BCD

98.卷積神經(jīng)網(wǎng)絡(luò)可以用于()。

A、圖像分類

B、目標(biāo)提取

C、圖像分割

D、中文分詞

答案:ABC

99.(_)是數(shù)據(jù)科學(xué)的主要理論基礎(chǔ)之一。

A、機(jī)器學(xué)習(xí)

B、統(tǒng)計(jì)學(xué)

C、數(shù)據(jù)

D、黑客精神與技能

答案:AB

100.以下()屬于常見語(yǔ)音數(shù)據(jù)異常。

A、丟幀

B、噴麥

C、重音

D、音調(diào)較高

答案:ABC

101.NPU特點(diǎn)描述錯(cuò)誤的是()o

A、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型推理

B、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練

C、功耗圖

D、功耗低

答案:BC

102.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法?()

A、減少mini_batch大小

B、移除一些卷積層

C、減少圖片輸入大小

D、增加激活函數(shù)

答案:ABC

103.召回率的其它名稱為()

A、正確率

B、查全率

C、命中率

D、查準(zhǔn)率

答案:BC

104.以下說法正確的是()。

A、負(fù)梯度方向是使函數(shù)值下降最快的方向

B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局最優(yōu)解

C、梯度下降法比牛頓法收斂速度快

D、擬牛頓法不需要計(jì)算Hesse矩陣

答案:ABD

解析:牛頓法是二階收斂,梯度下降是一階收斂,所以牛頓法就更快。

105.對(duì)于正交屬性空間中的樣本點(diǎn),若存在一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)?shù)谋?/p>

達(dá),則這樣的超平面應(yīng)具有(_)和(_)的性質(zhì)。

A、最近重構(gòu)性

B、最大可分性

C、最遠(yuǎn)重構(gòu)性

D、最小可分性

答案:AB

106.()和()被分別成為“計(jì)算機(jī)之父”和“計(jì)算機(jī)科學(xué)之父”

A\圖斯

B、費(fèi)曼

C、馮?諾伊曼

D、圖靈

答案:CD

107.下列對(duì)誤差值與錯(cuò)誤值描述錯(cuò)誤的是()。

A、錯(cuò)誤值不可以消除

B、錯(cuò)誤值可以消除

C、誤差值不可消除

D、誤差值可以消除

答案:AD

108.下面對(duì)SEQ2SEQ描述正確的是()。

A、它是一種編解碼結(jié)構(gòu)

B、輸入輸出序列長(zhǎng)度必須一致

C、輸入輸出都是序列數(shù)據(jù)

D、語(yǔ)言翻譯比較適合這種結(jié)構(gòu)

答案:ACD

109.人工智能項(xiàng)目開發(fā)過程中,輸入輸出分析包括()

A、輸入數(shù)據(jù)的來源

B、輸入數(shù)據(jù)的內(nèi)容

C、輸入數(shù)據(jù)的格式

D、輸出數(shù)據(jù)的內(nèi)容

答案:BCD

110.表達(dá)高斯分布,需要哪些參數(shù)()。

A、偏差

B、期望

C、均值

D、方差

答案:CD

111.下列對(duì)MSE指標(biāo)和MAE指標(biāo)描述正確的是()

A、MAE指標(biāo)值越大,模型精度越低。

B、MAE指標(biāo)值越大,模型精度越高

C、MSE指標(biāo)值越大,模型精度越低

D、MSE指標(biāo)值越大,模型精度越高

答案:AC

112.人工智能產(chǎn)品采用C/S架構(gòu),C和S分別是()。

A、客戶端

B、網(wǎng)頁(yè)端

C、服務(wù)端

D、數(shù)據(jù)端

答案:AC

113.P-R曲線由()和()構(gòu)成。

A、查準(zhǔn)率

B、查全率

C、準(zhǔn)確率

D、錯(cuò)誤率

答案:AB

114.常見的插補(bǔ)缺失值方法有()。

A、均值插補(bǔ)

B、同類均值插補(bǔ)

G多重插補(bǔ)

D、極大似然估計(jì)

答案:ABCD

115.在ROC空間中,以(_)為橫軸,以(_)為縱軸。

A、TPrate

B、FNrate

C、FPrate

D、TNrate

答案:AC

116.數(shù)據(jù)戰(zhàn)略的影響因素(_)。

A、當(dāng)前業(yè)務(wù)需求

B、潛在風(fēng)險(xiǎn)

C、數(shù)據(jù)戰(zhàn)略范疇

D\未來需求

答案:ABD

117.手勢(shì)識(shí)別需要用到的技術(shù)有()。

A、圖像偵測(cè)

B、圖像超分

C、關(guān)鍵點(diǎn)檢測(cè)

D、圖像生成

答案:AC

118.下面屬于探索性分析主要關(guān)注的四大主題的有(_)。

A、耐抗性

B、方差

C、重新表達(dá)

D、啟K

答案:ACD

119.車牌識(shí)別的用到了哪些人工智能圖像處理技術(shù)。()

A、圖像關(guān)鍵點(diǎn)定位

B、圖像生成

C、圖像文本識(shí)別

D、圖像語(yǔ)義分割

答案:CD

120.關(guān)于梯度消失和梯度消失,以下說法正確的是:(_)。

A、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都小

于1的話,那么即使這個(gè)結(jié)果是0.99,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入

層的偏導(dǎo)會(huì)趨于0

B、可以采用ReLU激活函數(shù)有效的解決梯度消失的情況

C、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都大

于1的話,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于無窮大

D、可以通過減小初始權(quán)重矩陣的值來緩解梯度爆炸

答案:ABCD

解析:使用標(biāo)準(zhǔn)化初始w,那么各個(gè)層次的相乘都是07之間的小數(shù),而激活函

數(shù)千的導(dǎo)數(shù)也是07之間的數(shù),其連乘后,結(jié)果會(huì)變的很小,導(dǎo)致梯度消失。若

我們初始化的w是很大的數(shù),w大到乘以激活函數(shù)的導(dǎo)數(shù)都大于1,那么連乘后,

可能會(huì)導(dǎo)致求導(dǎo)的結(jié)果很大,形成梯度爆炸。

121.常用的Python科學(xué)計(jì)算庫(kù)有()。

A、Numpy

B、SciKit-learn

C、Pandas

D\SciPy

答案:ABCD

122.下面哪些是基于核的機(jī)器學(xué)習(xí)算法(_)。

A、最大期望算法

B、徑向基核函數(shù)

C、線性判別分析法

D、支持向量機(jī)

答案:BCD

解析:SVM(可支持向量機(jī)),KFD(基于核的Fisher判別分析),KPCA(核成

分分析)。徑向基函數(shù)核(RadiaIBasisFunction,RBFkerneI),也被稱為高斯

核(GaussiankerneI)或平方指數(shù)核(SquaredExponentiaI.,SEkerneI)[1],

是常見的核函數(shù)(kerneIfunction)oRBF核被應(yīng)用各類核學(xué)習(xí)(kernellearni

ng)算法中,包括支持向量機(jī)(SupportVectorMachine,SVM)x高斯過程回歸(G

aussianProcessRegression,GPR)等。

123.P{H|X}是給定觀測(cè)值X條件下H出現(xiàn)的概率,統(tǒng)稱為(_)。

A、先驗(yàn)概率

B、后驗(yàn)概率

C、條件概率

D、模型

答案:BC

124.下面哪些英文縮寫是正確的()

A、語(yǔ)音識(shí)別,ASR

B、文本轉(zhuǎn)語(yǔ)音TTS

G文本閱讀OCR

D、聲紋識(shí)別VPR

答案:AB

125.下面哪些深度學(xué)習(xí)模型使用了Transformer網(wǎng)絡(luò)結(jié)構(gòu)()

A、GPT

B、AE

C、BERT

D、GAN

答案:AC

126.下列對(duì)誤差值與錯(cuò)誤值描述正確的是()。

A、錯(cuò)誤值不可以消除

B、錯(cuò)誤值可以消除

C、誤差值不可消除

D、誤差值可以消除

答案:BC

127.圖像處理中的開運(yùn)算是先對(duì)圖像進(jìn)行()操作,再對(duì)圖像進(jìn)行()

A、低通濾波

B、腐蝕

C、局通濾波

D、膨脹

答案:BD

128.屬于數(shù)據(jù)變換的類型有(_)。

A、平滑處理

B、聚類

C、標(biāo)準(zhǔn)化

D、特征構(gòu)造

答案:ABD

129.導(dǎo)致模型過擬合的原因有()

A、數(shù)據(jù)質(zhì)量低

B、數(shù)據(jù)量少

C、模型規(guī)模太大

D、模型參數(shù)量太少

答案:BC

130.Transformer網(wǎng)絡(luò)結(jié)構(gòu)中,包含()子網(wǎng)絡(luò)結(jié)構(gòu)

A、CNN

B、RNN

C、MLP

D、ATTENTION

答案:CD

131.下面那些函數(shù)屬于常用的激活函數(shù)。()

A、Sigmoid

B、Tanh

C\Mean

D、ReIu

答案:ABD

132.支持向量機(jī)中定義的間隔值為w的二范式的-2次方,這樣看間隔貌似僅與

權(quán)重W有關(guān),這意味著偏置項(xiàng)b(_)o

A、沒有任何意義

B、對(duì)間隔不會(huì)產(chǎn)生影響

C、通過約束隱式地影響著w的取值

D、對(duì)間隔會(huì)產(chǎn)生影響

答案:CD

133.感知機(jī)能容易實(shí)現(xiàn)邏輯(_)、(_)、(_)運(yùn)算

A、加減

B、與

C、或

D、非

答案:BCD

134.人工智能模型開發(fā)過程中,數(shù)據(jù)方案包括數(shù)據(jù)采集,()方面的內(nèi)容

A、數(shù)據(jù)清洗

B、數(shù)據(jù)標(biāo)準(zhǔn)化

C、數(shù)據(jù)標(biāo)注

D、數(shù)據(jù)增強(qiáng)

答案:ACD

135.在知識(shí)圖譜中下列概念屬于實(shí)體的是()。

A、人名

B、地名

C、父子

D、商品名

答案:ABD

136.OCR中使用到的圖像技術(shù)有()。

A、圖像偵測(cè)

B、圖像生成

C、圖像識(shí)別

D、圖像定點(diǎn)

答案:AC

137.下面關(guān)于L1范式正則化描述正確的是(_)o

A、L1范數(shù)正則化使得學(xué)習(xí)得到的結(jié)果滿足稀疏化,從而方便人們提取特征

B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和

C、L1范數(shù)正則化也有個(gè)美稱叫“稀疏規(guī)則算子”

D、壓縮感知問題可以通過L1范數(shù)最小化問題求解

答案:ABCD

138.通過爬蟲技術(shù)從互聯(lián)網(wǎng)上爬取數(shù)據(jù)有()潛在的法律問題

A、容易IP地址被封

B、容易造成被爬取對(duì)象的服務(wù)器負(fù)載提高

C、容易爬取到侵權(quán)數(shù)據(jù)

D、容易違反計(jì)算機(jī)信息安全罪

答案:CD

139.以下能力中,數(shù)據(jù)工程師需要具備的能力或素質(zhì)是()。

A、數(shù)據(jù)洞見

B、數(shù)據(jù)的ETL操作

C、數(shù)據(jù)的備份與恢復(fù)

D、主數(shù)據(jù)管理及數(shù)據(jù)集成

答案:BCD

140.灰度圖像,高為128,寬為256,3張圖片同時(shí)輸入到人工智能模型中,格

式為NHWC,那不是NHWC值的是()。

A、(5,3,256,128)

B、(5,1,128,256)

G(5,256,128,1)

D、(5,128,256,1)

答案:ABC

141.模型測(cè)試評(píng)估方案應(yīng)包括()內(nèi)容。

A、測(cè)試數(shù)據(jù)集的制作

B、測(cè)試環(huán)境的搭建

C、測(cè)試用例的編寫

D、測(cè)試指標(biāo)的制定

答案:ABC

142.模型蒸播是模型優(yōu)化中的重要技術(shù),下面對(duì)模型蒸僧描述正確的是()。

A、模型蒸播會(huì)對(duì)教師模型參數(shù)進(jìn)行改變

B、模型蒸鐳是把大模型的知識(shí)傳遞給小模型

C、模型蒸僧是為了加快模型的推理速度

D、模型蒸播是教師學(xué)生訓(xùn)練模型

答案:BCD

143.以下對(duì)大數(shù)據(jù)4V特性描述正確的是(—)。

A、Value是指價(jià)值密度低

B、大數(shù)據(jù)中所說的“速度”包括兩種:計(jì)算速度和處理速度

C、大數(shù)據(jù)時(shí)間分布是不均勻的

D、在大數(shù)據(jù)中,價(jià)值價(jià)值與數(shù)據(jù)總量的大小存在線性關(guān)系

答案:AC

144.根據(jù)《促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要》(國(guó)發(fā)〔2015〕50號(hào)),大數(shù)據(jù)的主要

特征包括

A、容量大

B、類型多

C、存取速度快

D、價(jià)值密度低

答案:ABCD

145.模型訓(xùn)練完成后,在部署前,對(duì)模型進(jìn)行優(yōu)化的手段有()

A、量化

B\加先驗(yàn)

G蒸播

D、剪枝

答案:ACD

146.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(_)和數(shù)據(jù)的管理與獲取、結(jié)果的

可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。

A、模式/模型的應(yīng)用和維護(hù)

B、項(xiàng)目目標(biāo)定義

C、項(xiàng)目成本控制

D、模式/模型的洞見

答案:ABD

147,基于統(tǒng)計(jì)的分詞方法的優(yōu)點(diǎn)有(_)。

A、分速度快

B、效率高

C、結(jié)合上下文識(shí)別生詞

D、消除歧義

答案:ABCD

148.關(guān)于Dropout說法正確的是:(—)。

A、Dropout背后的思想其實(shí)就是把DNN當(dāng)做一個(gè)集成模型來訓(xùn)練,之后取所有

值的平均值,而不只是訓(xùn)練單個(gè)DNN

B、DNN網(wǎng)絡(luò)將Dropout率設(shè)置為p,也就是說,一個(gè)神經(jīng)元被保留的概率是1-p。

當(dāng)一個(gè)神經(jīng)元被丟棄時(shí),無論輸入或者相關(guān)的參數(shù)是什么,它的輸出值就會(huì)被設(shè)

置為0

C、丟棄的神經(jīng)元在訓(xùn)練階段,對(duì)BP算法的前向和后向階段都沒有貢獻(xiàn)。因?yàn)檫@

個(gè)原因,所以每一次訓(xùn)練,它都像是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)

D\ropout方法通常和L2正則化或者其他參數(shù)約束技術(shù)(比如MaxNorm)一起使

用,來防止神經(jīng)網(wǎng)絡(luò)的過擬合

答案:ABCD

解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一

定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來說,由于是

隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。防止過擬合的方法:

提前終止(當(dāng)驗(yàn)證集上的效果變差的時(shí)候);L1和L2正則化加權(quán);softweightsh

aringDropoutoropout率的選擇:經(jīng)過交叉驗(yàn)證,隱含節(jié)點(diǎn)dropout率等于0.

5的時(shí)候效果最好,原因是0.5的時(shí)候dropout隨機(jī)生成的網(wǎng)絡(luò)結(jié)構(gòu)最多。drop

out也可以被用作一種添加噪聲的方法,直接對(duì)input進(jìn)行操作。輸入層設(shè)為更

接近1的數(shù)。使得輸入變化不會(huì)太(0.8)。

149.下列哪種音頻格式無損的?()

A、pe

B、wav

C、mp3

D、aac

答案:AB

150.下面不屬于探索性統(tǒng)計(jì)中常用數(shù)據(jù)分布統(tǒng)計(jì)量的是(_)。

A、殘差

B、偏態(tài)

C、峰態(tài)

D、眾數(shù)

答案:AD

151.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為1時(shí),可得到(_)的公式。

A、歐氏距離

B、曼哈頓距離

C、街區(qū)距離

D、切比雪夫距離

答案:BC

152.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)

和(_)四種。

A、深度學(xué)習(xí)

B、示教學(xué)習(xí)

C、類比學(xué)習(xí)

D、歸納學(xué)習(xí)

答案:BCD

153.常見的圖像判別類任務(wù)有()

A、圖像創(chuàng)作

B、圖像語(yǔ)義分割

C\圖像偵測(cè)

D、圖像識(shí)別

答案:BCD

154.人工智能模型開發(fā)過程中,模型研發(fā)方案應(yīng)該包含()

A、模型實(shí)施方案

B、數(shù)據(jù)方案

C、模型設(shè)計(jì),訓(xùn)練,優(yōu)化方案

D、模型測(cè)試評(píng)估方案

答案:BCD

155.多模態(tài)數(shù)據(jù)通常包含()數(shù)據(jù)。

A、文本

B、語(yǔ)音

C、圖片

D、視頻

答案:ABCD

156.端到端設(shè)計(jì)的優(yōu)勢(shì)是()

A、模型結(jié)構(gòu)設(shè)計(jì)更靈活容易

B、容易使用多模態(tài)輸入

C、容易解釋模型工作過程

D、不需要人工提取數(shù)據(jù)特征

答案:ABD

157.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的角色有(_)和項(xiàng)目發(fā)起人'客戶'項(xiàng)目經(jīng)理。

A、數(shù)據(jù)科學(xué)家

B、領(lǐng)域?qū)<?/p>

C、數(shù)據(jù)工程師

D、操作人員

答案:ACD

158.數(shù)據(jù)標(biāo)準(zhǔn)化的目的為()。

A、約束輸入數(shù)據(jù)的值范圍

B、把輸入數(shù)據(jù)的分布變?yōu)闃?biāo)準(zhǔn)正太分布

C、使得輸入數(shù)據(jù)的分布服從均值為0,方差為1

D、對(duì)數(shù)據(jù)做歸一化操作

答案:AC

159.下列關(guān)于偏差、方差、均方差、泛化誤差描述有誤的是(_)。

A、方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。

B、偏差度量了同樣大小的訓(xùn)I練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化。

C、泛化誤差表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,

即刻畫了學(xué)習(xí)問題本身的難度。

D、泛化誤差可分解為偏差、方差與噪音之和。

答案:ABC

160.CPU和GPU分別稱為()和()

A、運(yùn)算控制器

B、中央處理器

C、存儲(chǔ)控制器

D、圖形處理器

答案:CD

161.關(guān)于Python,下列說法正確的是()

A、Python擁有一個(gè)很棒的語(yǔ)言庫(kù)生態(tài)環(huán)境,歷史上也一直都是科學(xué)計(jì)算和數(shù)據(jù)

分析的重要工具

B、Python之所以適合AI項(xiàng)目,其實(shí)也是基于Python的很多有用的庫(kù)都可以在

AI中使用

C、有高效率的高層數(shù)據(jù)結(jié)構(gòu),簡(jiǎn)單而有效地實(shí)現(xiàn)面向?qū)ο缶幊獭?/p>

DxPython既支持面向過程的函數(shù)編程也支持面向?qū)ο蟮某橄缶幊獭?/p>

答案:ABCD

162.下列屬于半監(jiān)督學(xué)習(xí)方法的是(_)。

A、半監(jiān)督支持向量機(jī)

B、圖半監(jiān)督學(xué)習(xí)

C、生成式方法

D、支持向量機(jī)

答案:ABC

163.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接

點(diǎn)的系數(shù)降至0附近。

A、同態(tài)濾波

B\圖斯濾波

C、巴特沃斯濾波

D、中值濾波

答案:BC

164.下面()框架是深度學(xué)習(xí)研發(fā)框架

A、Seikit-Learn

B\Pytorch

C、TensorfIow

D、PaddIePaddIe

答案:BCD

165.深度學(xué)習(xí)可進(jìn)一步分為(_)。

A、無監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)

B、半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)

C、監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)

D、混合深度網(wǎng)絡(luò)

答案:ACD

166.(_)不屬于元分析方法。

A、加權(quán)平均法

B、優(yōu)化方法

C、時(shí)序法

D、關(guān)聯(lián)法

答案:CD

167.數(shù)據(jù)清洗的目的是()

A、檢查數(shù)據(jù)的一致性

B、處理無效值

C、處理重復(fù)數(shù)據(jù)

D、處理缺失值

答案:ABCD

168.下列哪些現(xiàn)象屬于乘性噪聲。()

A、電視光柵的退化

B、二值圖像上的胡椒鹽噪聲

C、信道傳輸受擾

D、膠片材料的退化

答案:AD

169.在模型評(píng)估與度量的方法中,下列描述正確的是(_)。

A、在留出法中,如果從采樣的角度來看待數(shù)據(jù)集劃分的過程,則保留類別比例

的采樣方式通常稱為分層采樣

B、通常,我們可通過實(shí)驗(yàn)測(cè)試來對(duì)學(xué)習(xí)器的泛化誤差進(jìn)行評(píng)估并進(jìn)而做出選擇。

C、我們需要一個(gè)測(cè)試集來測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力

D、測(cè)試樣本不可從樣本真實(shí)分布中獨(dú)立同分布采樣而得

答案:ABC

170.(_)是圖像降噪的方法。

A、空間域合成法

B、中值濾波器

C、最小值濾波

D、非線性小波變換

答案:ABCD

171.目前比較流行的深度學(xué)習(xí)框架包括()。

A、Pytorch

B\TensorfIow

C、SciPy

D\PaddIePaddIe

答案:ABD

172.關(guān)于我國(guó)自有的深度學(xué)習(xí)框架,下列說法正確的是()

A、我國(guó)自有的深度學(xué)習(xí)框架是PyTorch

B\PaddlePaddle屬于百度的深度學(xué)習(xí)框架

C、PaddIeOCR旨在打造一套豐富、領(lǐng)先且實(shí)用的OCR工具庫(kù)

D、PaddIeOCR屬于飛槳文字識(shí)別開發(fā)套件

答案:BCD

173.數(shù)據(jù)科學(xué)的基本流程包含(_)。

A、數(shù)據(jù)產(chǎn)品的提供

B、數(shù)據(jù)應(yīng)用

C、結(jié)果展示

D、數(shù)據(jù)可視化

答案:AC

174.大數(shù)據(jù)的主要特征(一)。

A、容量大

B、類型多

C、存取速度快

D、應(yīng)用價(jià)值高

答案:ABCD

175.下列哪些場(chǎng)景使用了語(yǔ)音喚醒技術(shù)。()

A、語(yǔ)音控制空調(diào)開關(guān)

B、智能翻譯筆

C、微信聊天語(yǔ)音轉(zhuǎn)文本

D、啟動(dòng)小米音響需要說“你好,小愛”

答案:AD

176.下列哪些情況不可能是學(xué)習(xí)率太大導(dǎo)致的()

A、模型收斂的太慢

B、模型無法收斂,并發(fā)散崩潰

C、模型迅速收斂到損失函數(shù)最小值

D、模型內(nèi)部參數(shù)大部分變?yōu)?

答案:ACD

177.使用人工智能技術(shù)監(jiān)控電梯間電動(dòng)車駛?cè)氲膬?yōu)勢(shì)有()

A、發(fā)現(xiàn)電梯間駛?cè)腚妱?dòng)車,及時(shí)告警并通知物業(yè)人員

B、提高工作監(jiān)管效率

C、后臺(tái)可隨時(shí)查看統(tǒng)計(jì)記錄,回看違規(guī)事件

答案:ABC

178.圖結(jié)構(gòu)可以分為()

A、有向圖

B、無向圖

C\有關(guān)系圖

D\無關(guān)系圖

答案:AB

179.下列哪些業(yè)務(wù)場(chǎng)景使用了語(yǔ)音合成。()

A、I同傳

B、小說智能閱讀

C\視頻AI字幕

D、地震預(yù)警語(yǔ)音播報(bào)

答案:BD

180.數(shù)據(jù)清洗的目的是()。

A、檢查數(shù)據(jù)的一致性

B、處理無效值

C、處理缺失值

D、處理重復(fù)數(shù)據(jù)

答案:ABCD

181.從行為目的與思維來看,數(shù)據(jù)統(tǒng)計(jì)方法可以分為(_)。

A、描述統(tǒng)計(jì)

B、洞見統(tǒng)計(jì)

C、推斷統(tǒng)計(jì)

D、歸納統(tǒng)計(jì)

答案:AC

182.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可以分為()和隨機(jī)型網(wǎng)絡(luò)等。

A、前向型

B、后向型

C、反饋型

D、自組織競(jìng)爭(zhēng)型

答案:ACD

解析:神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)有前向型、反饋型、自組織競(jìng)爭(zhēng)型和隨機(jī)型網(wǎng)絡(luò)等。

183.下列關(guān)于支持向量的說法錯(cuò)誤的是(_)。

A、支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之內(nèi)

B、支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之外

C、支持向量回歸機(jī)的支持向量只占訓(xùn)練集的一部分

D、訓(xùn)練集中的全部樣本都是支持向量

答案:BD

184.下列關(guān)于EM算法描述正確的是(_)。

A、EM算法是常用的估計(jì)參數(shù)隱變量的利器

B、EM算法即是期望最大化算法

C、EM算法常被用來學(xué)習(xí)高斯混合模型的參數(shù)

D、EM算法是一種迭代式的方法

答案:ABCD

185.模型部署前,需要對(duì)模型進(jìn)行量化,量化通常會(huì)()

A、降低模型預(yù)測(cè)精度

B、提高模型推理速度

C、模型訓(xùn)練時(shí)候加快收斂

D、提高模型泛化能力

答案:AB

186.人工智能可以分為:弱人工智能階段、()、()。

A、強(qiáng)人工智能階段

B、超人工智能階段

C、快速人工智能階段

D、虛擬人工智能階段

答案:AB

187.數(shù)據(jù)戰(zhàn)略等于(_)之“和”。

A、數(shù)據(jù)管理目標(biāo)

B、行動(dòng)方案

C、目標(biāo)管理

D、動(dòng)態(tài)機(jī)制

答案:ABC

188.數(shù)據(jù)戰(zhàn)略的基本問題有(_)。

A、數(shù)據(jù)戰(zhàn)略的定位

B、數(shù)據(jù)戰(zhàn)略的目標(biāo)

C、數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)

D、數(shù)據(jù)戰(zhàn)略的范疇

答案:ABCD

189.圖像數(shù)據(jù)增強(qiáng)的目的是()。

A、增加樣本數(shù)據(jù)量

B、增加樣本多樣性

C、提高模型推理速度

D、提高模型泛化能力

答案:ABD

190.以下哪些產(chǎn)品屬于數(shù)據(jù)產(chǎn)品

A、數(shù)據(jù)報(bào)表平臺(tái)

B、DMP

C、搜索與精準(zhǔn)化產(chǎn)品

D、風(fēng)控產(chǎn)品

答案:ABCD

191.下列數(shù)據(jù)中,哪些樣本的期望為0.2。()

A、正樣本值為0.4,負(fù)樣本值為-0.2,正樣本數(shù)量為20,負(fù)樣本數(shù)量為30

B、正樣本值為0.2,負(fù)樣本值為0,正樣本數(shù)量為15,負(fù)樣本數(shù)量為35

C、正樣本值為1,負(fù)樣本值為0,正樣本數(shù)量為20,負(fù)樣本數(shù)量為80

D、正樣本值為1,負(fù)樣本值為-1,正樣本數(shù)量為60,負(fù)樣本數(shù)量為40

答案:AB

192.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法()

A、減少mini_batch大小

B、移除一些卷積層

C、減少圖片輸入大小

D、增加激活函數(shù)

答案:ABC

解析:D:反而會(huì)加重負(fù)擔(dān)。

193.下列關(guān)于學(xué)習(xí)器的性能度量說法正確的是(_)。

A、對(duì)于二分類問題,可將樣例根據(jù)其真實(shí)類別與學(xué)習(xí)器預(yù)測(cè)類別的組合劃分為:

真正例、假正例、真反例、假反例

B、查準(zhǔn)率和查全率是一對(duì)矛盾的度量

C、一般來說,查準(zhǔn)率越高,查全率往往也偏高

D、一般來說,查準(zhǔn)率越高,查全率往往偏低

答案:ABD

194.SEQ2SEQ網(wǎng)絡(luò)結(jié)構(gòu)適合于哪些常見場(chǎng)景()。

A、翻譯

B、問答

C、分類

D、回歸

答案:AB

195.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)?()

A、參數(shù)更少

B、泛化更好

C、訓(xùn)練更快

D、更容易搭建

答案:ABC

196.下圖屬于圖像中包含了哪些人工智能圖像任務(wù)()

A、圖像偵測(cè)

B、圖像生成

C、圖像檢)則

D、圖像語(yǔ)義分割

答案:ACD

197.以下對(duì)數(shù)據(jù)描述正確的是(—)。

A、數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)

B、數(shù)值是數(shù)據(jù)的一種形式

C、數(shù)據(jù)到智慧是人們認(rèn)知提升的過程

D、數(shù)據(jù)是現(xiàn)實(shí)世界的記錄

答案:BCD

198.人工智能項(xiàng)目開發(fā)流程包括()

A、需求分析

B、模型研發(fā)

C、實(shí)施部署

D、文檔交付

答案:ABCD

199.從結(jié)構(gòu)化角度來看,數(shù)據(jù)可分為(一)。

A、結(jié)構(gòu)化數(shù)據(jù)

B、非結(jié)構(gòu)化數(shù)據(jù)

C、無結(jié)構(gòu)化數(shù)據(jù)

D、半結(jié)構(gòu)化數(shù)據(jù)

答案:ABD

200.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(_)和數(shù)據(jù)類產(chǎn)品。

A、情感類產(chǎn)品

B、信息類產(chǎn)品

C、知識(shí)類產(chǎn)品

D、智慧類產(chǎn)品

答案:BCD

201.按標(biāo)注的實(shí)現(xiàn)層次,數(shù)據(jù)標(biāo)注可以分為(_)。

A、語(yǔ)義標(biāo)注

B、圖像標(biāo)注

C、語(yǔ)法標(biāo)注

D、文字標(biāo)注

答案:AC

202.(_)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問題。

A、硬間隔

B、軟間隔

C、核函數(shù)

D、拉格朗日乘子法

答案:BC

203.訓(xùn)練深度神經(jīng)完了過的時(shí)候,下面那種現(xiàn)象可能是梯度彌散導(dǎo)致的()

A、無論輸入什么數(shù)據(jù),模型輸出為始終Nan

B、無論輸入什么數(shù)據(jù),前向計(jì)算的結(jié)果都不再變化或變化特別小,且不為Nan

C、后向計(jì)算的時(shí)候,靠近輸出入的層的模型權(quán)重不再變化。

D、損失函數(shù)的輸出結(jié)果越來越大

答案:BC

204.下列表示同一種學(xué)習(xí)方法的是(_)。

A、集成學(xué)習(xí)

B、多分類器系統(tǒng)

C、基于委員會(huì)的學(xué)習(xí)

D、平均策略

答案:ABC

205.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,sigmoid函數(shù)可用作(_)。

A、損失函數(shù)

B、優(yōu)化函數(shù)

C、激活函數(shù)

D、響應(yīng)函數(shù)

答案:CD

206.下面對(duì)學(xué)習(xí)率描述正確的是()

A、學(xué)習(xí)率越大,模型收斂越快,但也可能導(dǎo)致模型發(fā)散

B、學(xué)習(xí)率越小,模型收斂越慢,但也可能導(dǎo)致模型發(fā)散

C、學(xué)習(xí)率越大,模型越不容易陷入局部最小值

D、學(xué)習(xí)率越小,模型越不容易陷入局部最小值

答案:AC

207.人工智能模型開發(fā)過程中,不屬于模型研發(fā)階段的工作是()

A、輸入輸出分析

B、數(shù)據(jù)方案

C、模型設(shè)計(jì)

D、指標(biāo)制定

答案:BC

208.下列對(duì)強(qiáng)化學(xué)習(xí)描述正確的是()

A、強(qiáng)化學(xué)習(xí)是加強(qiáng)正確動(dòng)作的發(fā)生概率,降低錯(cuò)誤動(dòng)作的發(fā)生概率

B、強(qiáng)化學(xué)習(xí)是一種獎(jiǎng)懲學(xué)習(xí)

C、AlphaG。是一種下圍棋的強(qiáng)化學(xué)習(xí)模型

D、圖像識(shí)別是通過強(qiáng)化學(xué)習(xí)來實(shí)現(xiàn)的

答案:ABC

209.()x算法、()構(gòu)成人工智能3要素

A、公式

B、算力

C、數(shù)據(jù)

D、程序

答案:BC

210.技術(shù)指導(dǎo)的主要方法包括()

A、普通授課

B、工作指導(dǎo)

C、研討

D、錄像、多媒體教學(xué)

答案:ABCD

211.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()

A、參數(shù)更少

B、泛化更好

C、訓(xùn)練更快

D、更容易搭建;

答案:ABC

解析:D:DNN直接對(duì)數(shù)據(jù)做加權(quán)線性連接,而CNN則是移動(dòng)卷積核,并對(duì)圖像中

的各區(qū)域做卷積操作。

212.關(guān)于《網(wǎng)絡(luò)安全法》,下列說法正確的是()

A、國(guó)家實(shí)施網(wǎng)絡(luò)可信身份戰(zhàn)略,支持研究開發(fā)安全、方便的電子身份認(rèn)證技術(shù),

推動(dòng)不同電子身份認(rèn)證之間的互認(rèn)。

B、網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者不得設(shè)置惡意程序

C、按照規(guī)定留存相關(guān)的網(wǎng)絡(luò)日志不少于六個(gè)月

D、網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息

答案:ABCD

213.數(shù)據(jù)科學(xué)的基本流程包含(_)o

A、數(shù)據(jù)化

B、探索性分析

C、數(shù)據(jù)分析

D、數(shù)據(jù)存儲(chǔ)

答案:ABC

214.從培訓(xùn)的對(duì)象,培訓(xùn)可分為()

A、個(gè)人技能培訓(xùn)

B、企業(yè)培訓(xùn)

C、心態(tài)培訓(xùn)

D、能力培訓(xùn)

答案:AB

215.3D點(diǎn)云常見的任務(wù)有哪些()。

A、3D物體識(shí)別

B、3D物體重建

G3D物體跟蹤

D、3D紋理貼圖

答案:AC

216.市面上哪些產(chǎn)品使用了語(yǔ)音識(shí)別技術(shù)。()

A、小米的小愛機(jī)器人

B、喜馬拉雅APP小說智能閱讀

C、微信的語(yǔ)音轉(zhuǎn)寫

D、抖音短視頻AI配音

答案:AC

217.勞動(dòng)者的社會(huì)保險(xiǎn)分為()

A、基本養(yǎng)老保險(xiǎn)

B、基本醫(yī)療保險(xiǎn)

C、工傷保險(xiǎn)

D、失業(yè)保險(xiǎn)

答案:ABCD

218.以下關(guān)于神經(jīng)網(wǎng)絡(luò)模型描述正確的是(_)。

A、神經(jīng)網(wǎng)絡(luò)模型是許多邏輯單元按照不同層級(jí)組織起來的網(wǎng)絡(luò),每一層的輸出

變量都是下一層的輸入變量

B、神經(jīng)網(wǎng)絡(luò)模型建立在多神經(jīng)元之上

C、神經(jīng)網(wǎng)絡(luò)模型中,無中間層的神經(jīng)元模型的計(jì)算可用來表示邏輯運(yùn)算

D、神經(jīng)網(wǎng)絡(luò)模型一定可以解決所有分類問題

答案:ABC

解析:現(xiàn)在很多分類問題的準(zhǔn)確率都很低尤其是醫(yī)學(xué)圖像方面,而且容易受環(huán)境,

如光照影響。

219.一個(gè)交叉驗(yàn)證將數(shù)據(jù)集分成兩個(gè)互補(bǔ)的子集,分別是(_)和(_)。

A、訓(xùn)練集

B、測(cè)試集

C、子集

D、補(bǔ)集

答案:AB

220.()x()、()構(gòu)成人工智能3要素

A、算法

B、算力

C、數(shù)據(jù)

D、程序

答案:ABC

221.下列現(xiàn)象可能是欠擬合導(dǎo)致的有()

A、模型訓(xùn)練損失降到0

B、模型訓(xùn)練損失不收斂

C、訓(xùn)練指標(biāo)與測(cè)試指標(biāo)表現(xiàn)都很差

D、訓(xùn)練指標(biāo)表現(xiàn)好,測(cè)試指標(biāo)表現(xiàn)差

答案:BC

222.下列屬于生成模型的場(chǎng)景有()

A、戴口罩檢測(cè)

B、低分辨率圖片變成高分辨率圖片

C、通過輸入文本語(yǔ)義,輸出一幅符合文本語(yǔ)義的圖像

D\人臉檢)則

答案:BC

223.有兩種策略常用來緩解BP網(wǎng)絡(luò)的過擬合,分別是()和()。

A、晚停

B、早停

G正則化

D、加入損失函數(shù)

答案:BC

解析:通常有兩種策略來緩解BP網(wǎng)絡(luò)的過擬合。第一種策略是早停(earlystop

ping):將數(shù)據(jù)分成訓(xùn)練集合驗(yàn)證集,訓(xùn)練集用來計(jì)算梯度、更新連接權(quán)和閾值,

驗(yàn)證集用來估計(jì)誤差,若訓(xùn)練集誤差降低但驗(yàn)證集誤差升高,則停止訓(xùn)練,同時(shí)

返回具有最小驗(yàn)證集誤差的連接權(quán)和閾值。第二種策略是正則化(regularizati

on),其基本思想是在誤差目標(biāo)函數(shù)中增加一個(gè)用于描述網(wǎng)絡(luò)復(fù)雜度的部分,例如

連接權(quán)和閾值的平方和。

224.數(shù)據(jù)加工的主要?jiǎng)訖C(jī)往往來自(_)。

A、實(shí)時(shí)要求

B、質(zhì)量要求

C、計(jì)算要求

D、數(shù)量要求

答案:BC

225.下列關(guān)于AUC面積描述正確的是(_)。

A、UC被定義為ROC曲線下與坐標(biāo)軸圍成的面積

B、AUC面積的值大于1

C、AUC等于0.5時(shí),則真實(shí)性最低,無應(yīng)用價(jià)值

D、AUC越接近1.0,檢測(cè)方法真實(shí)性越高

答案:ACD

226.人工智能項(xiàng)目開發(fā)過程中,資源成本包括()

A、機(jī)會(huì)成本

B、數(shù)據(jù)成本

C、設(shè)備成本

D、人力成本

答案:BCD

227.人臉活體檢測(cè)常用的技術(shù)手段有()。

A、人臉關(guān)鍵點(diǎn)檢)則

B、靜默活體檢測(cè)

C、人臉語(yǔ)義分割

D、交互式活體檢測(cè)

答案:BD

228.下列屬于樸素貝葉斯分類器的特點(diǎn)的是(_)。

A、算法邏輯簡(jiǎn)單,易于實(shí)現(xiàn)

B、算法邏輯復(fù)雜,不易于實(shí)現(xiàn)

C、分類過程中時(shí)空開銷小

D、分類過程中時(shí)空開銷大

答案:AC

229.寫字樓人臉閘機(jī)使用時(shí)的人臉識(shí)別效果不佳,可能的主要因素有()。

A、光線角度問題

B、網(wǎng)絡(luò)問題

C、面部遮擋問題

D、人臉相似度過大

答案:ABC

230.下列關(guān)于包裹式選擇的描述正確的是(_)。

A、包裹式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化

B、從最終學(xué)習(xí)器性能來看,包裹式特征選擇比過濾式特征選擇更好

C、包裹式特征選擇的計(jì)算開銷通常比過濾式特征選擇大得多

D、包裹式特征選擇的典型算法:LVW算法,其特征子集搜索采用了隨機(jī)策略

答案:ABCD

231.教學(xué)的方法包括()

A、講授法

B、問答法

C、演不法

D、自學(xué)法

答案:ABC

232.卷積神經(jīng)網(wǎng)絡(luò)中常用的池化函數(shù)包括()。

A、最大池化函數(shù)

B、L2范數(shù)

C、相鄰矩形區(qū)域內(nèi)的平均值

D、基于據(jù)中心像素距離的加權(quán)平均函數(shù)

答案:ABCD

解析:最大池化函數(shù);L2范數(shù);相鄰矩形區(qū)域內(nèi)的平均值;基于據(jù)中心像素距離的

加權(quán)平均函數(shù);重疊池化;空金字塔池化。

233.編解碼神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常包括()

A、編碼器

B、特征生成器

C、解碼器

D、以上都是

答案:BC

234.互聯(lián)網(wǎng)數(shù)據(jù)采集有()劣勢(shì)

A、后期數(shù)據(jù)清洗難度大

B、容易侵權(quán)

C、獲取數(shù)據(jù)成本高

D、干擾數(shù)據(jù)多

答案:ABD

235.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(_)。

A、提出“好問題”

B、完成“數(shù)據(jù)加工”

C、實(shí)現(xiàn)“數(shù)據(jù)洞見”

D、數(shù)據(jù)“故事化”

答案:ABCD

236.下列哪些數(shù)據(jù)適合獨(dú)熱編碼?()

A、文本中的單詞

B、性別

C、身高

D、年齡階段(嬰兒、小孩、青年、中年、老年)

答案:BD

237.下面哪些概念屬于CNN網(wǎng)絡(luò)模型。()

A、感受野

B、步長(zhǎng)

C、通道

D、反饋

答案:ABC

238.下列屬于數(shù)值優(yōu)化算法的是(_)。

A、梯度下降法

B、牛頓法

C、極大似然法

D、邏輯回歸

答案:AB

239.下面屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(_)。

A、理論基礎(chǔ)

B、數(shù)據(jù)加工

C、數(shù)據(jù)計(jì)算

D、數(shù)據(jù)產(chǎn)品開發(fā)

答案:BCD

240.衡量數(shù)據(jù)樣本質(zhì)量包括()方面。

A、數(shù)據(jù)量

B、多樣性

C、覆蓋性

D、均衡性

答案:ABCD

241.數(shù)據(jù)產(chǎn)品的主要特征有(_)。

A、數(shù)據(jù)為中心

B、多樣性

C、層次性

D、增值性

答案:ABCD

242.下列哪些任務(wù)屬于回歸任務(wù)()

A、人臉識(shí)別

B、人臉關(guān)鍵點(diǎn)定位

C、人物位置跟蹤

D、人物性別辨識(shí)

答案:BC

243.框A面積為30,框B面積為20,兩個(gè)框可能的IOU值有()

Ax1/3

B、0

C、1

D、2/3

答案:ABD

244.根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為(—)和(__)。

A、監(jiān)督學(xué)習(xí)

B、訓(xùn)練集

C、無監(jiān)督學(xué)習(xí)

D、測(cè)試集

答案:AC

245.下列關(guān)于核函數(shù)的說法正確的是(_)。

A、任何一個(gè)函數(shù)都可以作為核函數(shù)

B、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,它就能作為核函數(shù)使用

C、任何一個(gè)核函數(shù)都隱式地定義了一個(gè)再生核希爾伯特空間

D、核函數(shù)可將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分

答案:BC

246.人工智能項(xiàng)目開發(fā)過程中,項(xiàng)目經(jīng)理的職責(zé)是()

A、質(zhì)量監(jiān)督

B、項(xiàng)目進(jìn)度督導(dǎo)

C、客戶對(duì)接

D、研發(fā)人員調(diào)度

答案:BC

247.下列RGB顏色正確的是()

A、(255,0,0)是紅色

B、(0,255,0)是綠色

C、(0,0,255)是藍(lán)色

D、以上都不對(duì)

答案:ABC

248.按標(biāo)注活動(dòng)的自動(dòng)化程度,數(shù)據(jù)標(biāo)注可以分為(_)。

A、手工標(biāo)注

B、文本標(biāo)注

C、半自動(dòng)標(biāo)注

D、自動(dòng)標(biāo)注

答案:ACD

249.人工智能項(xiàng)目開發(fā)過程中,可行性分析包括()

A、數(shù)據(jù)來源的可行性

B、模型功能實(shí)現(xiàn)的可行性

C、指標(biāo)可達(dá)的可行性

D、現(xiàn)場(chǎng)實(shí)施的可行性

答案:ABCD

250.常見的模型參數(shù)的量化精度有()

A、FL0AT32

B、INT8

C、INT4

D、INT2

答案:BCD

251.人工智能產(chǎn)品采用B/S架構(gòu),B和S分別代表()。

A、客戶端

B、網(wǎng)頁(yè)端

C、服務(wù)端

D、數(shù)據(jù)端

答案:BC

252.感知機(jī)中,(_)接收外界輸入信號(hào)后傳遞給(_)。

A、輸入層

B、輸出層

C、第一層

D、第二層

答案:AB

253.下面屬于數(shù)據(jù)科學(xué)理論基礎(chǔ)的有(_)。

A、統(tǒng)計(jì)學(xué)

B、數(shù)據(jù)可視化

C、機(jī)器學(xué)習(xí)

D、領(lǐng)域知識(shí)

答案:ABCD

254.文本摘要的方法可以分為()

A、分類式摘要

B、抽取式摘要

C、判別式摘要

D、生成式摘要

答案:BD

255.噪聲數(shù)據(jù)的主要表現(xiàn)形式有(_)。

A、錯(cuò)誤數(shù)據(jù)

B、虛假數(shù)據(jù)

C、異常數(shù)據(jù)

D、冗余數(shù)據(jù)

答案:ABC

256.對(duì)人工智能模型進(jìn)行減枝的目的是()

A、降低模型的參數(shù)量

B、提高模型的精度

C、加快模型在邊緣計(jì)算設(shè)備上的推理速度

D、提高模型泛化能力

答案:AC

257.詞性標(biāo)注中包含的詞性有()

A、動(dòng)詞

B、商品名

C、量詞

D、數(shù)詞

答案:ACD

258.下列哪些變換屬于仿射變換。()

A、平移

B、旋轉(zhuǎn)

C、錯(cuò)切

D、縮放

答案:ABCD

259.下面哪些指標(biāo)取值范圍是0到1,值越大,模型效果越好()

A、MSE

B、R2

C、mAP

D、余弦相似度

答案:BC

260.下列哪些場(chǎng)景可以使用關(guān)鍵點(diǎn)檢測(cè)來實(shí)現(xiàn)。()

A、手勢(shì)識(shí)別

B、跌倒識(shí)別

C、人體姿態(tài)識(shí)別

D\人臉檢測(cè)

答案:ABC

261.圖像數(shù)據(jù)結(jié)構(gòu)化的優(yōu)勢(shì)是()。

A、更易統(tǒng)計(jì)

B、更易存儲(chǔ)

C、更易計(jì)算

D、更易傳輸

答案:ABCD

262.數(shù)據(jù)采集的方法包括()

A、互聯(lián)網(wǎng)數(shù)據(jù)采集

B、眾包'行業(yè)合作

C、各種傳感器數(shù)據(jù)

D、商業(yè)設(shè)計(jì)

答案:ABC

263.下列關(guān)于支持向量機(jī)的說法正確的是(_)。

A、支持向量機(jī)的學(xué)習(xí)策略是間隔最大化

B、支持向量機(jī)的基本模型是特征空間上間隔最大的線性分類器

C、支持向量機(jī)只能對(duì)線性可分的樣本進(jìn)行分類

D、傳統(tǒng)支持向量機(jī)只能求解二分類問題

答案:ABD

264.下面對(duì)正確率計(jì)算正確的是()

A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為18/25

B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10

個(gè),正確率為7/25

C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為18/25

D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為12/25

答案:BCD

265.下列哪些任務(wù)屬于聚類()

A、物以類聚,人以群分

B、近朱者赤,近墨者黑

C、同流合污,臭味相投

D、龍生龍,鳳生風(fēng),老鼠兒子會(huì)打動(dòng)

答案:AC

266.常見的人工智能模型部署方式有()

A、云端部署

B、邊緣設(shè)備部署

C、移動(dòng)端部署

D、防火墻部署

答案:ABC

267.高斯白噪音產(chǎn)生的原因有()。

A、圖像傳感器在拍攝時(shí)不夠明亮、亮度不夠均勻

B、電路各元器件自身噪聲和相互影響

C、圖像傳感器長(zhǎng)期工作,溫度過高

D、相機(jī)分辨率太低

答案:AB

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論