2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第1頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第2頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第3頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第4頁(yè)
2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題)_第5頁(yè)
已閱讀5頁(yè),還剩138頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024年人工智能技能競(jìng)賽考試題庫(kù)大全-下(多選、判斷題

匯總)

多選題

1.知識(shí)圖譜可以應(yīng)用到以下哪些場(chǎng)景中?

A、量子計(jì)算

B、搜索引擎

C、電影推薦

D、智能問(wèn)答機(jī)器人

答案:BCD

2.關(guān)于《網(wǎng)絡(luò)安全法》,下列說(shuō)法錯(cuò)誤的是()

A、國(guó)家實(shí)施網(wǎng)絡(luò)可信身份戰(zhàn)略,支持研究開(kāi)發(fā)安全、方便的電子身份認(rèn)證技術(shù),

推動(dòng)不同電子身份認(rèn)證之間的互認(rèn)。

B、網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者可以設(shè)置惡意程序

C、按照規(guī)定留存相關(guān)的網(wǎng)絡(luò)日志不少于一個(gè)月

D、網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息

答案:BC

3.以下關(guān)于機(jī)器學(xué)習(xí)算法的描述中,哪些選項(xiàng)是正確的?

A、所謂“學(xué)習(xí)”是指:對(duì)于某類任務(wù)T和性能度量P,一個(gè)計(jì)算機(jī)程序在E上

以P衡量的性能隨著經(jīng)驗(yàn)

B、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)特定分支,要想充分理解深度學(xué)習(xí),必須對(duì)機(jī)器

學(xué)習(xí)的基本原理有深刻的理解。

C、根據(jù)學(xué)習(xí)過(guò)程中的不同經(jīng)驗(yàn),機(jī)器學(xué)習(xí)算法可以分為無(wú)監(jiān)督算法和監(jiān)督算法。

D、人類通過(guò)經(jīng)驗(yàn)歸納規(guī)律,機(jī)器學(xué)習(xí)算法也可以從歷史數(shù)據(jù)當(dāng)中挖掘規(guī)則。

E、而自我完善,那么我們稱這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)E學(xué)習(xí)。

答案:ABD

4.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)?()

A、參數(shù)更少

B、泛化更好

C、訓(xùn)練更快

D、更容易搭建

答案:ABC

5.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,技術(shù)經(jīng)理的職責(zé)是()

A、技術(shù)實(shí)施

B、項(xiàng)目進(jìn)度督導(dǎo)

C、技術(shù)選型

D、技術(shù)保障

答案:CD

6.3D重建技術(shù)適用于哪些應(yīng)用場(chǎng)景。()

A、城市建筑建模

B、VR/AR

C、自動(dòng)駕駛

D、元宇宙內(nèi)容建模

答案:ABD

7.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?

A、常用的池化方法有最大池化和平均池化

B、經(jīng)過(guò)池化的特征圖像變小了

C、池化層可以起到降維的作用

D、池化操作采用掃描窗口實(shí)現(xiàn)

答案:ABCD

8.無(wú)人超市的場(chǎng)景下,使用到的AI技術(shù)有哪些選項(xiàng)?

A、推薦算法

B、數(shù)據(jù)挖掘

C、計(jì)算機(jī)視覺(jué)

D、生物合成

答案:ABC

9.人工智能產(chǎn)品采用B/S架構(gòu),B/S架構(gòu)優(yōu)點(diǎn)是()。

A、只需要在服務(wù)端對(duì)模型進(jìn)行升級(jí)

B、用戶不用為每個(gè)AI應(yīng)用單獨(dú)安裝客戶端軟件

C、數(shù)據(jù)、計(jì)算都在云端,更安全

D、模型計(jì)算在客戶端計(jì)算機(jī)上

答案:ABC

10.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)?()

A、參數(shù)更少

B、可以獲得更大下采樣

C、速度更快

D、有助于提升精度

答案:BCD

11.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主要區(qū)別?

A、激活函數(shù)

B、優(yōu)化方法

C、損失函數(shù)

D、處理的任務(wù)

答案:AC

12.下列對(duì)早期的全連接方式不適用于圖像特征提取的說(shuō)法,哪些選項(xiàng)是正確

的?

A、容易過(guò)擬合

B、參數(shù)數(shù)量太多

C、計(jì)算速度快

D、充分利用像素間的位置信息

答案:ABC

13.以下關(guān)于異騰Al軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?

A、提供視頻或圖像處理的算法封裝

B、為異騰Al提供計(jì)算資源

C、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力

D、支持在線和離線模型的加速模型

答案:ABCD

14.(_)由兩個(gè)簇的最近樣本決定,(_)由兩個(gè)簇的最遠(yuǎn)樣本決定,(_)由兩

個(gè)簇的所有樣本共同決定。

A、樣本距離

B、最小距離

C、最大距離

D、平均距離

答案:BCD

15.HMSCore支持以下哪些操作系統(tǒng)?

A、ndroid

B、HarmonyOS

C、Windows

D、IOS

答案:ABCD

16.(),是模型測(cè)試評(píng)估方案里的內(nèi)容。

A、測(cè)試方法的制定

B、測(cè)試環(huán)境的搭建

C、測(cè)試指標(biāo)的制定

D、測(cè)試數(shù)據(jù)集的制作

答案:ABD

17.人臉?biāo)阉鞣?wù)調(diào)用成功時(shí)返回的結(jié)果中包含下列哪些項(xiàng)?

A、搜索出的人臉相似度

B、搜索出的人臉id

C、搜索出的人臉位置

D、搜索出的人臉序號(hào)

答案:ABC

18.常見(jiàn)的圖像樣本擴(kuò)增方式有()。

A、形狀變換

B、顏色變換

C、加噪

D、遮掩

答案:ABCD

19.以下哪些選項(xiàng)屬于HMSCore中提供的AI能力?

A、MLKit

B\HiAlEngine

C、MindSporeLite

D、HiAIFoundation

答案:BD

20.下面哪些操作不能把字母上的空洞補(bǔ)上()。

A、膨脹運(yùn)算

B、腐蝕運(yùn)算

C、開(kāi)運(yùn)算

D、閉運(yùn)算

答案:ABC

21.常見(jiàn)的插補(bǔ)缺失值方法有()。

A、均值插補(bǔ)

B、同類均值插補(bǔ)

G多重插補(bǔ)

D、極大似然估計(jì)

答案:ABCD

22.下列選項(xiàng)中屬于keras下estimator封裝的方法有?

A、評(píng)估

B、訓(xùn)練

C、預(yù)測(cè)

D、輸出模型

答案:ABCD

23.對(duì)圖像生成模型描述正確的是()。

A、圖像生成模型是通過(guò)特征轉(zhuǎn)換為圖像

B、圖像生成模型是通過(guò)圖像轉(zhuǎn)化為特征

C、圖像生成模型是無(wú)監(jiān)督學(xué)習(xí)

DxGAN是生成模型

答案:ACD

24.OpenAI的DALLE模型用到了哪些人工智能技術(shù)。()

A、圖像識(shí)別

B、自然語(yǔ)義

C、圖像生成

D、語(yǔ)音識(shí)別

答案:BC

25.以下關(guān)于解決問(wèn)題方法的描述中,哪些選項(xiàng)是正確的?

A、人工規(guī)則適用于解決問(wèn)題規(guī)模小,規(guī)則復(fù)雜度高的問(wèn)題

B、機(jī)器學(xué)習(xí)算法適用于解決問(wèn)題規(guī)模大,規(guī)則復(fù)雜度高的問(wèn)題

C、基于規(guī)則的算法適用于問(wèn)題規(guī)模大,規(guī)則復(fù)雜度低的問(wèn)題

D、問(wèn)題規(guī)模大,規(guī)則復(fù)雜度低的問(wèn)題屬于簡(jiǎn)單問(wèn)題

答案:ABC

26.人工智能模型開(kāi)發(fā)過(guò)程中,數(shù)據(jù)方案包括()內(nèi)容

A、數(shù)據(jù)采集

B、數(shù)據(jù)清洗

C、數(shù)據(jù)標(biāo)注

D、數(shù)據(jù)增強(qiáng)

答案:ABCD

27.在一個(gè)完整的多人臉識(shí)別算法中,通常包括哪些必要的技術(shù)步驟()

A、人臉關(guān)鍵點(diǎn)定位

B、人臉檢測(cè)

C、人臉特征提取

D、人臉特征對(duì)比

答案:BCD

28.現(xiàn)代計(jì)算機(jī)的CPU是由()、()和()組成。

A、超導(dǎo)單兀

B、控制單元

C\存儲(chǔ)單元

D、輸入輸出單元

答案:ABC

29.層次聚類試圖在不同層次對(duì)數(shù)據(jù)集進(jìn)行劃分。這里數(shù)據(jù)集的劃分可采用(_)

或(_)策略。

A、自頂向下

B、自底向上

C、自左至右

D、自右至左

答案:AB

30.3D點(diǎn)云數(shù)據(jù)不包含()的信息。

A、線

B、點(diǎn)

C、面

D、體

答案:ACD

31.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?

A、門可以選擇性地以讓信息通過(guò)它們由Sigm。id神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組

B、LSTM可以通過(guò)“門”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息

C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個(gè)鏈條,只有一些次要的線性交

互作用,信息很容易以不變的方式流過(guò)

D、LSTM有兩種門用來(lái)保持和控制細(xì)胞狀態(tài):遺忘門和輸入門

答案:ABCD

32.下列關(guān)于BP網(wǎng)絡(luò)說(shuō)法正確的是(_)。

A、標(biāo)準(zhǔn)BP算法每次僅針對(duì)一個(gè)訓(xùn)練樣例更新連接權(quán)和閾值

B、P神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇過(guò)擬合

C、早停策略可用來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合問(wèn)題

D、晚停策略可用來(lái)緩解BP網(wǎng)絡(luò)的欠擬合問(wèn)題

答案:ABC

33.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(_)和數(shù)據(jù)類產(chǎn)品。

A、情感類產(chǎn)品

B、信息類產(chǎn)品

C、知識(shí)類產(chǎn)品

D、智慧類產(chǎn)品

答案:BCD

34.以下哪些選項(xiàng)屬于HarmonyOS的關(guān)鍵能力?

A、MLKit

B、分布式能力

C\HMSCore

D、萬(wàn)能卡片

答案:ABCD

35.TensorFIow中keras模塊的內(nèi)置優(yōu)化器有?

A、daboost

B、SGD

GAdadeIta

D、Adam

答案:BCD

36.華為云可提供的Al服務(wù)有以下哪幾項(xiàng)?

A、文本識(shí)別OCR

B、語(yǔ)音交互

C、圖引擎服務(wù)

D、圖像搜索

答案:ABCD

37.評(píng)判分類模型的F1值是以下哪些指標(biāo)的調(diào)和均值?

A、精確度(precision)

B、有效率(validity)

G準(zhǔn)確率(accuracy)

D、召回率(reca11)

答案:AD

38.框A面積為30,框B面積為20,兩個(gè)框可能的I0U值有()

Ax1/3

B、0

C、1

D、2/3

答案:ABD

39.下面屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(_)。

A、理論基礎(chǔ)

B、數(shù)據(jù)加工

C、數(shù)據(jù)計(jì)算

D、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)

答案:BCD

40.機(jī)器學(xué)習(xí)一般可分為以下哪些類型

A、監(jiān)督學(xué)習(xí)

B、半監(jiān)督學(xué)習(xí)

C、無(wú)監(jiān)督學(xué)習(xí)

D、強(qiáng)化學(xué)習(xí)

答案:ABCD

41.MindSpore提供了自動(dòng)對(duì)圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選

擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?

A、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)

B、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)

C、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)

D、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)

答案:AC

42.以下關(guān)于異騰Al軟件棧的通用引擎描述,錯(cuò)誤的是哪些選項(xiàng)?

A、提供通用的神經(jīng)網(wǎng)絡(luò)推理能力

B、提供視頻或圖像處理的算法封裝.

C、為異騰Al提供計(jì)算資源.

D、支持在線和離線模型的加速計(jì)算

答案:AD

43.數(shù)據(jù)戰(zhàn)略的基本問(wèn)題有(_)。

A、數(shù)據(jù)戰(zhàn)略的定位

B、數(shù)據(jù)戰(zhàn)略的目標(biāo)

C、數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)

D、數(shù)據(jù)戰(zhàn)略的范疇

答案:ABCD

44.人工智能項(xiàng)目開(kāi)發(fā)流程包括()

A、需求分析

B、模型研發(fā)

C、實(shí)施部署

D、文檔交付

答案:ABCD

45.深度學(xué)習(xí)可進(jìn)一步分為(_)o

A、無(wú)監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)

B、半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)

C、監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)

D、混合深度網(wǎng)絡(luò)

答案:ACD

46.數(shù)據(jù)科學(xué)的基本流程包含(_)。

A、數(shù)據(jù)可視化

B、數(shù)據(jù)加工

C、數(shù)據(jù)化

D、數(shù)據(jù)洞見(jiàn)

答案:BCD

47.下列屬于噪聲數(shù)據(jù)消除噪聲的常用方法的是()o

A、分箱

B、生成

C、回歸

D、孤立點(diǎn)分析

答案:ACD

48.以下那幾項(xiàng)是華為云EI提供的入侵識(shí)別服務(wù)的特點(diǎn)?

A、高人工成本

B、圖靈活性

C、懸)易用性

D、低誤振率

答案:BCD

49.分類模型的誤差包括(_)。

A、訓(xùn)練誤差

B、泛化誤差

C、再代入誤差

D、表現(xiàn)誤差

答案:ABC

50.管理非結(jié)構(gòu)化數(shù)據(jù)常采用(一)。

A、NoSQL

B、NewSQL

C、關(guān)系云技術(shù)

D、關(guān)系數(shù)據(jù)庫(kù)技術(shù)

答案:ABC

51.寫字樓人臉閘機(jī)使用時(shí)的人臉識(shí)別效果不佳,可能的主要因素有()。

A、光線角度問(wèn)題

B、網(wǎng)絡(luò)問(wèn)題

C、面部遮擋問(wèn)題

D、人臉相似度過(guò)大

答案:ABC

52.大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象有(一)。

A、價(jià)值涌現(xiàn)

B、質(zhì)量涌現(xiàn)

C、隱私涌現(xiàn)

D、數(shù)量涌現(xiàn)

答案:ABC

53.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(_)。

A、多輸出

B、單輸出

C、同步多輸出

D\異步多輸出

答案:ABD

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)是遞歸的,不可能同步多輸出。

54.一個(gè)交叉驗(yàn)證將數(shù)據(jù)集分成兩個(gè)互補(bǔ)的子集,分別是(_)和(_)。

A、訓(xùn)練集

B、測(cè)試集

C、子集

D、補(bǔ)集

答案:AB

55.下面對(duì)正確率計(jì)算正確的是()

A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為18/25

B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10

個(gè),正確率為7/25

C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為18/25

D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),正確率為12/25

答案:BCD

56.圖像數(shù)據(jù)擴(kuò)增的目的是()。

A、增加樣本數(shù)據(jù)量

B、增加樣本多樣性

C、加快模型收斂

D、提高模型泛化指標(biāo)

答案:ABD

57.下面屬于范數(shù)規(guī)則化的作用的是(_)和(_)。

A、保證模型盡可能的簡(jiǎn)單,避免過(guò)擬合

B、約束模型特征

C、最小化問(wèn)題

D、最大化問(wèn)題

答案:AB

58.目前,機(jī)器學(xué)習(xí)領(lǐng)域所面臨的主要挑戰(zhàn)包括().

A、過(guò)擬合

B、維度災(zāi)難

C、特征工程

D、算法的可擴(kuò)展性

答案:ABCD

59.華為云ModelArts中有AIGallery,可以提供以下哪些內(nèi)容?

A、Notebook

B、預(yù)置算法

C、IDE

D、數(shù)據(jù)集

答案:BD

60.關(guān)于神經(jīng)元的敘述,哪些是正確的()

A、每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出

B、每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出

C、每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出

D、每個(gè)神經(jīng)元可以有多個(gè)輸出和一個(gè)輸入

答案:ABCD

解析:神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)。

61.下面對(duì)錯(cuò)誤率計(jì)算正確的是()

A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),錯(cuò)誤率為8/25

B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10

個(gè),錯(cuò)誤率為18/25

C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),錯(cuò)誤率為18/25

D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10

個(gè),錯(cuò)誤率為13/25

答案:BD

62.哪些目錄是ME模塊組件包含的?

A、cmake

B、model

C、train

D、mm

答案:BC

63.人工智能產(chǎn)品采用B/S架構(gòu),B和S分別代表()。

A、客戶端

B、網(wǎng)頁(yè)端

C、服務(wù)端

D、數(shù)據(jù)端

答案:BC

64.Transformer網(wǎng)絡(luò)結(jié)構(gòu)中,包含()子網(wǎng)絡(luò)結(jié)構(gòu)

A、CNN

B、RNN

C、MLP

D、ATTENTION

答案:CD

65.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。

A、可用于處理時(shí)間序列數(shù)據(jù)

B、可用于處理圖像數(shù)據(jù)

C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算

D、至少在網(wǎng)絡(luò)的一層中使用卷積

答案:ABD

解析:神經(jīng)網(wǎng)絡(luò)中的卷積:我們通常是指由多個(gè)并行卷積組成的運(yùn)算。(因?yàn)閱?/p>

個(gè)核只能特區(qū)一種類型的特征,我們usually希望可以在多個(gè)位置提取多個(gè)特征)

輸入也不僅僅是實(shí)值的網(wǎng)格,而是由一系列觀測(cè)數(shù)據(jù)的向量構(gòu)成的網(wǎng)格。我們有

的時(shí)候會(huì)希望跳出核中的一些位置來(lái)降低計(jì)算的開(kāi)銷(相應(yīng)的代價(jià)是提取特征沒(méi)

有先前那么好了)我們就把這個(gè)過(guò)程看作對(duì)全卷積函數(shù)輸出的下采樣(downslin

g)■如果只是在輸出的每個(gè)方向上每間隔s個(gè)像素進(jìn)行采樣,那么可重新定義一

個(gè)下采樣卷積函數(shù)。我們把s稱為下采樣卷積的步幅(stride)。在任何卷積網(wǎng)

絡(luò)的實(shí)現(xiàn)中都有一個(gè)重要性質(zhì):能夠隱含地對(duì)輸入V用零進(jìn)行填充(pad)使得

它加寬。數(shù)學(xué)中的卷積:考慮到函數(shù)千和g應(yīng)該地位平等,或者說(shuō)變量x和y

應(yīng)該地位平等,一種可取的辦法就是沿直線x+y=t卷起來(lái)。

66.(_)不屬于推斷統(tǒng)計(jì)的方法。

A、區(qū)間估計(jì)

B、參數(shù)估計(jì)

C、假設(shè)檢驗(yàn)

D、相關(guān)分析

答案:AD

67.在隨機(jī)森林中,最終的集成模型是通過(guò)什么策略決定模型結(jié)果?

A、累加制

B、求平均數(shù)

C、投票制

D、累乘制

答案:BC

68.模型欠擬合的時(shí)候,則()

A、擴(kuò)大網(wǎng)絡(luò)規(guī)模,防止欠擬合

B、擴(kuò)大模型參數(shù),防止欠擬合

C、縮小網(wǎng)絡(luò)規(guī)模,防止欠擬合

D、縮小模型參數(shù),防止欠擬合

答案:AB

69.下列哪些數(shù)據(jù)通常被認(rèn)為是連續(xù)型數(shù)據(jù)?()

A、身高

B、性別

C、體重

D、腰圍

答案:ACD

70.埃隆馬斯克的SpaceX公司發(fā)明了火箭回收技術(shù),假設(shè)該技術(shù)是用強(qiáng)化學(xué)習(xí)來(lái)

設(shè)計(jì)的,那么火箭回收的時(shí)候,環(huán)境指()

A、火箭周圍的風(fēng)向

B、火箭的姿態(tài)

C、火箭的位置信息

D、火箭的控制系統(tǒng)

答案:ABC

71.以下()屬于常見(jiàn)語(yǔ)音數(shù)據(jù)異常。

A、丟幀

B、噴麥

C、重音

D、音調(diào)較高

答案:ABC

72.數(shù)據(jù)科學(xué)的基本流程包含(_)。

A、數(shù)據(jù)化

B、探索性分析

C、數(shù)據(jù)分析

D、數(shù)據(jù)存儲(chǔ)

答案:ABC

73.常見(jiàn)的臟數(shù)據(jù)的類型有哪些?

A、邏輯錯(cuò)誤的值

B、重復(fù)值

C、缺失值

D、格式錯(cuò)誤的值

答案:ABCD

74.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和

(_)四種。

A、深度學(xué)習(xí)

B、示教學(xué)習(xí)

C、類比學(xué)習(xí)

D、歸納學(xué)習(xí)

答案:BCD

75.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)比較容易出現(xiàn)過(guò)擬合問(wèn)題,以下哪些選項(xiàng)可能導(dǎo)致過(guò)擬合

問(wèn)題?

A、使用Sigmoid激活函數(shù)

B、隱藏層數(shù)過(guò)多

C、數(shù)據(jù)集樣本數(shù)目少

D、使用正則項(xiàng)

答案:AB

76.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?

A、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律,誤差服從正態(tài)

分布。

B、多元線性回歸分析出來(lái)的一定是高維空間中的一條直線。

C、由于算法復(fù)雜度,線性回歸無(wú)法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最

小的時(shí)候的權(quán)重參數(shù)。

D、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)。

答案:BC

77.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?

A、池化操作采用掃描窗口實(shí)現(xiàn)

B、池化層可以起到降維的作用

C、常用的池化方法有最大池化和平均池化

D、經(jīng)過(guò)池化的特征圖像變小了

答案:ABCD

78.以下哪些方法是tf-idf的變種?()

A、TFC

B、EWC

C、ITC

D、IG

答案:AC

79.華為云提供的自然語(yǔ)言處理(NaturaILanguageProcessing)服務(wù)可以應(yīng)用于

以下哪些場(chǎng)景?

A、機(jī)器翻譯

B、智能問(wèn)答

C、語(yǔ)義搜索

D、輿情分析

答案:ACD

80.下列哪些變換屬于仿射變換。()

A\平移

B、旋轉(zhuǎn)

C、錯(cuò)切

D、縮放

答案:ABCD

81.使用人工智能技術(shù)監(jiān)控電梯間電動(dòng)車駛?cè)氲膬?yōu)勢(shì)有()

A、發(fā)現(xiàn)電梯間駛?cè)腚妱?dòng)車,及時(shí)告警并通知物業(yè)人員

B、提高工作監(jiān)管效率

C、后臺(tái)可隨時(shí)查看統(tǒng)計(jì)記錄,回看違規(guī)事件

答案:ABC

82.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元

數(shù)量可能為?

A、32和10

B、10和33

G33和10

D、9和33

答案:BC

83.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說(shuō)法是正確的?

A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不韻選擇其他方法。

B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低

級(jí)的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特

征。

C、全連接層把所有局部特征結(jié)合變成全局特征用來(lái)計(jì)算最后每一類的得分。

D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是

通過(guò)反向傳播算法優(yōu)化得到的。

答案:BCD

84.以下哪些方法可以減少過(guò)擬合的問(wèn)題?

A、添加L1或L2正則懲訓(xùn)項(xiàng)

B、提前停止訓(xùn)練

C、使用Dropout方法隨機(jī)丟棄一部分輸入

D、擴(kuò)充數(shù)據(jù)集,引入噪聲

答案:ABCD

85.下列哪些操作會(huì)使得圖像變模糊。()

A、去掉低頻信號(hào),保留高頻信號(hào)

B、去掉高頻信號(hào),保留低頻信號(hào)

C、使用高斯核對(duì)圖像進(jìn)行卷積運(yùn)算

D、使用拉普拉斯核對(duì)圖像進(jìn)行卷積運(yùn)算

答案:BC

86.下列哪些是主流的圖像語(yǔ)義分割模型。()

A、DeepLab

B、UNET

GMaskRCNN

D、FasterRCNN

答案:ABC

87.市面上哪些產(chǎn)品使用了語(yǔ)音識(shí)別技術(shù)。()

A、小米的小愛(ài)機(jī)器人

B、喜馬拉雅APP小說(shuō)智能閱讀

C、微信的語(yǔ)音轉(zhuǎn)寫

D、抖音短視頻AI配音

答案:AC

88.適用于推薦系統(tǒng)的業(yè)務(wù)場(chǎng)景的有()。

A、新聞分發(fā)

B、電商首頁(yè)商品展示

C、短視頻推送

D、電商商品自動(dòng)評(píng)價(jià)

答案:ABC

89.以下哪些選項(xiàng)屬于Keras的設(shè)計(jì)原則?

A、模塊性

B、用戶友好

G與Python協(xié)作

D、易擴(kuò)展性

答案:ABCD

90.數(shù)據(jù)采集的方法包括()

A、互聯(lián)網(wǎng)數(shù)據(jù)采集

B、眾包'行業(yè)合作

C、各種傳感器數(shù)據(jù)

D、商業(yè)設(shè)計(jì)

答案:ABC

91.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?

A、模型訓(xùn)練

B、特征選擇

C、分析定位任務(wù)

D、特征提取

答案:AD

92.以下哪些項(xiàng)是典型的序列數(shù)據(jù)?

A、股票市場(chǎng)中的價(jià)格走勢(shì)

B、語(yǔ)音里的音頻內(nèi)容

C、文章里的文字內(nèi)容

D、視頻中的圖像幀

答案:ABCD

93.在機(jī)器學(xué)習(xí)算法當(dāng)中,以下哪幾類問(wèn)題是算法要去解決的主要問(wèn)題?

A、分類問(wèn)題

B、聚類問(wèn)題

C、強(qiáng)化問(wèn)題

D、回歸問(wèn)題

答案:ABD

94.馮■諾伊曼被人們稱為“()”和“()”。

A、博弈論之父

B、計(jì)算機(jī)之父

C、人工智能之父

D、深度學(xué)習(xí)之父

答案:AB

95.采集數(shù)據(jù)的質(zhì)量主要考慮下列哪些方面?()

A、數(shù)據(jù)量

B、多樣性

C\覆蓋面

D、均衡性

答案:ABCD

96.Adam優(yōu)化器可以看做是以下哪幾項(xiàng)的結(jié)合?

A、Momentum

B、Adagrad

C、Nesterov

D、RMSprop

答案:ABD

97.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()

A、語(yǔ)音識(shí)別

B、語(yǔ)音建模

C、機(jī)器翻譯

D、圖像識(shí)別

答案:ABC

98.以下關(guān)于數(shù)據(jù)集的描述中,哪些選項(xiàng)是正確的?

A、數(shù)據(jù)集一般由多個(gè)維度構(gòu)成,任一維度反映樣本在某方面的表現(xiàn)或性質(zhì)的事

項(xiàng)或?qū)傩?,被稱為特征。

B、從機(jī)器學(xué)習(xí)流程角度看,驗(yàn)證集和測(cè)試集本質(zhì)上是一樣的。

C、學(xué)得模型后,使用其進(jìn)行預(yù)測(cè)的過(guò)程稱為測(cè)試,使用的數(shù)據(jù)集稱為測(cè)試集,

每個(gè)樣本稱為測(cè)試樣本。

D、一般會(huì)將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證機(jī)和測(cè)試集。

答案:ABCD

99.MindSpore模型在訓(xùn)練完成后,可以部署在以下哪些選項(xiàng)?

A、tIas800

B、華為云ECS

C、AtIas300TPro

D、HUAWEIMate50Pro

答案:CD

100.于機(jī)器學(xué)習(xí)模型性能評(píng)估的說(shuō)法,以下哪些選項(xiàng)是正確的?

A、通過(guò)分類模型的混淆矩陣,可以計(jì)算準(zhǔn)確率,錯(cuò)誤率,召回率,差準(zhǔn)率,F1值等

各種信息

B、回模型股可以使用MAE或MSE進(jìn)行評(píng)估

C、分類模型一般可以結(jié)合混淆矩陣進(jìn)行評(píng)估

D、聚類模型沒(méi)有性能評(píng)估方法

答案:ABC

101.有兩種策略常用來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合,分別是()和()。

A、晚停

B、早停

G正則化

D、加入損失函數(shù)

答案:BC

解析:通常有兩種策略來(lái)緩解BP網(wǎng)絡(luò)的過(guò)擬合。第一種策略是早停(earlystop

ping):將數(shù)據(jù)分成訓(xùn)練集合驗(yàn)證集,訓(xùn)練集用來(lái)計(jì)算梯度、更新連接權(quán)和閾值,

驗(yàn)證集用來(lái)估計(jì)誤差,若訓(xùn)練集誤差降低但驗(yàn)證集誤差升高,則停止訓(xùn)練,同時(shí)

返回具有最小驗(yàn)證集誤差的連接權(quán)和閾值。第二種策略是正則化(regularizati

on),其基本思想是在誤差目標(biāo)函數(shù)中增加一個(gè)用于描述網(wǎng)絡(luò)復(fù)雜度的部分,例如

連接權(quán)和閾值的平方和。

102.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于

正則化技術(shù)的是?

A、動(dòng)量?jī)?yōu)化器

B、L2正則化

C、Dropout

D、L1正則化

答案:BCD

103.常見(jiàn)的圖像顏色空間格式有()。

A、RGB

B、HSV

C\gray

D、YUV

答案:ABCD

104.下面屬于詞袋模型的缺點(diǎn)的是?()

A、詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)

B、表示具有稀疏性

C、丟失詞序忽略了上下文

D、模型復(fù)雜,不利于實(shí)施

答案:ABC

105.下列哪些屬于AI的子領(lǐng)域?

A、機(jī)器學(xué)習(xí)

B、計(jì)算機(jī)視覺(jué)

C、語(yǔ)音識(shí)別

D、自然語(yǔ)言處理

答案:ABCD

106.從方法論角度,基于統(tǒng)計(jì)的數(shù)據(jù)分析方法可以分為(_)。

A、基本分析方法

B、自適應(yīng)分析方法

C、元分析方法

D、判別模型分析方法

答案:AC

107.以下對(duì)數(shù)據(jù)描述正確的是(—)。

A、數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)

B、數(shù)值是數(shù)據(jù)的一種形式

C、數(shù)據(jù)到智慧是人們認(rèn)知提升的過(guò)程

D、數(shù)據(jù)是現(xiàn)實(shí)世界的記錄

答案:BCD

108.根據(jù)學(xué)習(xí)形式,數(shù)據(jù)科學(xué)中機(jī)器學(xué)習(xí)可分為(_)。

A、人工神經(jīng)網(wǎng)絡(luò)和增強(qiáng)學(xué)習(xí)

B、基于實(shí)例學(xué)習(xí)

C、遺傳算法

D、貝葉斯學(xué)習(xí)

答案:ABCD

109.TensorFIow中keras模塊的內(nèi)置優(yōu)化器有?

A、dam

B、SGD

GAdaboost

D\AdadeIta

答案:ABD

WO.TextRank首先會(huì)提取詞匯,形成();然后依據(jù)詞匯的關(guān)聯(lián),建立()。

A、節(jié)點(diǎn)

B、詞表

C、鏈接

D、句子

答案:AC

111.以下哪些服務(wù)屬于華為EI服務(wù)家族

AxEl大數(shù)據(jù)服務(wù)

B、自然語(yǔ)言處理

C、對(duì)話機(jī)器人

D、EI基礎(chǔ)服務(wù)

答案:ABCD

112.華為云ModelArts是面向AI開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些功能在Node

IArts上可以具備?

A、數(shù)據(jù)治理

B、AI市場(chǎng)

C、自動(dòng)學(xué)習(xí)

D、可視化工作流

答案:ABCD

113.NPU特點(diǎn)描述錯(cuò)誤的是()。

A、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型推理

B、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練

C、功耗圖

D、功耗低

答案:BC

114.在深度學(xué)習(xí)模型訓(xùn)練的過(guò)程中,常見(jiàn)的優(yōu)化器有哪些?

A、dam

B\Adagrad

C、SGD

D\Momentum

答案:ABCD

115.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(_)。

A、提出“好問(wèn)題”

B、完成“數(shù)據(jù)加工”

C、實(shí)現(xiàn)“數(shù)據(jù)洞見(jiàn)”

D、數(shù)據(jù)“故事化”

答案:ABCD

116.選用邊緣計(jì)算設(shè)備的時(shí)候,應(yīng)該考慮哪些因素()

A、成本

B、算力

C、功耗

D、支持的模型

答案:ABCD

117.以下關(guān)于線性回歸的描述中,哪些選項(xiàng)是錯(cuò)誤的?

A、多元線性回歸分析出來(lái)的一定是高維空間中的一條直線。

B、由于算法復(fù)雜度,線性回歸無(wú)法使用梯度下降的方法求出當(dāng)損失函數(shù)達(dá)到最

小的時(shí)候的權(quán)重參數(shù)

C、根據(jù)正態(tài)分布函數(shù)與最大似然估計(jì),可以求出線性回歸的損失函數(shù)

D、線性回歸中誤差受到眾多因素獨(dú)立影響,根據(jù)中心極限定律誤差服從正態(tài)分

答案:AB

118.下面對(duì)深度神經(jīng)網(wǎng)絡(luò)規(guī)模描述正確的是()

A、網(wǎng)絡(luò)規(guī)模越大,能力越強(qiáng)

B、網(wǎng)絡(luò)規(guī)模越大,能力越弱

C、網(wǎng)絡(luò)規(guī)模越大,推理速度越慢

D、網(wǎng)絡(luò)規(guī)模越大,推理速度越快

答案:AC

119.下列關(guān)于支持向量回歸機(jī)說(shuō)法正確的是(_)。

A、支持向量回歸機(jī)希望學(xué)得一個(gè)回歸模型,使得預(yù)測(cè)值千(x)與真實(shí)值x盡可能

接近

B、在傳統(tǒng)回歸模型中,當(dāng)且僅當(dāng)預(yù)測(cè)值千(x)與真實(shí)值x完全相同時(shí),損失才為

0

C、支持向量回歸假設(shè)我們能夠容忍預(yù)測(cè)值千(x)與真實(shí)值x之間最多有特定值的

誤差

D、支持向量回歸以決策函數(shù)為中心,構(gòu)建了一個(gè)特定寬度的間隔帶,若訓(xùn)練樣

本落入此間隔帶,則認(rèn)為是被預(yù)測(cè)正確的

答案:ABCD

120.交叉驗(yàn)證可用于(_)、(_)和(_)。

A、分類

B、參數(shù)選擇

C、模型選擇

D、特征選擇

答案:BCD

121.以下那些方法不常用于灰度內(nèi)插值。()

A、最近鄰內(nèi)插法

B、三次內(nèi)插法

C、雙線性內(nèi)插值法

D、三次樣條插值法

答案:ABD

122.目前比較流行的深度學(xué)習(xí)框架包括()。

A、Pytorch

B、TensorfIow

C、SciPy

D、PaddIePaddIe

答案:ABD

123.醫(yī)學(xué)數(shù)據(jù)脫敏后需要進(jìn)行數(shù)據(jù)預(yù)處理,屬于原始醫(yī)學(xué)數(shù)據(jù)特點(diǎn)的是()

A、缺失率很高

B、數(shù)據(jù)完整格式規(guī)范

C、臟數(shù)據(jù)很多

D、數(shù)據(jù)格式不規(guī)整

答案:ACD

124.華為HiAIService提供以下哪些平臺(tái)?

A、小藝對(duì)話開(kāi)發(fā)平臺(tái)

B、智能圖表識(shí)別平臺(tái)

C、快服務(wù)智慧平臺(tái)HAG

D、自定義語(yǔ)音合成平臺(tái)

答案:AC

125.F1參數(shù)由(_)和(_)綜合獲得

A、查全率

B、查準(zhǔn)率

C、誤差

D、精度

答案:AB

126.Ascend芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?

A\圖功耗

B、高算力

C、低功耗

D、低算力

答案:BC

127.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語(yǔ)義類

型有?

A、自由變量

B、高階函數(shù)

C、中斷

D、遞歸

答案:ABD

128.人工智能數(shù)據(jù)采集方案中,哪些問(wèn)題應(yīng)該考慮?()

A、數(shù)據(jù)來(lái)源

B、數(shù)據(jù)質(zhì)量

C、數(shù)據(jù)采集成本

D、數(shù)據(jù)清洗

答案:ABC

129.數(shù)據(jù)治理包括哪些類型

A、應(yīng)對(duì)型治理

B、主動(dòng)型治理

C、被動(dòng)型治理

D、安全型治理

答案:AB

130.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(_)和數(shù)據(jù)的管理與獲取、結(jié)果的

可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。

A、模式/模型的應(yīng)用和維護(hù)

B、項(xiàng)目目標(biāo)定義

C、項(xiàng)目成本控制

D、模式/模型的洞見(jiàn)

答案:ABD

131.以下屬于數(shù)據(jù)科學(xué)的研究目的的是(—)。

A、數(shù)據(jù)洞見(jiàn)

B、數(shù)據(jù)生態(tài)系統(tǒng)建設(shè)

C、數(shù)據(jù)業(yè)務(wù)化

D、數(shù)據(jù)產(chǎn)品的研發(fā)

答案:ABCD

132.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?

A、L1

B、Tanh

C\ReIu

D、L2

答案:AD

133.常見(jiàn)的樣本數(shù)據(jù)劃分方式為()

A、訓(xùn)練集,驗(yàn)證集

B、驗(yàn)證集,測(cè)試集

C、訓(xùn)練集,測(cè)試集

D、訓(xùn)練集,驗(yàn)證集,測(cè)試集

答案:CD

134.以下關(guān)于決策樹(shù)的描述中,哪些選項(xiàng)是正確的?

A、常見(jiàn)的決策樹(shù)算法有ID3,C4.5,CART等

B、決策樹(shù)的構(gòu)造就是進(jìn)行屬性的選擇,確定各個(gè)特征屬性之間的樹(shù)結(jié)構(gòu)

C、純度的量化指標(biāo)只能通過(guò)信息炳

D、構(gòu)建決策樹(shù)的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作,對(duì)所有的劃分

操作的結(jié)果集的“純度進(jìn)行比較

答案:ABD

135.下列哪些情況不可能是學(xué)習(xí)率太大導(dǎo)致的()

A、模型收斂的太慢

B、模型無(wú)法收斂,并發(fā)散崩潰

C、模型迅速收斂到損失函數(shù)最小值

D、模型內(nèi)部參數(shù)大部分變?yōu)?

答案:ACD

136.下列使用了達(dá)芬奇架構(gòu)的產(chǎn)品有哪些選項(xiàng)?

A、scend.310

B\Kunpeng920s

C、Ascend910

D、Kunpeng920

答案:AC

137.下列關(guān)于偏差、方差、均方差、泛化誤差的作用表述正確的是(_)。

A、偏差刻畫了模型本身的擬合能力

B、方差刻畫了數(shù)據(jù)擾動(dòng)所造成的影響

C、噪聲刻畫了學(xué)習(xí)問(wèn)題本身的難度

D、泛化誤差可分解為方差與噪音之和。

答案:ABC

138.以下哪些項(xiàng)是常用的擴(kuò)充數(shù)據(jù)集的方法?

A、對(duì)圖像進(jìn)行幾何變換

B、在文本中進(jìn)行近義詞替換

C、標(biāo)簽平滑

D、對(duì)語(yǔ)音信號(hào)添加隨機(jī)噪聲

答案:AD

139.數(shù)據(jù)加工是一種數(shù)據(jù)轉(zhuǎn)換的過(guò)程,可分為(_)。

A、單維度轉(zhuǎn)換

B、高維度轉(zhuǎn)換

C、低維度轉(zhuǎn)換

D、多維度轉(zhuǎn)換

答案:AD

140.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門是哪些()

A、進(jìn)化門

B、輸出門

C、輸入門

D\遺忘門

答案:BCD

解析:LSTM擁有三個(gè)門(輸入門,遺忘門,輸出門),來(lái)保護(hù)和控制細(xì)胞狀態(tài)。判斷

題(共4題)

141.強(qiáng)化學(xué)習(xí)可以應(yīng)用在以下哪些領(lǐng)域中?

A、機(jī)器人控制

B、交通

C、金融

D、游戲

答案:ABCD

142.以下哪些選項(xiàng)是TensorFIow2.xEagerExecution的特點(diǎn)?

A、直觀

B、性能

C、可部署性

D、靈活

答案:ABD

143.(_)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問(wèn)題。

A、硬間隔

B、軟間隔

C、核函數(shù)

D、拉格朗日乘子法

答案:BC

144.關(guān)于TPU,下列說(shuō)法正確的是()

A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片

B、TPU是一款專用于數(shù)據(jù)處理的芯片

C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練

D、TPU可以提供高吞吐量的低精度計(jì)算

答案:ACD

145.下面關(guān)于L1范式正則化描述正確的是(_)。

A、L1范數(shù)正則化使得學(xué)習(xí)得到的結(jié)果滿足稀疏化,從而方便人們提取特征

B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和

C、L1范數(shù)正則化也有個(gè)美稱叫“稀疏規(guī)則算子”

D、壓縮感知問(wèn)題可以通過(guò)L1范數(shù)最小化問(wèn)題求解

答案:ABCD

146.以下屬于Tensorflow2.0的特性的是?

A、支持更多平臺(tái)和更多語(yǔ)言

B、引入Keras接口

G繼續(xù)兼容Tensorflow1,X的相關(guān)模塊

D、支持靜態(tài)圖機(jī)制

答案:ABCD

147.以下哪些項(xiàng)是神經(jīng)網(wǎng)絡(luò)在感知機(jī)的基礎(chǔ)上做的改進(jìn)?

A、加入隱藏層,隱藏層可以有多層,增強(qiáng)模型的表達(dá)能力。

B\對(duì)激活函數(shù)做擴(kuò)展,包括Sigmoid函數(shù)、Softmax和ReLU等。

C、輸出層的神經(jīng)元也可以不止一個(gè),可以有多個(gè)輸出。

D、引入了損失函數(shù)。

答案:ABCD

148.下面哪些屬于AI的應(yīng)用領(lǐng)域?

A、智慧家居

B、智慧城市

C、智慧醫(yī)療

D、智慧教育

答案:ABCD

149.下列不包含聲紋識(shí)別應(yīng)用場(chǎng)景的是()。

A、語(yǔ)音支付

B、語(yǔ)音播放

GAI文章閱讀

D、智能翻譯

答案:BCD

150.(_)屬于圖像平滑的濾波。

A、盒式濾波

B、雙邊濾波

C、導(dǎo)向?yàn)V波

D、貝葉斯變換

答案:ABC

151.以下哪些選項(xiàng)屬于華為自動(dòng)駕駛云服務(wù)?

A、標(biāo)注平臺(tái)

B、數(shù)據(jù)存儲(chǔ)

C、算法管理

D、路況數(shù)據(jù)采集

答案:ABC

152.(_)是基于字符串匹配的分詞方法。

A、正向最大匹配法

B、逆向最大匹配法

C、最少切分

D、隱馬爾科夫模型

答案:ABC

153.用于訓(xùn)練的Atlas產(chǎn)品有?

A、tals300型號(hào)9000

B、Atlas800型號(hào):9000

GAtaIs500

D、AtaIs900

答案:ABCD

154.Al框架從單一的NN向通用張量可微計(jì)算演進(jìn)中,其中一個(gè)演進(jìn)方向是與科

學(xué)計(jì)算的結(jié)合,主要表現(xiàn)為以下哪幾項(xiàng)?

A、構(gòu)建基于AI的可計(jì)算模型

B、借助新框架加速方程求解

C、借助神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)新解法

D、借助可微物理引擎實(shí)現(xiàn)可微編程

答案:ABC

155.模型訓(xùn)練完成后,在部署前,那種參數(shù)會(huì)縮小模型規(guī)模。()

A、量化

B、加先驗(yàn)

G蒸播

D、剪枝

答案:CD

156.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名。神經(jīng)網(wǎng)絡(luò)由

許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出

一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的(_)。

A、每個(gè)神經(jīng)元有一個(gè)輸入和一個(gè)輸出

B、每個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出

C、每個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出

D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出

答案:ABCD

解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。

157.常用的Python科學(xué)計(jì)算庫(kù)有()。

A、Numpy

B、SciKit-learn

C、Pandas

D、SciPy

答案:ABCD

158.昇騰Al處理器支持接入以下哪些種類的內(nèi)存?

A、SSD

B、HBM

C、SATA

D、DR

答案:CD

159.以下網(wǎng)絡(luò)模型格式中,可以用于保存訓(xùn)練參數(shù)和網(wǎng)絡(luò)模型的有哪些選項(xiàng)?

A、MindlR

B、AIR

C、heckpoint

D、ONNX

答案:ACD

160.SGD優(yōu)化器中用到了哪些技術(shù)()

A、反向傳播算法

B、小批量學(xué)習(xí)

C、動(dòng)態(tài)學(xué)習(xí)率

D、動(dòng)量學(xué)習(xí)

答案:AB

161.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?

A、MBGD兼顧了對(duì)率和核度的穩(wěn)定性,容易沖過(guò)局部極小值,是實(shí)際工作中最常

用的梯度下降算法

B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場(chǎng)景中不

被接受

CxMBGD每次使用小批固定尺寸的樣例來(lái)更新權(quán)值

D、MBGD中的BatchSize是一個(gè)超參數(shù),可由人為設(shè)定

答案:ACD

162.隱馬爾科夫模型和馬爾科夫隨機(jī)場(chǎng)都是(_)模型,而(_)是判別式模型。

A、生成式模型

B、隨機(jī)模型

C、條件隨機(jī)場(chǎng)

D、感知機(jī)模型

答案:AC

163.以下哪些選項(xiàng)屬于機(jī)器學(xué)習(xí)中常見(jiàn)的集成學(xué)習(xí)算法?

A、線性回歸

B、GBDT

C、隨機(jī)森林

D\Xgboost

答案:BCD

164.推薦系統(tǒng)的三個(gè)重要模塊是()。

A、用戶模塊

B、用戶對(duì)象關(guān)系模塊

C、對(duì)象模塊

D、推薦算法模塊

答案:ACD

165.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)()

A、上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)

B、并行處理序列中所有信息

C、容易梯度爆炸/消失

D、易于搭建

答案:AC

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuraINetwork,RNN)是一類以序列(sequenc

e)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單

元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursiveneuraInetwork)。循環(huán)神經(jīng)網(wǎng)絡(luò)在

誤差梯度在經(jīng)過(guò)多個(gè)時(shí)間步的反向傳播后容易導(dǎo)致極端的非線性行為,包括梯度

消失(gradientvanishing)和梯度爆炸(gradientexplosion)。實(shí)踐中,梯度

爆炸雖然對(duì)學(xué)習(xí)有明顯的影響,但較少出現(xiàn),使用梯度截?cái)嗫梢越鉀Q。梯度消失

是更常見(jiàn)的問(wèn)題且不易察覺(jué),發(fā)生梯度消失時(shí),循環(huán)神經(jīng)網(wǎng)絡(luò)在多個(gè)時(shí)間步后的

輸出幾乎不與序列的初始值有關(guān),因此無(wú)法模擬序列的長(zhǎng)距離依賴(long-term

Dependency)o在數(shù)值試驗(yàn)中,SRN對(duì)時(shí)間步跨度超過(guò)20的長(zhǎng)距離依賴進(jìn)行成

功學(xué)習(xí)的概率接近于0。恰當(dāng)?shù)臋?quán)重初始化(weightinitialization),或使用

非監(jiān)督學(xué)習(xí)策略例如神經(jīng)歷史壓縮器(NHC)可提升循環(huán)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)長(zhǎng)距離依

賴的能力,但對(duì)更一般的情形,循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展了一系列優(yōu)化策略,其中有很

多涉及網(wǎng)絡(luò)結(jié)構(gòu)的改變和算法的改進(jìn)。

166.下面對(duì)開(kāi)運(yùn)算描述正確的是()。

A、開(kāi)運(yùn)算是先膨脹再腐蝕

B、開(kāi)運(yùn)算是先腐蝕再膨脹

C、開(kāi)運(yùn)算能填補(bǔ)二值圖像上白色小洞

D、開(kāi)運(yùn)算能去掉二值圖像上白色小點(diǎn)

答案:BD

167.華為云ModelArts中推出了ModelBox用于端邊云聯(lián)合開(kāi)發(fā),以下哪些選項(xiàng)

屬于其優(yōu)化策略?

A、算子自動(dòng)切分

B、硬件親和性

C、模型克隆

D、算子優(yōu)化

答案:ABCD

168.以下關(guān)于線性回歸與防止過(guò)擬合的描述中,哪些選項(xiàng)是正確的?

A、當(dāng)使用的正則項(xiàng)是L2-norm,使用這個(gè)損失函數(shù)的線性回歸也叫LASSO回歸。

B、正則項(xiàng)有助于減少過(guò)擬合。

C、線性回歸權(quán)重系數(shù)在樣本空間中不能過(guò)大/過(guò)小,可以在目標(biāo)函數(shù)之上增加一

個(gè)平方和損失。

D、追加了絕對(duì)值損失的線性回歸叫做Ridge回歸

答案:BC

169.車牌識(shí)別的用到了哪些人工智能圖像處理技術(shù)。()

A、圖像關(guān)鍵點(diǎn)定位

B、圖像生成

C、圖像文本識(shí)別

D、圖像語(yǔ)義分割

答案:CD

170.以下哪些選項(xiàng)屬于MindSporeLite的特性?

A、極致性能

B、全場(chǎng)景支持

C、高效部署

D、分布式訓(xùn)練

答案:ABCD

171.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心

是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于(__)、(_)、

(_)規(guī)則。

A、邏輯關(guān)聯(lián)

B、布爾關(guān)聯(lián)

C、單維

D、單層

答案:BCD

172.活體檢測(cè)適用于下列哪些場(chǎng)景。()

A、人臉支付

B、身份認(rèn)證

C、銀行攝像頭監(jiān)控

D、人臉解鎖

答案:ABD

173.下列適用于圖像語(yǔ)義分割技術(shù)的應(yīng)用場(chǎng)景有()

A、CT腫瘤體積計(jì)算

B、眼球圖片血管提取

C、視頻會(huì)議智能更換背景

D、車流統(tǒng)計(jì)

答案:ABC

174.模型部署前,需要對(duì)模型進(jìn)行量化,下面常見(jiàn)的量化參數(shù)精度有()

A、doubIe64

B\int8

C、int4

D\int2

答案:BCD

175.下列哪些任務(wù)屬于回歸任務(wù)()

A、人臉識(shí)別

B、人臉關(guān)鍵點(diǎn)定位

C、人物位置跟蹤

D、人物性別辨識(shí)

答案:BC

176.圖像翻拍檢測(cè)服務(wù)調(diào)用成功時(shí)標(biāo)簽sugestion有哪些情況?

A、certainty

B、FALSE

C、uncertainty

D、TRUE

答案:BCD

177.對(duì)于Al框架可編程性的挑戰(zhàn)主要體現(xiàn)在以下哪些方面?

A、多芯片,單芯片跨代,跨型號(hào)兼容需求。

B、稀疏加速,圖片預(yù)處理加速模塊及復(fù)雜SIMD加速指令。

C、SOC級(jí)異構(gòu)編程。

D、有效算力接近理論算力的定制化實(shí)現(xiàn),對(duì)編譯器要求高。

答案:ABCD

178.下列屬于圖像數(shù)據(jù)采集工具的是()

A、照相機(jī)

B、攝像機(jī)

C\手機(jī)

D、麥克風(fēng)

答案:ABC

179.下列關(guān)于偏差、方差、均方差、泛化誤差描述有誤的是(_)。

A、方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。

B、偏差度量了同樣大小的訓(xùn)練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化。

C、泛化誤差表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,

即刻畫了學(xué)習(xí)問(wèn)題本身的難度。

D、泛化誤差可分解為偏差、方差與噪音之和。

答案:ABC

180.下面關(guān)于L1范式正則化描述正確的是(_)。

A、壓縮感知問(wèn)題可以通過(guò)L1范數(shù)最小化問(wèn)題求解

B、L1范數(shù)正則化有助于降低過(guò)擬合風(fēng)險(xiǎn)

C、采用L1范數(shù)時(shí)平方誤差項(xiàng)等值線與正則化項(xiàng)等值線的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上

D、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解

答案:ABCD

181.數(shù)據(jù)標(biāo)準(zhǔn)化的目的為()。

A、約束輸入數(shù)據(jù)的值范圍

B、把輸入數(shù)據(jù)的分布變?yōu)闃?biāo)準(zhǔn)正太分布

C、使得輸入數(shù)據(jù)的分布服從均值為0,方差為1

D、對(duì)數(shù)據(jù)做歸一化操作

答案:AC

182.以下哪些選項(xiàng)屬于數(shù)據(jù)清理的過(guò)程?

A、處理數(shù)據(jù)異常點(diǎn)

B、簡(jiǎn)化數(shù)據(jù)屬性,避免維度爆炸

C、發(fā)現(xiàn)數(shù)據(jù)異常點(diǎn)

D、填充缺失值

答案:ACD

183.下面不屬于數(shù)據(jù)分析平臺(tái)的有(_)。

A、uber

B、datameer

C、Arimo

D、Farmers

答案:AD

184.感知機(jī)中,(_)接收外界輸入信號(hào)后傳遞給(_)。

A、輸入層

B、輸出層

C、第一層

D、第二層

答案:AB

185.數(shù)據(jù)清洗的目的是()

A、檢查數(shù)據(jù)的一致性

B、處理無(wú)效值

C、處理重復(fù)數(shù)據(jù)

D、處理缺失值

答案:ABCD

186.以下哪幾個(gè)方面屬于華為的全棧AI解訣方案?

A、scend

B、CANN

GModeIArts

D\MindSpore

答案:ABCD

187.下列哪些詞可以進(jìn)行命名實(shí)體。()

A、日期

B、數(shù)字

C、地址

D、動(dòng)作

答案:ABC

188.HUAWEIHiAI賦能APP哪些價(jià)值?

A、安全

B、穩(wěn)定

C、實(shí)時(shí)

D、隨時(shí)

答案:ABCD

189.訓(xùn)練深度神經(jīng)完了過(guò)的時(shí)候,下面那種現(xiàn)象可能是梯度彌散導(dǎo)致的()

A、無(wú)論輸入什么數(shù)據(jù),模型輸出為始終Nan

B、無(wú)論輸入什么數(shù)據(jù),前向計(jì)算的結(jié)果都不再變化或變化特別小,且不為Nan

C、后向計(jì)算的時(shí)候,靠近輸出入的層的模型權(quán)重不再變化。

D、損失函數(shù)的輸出結(jié)果越來(lái)越大

答案:BC

190.(_)不屬于集中趨勢(shì)分析。

A、數(shù)值平均數(shù)

B、位置平均數(shù)

C、離散系數(shù)

D、正相關(guān)

答案:CD

191.ModeIArts中訓(xùn)練平臺(tái)可以支持的開(kāi)發(fā)模式有哪幾種?

A、云上開(kāi)發(fā)IDE+PyCharmTooIKit)

B、云上開(kāi)發(fā)(Notebook+SDK

G本地開(kāi)發(fā)IDE+PyCharmToolKit)

D、本地開(kāi)發(fā)(Notebook+SDK)

答案:BCD

192.生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常包括()。

A、編碼網(wǎng)絡(luò)

B、解碼網(wǎng)絡(luò)

C、生成網(wǎng)絡(luò)

D、判別網(wǎng)絡(luò)

答案:CD

193.學(xué)習(xí)率變大,可能會(huì)使模型訓(xùn)練的時(shí)候()

A、模型發(fā)散

B、模型收斂速度加快

C、訓(xùn)練數(shù)據(jù)損失曲線變得不穩(wěn)定

D、模型前向計(jì)算過(guò)程加快

答案:ABC

194.企業(yè)應(yīng)用包括(_)和人力資本、金融、生產(chǎn)能力、后臺(tái)自動(dòng)化等。

A、銷售

B、營(yíng)銷

C、法律

D、客戶服務(wù)

答案:ABCD

195.下面哪些常見(jiàn)的網(wǎng)絡(luò)模型的主要子網(wǎng)絡(luò)是CNNo()

A、RESNET

B、UNET

C、YOLO

D、GPT

答案:ABC

196.關(guān)于模型容量的說(shuō)法,以下哪些選項(xiàng)是正確的?

A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒(méi)有太大的關(guān)系。

B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合。

C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時(shí),有可能會(huì)

過(guò)擬合。

D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時(shí),算法效果通常最

佳。

答案:ABC

197.以下可能會(huì)導(dǎo)致過(guò)擬合的是(—)。

A、訓(xùn)練集中含有噪聲樣本

B、訓(xùn)練集中缺乏代表性樣本

C、訓(xùn)練集的樣本數(shù)目過(guò)少

D、訓(xùn)練集中樣本的維度過(guò)少

答案:AB

198.以下哪幾項(xiàng)屬于漢語(yǔ)未登錄詞的類型?()

A、存在于詞典但出現(xiàn)頻率較少的詞

B、新出現(xiàn)的普通詞匯

C、專有名詞

D、專業(yè)名詞和研究領(lǐng)域名稱

答案:BCD

199.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過(guò)引入(_)和(_)

而得

A、層級(jí)結(jié)構(gòu)

B、高維映射

C、降維

D、分類

答案:AB

200.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項(xiàng)是正確的?

A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。

B、臟數(shù)據(jù)包含錯(cuò)誤的記錄或者異常點(diǎn)。

C、臟數(shù)據(jù)包含太多錯(cuò)誤信息,因此無(wú)法直接用于機(jī)器學(xué)習(xí)。

D、數(shù)據(jù)中常缺少屬性或者包含一些缺失的值。

答案:ABCD

201.高斯白噪音產(chǎn)生的原因有()。

A、圖像傳感器在拍攝時(shí)不夠明亮、亮度不夠均勻

B、電路各元器件自身噪聲和相互影響

C、圖像傳感器長(zhǎng)期工作,溫度過(guò)高

D、相機(jī)分辨率太低

答案:ABC

202.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?

A、有神經(jīng)元死亡的現(xiàn)象。

B、計(jì)算簡(jiǎn)單

C、輸出有界訓(xùn)練不易發(fā)散

D、有效緩解了梯度消失的問(wèn)題

答案:ABD

203.以下關(guān)于Dropout的描述,正確的是哪些項(xiàng)?

A、一般只在訓(xùn)練時(shí)使用。

B、計(jì)算復(fù)雜度低,實(shí)現(xiàn)簡(jiǎn)單。

C、當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí),效果不好。

D、在深度學(xué)習(xí)中,相比于參數(shù)懲罰,該策略更有效。

答案:ABCD

204.下列關(guān)于偏差表述正確的是(_)。

A、偏差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。

B、偏差刻畫了模型本身的擬合能力

C、偏差刻畫了數(shù)據(jù)擾動(dòng)所造成的影響

D、偏差刻畫了學(xué)習(xí)問(wèn)題本身的難度

答案:AB

205.數(shù)據(jù)治理的基本活動(dòng)主要包含(_)和改進(jìn)。

A、計(jì)劃

B、執(zhí)行

C、記錄

D、檢查

答案:ABD

206.從方法體系看,數(shù)據(jù)可視化方法可以分為三個(gè)不同的層次(_)。

A、領(lǐng)域方法

B、基礎(chǔ)方法

C、方法論

D、智能方法

答案:ABC

207.下列哪些任務(wù)屬于聚類()

A、物以類聚,人以群分

B、近朱者赤,近墨者黑

C、同流合污,臭味相投

D、龍生龍,鳳生風(fēng),老鼠兒子會(huì)打動(dòng)

答案:AC

208.人工智能項(xiàng)目開(kāi)發(fā)流程包括:需求分析,(),(),文檔交付。

A、數(shù)據(jù)處理

B、模型研發(fā)

C、模型訓(xùn)練

D、實(shí)施部署

答案:BD

209.下列表示同一種學(xué)習(xí)方法的是(_)。

A、集成學(xué)習(xí)

B、多分類器系統(tǒng)

C、基于委員會(huì)的學(xué)習(xí)

D、平均策略

答案:ABC

210.算法是()與()的核心區(qū)別

A、非人工智能程序

B、人工智能程序

C、強(qiáng)人工智能程序

D、弱人工智能程序

答案:AB

211.下面對(duì)數(shù)據(jù)集劃分表達(dá)正確的是()

A、測(cè)試集,訓(xùn)練集,驗(yàn)證集必須來(lái)源于同一個(gè)數(shù)據(jù)集

B、測(cè)試集,訓(xùn)練集,驗(yàn)證集可以來(lái)源于不同數(shù)據(jù)集

C、模型開(kāi)發(fā)過(guò)程中,可以沒(méi)有驗(yàn)證集,但測(cè)試集和訓(xùn)練集必須有

D、模型開(kāi)發(fā)過(guò)程中,可以沒(méi)有測(cè)試集,但驗(yàn)證集和訓(xùn)練集必須有

答案:AC

212.下列關(guān)于嵌入式選擇描述正確的是(_)。

A、嵌入式選擇是將特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程融為一體

B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過(guò)程中自動(dòng)地進(jìn)行了特征選擇

C、對(duì)于嵌入式選擇,特征選擇過(guò)程與學(xué)習(xí)器訓(xùn)練過(guò)程在同一個(gè)優(yōu)化過(guò)程中完成

D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化

答案:ABC

213.華為云提供的內(nèi)容審核服務(wù)可通過(guò)管理控制臺(tái)進(jìn)行下列哪些操作?

A、查看服務(wù)的調(diào)用失敗次數(shù)

B、申請(qǐng)開(kāi)通內(nèi)容審核服務(wù)

C、管理IAM了賬號(hào)信息

D、查看服務(wù)的調(diào)用成功次數(shù)

答案:ABD

214.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的

是(_)。

A、MLE可能并不存在

B、MLE總是存在

C、如果MLE存在,那么它的解可能不是唯一的

D、如果MLE存在,那么它的解一定是唯一的

答案:AC

解析:極大似然估計(jì)方法(MaximumLikelihoodEstimate,MLE)也稱最大概似估

計(jì)或最大似然估計(jì):利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣

的結(jié)果的參數(shù)值。極大似然估計(jì),只是一種概率論在統(tǒng)計(jì)學(xué)的應(yīng)用,它是參數(shù)估

計(jì)的方法之一。說(shuō)的是已知某個(gè)隨機(jī)樣本滿足某種概率分布,但是其中具體的參

數(shù)不清楚,參數(shù)估計(jì)就是通過(guò)若干次試驗(yàn),觀察其結(jié)果,利用結(jié)果推出參數(shù)的大

概值。極大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的

概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作

為估計(jì)的真實(shí)值。當(dāng)然極大似然估計(jì)只是一種粗略的數(shù)學(xué)期望,要知道它的誤差

大小還要做區(qū)間估計(jì)。

215.從形式語(yǔ)言表達(dá)能力而言,規(guī)則可分為兩類:(_)和(_)。

A、命題規(guī)則

B、一階規(guī)則

C、原子命題

D、邏輯連接詞

答案:AB

216.人工智能可以分為:弱人工智能階段、()、()。

A、強(qiáng)人工智能階段

B、超人工智能階段

C、快速人工智能階段

D、虛擬人工智能階段

答案:AB

217.市面上哪些產(chǎn)品使用了語(yǔ)音合成技術(shù)。()

A、小米的小愛(ài)機(jī)器人

B、喜馬拉雅APP小說(shuō)智能閱讀

C、微信的語(yǔ)音轉(zhuǎn)寫

D、抖音短視頻AI配音

答案:ABD

218.數(shù)據(jù)集成可以分為(_)。

A、內(nèi)容集成

B、結(jié)構(gòu)集成

C、模式集成

D、概念集成

答案:AB

219.以下關(guān)于張量的敘述,正確的是哪些項(xiàng)?

A、一階張量可以理解成一個(gè)向量

B\MindSpore中最基礎(chǔ)的數(shù)據(jù)結(jié)構(gòu)是張量

C、張量就是數(shù)據(jù)矩陣

D、張量是基于向量和矩陣的推廣

答案:ABD

220.以下方法中屬于特征選擇過(guò)濾法(Filter)的是哪些選項(xiàng)?

A、方差法

B、皮爾遜相關(guān)系數(shù)

C、卡方系數(shù)法

D、LASSO回歸

答案:ABC

221.以下對(duì)于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項(xiàng)是正確的?

A、處理圖像數(shù)據(jù),如顏色空間轉(zhuǎn)換、灰度化、幾何變化屬于數(shù)據(jù)轉(zhuǎn)換。

B、在數(shù)據(jù)量較小時(shí),也會(huì)對(duì)現(xiàn)有變量進(jìn)行組合或轉(zhuǎn)換已生成新特征,比如平均

數(shù)

C、所有的數(shù)據(jù)都需要進(jìn)行數(shù)據(jù)轉(zhuǎn)換

D、機(jī)器學(xué)習(xí)中常對(duì)特征進(jìn)行歸一化,標(biāo)準(zhǔn)化,以保證同一模型的不同輸入變量

的值域相同

答案:ACD

222.下列屬于AI涉及的子領(lǐng)域的有哪些選項(xiàng)?

A、數(shù)據(jù)挖掘

B、知識(shí)工程

C、人機(jī)交互

D、機(jī)器學(xué)習(xí)

答案:ABCD

223.一個(gè)好的分類模型必須具有(—)o

A、低訓(xùn)練誤差

B、低泛化誤差

C、過(guò)擬合

D、欠擬合

答案:AB

224.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDe

veIopmentKit)之前需要安裝的?

Avdecorator

B、setuptooIs

C、numpy

D、tensorfIow

答案:ABC

225.模型部署前,需要對(duì)模型進(jìn)行剪枝,下面模型剪枝描述正確的是()

A、模型剪枝目的是加快模型推理速度

B、模型剪枝后通常預(yù)測(cè)精度有所降低

C、模型剪枝后模型的參數(shù)量變少

D、模型剪枝后,模型訓(xùn)練收斂速度提高

答案:ABC

226.下面對(duì)onnx格式描述錯(cuò)誤的是()。

A、它用于定義模型優(yōu)化方法

B、它用戶模型在不同框架下進(jìn)行交換

C、它用于定義模型評(píng)估方式

D、它用于模型標(biāo)準(zhǔn)結(jié)構(gòu)定義

答案:ACD

227.以下哪些項(xiàng)對(duì)于每一個(gè)參數(shù)都用自適應(yīng)的學(xué)習(xí)率?

A、dam

B、RMSprop

C、Adagrad

D、Momertum

答案:ABC

228.RNN的主要應(yīng)用領(lǐng)域有()。

A、自然語(yǔ)言處理

B、機(jī)器翻譯

C、音樂(lè)推薦

D、洗衣服

答案:ABC

229.下列哪些概念是屬于強(qiáng)化學(xué)習(xí)的。()

A、動(dòng)作

B、環(huán)境和觀察狀態(tài)

C、智能體

D、獎(jiǎng)勵(lì)

答案:ABCD

230.0x算法、()構(gòu)成人工智能3要素

A、公式

B、算力

C、數(shù)據(jù)

D、程序

答案:BC

231.下列哪些工作容易被人工智能所替代?

A、快遞員

B、人力資源經(jīng)理

C會(huì)計(jì)

D、客服

答案:ABCD

232.端到端設(shè)計(jì)的優(yōu)勢(shì)是()

A、模型結(jié)構(gòu)設(shè)計(jì)更靈活容易

B、容易使用多模態(tài)輸入

C、容易解釋模型工作過(guò)程

D、不需要人工提取數(shù)據(jù)特征

答案:ABD

233.下面哪些指標(biāo)取值范圍是0到1,值越大,模型效果越好()

A、MSE

B、R2

C\mAP

D、余弦相似度

答案:BC

234.下面哪些計(jì)算卡使用的計(jì)算芯片是國(guó)產(chǎn)的()

A、TesIaA100

B、JetsonNano

GRK3399PR0

D、HI3559A

答案:CD

235.下列哪些情況不能使用數(shù)據(jù)標(biāo)準(zhǔn)化操作。()

A、數(shù)據(jù)中的0表示不存在

B、數(shù)據(jù)中的0表示值大小為0

C、數(shù)據(jù)加Log處理

D、Onehot編碼

答案:AD

236.詞性標(biāo)注中包含的詞性有()

A、動(dòng)詞

B、商品名

C、量詞

D、數(shù)詞

答案:ACD

237.人工智能產(chǎn)品采用C/S架構(gòu),C和S分別是()。

A、客戶端

B、網(wǎng)頁(yè)端

C、服務(wù)端

D、數(shù)據(jù)端

答案:AC

238.下列屬于生成模型的場(chǎng)景有()

A、戴口罩檢測(cè)

B、低分辨率圖片變成高分辨率圖片

C、通過(guò)輸入文本語(yǔ)義,輸出一幅符合文本語(yǔ)義的圖像

D、人臉檢)則

答案:BC

239.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()

A、翻譯語(yǔ)言

B、語(yǔ)音識(shí)別

c、圖像識(shí)別

D、股票預(yù)測(cè)

答案:ABD

解析:C:CNN應(yīng)用于圖像識(shí)別。

240.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的描述中,正確的是哪幾項(xiàng)?

A、人工神經(jīng)網(wǎng)絡(luò)完全基于數(shù)學(xué),與仿生學(xué)沒(méi)有關(guān)系。

B、人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。

C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)

想、模式分類、記憶等。

D、人工神經(jīng)網(wǎng)絡(luò)是由人工神經(jīng)元互連組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對(duì)

人腦的抽象、簡(jiǎn)化,是模擬人類智能的一條重要途徑。

答案:BCD

241.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)?

A、tanh函數(shù)

B、ReLU函數(shù)

C、Softsign函數(shù)

D\Sigmoid函數(shù)

答案:ABCD

242.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項(xiàng)?

A、數(shù)據(jù)降維

B、數(shù)據(jù)標(biāo)準(zhǔn)化

C、模型訓(xùn)練

D、數(shù)據(jù)清理

答案:BD

243.下列關(guān)于神經(jīng)網(wǎng)絡(luò)描述正確的是(_)。

A、我們?cè)跈C(jī)器學(xué)習(xí)中談?wù)撋窠?jīng)網(wǎng)絡(luò)是指的是生物學(xué)意義上的神經(jīng)網(wǎng)絡(luò)

B、神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元模型

C、在MP神經(jīng)元模型中,神經(jīng)元接受來(lái)自n個(gè)其他神經(jīng)元傳遞過(guò)來(lái)的信號(hào)

D、神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較,然后通過(guò)激活函數(shù)處

理以產(chǎn)生神經(jīng)元的輸出。

答案:BCD

244.在昇騰Al處理器中,AlCore的存儲(chǔ)控制單元可以完成以下哪些操作?

A、補(bǔ)零

B、lmg2Co1

C\解壓縮

D、轉(zhuǎn)置

答案:AB

245.以下關(guān)于標(biāo)準(zhǔn)RNN的描述,正確的是哪幾項(xiàng)?

A、標(biāo)準(zhǔn)RNN是一種死板的邏輯,越晚的輸入影響越大,越早的輸入影響越小,

且無(wú)法改變這個(gè)邏輯。

B、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)存在梯度爆炸和梯度消失問(wèn)題。

C、梯度消失,梯度爆炸都與路徑長(zhǎng)度太長(zhǎng)有關(guān),前面的權(quán)重都基本固定不變,

沒(méi)有訓(xùn)練效果。

D、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問(wèn)題,但是對(duì)長(zhǎng)時(shí)間記憶的信息會(huì)衰減。

答案:ABCD

246.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?

A、數(shù)據(jù)增強(qiáng)

B、語(yǔ)義分割

C、信息檢索

D、圖像生成

答案:ABCD

247.下列關(guān)于密度聚類說(shuō)法錯(cuò)誤的是(_)。

A、DBSCAN是一種著名的密度聚類算法

B、密度聚類從樣本數(shù)量的角度來(lái)考察樣本之間的可連接性

C、密度聚類基于不可連接樣本不斷擴(kuò)展聚類簇易獲得最終的聚類結(jié)果

D、密度直達(dá)關(guān)系通常滿足對(duì)稱性

答案:BCD

248.圖像處理中的開(kāi)運(yùn)算是先對(duì)圖像進(jìn)行()操作,再對(duì)圖像進(jìn)行()

A、低通濾波

B、腐蝕

C、局通濾波

D、膨脹

答案:BD

249.以下哪些項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)一的類型?

A、音樂(lè)生成

B、動(dòng)作識(shí)別

C、機(jī)器翻譯

D、情感分析

答案:BC

250.Analyticsl.0的主要特點(diǎn)有().

A、分析活動(dòng)滯后于數(shù)據(jù)的生成。

B、重視結(jié)構(gòu)化數(shù)據(jù)的分析。

C、以對(duì)歷史數(shù)據(jù)的理解為主要目的。

D、注重描述性分析。

答案:ABCD

251.下列關(guān)于智能機(jī)器類別的觀點(diǎn)有哪些選項(xiàng)是正確的?

A、理性的思考,屬于弱人工智能領(lǐng)域。

B、像人一樣行動(dòng),屬于強(qiáng)人工智能。

C、理性的行動(dòng),屬于強(qiáng)人工智能。

D、像人一樣思考,屬于弱人工智能領(lǐng)域。

答案:CD

252.人工智能項(xiàng)目開(kāi)發(fā)過(guò)程中,資源成本包括()

A、機(jī)會(huì)成本

B、數(shù)據(jù)成本

C、設(shè)備成本

D、人力成本

答案:BCD

253.數(shù)據(jù)產(chǎn)品以數(shù)據(jù)為中心表現(xiàn)在(_)。

A、數(shù)據(jù)驅(qū)動(dòng)

B、數(shù)據(jù)載體

C、數(shù)據(jù)密集型

D、數(shù)據(jù)范式

答案:ACD

254.以下關(guān)于梯度下降法的描述,錯(cuò)誤的是哪些項(xiàng)?

A、梯度下降法不一定能夠在凸優(yōu)化問(wèn)題中取得全局極值點(diǎn)。

B、梯度下降法一定能夠在凸優(yōu)化問(wèn)題中取得全局極值點(diǎn)。

C、負(fù)梯度方向是函數(shù)上升最快的方向。

D、負(fù)梯度方向是函數(shù)下降最快的方向。

答案:BC

判斷題

1.在定義函數(shù)時(shí),帶有默認(rèn)值的參數(shù)必須出現(xiàn)在參數(shù)列表的最右端,任何一個(gè)帶

有默認(rèn)值的參數(shù)右邊不允許出現(xiàn)沒(méi)有默認(rèn)值的參數(shù)。

A、正確

B、錯(cuò)誤

答案:A

2.函數(shù)局變量會(huì)增加不同函數(shù)之間的隱式耦合度,從而降低代碼可讀性,因此應(yīng)

盡量避免過(guò)多使用全局變量。

A、正確

B、錯(cuò)誤

答案:A

3.標(biāo)注項(xiàng)目質(zhì)量控制流程包括數(shù)據(jù)質(zhì)檢與驗(yàn)收、需求解讀與確認(rèn)、人員培訓(xùn)與任

務(wù)試標(biāo)

A、正確

B、錯(cuò)誤

答案:A

4.互聯(lián)網(wǎng)書籍采集可以及時(shí)、推確、全面地采集國(guó)內(nèi)外媒體網(wǎng)站、新聞網(wǎng)站、行

業(yè)網(wǎng)站、論壇社區(qū)和博客微博等互聯(lián)網(wǎng)媒體發(fā)布的文本、圖片、圖表、音頻、視

頻等各種類型的信息

A、正確

B、錯(cuò)誤

答案:A

5.遷移學(xué)習(xí)能加快模型推理速度。

A、正確

B、錯(cuò)誤

答案:B

6.數(shù)據(jù)的質(zhì)量和數(shù)量是對(duì)模型訓(xùn)練精度影響的關(guān)鍵點(diǎn)之一

A、正確

B、錯(cuò)誤

答案:A

7.Anaconda數(shù)據(jù)科學(xué)平臺(tái)可以安裝TensorFIow框架。

A、正確

B、錯(cuò)誤

答案:A

8.已知x為非空字符串,那么表達(dá)式‘,'.join(x.split,J)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論