版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2024年江西省“天工杯”人工智能訓(xùn)練師職業(yè)技能大賽試題
庫(kù)-下(多選'判斷題匯總)
多選題
1.RNN在NLP領(lǐng)域的應(yīng)用包括(_)o
A、語(yǔ)言模型與文本生成
B、機(jī)器翻譯
C、語(yǔ)音識(shí)別
D、圖像描述生成
答案:ABCD
解析:語(yǔ)言模型與文本生成;機(jī)器翻譯;語(yǔ)音識(shí)別;圖像描述生成;情感分析;對(duì)話
系統(tǒng)等。
2.3D點(diǎn)云常見的任務(wù)有()。
A、3D物體識(shí)別
B、3D物體重建
G3D物體跟蹤
D、3D紋理貼圖
答案:AC
3.Analytics3.0的主要特點(diǎn)有().
A、引入嵌入式分析。
B、重視行業(yè)數(shù)據(jù),而不只是企業(yè)內(nèi)部數(shù)據(jù)。
C、以產(chǎn)品與服務(wù)的優(yōu)化為主要目的。
D、注重規(guī)范性分析。
答案:ABCD
4.下面對(duì)WEB描述正確的是()
A、WEB即全球廣域網(wǎng)
B、WEB即萬維網(wǎng)
C、WEB采用HTTP通訊協(xié)議
D、WEB采用HTTPS通訊協(xié)議
答案:ABCD
5.LSTM應(yīng)用場(chǎng)景應(yīng)用場(chǎng)景有哪些()
A、翻譯語(yǔ)言
B、語(yǔ)音識(shí)別
C、圖像識(shí)別
D、股票預(yù)測(cè)
答案:ABD
解析:C:CNN應(yīng)用于圖像識(shí)別。
6.下面對(duì)數(shù)據(jù)集劃分表達(dá)正確的是()
A、測(cè)試集,訓(xùn)練集,驗(yàn)證集必須來源于同一個(gè)數(shù)據(jù)集
B、測(cè)試集,訓(xùn)練集,驗(yàn)證集可以來源于不同數(shù)據(jù)集
C、模型開發(fā)過程中,可以沒有驗(yàn)證集,但測(cè)試集和訓(xùn)練集必須有
D、模型開發(fā)過程中,可以沒有測(cè)試集,但驗(yàn)證集和訓(xùn)練集必須有
答案:AC
7.下列哪些概念是屬于強(qiáng)化學(xué)習(xí)的。()
A、動(dòng)作
B、環(huán)境和觀察狀態(tài)
C、智能體
D、獎(jiǎng)勵(lì)
答案:ABCD
8.人工智能產(chǎn)品采用B/S架構(gòu),B/S架構(gòu)優(yōu)點(diǎn)是()。
A、只需要在服務(wù)端對(duì)模型進(jìn)行升級(jí)
B、用戶不用為每個(gè)AI應(yīng)用單獨(dú)安裝客戶端軟件
C、數(shù)據(jù)、計(jì)算都在云端,更安全
D、模型計(jì)算在客戶端計(jì)算機(jī)上
答案:ABC
9.下列關(guān)于錯(cuò)誤率和精度描述有誤的是(_)。
A、錯(cuò)誤率是分類錯(cuò)誤的樣本占樣本總數(shù)的比例
B、精度是指分類正確的樣本數(shù)占樣本總數(shù)的比例
C、精度表示統(tǒng)計(jì)分類器預(yù)測(cè)出來的結(jié)果與真實(shí)結(jié)果不相同的個(gè)數(shù),然后除以總
的樣例集D的個(gè)數(shù)
D、錯(cuò)誤率表示用統(tǒng)計(jì)分類正確的樣本數(shù),除以總的樣例集D的個(gè)數(shù)
答案:CD
10.以下那些方法不常用于灰度內(nèi)插值。()
A、最近鄰內(nèi)插法
B、三次內(nèi)插法
C、雙線性內(nèi)插值法
D、三次樣條插值法
答案:ABD
11.下列關(guān)于L1正則化與L2正則化描述正確的是(_)。
A、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
B、L2范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
C、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解
D、L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解
答案:ABC
12.某廠商開發(fā)了一個(gè)聽歌識(shí)曲的應(yīng)用,該應(yīng)用使用了下列哪些技術(shù)()
A、聲紋識(shí)別
B、聲音特征提取
C、聲音特征比對(duì)
D、文本轉(zhuǎn)語(yǔ)音
答案:BC
13.數(shù)據(jù)能力的評(píng)價(jià)方法有哪些
A、評(píng)價(jià)結(jié)果
B、評(píng)價(jià)方法
C、評(píng)價(jià)過程
D、評(píng)價(jià)產(chǎn)品
答案:AC
14.下列()模型是強(qiáng)化學(xué)習(xí)模型
A、DQN
B、AC
C、YOLO
D、UNET
答案:AB
15.市面上哪些產(chǎn)品使用了語(yǔ)音合成技術(shù)。()
A、小米的小愛機(jī)器人
B、喜馬拉雅APP小說智能閱讀
C、微信的語(yǔ)音轉(zhuǎn)寫
D、抖音短視頻AI配音
答案:ABD
16.POC曲線由()和()構(gòu)成。
A、查準(zhǔn)率
B、命中率
C、虛警率
D、準(zhǔn)確率
答案:BC
17.下列關(guān)于密度聚類說法錯(cuò)誤的是(_)。
A、DBSCAN是一種著名的密度聚類算法
B、密度聚類從樣本數(shù)量的角度來考察樣本之間的可連接性
C、密度聚類基于不可連接樣本不斷擴(kuò)展聚類簇易獲得最終的聚類結(jié)果
D、密度直達(dá)關(guān)系通常滿足對(duì)稱性
答案:BCD
18.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的敘述中正確的是()。
A、可用于處理時(shí)間序列數(shù)據(jù)
B、可用于處理圖像數(shù)據(jù)
C、卷積網(wǎng)絡(luò)中使用的卷積運(yùn)算就是數(shù)學(xué)中的卷積計(jì)算
D、至少在網(wǎng)絡(luò)的一層中使用卷積
答案:ABD
解析:神經(jīng)網(wǎng)絡(luò)中的卷積:我們通常是指由多個(gè)并行卷積組成的運(yùn)算。(因?yàn)閱?/p>
個(gè)核只能特區(qū)一種類型的特征,我們usually希望可以在多個(gè)位置提取多個(gè)特征)
輸入也不僅僅是實(shí)值的網(wǎng)格,而是由一系列觀測(cè)數(shù)據(jù)的向量構(gòu)成的網(wǎng)格。我們有
的時(shí)候會(huì)希望跳出核中的一些位置來降低計(jì)算的開銷(相應(yīng)的代價(jià)是提取特征沒
有先前那么好了)我們就把這個(gè)過程看作對(duì)全卷積函數(shù)輸出的下采樣(downslin
g)■如果只是在輸出的每個(gè)方向上每間隔s個(gè)像素進(jìn)行采樣,那么可重新定義一
個(gè)下采樣卷積函數(shù)。我們把s稱為下采樣卷積的步幅(stride)。在任何卷積網(wǎng)
絡(luò)的實(shí)現(xiàn)中都有一個(gè)重要性質(zhì):能夠隱含地對(duì)輸入V用零進(jìn)行填充(pad)使得
它加寬。數(shù)學(xué)中的卷積:考慮到函數(shù)千和g應(yīng)該地位平等,或者說變量x和y
應(yīng)該地位平等,一種可取的辦法就是沿直線x+y=t卷起來。
19.下面關(guān)于L1范式正則化描述正確的是(_)。
A、壓縮感知問題可以通過L1范數(shù)最小化問題求解
B、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)
C、采用L1范數(shù)時(shí)平方誤差項(xiàng)等值線與正則化項(xiàng)等值線的交點(diǎn)常出現(xiàn)在坐標(biāo)軸上
D、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解
答案:ABCD
20.實(shí)踐教學(xué)的四個(gè)圍繞包括()
A、圍繞“基礎(chǔ)”
B、圍繞“產(chǎn)品過程”
C、圍繞“技能”
D、圍繞“熟練”
答案:ABCD
21.Apriori算法是一種最有影響的挖掘布爾關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的算法。其核心
是基于兩階段頻集思想的遞推算法。該關(guān)聯(lián)規(guī)則在分類上屬于(__)、(_)、
(_)規(guī)則。
A、邏輯關(guān)聯(lián)
B、布爾關(guān)聯(lián)
C、單維
D、單層
答案:BCD
22.循環(huán)神經(jīng)網(wǎng)絡(luò)主要被應(yīng)用于哪些場(chǎng)景。()
A、語(yǔ)音識(shí)別
B、語(yǔ)音建模
C、機(jī)器翻譯
D、圖像識(shí)別
答案:ABC
23.大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象有(一)。
A、價(jià)值涌現(xiàn)
B、質(zhì)量涌現(xiàn)
C、隱私涌現(xiàn)
D、數(shù)量涌現(xiàn)
答案:ABC
24.模型部署后,可以不依賴網(wǎng)絡(luò)才能工作的部署方式是()
A、云端部署
B、移動(dòng)端部署
C、邊緣端部署
D、以上都依賴
答案:BC
25.目前LSTM已經(jīng)應(yīng)用到()領(lǐng)域。
A、自然語(yǔ)言處理
B、語(yǔ)音識(shí)別
C、圖像標(biāo)注
D、發(fā)動(dòng)機(jī)
答案:ABC
26.哪些項(xiàng)不屬于使用池化層相比于相同步長(zhǎng)的卷積層的優(yōu)勢(shì)?()
A、參數(shù)更少
B、可以獲得更大下采樣
G速度更快
D、有助于提升精度
答案:BCD
27.循環(huán)神經(jīng)網(wǎng)絡(luò)與普通全連接神經(jīng)網(wǎng)絡(luò)主要區(qū)別是()
A、循環(huán)神經(jīng)網(wǎng)絡(luò)有信息反饋機(jī)制
B、全連接神經(jīng)網(wǎng)絡(luò)輸出與歷史輸入無關(guān)
C、循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出與歷史輸入有關(guān)
D、以上都不是
答案:AB
28.()可以做LSTM學(xué)習(xí)。
A、MATLAB
B\tensorfIow
C、kreas
D\word
答案:ABC
29.遷移學(xué)習(xí)的目的()
A、降低數(shù)據(jù)量
B、加快模型收斂
C、提高模型泛化能力
D、加快模型推理速度
答案:ABC
30.(_)是“黑客精神和技能”。
A、大膽創(chuàng)新
B、喜歡挑戰(zhàn)
C、追求完美
D、不斷改進(jìn)
答案:ABCD
31.關(guān)于TPU,下列說法錯(cuò)誤的是()
A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片
B、TPU是一款專用于數(shù)據(jù)處理的芯片
C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練
D、TPU可以提供高吞吐量的高精度計(jì)算
答案:BD
32.下列關(guān)于嵌入式選擇描述正確的是(_)。
A、嵌入式選擇是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體
B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇
C、對(duì)于嵌入式選擇,特征選擇過程與學(xué)習(xí)器訓(xùn)練過程在同一個(gè)優(yōu)化過程中完成
D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化
答案:ABC
33.模型部署前,需要對(duì)模型進(jìn)行剪枝,下面模型剪枝描述正確的是()
A、模型剪枝目的是加快模型推理速度
B、模型剪枝后通常預(yù)測(cè)精度有所降低
C、模型剪枝后模型的參數(shù)量變少
D、模型剪枝后,模型訓(xùn)練收斂速度提高
答案:ABC
34.確定圖像分割的閾值的方法有(_)。
A、可變閾值法
B、判別分析法
C、中值濾波
D、p尾法
答案:ABD
35.馮?諾伊曼被人們稱為“()”和“。
A、博弈論之父
B、計(jì)算機(jī)之父
C、人工智能之父
D、深度學(xué)習(xí)之父
答案:AB
36.計(jì)算兩個(gè)框的IOU,不可能的值有0
A、-1
B、0
C、2
D、1
答案:AC
37.下面屬于范數(shù)規(guī)則化的作用的是(_)和(_)。
A、保證模型盡可能的簡(jiǎn)單,避免過擬合
B、約束模型特征
C、最小化問題
D、最大化問題
答案:AB
38.下列適用于圖像語(yǔ)義分割技術(shù)的應(yīng)用場(chǎng)景有()
A、CT腫瘤體積計(jì)算
B、眼球圖片血管提取
C、視頻會(huì)議智能更換背景
D、車流統(tǒng)計(jì)
答案:ABC
39.下列關(guān)于交叉驗(yàn)證法描述正確的是(_)。
A、交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集
B、交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性
C、通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證
D、假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交
叉驗(yàn)證法的一個(gè)特例:自助法
答案:ABC
40.下列哪些情況可以通過調(diào)整學(xué)習(xí)率來緩解()
A、模型收斂的太慢,調(diào)大學(xué)習(xí)率
B、模型發(fā)散,調(diào)小學(xué)習(xí)率
C、模型過擬合了
D、模型欠擬合了
答案:AB
41.下面屬于數(shù)據(jù)加工的有(_)o
A、數(shù)據(jù)審計(jì)
B、數(shù)據(jù)清洗
C、數(shù)據(jù)變換
D、數(shù)據(jù)集成
答案:ABCD
42.視頻內(nèi)容審核工作主要有兩個(gè)目的()
A、版權(quán)
B、合規(guī)
G正能量
D、廣告
E、質(zhì)量
答案:AB
43.以下可能會(huì)導(dǎo)致過擬合的是(—)。
A、訓(xùn)練集中含有噪聲樣本
B、訓(xùn)練集中缺乏代表性樣本
C、訓(xùn)練集的樣本數(shù)目過少
D、訓(xùn)練集中樣本的維度過少
答案:AB
44.下列關(guān)于貝葉斯分類器說法正確的是(_)。
A、貝葉斯分類算法是一大類分類算法的總稱
B、貝葉斯分類算法以樣本可能屬于某類的概率作為分類依據(jù)
C、樸素貝葉斯分類算法是貝葉斯分類算法中最簡(jiǎn)單的一種
D、樸素貝葉斯分類算法采用了屬性條件獨(dú)立性假設(shè)
答案:ABCD
45.層次聚類試圖在不同層次對(duì)數(shù)據(jù)集進(jìn)行劃分。這里數(shù)據(jù)集的劃分可采用(_)
或(_)策略。
A、自頂向下
B、自底向上
C、自左至右
D、自右至左
答案:AB
46.深度神經(jīng)網(wǎng)絡(luò)模型按部署端可分為()方式
A、云端部署
B、移動(dòng)端部署
C、邊緣端部署
D、以上都不是
答案:ABC
47.實(shí)現(xiàn)人工神經(jīng)元的方法有(_)。
A、感知器
B、線性單元
GSIGMOD單元
D、決策單元
答案:ABC
48.基于語(yǔ)義的情感詞典方法有(_)等流程。
A、構(gòu)建詞典
B、統(tǒng)計(jì)詞頻
C、構(gòu)建傾向性計(jì)算算法
D\確定閾值
答案:ACD
49.現(xiàn)代計(jì)算機(jī)的CPU是由()、()和存儲(chǔ)單元組成。
A、超導(dǎo)單兀
B、控制單元
C、輸入單元
D、輸出單元
答案:AB
50.關(guān)于《勞動(dòng)法》的相關(guān)規(guī)定,下列說法正確的是()
A、工作時(shí)間(又稱勞動(dòng)時(shí)間),是指法律規(guī)定的勞動(dòng)者在一晝夜和一周內(nèi)從事
生產(chǎn)、勞動(dòng)或工作的時(shí)間。
B、所謂全面保護(hù),是對(duì)勞動(dòng)者權(quán)益和權(quán)能的保護(hù),包括人身權(quán)益和財(cái)產(chǎn)權(quán)利、
法定權(quán)利和約定權(quán)益
C、小王在失業(yè)前公司為他累計(jì)繳費(fèi)失業(yè)保險(xiǎn)6年,他可以領(lǐng)取18個(gè)月的失業(yè)保
險(xiǎn)金
D、勞動(dòng)規(guī)章是勞動(dòng)法的最主要的表現(xiàn)形式
答案:AB
51.下列關(guān)于聚類法方法描述正確的是(_)。
A、k均值算法屬于原型聚類
B、學(xué)習(xí)向量化算法試圖找到一組原型向量來刻畫聚類結(jié)構(gòu)
C、高斯混合聚類采用概念模型來表達(dá)聚類原型
D、學(xué)習(xí)向量化算法屬于層次聚類
答案:AB
52.分類模型的誤差包括(_)。
A、訓(xùn)練誤差
B、泛化誤差
C、再代入誤差
D、表現(xiàn)誤差
答案:ABC
53.人工智能項(xiàng)目開發(fā)過程中,項(xiàng)目成本包括()
A、時(shí)間成本
B、資源成本
C、風(fēng)險(xiǎn)成本
D、市場(chǎng)成本
答案:ABC
54.假陽(yáng)率的其它名稱不正確的是()
A、錯(cuò)誤率
B、虛警率
C、查全率
D、查準(zhǔn)率
答案:ACD
55.下列屬于結(jié)合策略的是(_)。
A、投票法
B、平均法
C、學(xué)習(xí)法
D、排序法
答案:ABC
56.下面描述正確的是()。
A、開運(yùn)算是先腐蝕在膨脹
B、開運(yùn)算是先膨脹在腐蝕
C、閉運(yùn)算是先腐蝕在膨脹
D、閉運(yùn)算是先膨脹在腐蝕
答案:AD
57.人體姿態(tài)數(shù)據(jù)采集時(shí),屬于采集圖像數(shù)據(jù)質(zhì)量要求的是()
A、照片清晰度
B、拍攝光線要求
C、圖片大小
D、姿態(tài)要求
答案:ABD
58.為大數(shù)據(jù)提供基礎(chǔ)設(shè)施服務(wù),有(_)和數(shù)據(jù)計(jì)算、數(shù)據(jù)管理與監(jiān)控、集群服
務(wù),眾包等。
A、數(shù)據(jù)存儲(chǔ)
B、數(shù)據(jù)加工
C、數(shù)據(jù)治理
D、app開發(fā)
答案:ABCD
59.下面對(duì)后向計(jì)算描述錯(cuò)誤的是()
A、后向計(jì)算是模型學(xué)習(xí)過程
B、后向計(jì)算目的是預(yù)測(cè)數(shù)據(jù)結(jié)果
C、后向計(jì)算目的是訓(xùn)練模型參數(shù)
D、后向計(jì)算的時(shí)候容易發(fā)生梯度彌散現(xiàn)象
答案:ACD
60.下列關(guān)于Boosting算法說法正確的是(—)。
A、Boosting算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí)
B、oosting對(duì)無法接受帶權(quán)樣本的基學(xué)習(xí)算法,可通過重采樣法進(jìn)行處理
C、Boosting算法在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條
件
D、一旦當(dāng)前生成的基學(xué)習(xí)器不滿足條件,則當(dāng)前基學(xué)習(xí)器被拋棄,且學(xué)習(xí)過程
停止
答案:ABCD
61.L2正則化描述正確的是()
A、L2正則化是通過絕對(duì)值來約束模型權(quán)重
B、L2正則化是通過平方值來約束模型權(quán)重
C、L2正則化后,不重要的權(quán)重會(huì)被直接約束為0
D、L2正則化后,不重要的權(quán)重絕對(duì)值會(huì)被約束的很小
答案:BD
62.模型使用自監(jiān)督學(xué)習(xí)后,再訓(xùn)練當(dāng)前任務(wù),通常會(huì)使模型()
A、精度更高
B、需要的訓(xùn)練數(shù)據(jù)量降低
C、模型的推理速度更快
D、模型的收斂速度更快
答案:ABD
63.下列關(guān)于隨機(jī)森林說法正確的是(_)。
A、隨機(jī)森林是Bagging的一^1^擴(kuò)展變體
B、隨機(jī)森林在決策樹的訓(xùn)練過程中引入了隨機(jī)屬性選擇
C、隨機(jī)森林簡(jiǎn)單且容易實(shí)現(xiàn)
D、隨機(jī)森林計(jì)算開銷大
答案:ABC
64.訓(xùn)練模型時(shí)候的損失曲線圖,下列哪張圖最有可能是過擬合導(dǎo)致的()
A、1
B、2
C、3
D、4
答案:AC
65.NERF技術(shù)描述正確的是()
A、NERF技術(shù)被稱為神經(jīng)輻射場(chǎng)技術(shù)
B、NERF技術(shù)是通過多角度照片進(jìn)行的三維建模
C、NERF是通過3D點(diǎn)云設(shè)備采集的數(shù)據(jù)進(jìn)行建模
DvNERF技術(shù)通過幾個(gè)角度的對(duì)象照片信息來預(yù)測(cè)該對(duì)象其它角度照片信息
答案:ABD
66.智能問答系統(tǒng)模型結(jié)構(gòu)中編碼器的作用是()。
A、問題輸入
B、答案輸出
C、問題轉(zhuǎn)換為特征
D、特征轉(zhuǎn)換為答案
答案:AC
67.學(xué)習(xí)率變小,可能會(huì)使模型訓(xùn)練的時(shí)候()
A、模型發(fā)散
B、模型收斂速度變慢
C、訓(xùn)練數(shù)據(jù)損失曲線變得平滑
D、模型前向計(jì)算過程加快
答案:BC
68.下面描述錯(cuò)誤的是()。
A、阿爾法狗屬于強(qiáng)人工智能
B、人臉識(shí)別屬于弱人工智能
C、無人駕駛屬于強(qiáng)人工智能
D、工業(yè)機(jī)器人屬于強(qiáng)人工智能
答案:ACD
69.以下關(guān)于機(jī)器學(xué)習(xí)的發(fā)展歷程描述正確的是(—)。
A、機(jī)器學(xué)習(xí)是人工智能研究發(fā)展到一定階段的必然產(chǎn)物
B、二十世紀(jì)五十年代到七十年代出,人工智能研究處于“推理期”
C、圖靈在1950年關(guān)于圖靈測(cè)試的文章中,就曾提到了機(jī)器學(xué)習(xí)的可能
D、人工智能在二十世紀(jì)五十到八十年代經(jīng)歷了“推理期”和“知識(shí)期”
答案:ABCD
70.(_)由兩個(gè)簇的最近樣本決定,(_)由兩個(gè)簇的最遠(yuǎn)樣本決定,(_)由兩
個(gè)簇的所有樣本共同決定。
A、樣本距離
B、最小距離
C、最大距離
D、平均距離
答案:BCD
71.下列制度,()屬于勞動(dòng)標(biāo)準(zhǔn)制度
A、休息休假制度
B、工資制度
C、勞動(dòng)安全衛(wèi)生制度
D、女職工和未成年職工特殊保護(hù)制度
答案:ABCD
72.從互聯(lián)網(wǎng)下載開源數(shù)據(jù)集有()問題需要注意
A、數(shù)據(jù)版權(quán)和授權(quán)方式
B、數(shù)據(jù)有效性
C、數(shù)據(jù)一致性
D、數(shù)據(jù)來源
答案:ABCD
73.以下關(guān)于大數(shù)據(jù)描述正確的是(—)。
A、“涌現(xiàn)”是大數(shù)據(jù)的本質(zhì)特征
B、大數(shù)據(jù)是對(duì)數(shù)量巨大、來源分散、格式多樣的數(shù)據(jù)進(jìn)行采集、存儲(chǔ)和關(guān)聯(lián)分
析
C、促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要是2016年由國(guó)務(wù)院發(fā)布的
D、大數(shù)據(jù)是以容量大'類型多'存取速度快、應(yīng)用價(jià)值高為主要特征的數(shù)據(jù)集
合
答案:ABD
74.模型部署前,需要對(duì)模型進(jìn)行量化,下面常見的量化參數(shù)精度有()
A、doubIe64
B\int8
C、int4
D\int2
答案:BCD
75.圖像識(shí)別技術(shù)的過程分以下幾步:信息的獲取、(_)、(_)、分類器設(shè)計(jì)和
分類決策。
A、辨認(rèn)
B、預(yù)處理
C、統(tǒng)計(jì)
D、特征抽取和選擇
答案:BD
76.以下屬于數(shù)據(jù)科學(xué)的研究目的的是(一)。
A、數(shù)據(jù)洞見
B、數(shù)據(jù)生態(tài)系統(tǒng)建設(shè)
C、數(shù)據(jù)業(yè)務(wù)化
D、數(shù)據(jù)產(chǎn)品的研發(fā)
答案:ABCD
77.適用于內(nèi)容審核場(chǎng)景的有()
A、智能鑒黃
B、違禁違規(guī)
C、暴力犯罪
D\低俗惡趣
E、政治傾向
答案:ABCDE
78.(_)屬于圖像平滑的濾波。
A、盒式濾波
B、雙邊濾波
C、導(dǎo)向?yàn)V波
D、貝葉斯變換
答案:ABC
79.數(shù)據(jù)科學(xué)的基本流程包含(_)。
A、數(shù)據(jù)可視化
B、數(shù)據(jù)加工
C、數(shù)據(jù)化
D、數(shù)據(jù)洞見
答案:BCD
80.半監(jiān)督學(xué)習(xí)中,對(duì)未標(biāo)記樣本所揭示的數(shù)據(jù)分布信息與類別標(biāo)記相聯(lián)系的假
設(shè)的有(_)和(_)。
A、歸納假設(shè)
B、聚類假設(shè)
C、流形假設(shè)
D、基本假設(shè)
答案:BC
81.離散數(shù)據(jù)常用的編碼方式有()。
A、詞向量
B、霍夫曼編碼
C、標(biāo)準(zhǔn)化
D、獨(dú)熱編碼
答案:ABD
82.關(guān)于TPU,下列說法正確的是()
A、TPU是一款專用于機(jī)器學(xué)習(xí)的芯片
B、TPU是一款專用于數(shù)據(jù)處理的芯片
C、TPU能用于深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練
D、TPU可以提供高吞吐量的低精度計(jì)算
答案:ACD
83。.某廠商生產(chǎn)的手機(jī)中有一個(gè)對(duì)語(yǔ)音話機(jī)器人,該機(jī)器人使用了下列哪些技術(shù)
A、聲紋識(shí)別
B、語(yǔ)音識(shí)別
C、文本轉(zhuǎn)語(yǔ)音
D、自然語(yǔ)義問答模型
答案:BCD
84.下列哪些操作會(huì)使得圖像變模糊。()
A、去掉低頻信號(hào),保留高頻信號(hào)
B、去掉高頻信號(hào),保留低頻信號(hào)
C、使用高斯核對(duì)圖像進(jìn)行卷積運(yùn)算
D、使用拉普拉斯核對(duì)圖像進(jìn)行卷積運(yùn)算
答案:BC
85.下面哪些對(duì)3D點(diǎn)云描述正確的是()。
A、3D點(diǎn)云數(shù)據(jù)只有頂點(diǎn)數(shù)據(jù),無線和面的數(shù)據(jù)。
B、3D點(diǎn)云數(shù)據(jù)相對(duì)與完整3D數(shù)據(jù),數(shù)據(jù)量更少,處理起來更高效
C、3D點(diǎn)云技術(shù)常用到自動(dòng)駕駛行業(yè)中
D、可以通過3D點(diǎn)云數(shù)據(jù)完全還原物體的紋理貼圖信息
答案:ABC
86.模型采用WEB部署方式提供服務(wù),哪些協(xié)議是WEB服務(wù)的通訊協(xié)議()
A、HTTP
B、HTTPS
C\UDP
D、TCP
答案:AB
87.下列哪些設(shè)備屬于邊緣計(jì)算設(shè)備?()
A、GTX1080
B、RK3399
GRTX3060
D、JETSONNX
答案:CD
88.下列主流模型中屬于圖像偵測(cè)的模型有()、
A、RCNN
B、UNET
GSEQ2SEQ
D、YOLO
答案:AD
89.下列哪些分布是離散分布。()
A、高斯分布
B、均勻分布
C、伯努利分布
D、多項(xiàng)分布
答案:CD
90.SGD優(yōu)化器中用到了哪些技術(shù)()
A、反向傳播算法
B、小批量學(xué)習(xí)
C、動(dòng)態(tài)學(xué)習(xí)率
D、動(dòng)量學(xué)習(xí)
答案:AB
91.用區(qū)域聚合法分割圖像,要求(_)。
A、各個(gè)點(diǎn)在平面上相鄰接
B、各個(gè)點(diǎn)是在平面上分散
G鄰接點(diǎn)的特征相似
D、點(diǎn)與點(diǎn)之間無關(guān)
答案:AC
92.下列哪些算法可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)()。
A、kNN
B、線性回歸
G邏輯回歸
答案:BC
解析:kNN是一種基于實(shí)例的學(xué)習(xí)算法,不具有任何訓(xùn)練參數(shù)。因此不能用來構(gòu)
造神經(jīng)網(wǎng)絡(luò),線性回歸和邏輯回歸都可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)模型,其實(shí)二者就是
單神經(jīng)元的神經(jīng)網(wǎng)絡(luò)。
93.企業(yè)應(yīng)用包括(_)和人力資本、金融、生產(chǎn)能力、后臺(tái)自動(dòng)化等。
A、銷售
B、營(yíng)銷
C、法律
D、客戶服務(wù)
答案:ABCD
94.對(duì)圖像生成模型描述正確的是()。
A、圖像生成模型是通過特征轉(zhuǎn)換為圖像
B、圖像生成模型是通過圖像轉(zhuǎn)化為特征
C、圖像生成模型是無監(jiān)督學(xué)習(xí)
DxGAN是生成模型
答案:ACD
95.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過引入(_)和(_)
而得
A、層級(jí)結(jié)構(gòu)
B、高維映射
C、降維
D、分類
答案:AB
96.適用于推薦系統(tǒng)的業(yè)務(wù)場(chǎng)景的有()。
A、新聞分發(fā)
B、電商首頁(yè)商品展示
C、短視頻推送
D、電商商品自動(dòng)評(píng)價(jià)
答案:ABC
97.下面哪些計(jì)算卡是邊緣計(jì)算卡()
A、TesIaA100
BvJetsonNano
GRK3399PR0
D、HI3559A
答案:BCD
98.卷積神經(jīng)網(wǎng)絡(luò)可以用于()。
A、圖像分類
B、目標(biāo)提取
C、圖像分割
D、中文分詞
答案:ABC
99.(_)是數(shù)據(jù)科學(xué)的主要理論基礎(chǔ)之一。
A、機(jī)器學(xué)習(xí)
B、統(tǒng)計(jì)學(xué)
C、數(shù)據(jù)
D、黑客精神與技能
答案:AB
100.以下()屬于常見語(yǔ)音數(shù)據(jù)異常。
A、丟幀
B、噴麥
C、重音
D、音調(diào)較高
答案:ABC
101.NPU特點(diǎn)描述錯(cuò)誤的是()o
A、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型推理
B、擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練
C、功耗圖
D、功耗低
答案:BC
102.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法?()
A、減少mini_batch大小
B、移除一些卷積層
C、減少圖片輸入大小
D、增加激活函數(shù)
答案:ABC
103.召回率的其它名稱為()
A、正確率
B、查全率
C、命中率
D、查準(zhǔn)率
答案:BC
104.以下說法正確的是()。
A、負(fù)梯度方向是使函數(shù)值下降最快的方向
B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局最優(yōu)解
C、梯度下降法比牛頓法收斂速度快
D、擬牛頓法不需要計(jì)算Hesse矩陣
答案:ABD
解析:牛頓法是二階收斂,梯度下降是一階收斂,所以牛頓法就更快。
105.對(duì)于正交屬性空間中的樣本點(diǎn),若存在一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)?shù)谋?/p>
達(dá),則這樣的超平面應(yīng)具有(_)和(_)的性質(zhì)。
A、最近重構(gòu)性
B、最大可分性
C、最遠(yuǎn)重構(gòu)性
D、最小可分性
答案:AB
106.()和()被分別成為“計(jì)算機(jī)之父”和“計(jì)算機(jī)科學(xué)之父”
A\圖斯
B、費(fèi)曼
C、馮?諾伊曼
D、圖靈
答案:CD
107.下列對(duì)誤差值與錯(cuò)誤值描述錯(cuò)誤的是()。
A、錯(cuò)誤值不可以消除
B、錯(cuò)誤值可以消除
C、誤差值不可消除
D、誤差值可以消除
答案:AD
108.下面對(duì)SEQ2SEQ描述正確的是()。
A、它是一種編解碼結(jié)構(gòu)
B、輸入輸出序列長(zhǎng)度必須一致
C、輸入輸出都是序列數(shù)據(jù)
D、語(yǔ)言翻譯比較適合這種結(jié)構(gòu)
答案:ACD
109.人工智能項(xiàng)目開發(fā)過程中,輸入輸出分析包括()
A、輸入數(shù)據(jù)的來源
B、輸入數(shù)據(jù)的內(nèi)容
C、輸入數(shù)據(jù)的格式
D、輸出數(shù)據(jù)的內(nèi)容
答案:BCD
110.表達(dá)高斯分布,需要哪些參數(shù)()。
A、偏差
B、期望
C、均值
D、方差
答案:CD
111.下列對(duì)MSE指標(biāo)和MAE指標(biāo)描述正確的是()
A、MAE指標(biāo)值越大,模型精度越低。
B、MAE指標(biāo)值越大,模型精度越高
C、MSE指標(biāo)值越大,模型精度越低
D、MSE指標(biāo)值越大,模型精度越高
答案:AC
112.人工智能產(chǎn)品采用C/S架構(gòu),C和S分別是()。
A、客戶端
B、網(wǎng)頁(yè)端
C、服務(wù)端
D、數(shù)據(jù)端
答案:AC
113.P-R曲線由()和()構(gòu)成。
A、查準(zhǔn)率
B、查全率
C、準(zhǔn)確率
D、錯(cuò)誤率
答案:AB
114.常見的插補(bǔ)缺失值方法有()。
A、均值插補(bǔ)
B、同類均值插補(bǔ)
G多重插補(bǔ)
D、極大似然估計(jì)
答案:ABCD
115.在ROC空間中,以(_)為橫軸,以(_)為縱軸。
A、TPrate
B、FNrate
C、FPrate
D、TNrate
答案:AC
116.數(shù)據(jù)戰(zhàn)略的影響因素(_)。
A、當(dāng)前業(yè)務(wù)需求
B、潛在風(fēng)險(xiǎn)
C、數(shù)據(jù)戰(zhàn)略范疇
D\未來需求
答案:ABD
117.手勢(shì)識(shí)別需要用到的技術(shù)有()。
A、圖像偵測(cè)
B、圖像超分
C、關(guān)鍵點(diǎn)檢測(cè)
D、圖像生成
答案:AC
118.下面屬于探索性分析主要關(guān)注的四大主題的有(_)。
A、耐抗性
B、方差
C、重新表達(dá)
D、啟K
答案:ACD
119.車牌識(shí)別的用到了哪些人工智能圖像處理技術(shù)。()
A、圖像關(guān)鍵點(diǎn)定位
B、圖像生成
C、圖像文本識(shí)別
D、圖像語(yǔ)義分割
答案:CD
120.關(guān)于梯度消失和梯度消失,以下說法正確的是:(_)。
A、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都小
于1的話,那么即使這個(gè)結(jié)果是0.99,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入
層的偏導(dǎo)會(huì)趨于0
B、可以采用ReLU激活函數(shù)有效的解決梯度消失的情況
C、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都大
于1的話,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于無窮大
D、可以通過減小初始權(quán)重矩陣的值來緩解梯度爆炸
答案:ABCD
解析:使用標(biāo)準(zhǔn)化初始w,那么各個(gè)層次的相乘都是07之間的小數(shù),而激活函
數(shù)千的導(dǎo)數(shù)也是07之間的數(shù),其連乘后,結(jié)果會(huì)變的很小,導(dǎo)致梯度消失。若
我們初始化的w是很大的數(shù),w大到乘以激活函數(shù)的導(dǎo)數(shù)都大于1,那么連乘后,
可能會(huì)導(dǎo)致求導(dǎo)的結(jié)果很大,形成梯度爆炸。
121.常用的Python科學(xué)計(jì)算庫(kù)有()。
A、Numpy
B、SciKit-learn
C、Pandas
D\SciPy
答案:ABCD
122.下面哪些是基于核的機(jī)器學(xué)習(xí)算法(_)。
A、最大期望算法
B、徑向基核函數(shù)
C、線性判別分析法
D、支持向量機(jī)
答案:BCD
解析:SVM(可支持向量機(jī)),KFD(基于核的Fisher判別分析),KPCA(核成
分分析)。徑向基函數(shù)核(RadiaIBasisFunction,RBFkerneI),也被稱為高斯
核(GaussiankerneI)或平方指數(shù)核(SquaredExponentiaI.,SEkerneI)[1],
是常見的核函數(shù)(kerneIfunction)oRBF核被應(yīng)用各類核學(xué)習(xí)(kernellearni
ng)算法中,包括支持向量機(jī)(SupportVectorMachine,SVM)x高斯過程回歸(G
aussianProcessRegression,GPR)等。
123.P{H|X}是給定觀測(cè)值X條件下H出現(xiàn)的概率,統(tǒng)稱為(_)。
A、先驗(yàn)概率
B、后驗(yàn)概率
C、條件概率
D、模型
答案:BC
124.下面哪些英文縮寫是正確的()
A、語(yǔ)音識(shí)別,ASR
B、文本轉(zhuǎn)語(yǔ)音TTS
G文本閱讀OCR
D、聲紋識(shí)別VPR
答案:AB
125.下面哪些深度學(xué)習(xí)模型使用了Transformer網(wǎng)絡(luò)結(jié)構(gòu)()
A、GPT
B、AE
C、BERT
D、GAN
答案:AC
126.下列對(duì)誤差值與錯(cuò)誤值描述正確的是()。
A、錯(cuò)誤值不可以消除
B、錯(cuò)誤值可以消除
C、誤差值不可消除
D、誤差值可以消除
答案:BC
127.圖像處理中的開運(yùn)算是先對(duì)圖像進(jìn)行()操作,再對(duì)圖像進(jìn)行()
A、低通濾波
B、腐蝕
C、局通濾波
D、膨脹
答案:BD
128.屬于數(shù)據(jù)變換的類型有(_)。
A、平滑處理
B、聚類
C、標(biāo)準(zhǔn)化
D、特征構(gòu)造
答案:ABD
129.導(dǎo)致模型過擬合的原因有()
A、數(shù)據(jù)質(zhì)量低
B、數(shù)據(jù)量少
C、模型規(guī)模太大
D、模型參數(shù)量太少
答案:BC
130.Transformer網(wǎng)絡(luò)結(jié)構(gòu)中,包含()子網(wǎng)絡(luò)結(jié)構(gòu)
A、CNN
B、RNN
C、MLP
D、ATTENTION
答案:CD
131.下面那些函數(shù)屬于常用的激活函數(shù)。()
A、Sigmoid
B、Tanh
C\Mean
D、ReIu
答案:ABD
132.支持向量機(jī)中定義的間隔值為w的二范式的-2次方,這樣看間隔貌似僅與
權(quán)重W有關(guān),這意味著偏置項(xiàng)b(_)o
A、沒有任何意義
B、對(duì)間隔不會(huì)產(chǎn)生影響
C、通過約束隱式地影響著w的取值
D、對(duì)間隔會(huì)產(chǎn)生影響
答案:CD
133.感知機(jī)能容易實(shí)現(xiàn)邏輯(_)、(_)、(_)運(yùn)算
A、加減
B、與
C、或
D、非
答案:BCD
134.人工智能模型開發(fā)過程中,數(shù)據(jù)方案包括數(shù)據(jù)采集,()方面的內(nèi)容
A、數(shù)據(jù)清洗
B、數(shù)據(jù)標(biāo)準(zhǔn)化
C、數(shù)據(jù)標(biāo)注
D、數(shù)據(jù)增強(qiáng)
答案:ACD
135.在知識(shí)圖譜中下列概念屬于實(shí)體的是()。
A、人名
B、地名
C、父子
D、商品名
答案:ABD
136.OCR中使用到的圖像技術(shù)有()。
A、圖像偵測(cè)
B、圖像生成
C、圖像識(shí)別
D、圖像定點(diǎn)
答案:AC
137.下面關(guān)于L1范式正則化描述正確的是(_)o
A、L1范數(shù)正則化使得學(xué)習(xí)得到的結(jié)果滿足稀疏化,從而方便人們提取特征
B、L1范數(shù)是指向量中各個(gè)元素絕對(duì)值之和
C、L1范數(shù)正則化也有個(gè)美稱叫“稀疏規(guī)則算子”
D、壓縮感知問題可以通過L1范數(shù)最小化問題求解
答案:ABCD
138.通過爬蟲技術(shù)從互聯(lián)網(wǎng)上爬取數(shù)據(jù)有()潛在的法律問題
A、容易IP地址被封
B、容易造成被爬取對(duì)象的服務(wù)器負(fù)載提高
C、容易爬取到侵權(quán)數(shù)據(jù)
D、容易違反計(jì)算機(jī)信息安全罪
答案:CD
139.以下能力中,數(shù)據(jù)工程師需要具備的能力或素質(zhì)是()。
A、數(shù)據(jù)洞見
B、數(shù)據(jù)的ETL操作
C、數(shù)據(jù)的備份與恢復(fù)
D、主數(shù)據(jù)管理及數(shù)據(jù)集成
答案:BCD
140.灰度圖像,高為128,寬為256,3張圖片同時(shí)輸入到人工智能模型中,格
式為NHWC,那不是NHWC值的是()。
A、(5,3,256,128)
B、(5,1,128,256)
G(5,256,128,1)
D、(5,128,256,1)
答案:ABC
141.模型測(cè)試評(píng)估方案應(yīng)包括()內(nèi)容。
A、測(cè)試數(shù)據(jù)集的制作
B、測(cè)試環(huán)境的搭建
C、測(cè)試用例的編寫
D、測(cè)試指標(biāo)的制定
答案:ABC
142.模型蒸播是模型優(yōu)化中的重要技術(shù),下面對(duì)模型蒸僧描述正確的是()。
A、模型蒸播會(huì)對(duì)教師模型參數(shù)進(jìn)行改變
B、模型蒸鐳是把大模型的知識(shí)傳遞給小模型
C、模型蒸僧是為了加快模型的推理速度
D、模型蒸播是教師學(xué)生訓(xùn)練模型
答案:BCD
143.以下對(duì)大數(shù)據(jù)4V特性描述正確的是(—)。
A、Value是指價(jià)值密度低
B、大數(shù)據(jù)中所說的“速度”包括兩種:計(jì)算速度和處理速度
C、大數(shù)據(jù)時(shí)間分布是不均勻的
D、在大數(shù)據(jù)中,價(jià)值價(jià)值與數(shù)據(jù)總量的大小存在線性關(guān)系
答案:AC
144.根據(jù)《促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要》(國(guó)發(fā)〔2015〕50號(hào)),大數(shù)據(jù)的主要
特征包括
A、容量大
B、類型多
C、存取速度快
D、價(jià)值密度低
答案:ABCD
145.模型訓(xùn)練完成后,在部署前,對(duì)模型進(jìn)行優(yōu)化的手段有()
A、量化
B\加先驗(yàn)
G蒸播
D、剪枝
答案:ACD
146.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(_)和數(shù)據(jù)的管理與獲取、結(jié)果的
可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。
A、模式/模型的應(yīng)用和維護(hù)
B、項(xiàng)目目標(biāo)定義
C、項(xiàng)目成本控制
D、模式/模型的洞見
答案:ABD
147,基于統(tǒng)計(jì)的分詞方法的優(yōu)點(diǎn)有(_)。
A、分速度快
B、效率高
C、結(jié)合上下文識(shí)別生詞
D、消除歧義
答案:ABCD
148.關(guān)于Dropout說法正確的是:(—)。
A、Dropout背后的思想其實(shí)就是把DNN當(dāng)做一個(gè)集成模型來訓(xùn)練,之后取所有
值的平均值,而不只是訓(xùn)練單個(gè)DNN
B、DNN網(wǎng)絡(luò)將Dropout率設(shè)置為p,也就是說,一個(gè)神經(jīng)元被保留的概率是1-p。
當(dāng)一個(gè)神經(jīng)元被丟棄時(shí),無論輸入或者相關(guān)的參數(shù)是什么,它的輸出值就會(huì)被設(shè)
置為0
C、丟棄的神經(jīng)元在訓(xùn)練階段,對(duì)BP算法的前向和后向階段都沒有貢獻(xiàn)。因?yàn)檫@
個(gè)原因,所以每一次訓(xùn)練,它都像是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)
D\ropout方法通常和L2正則化或者其他參數(shù)約束技術(shù)(比如MaxNorm)一起使
用,來防止神經(jīng)網(wǎng)絡(luò)的過擬合
答案:ABCD
解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一
定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來說,由于是
隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。防止過擬合的方法:
提前終止(當(dāng)驗(yàn)證集上的效果變差的時(shí)候);L1和L2正則化加權(quán);softweightsh
aringDropoutoropout率的選擇:經(jīng)過交叉驗(yàn)證,隱含節(jié)點(diǎn)dropout率等于0.
5的時(shí)候效果最好,原因是0.5的時(shí)候dropout隨機(jī)生成的網(wǎng)絡(luò)結(jié)構(gòu)最多。drop
out也可以被用作一種添加噪聲的方法,直接對(duì)input進(jìn)行操作。輸入層設(shè)為更
接近1的數(shù)。使得輸入變化不會(huì)太(0.8)。
149.下列哪種音頻格式無損的?()
A、pe
B、wav
C、mp3
D、aac
答案:AB
150.下面不屬于探索性統(tǒng)計(jì)中常用數(shù)據(jù)分布統(tǒng)計(jì)量的是(_)。
A、殘差
B、偏態(tài)
C、峰態(tài)
D、眾數(shù)
答案:AD
151.當(dāng)閔可夫斯基距離公式中的系數(shù)p值為1時(shí),可得到(_)的公式。
A、歐氏距離
B、曼哈頓距離
C、街區(qū)距離
D、切比雪夫距離
答案:BC
152.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)
和(_)四種。
A、深度學(xué)習(xí)
B、示教學(xué)習(xí)
C、類比學(xué)習(xí)
D、歸納學(xué)習(xí)
答案:BCD
153.常見的圖像判別類任務(wù)有()
A、圖像創(chuàng)作
B、圖像語(yǔ)義分割
C\圖像偵測(cè)
D、圖像識(shí)別
答案:BCD
154.人工智能模型開發(fā)過程中,模型研發(fā)方案應(yīng)該包含()
A、模型實(shí)施方案
B、數(shù)據(jù)方案
C、模型設(shè)計(jì),訓(xùn)練,優(yōu)化方案
D、模型測(cè)試評(píng)估方案
答案:BCD
155.多模態(tài)數(shù)據(jù)通常包含()數(shù)據(jù)。
A、文本
B、語(yǔ)音
C、圖片
D、視頻
答案:ABCD
156.端到端設(shè)計(jì)的優(yōu)勢(shì)是()
A、模型結(jié)構(gòu)設(shè)計(jì)更靈活容易
B、容易使用多模態(tài)輸入
C、容易解釋模型工作過程
D、不需要人工提取數(shù)據(jù)特征
答案:ABD
157.數(shù)據(jù)科學(xué)項(xiàng)目主要涉及的角色有(_)和項(xiàng)目發(fā)起人'客戶'項(xiàng)目經(jīng)理。
A、數(shù)據(jù)科學(xué)家
B、領(lǐng)域?qū)<?/p>
C、數(shù)據(jù)工程師
D、操作人員
答案:ACD
158.數(shù)據(jù)標(biāo)準(zhǔn)化的目的為()。
A、約束輸入數(shù)據(jù)的值范圍
B、把輸入數(shù)據(jù)的分布變?yōu)闃?biāo)準(zhǔn)正太分布
C、使得輸入數(shù)據(jù)的分布服從均值為0,方差為1
D、對(duì)數(shù)據(jù)做歸一化操作
答案:AC
159.下列關(guān)于偏差、方差、均方差、泛化誤差描述有誤的是(_)。
A、方差度量了學(xué)習(xí)算法的期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度。
B、偏差度量了同樣大小的訓(xùn)I練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化。
C、泛化誤差表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,
即刻畫了學(xué)習(xí)問題本身的難度。
D、泛化誤差可分解為偏差、方差與噪音之和。
答案:ABC
160.CPU和GPU分別稱為()和()
A、運(yùn)算控制器
B、中央處理器
C、存儲(chǔ)控制器
D、圖形處理器
答案:CD
161.關(guān)于Python,下列說法正確的是()
A、Python擁有一個(gè)很棒的語(yǔ)言庫(kù)生態(tài)環(huán)境,歷史上也一直都是科學(xué)計(jì)算和數(shù)據(jù)
分析的重要工具
B、Python之所以適合AI項(xiàng)目,其實(shí)也是基于Python的很多有用的庫(kù)都可以在
AI中使用
C、有高效率的高層數(shù)據(jù)結(jié)構(gòu),簡(jiǎn)單而有效地實(shí)現(xiàn)面向?qū)ο缶幊獭?/p>
DxPython既支持面向過程的函數(shù)編程也支持面向?qū)ο蟮某橄缶幊獭?/p>
答案:ABCD
162.下列屬于半監(jiān)督學(xué)習(xí)方法的是(_)。
A、半監(jiān)督支持向量機(jī)
B、圖半監(jiān)督學(xué)習(xí)
C、生成式方法
D、支持向量機(jī)
答案:ABC
163.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接
點(diǎn)的系數(shù)降至0附近。
A、同態(tài)濾波
B\圖斯濾波
C、巴特沃斯濾波
D、中值濾波
答案:BC
164.下面()框架是深度學(xué)習(xí)研發(fā)框架
A、Seikit-Learn
B\Pytorch
C、TensorfIow
D、PaddIePaddIe
答案:BCD
165.深度學(xué)習(xí)可進(jìn)一步分為(_)。
A、無監(jiān)督和生成式學(xué)習(xí)深度網(wǎng)絡(luò)
B、半監(jiān)督深度神經(jīng)網(wǎng)絡(luò)
C、監(jiān)督學(xué)習(xí)深度網(wǎng)絡(luò)
D、混合深度網(wǎng)絡(luò)
答案:ACD
166.(_)不屬于元分析方法。
A、加權(quán)平均法
B、優(yōu)化方法
C、時(shí)序法
D、關(guān)聯(lián)法
答案:CD
167.數(shù)據(jù)清洗的目的是()
A、檢查數(shù)據(jù)的一致性
B、處理無效值
C、處理重復(fù)數(shù)據(jù)
D、處理缺失值
答案:ABCD
168.下列哪些現(xiàn)象屬于乘性噪聲。()
A、電視光柵的退化
B、二值圖像上的胡椒鹽噪聲
C、信道傳輸受擾
D、膠片材料的退化
答案:AD
169.在模型評(píng)估與度量的方法中,下列描述正確的是(_)。
A、在留出法中,如果從采樣的角度來看待數(shù)據(jù)集劃分的過程,則保留類別比例
的采樣方式通常稱為分層采樣
B、通常,我們可通過實(shí)驗(yàn)測(cè)試來對(duì)學(xué)習(xí)器的泛化誤差進(jìn)行評(píng)估并進(jìn)而做出選擇。
C、我們需要一個(gè)測(cè)試集來測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力
D、測(cè)試樣本不可從樣本真實(shí)分布中獨(dú)立同分布采樣而得
答案:ABC
170.(_)是圖像降噪的方法。
A、空間域合成法
B、中值濾波器
C、最小值濾波
D、非線性小波變換
答案:ABCD
171.目前比較流行的深度學(xué)習(xí)框架包括()。
A、Pytorch
B\TensorfIow
C、SciPy
D\PaddIePaddIe
答案:ABD
172.關(guān)于我國(guó)自有的深度學(xué)習(xí)框架,下列說法正確的是()
A、我國(guó)自有的深度學(xué)習(xí)框架是PyTorch
B\PaddlePaddle屬于百度的深度學(xué)習(xí)框架
C、PaddIeOCR旨在打造一套豐富、領(lǐng)先且實(shí)用的OCR工具庫(kù)
D、PaddIeOCR屬于飛槳文字識(shí)別開發(fā)套件
答案:BCD
173.數(shù)據(jù)科學(xué)的基本流程包含(_)。
A、數(shù)據(jù)產(chǎn)品的提供
B、數(shù)據(jù)應(yīng)用
C、結(jié)果展示
D、數(shù)據(jù)可視化
答案:AC
174.大數(shù)據(jù)的主要特征(一)。
A、容量大
B、類型多
C、存取速度快
D、應(yīng)用價(jià)值高
答案:ABCD
175.下列哪些場(chǎng)景使用了語(yǔ)音喚醒技術(shù)。()
A、語(yǔ)音控制空調(diào)開關(guān)
B、智能翻譯筆
C、微信聊天語(yǔ)音轉(zhuǎn)文本
D、啟動(dòng)小米音響需要說“你好,小愛”
答案:AD
176.下列哪些情況不可能是學(xué)習(xí)率太大導(dǎo)致的()
A、模型收斂的太慢
B、模型無法收斂,并發(fā)散崩潰
C、模型迅速收斂到損失函數(shù)最小值
D、模型內(nèi)部參數(shù)大部分變?yōu)?
答案:ACD
177.使用人工智能技術(shù)監(jiān)控電梯間電動(dòng)車駛?cè)氲膬?yōu)勢(shì)有()
A、發(fā)現(xiàn)電梯間駛?cè)腚妱?dòng)車,及時(shí)告警并通知物業(yè)人員
B、提高工作監(jiān)管效率
C、后臺(tái)可隨時(shí)查看統(tǒng)計(jì)記錄,回看違規(guī)事件
答案:ABC
178.圖結(jié)構(gòu)可以分為()
A、有向圖
B、無向圖
C\有關(guān)系圖
D\無關(guān)系圖
答案:AB
179.下列哪些業(yè)務(wù)場(chǎng)景使用了語(yǔ)音合成。()
A、I同傳
B、小說智能閱讀
C\視頻AI字幕
D、地震預(yù)警語(yǔ)音播報(bào)
答案:BD
180.數(shù)據(jù)清洗的目的是()。
A、檢查數(shù)據(jù)的一致性
B、處理無效值
C、處理缺失值
D、處理重復(fù)數(shù)據(jù)
答案:ABCD
181.從行為目的與思維來看,數(shù)據(jù)統(tǒng)計(jì)方法可以分為(_)。
A、描述統(tǒng)計(jì)
B、洞見統(tǒng)計(jì)
C、推斷統(tǒng)計(jì)
D、歸納統(tǒng)計(jì)
答案:AC
182.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)可以分為()和隨機(jī)型網(wǎng)絡(luò)等。
A、前向型
B、后向型
C、反饋型
D、自組織競(jìng)爭(zhēng)型
答案:ACD
解析:神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)有前向型、反饋型、自組織競(jìng)爭(zhēng)型和隨機(jī)型網(wǎng)絡(luò)等。
183.下列關(guān)于支持向量的說法錯(cuò)誤的是(_)。
A、支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之內(nèi)
B、支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之外
C、支持向量回歸機(jī)的支持向量只占訓(xùn)練集的一部分
D、訓(xùn)練集中的全部樣本都是支持向量
答案:BD
184.下列關(guān)于EM算法描述正確的是(_)。
A、EM算法是常用的估計(jì)參數(shù)隱變量的利器
B、EM算法即是期望最大化算法
C、EM算法常被用來學(xué)習(xí)高斯混合模型的參數(shù)
D、EM算法是一種迭代式的方法
答案:ABCD
185.模型部署前,需要對(duì)模型進(jìn)行量化,量化通常會(huì)()
A、降低模型預(yù)測(cè)精度
B、提高模型推理速度
C、模型訓(xùn)練時(shí)候加快收斂
D、提高模型泛化能力
答案:AB
186.人工智能可以分為:弱人工智能階段、()、()。
A、強(qiáng)人工智能階段
B、超人工智能階段
C、快速人工智能階段
D、虛擬人工智能階段
答案:AB
187.數(shù)據(jù)戰(zhàn)略等于(_)之“和”。
A、數(shù)據(jù)管理目標(biāo)
B、行動(dòng)方案
C、目標(biāo)管理
D、動(dòng)態(tài)機(jī)制
答案:ABC
188.數(shù)據(jù)戰(zhàn)略的基本問題有(_)。
A、數(shù)據(jù)戰(zhàn)略的定位
B、數(shù)據(jù)戰(zhàn)略的目標(biāo)
C、數(shù)據(jù)戰(zhàn)略的側(cè)重點(diǎn)
D、數(shù)據(jù)戰(zhàn)略的范疇
答案:ABCD
189.圖像數(shù)據(jù)增強(qiáng)的目的是()。
A、增加樣本數(shù)據(jù)量
B、增加樣本多樣性
C、提高模型推理速度
D、提高模型泛化能力
答案:ABD
190.以下哪些產(chǎn)品屬于數(shù)據(jù)產(chǎn)品
A、數(shù)據(jù)報(bào)表平臺(tái)
B、DMP
C、搜索與精準(zhǔn)化產(chǎn)品
D、風(fēng)控產(chǎn)品
答案:ABCD
191.下列數(shù)據(jù)中,哪些樣本的期望為0.2。()
A、正樣本值為0.4,負(fù)樣本值為-0.2,正樣本數(shù)量為20,負(fù)樣本數(shù)量為30
B、正樣本值為0.2,負(fù)樣本值為0,正樣本數(shù)量為15,負(fù)樣本數(shù)量為35
C、正樣本值為1,負(fù)樣本值為0,正樣本數(shù)量為20,負(fù)樣本數(shù)量為80
D、正樣本值為1,負(fù)樣本值為-1,正樣本數(shù)量為60,負(fù)樣本數(shù)量為40
答案:AB
192.訓(xùn)練CNN時(shí),GPU顯存溢出,此時(shí)可以采取什么辦法()
A、減少mini_batch大小
B、移除一些卷積層
C、減少圖片輸入大小
D、增加激活函數(shù)
答案:ABC
解析:D:反而會(huì)加重負(fù)擔(dān)。
193.下列關(guān)于學(xué)習(xí)器的性能度量說法正確的是(_)。
A、對(duì)于二分類問題,可將樣例根據(jù)其真實(shí)類別與學(xué)習(xí)器預(yù)測(cè)類別的組合劃分為:
真正例、假正例、真反例、假反例
B、查準(zhǔn)率和查全率是一對(duì)矛盾的度量
C、一般來說,查準(zhǔn)率越高,查全率往往也偏高
D、一般來說,查準(zhǔn)率越高,查全率往往偏低
答案:ABD
194.SEQ2SEQ網(wǎng)絡(luò)結(jié)構(gòu)適合于哪些常見場(chǎng)景()。
A、翻譯
B、問答
C、分類
D、回歸
答案:AB
195.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)?()
A、參數(shù)更少
B、泛化更好
C、訓(xùn)練更快
D、更容易搭建
答案:ABC
196.下圖屬于圖像中包含了哪些人工智能圖像任務(wù)()
A、圖像偵測(cè)
B、圖像生成
C、圖像檢)則
D、圖像語(yǔ)義分割
答案:ACD
197.以下對(duì)數(shù)據(jù)描述正確的是(—)。
A、數(shù)據(jù)只包含顯性數(shù)據(jù)和隱性數(shù)據(jù)
B、數(shù)值是數(shù)據(jù)的一種形式
C、數(shù)據(jù)到智慧是人們認(rèn)知提升的過程
D、數(shù)據(jù)是現(xiàn)實(shí)世界的記錄
答案:BCD
198.人工智能項(xiàng)目開發(fā)流程包括()
A、需求分析
B、模型研發(fā)
C、實(shí)施部署
D、文檔交付
答案:ABCD
199.從結(jié)構(gòu)化角度來看,數(shù)據(jù)可分為(一)。
A、結(jié)構(gòu)化數(shù)據(jù)
B、非結(jié)構(gòu)化數(shù)據(jù)
C、無結(jié)構(gòu)化數(shù)據(jù)
D、半結(jié)構(gòu)化數(shù)據(jù)
答案:ABD
200.數(shù)據(jù)產(chǎn)品的存在和表現(xiàn)形式有(_)和數(shù)據(jù)類產(chǎn)品。
A、情感類產(chǎn)品
B、信息類產(chǎn)品
C、知識(shí)類產(chǎn)品
D、智慧類產(chǎn)品
答案:BCD
201.按標(biāo)注的實(shí)現(xiàn)層次,數(shù)據(jù)標(biāo)注可以分為(_)。
A、語(yǔ)義標(biāo)注
B、圖像標(biāo)注
C、語(yǔ)法標(biāo)注
D、文字標(biāo)注
答案:AC
202.(_)可以幫助解決訓(xùn)練集在特征空間中線性不可分的問題。
A、硬間隔
B、軟間隔
C、核函數(shù)
D、拉格朗日乘子法
答案:BC
203.訓(xùn)練深度神經(jīng)完了過的時(shí)候,下面那種現(xiàn)象可能是梯度彌散導(dǎo)致的()
A、無論輸入什么數(shù)據(jù),模型輸出為始終Nan
B、無論輸入什么數(shù)據(jù),前向計(jì)算的結(jié)果都不再變化或變化特別小,且不為Nan
C、后向計(jì)算的時(shí)候,靠近輸出入的層的模型權(quán)重不再變化。
D、損失函數(shù)的輸出結(jié)果越來越大
答案:BC
204.下列表示同一種學(xué)習(xí)方法的是(_)。
A、集成學(xué)習(xí)
B、多分類器系統(tǒng)
C、基于委員會(huì)的學(xué)習(xí)
D、平均策略
答案:ABC
205.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,sigmoid函數(shù)可用作(_)。
A、損失函數(shù)
B、優(yōu)化函數(shù)
C、激活函數(shù)
D、響應(yīng)函數(shù)
答案:CD
206.下面對(duì)學(xué)習(xí)率描述正確的是()
A、學(xué)習(xí)率越大,模型收斂越快,但也可能導(dǎo)致模型發(fā)散
B、學(xué)習(xí)率越小,模型收斂越慢,但也可能導(dǎo)致模型發(fā)散
C、學(xué)習(xí)率越大,模型越不容易陷入局部最小值
D、學(xué)習(xí)率越小,模型越不容易陷入局部最小值
答案:AC
207.人工智能模型開發(fā)過程中,不屬于模型研發(fā)階段的工作是()
A、輸入輸出分析
B、數(shù)據(jù)方案
C、模型設(shè)計(jì)
D、指標(biāo)制定
答案:BC
208.下列對(duì)強(qiáng)化學(xué)習(xí)描述正確的是()
A、強(qiáng)化學(xué)習(xí)是加強(qiáng)正確動(dòng)作的發(fā)生概率,降低錯(cuò)誤動(dòng)作的發(fā)生概率
B、強(qiáng)化學(xué)習(xí)是一種獎(jiǎng)懲學(xué)習(xí)
C、AlphaG。是一種下圍棋的強(qiáng)化學(xué)習(xí)模型
D、圖像識(shí)別是通過強(qiáng)化學(xué)習(xí)來實(shí)現(xiàn)的
答案:ABC
209.()x算法、()構(gòu)成人工智能3要素
A、公式
B、算力
C、數(shù)據(jù)
D、程序
答案:BC
210.技術(shù)指導(dǎo)的主要方法包括()
A、普通授課
B、工作指導(dǎo)
C、研討
D、錄像、多媒體教學(xué)
答案:ABCD
211.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()
A、參數(shù)更少
B、泛化更好
C、訓(xùn)練更快
D、更容易搭建;
答案:ABC
解析:D:DNN直接對(duì)數(shù)據(jù)做加權(quán)線性連接,而CNN則是移動(dòng)卷積核,并對(duì)圖像中
的各區(qū)域做卷積操作。
212.關(guān)于《網(wǎng)絡(luò)安全法》,下列說法正確的是()
A、國(guó)家實(shí)施網(wǎng)絡(luò)可信身份戰(zhàn)略,支持研究開發(fā)安全、方便的電子身份認(rèn)證技術(shù),
推動(dòng)不同電子身份認(rèn)證之間的互認(rèn)。
B、網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者不得設(shè)置惡意程序
C、按照規(guī)定留存相關(guān)的網(wǎng)絡(luò)日志不少于六個(gè)月
D、網(wǎng)絡(luò)運(yùn)營(yíng)者不得泄露、篡改、毀損其收集的個(gè)人信息
答案:ABCD
213.數(shù)據(jù)科學(xué)的基本流程包含(_)o
A、數(shù)據(jù)化
B、探索性分析
C、數(shù)據(jù)分析
D、數(shù)據(jù)存儲(chǔ)
答案:ABC
214.從培訓(xùn)的對(duì)象,培訓(xùn)可分為()
A、個(gè)人技能培訓(xùn)
B、企業(yè)培訓(xùn)
C、心態(tài)培訓(xùn)
D、能力培訓(xùn)
答案:AB
215.3D點(diǎn)云常見的任務(wù)有哪些()。
A、3D物體識(shí)別
B、3D物體重建
G3D物體跟蹤
D、3D紋理貼圖
答案:AC
216.市面上哪些產(chǎn)品使用了語(yǔ)音識(shí)別技術(shù)。()
A、小米的小愛機(jī)器人
B、喜馬拉雅APP小說智能閱讀
C、微信的語(yǔ)音轉(zhuǎn)寫
D、抖音短視頻AI配音
答案:AC
217.勞動(dòng)者的社會(huì)保險(xiǎn)分為()
A、基本養(yǎng)老保險(xiǎn)
B、基本醫(yī)療保險(xiǎn)
C、工傷保險(xiǎn)
D、失業(yè)保險(xiǎn)
答案:ABCD
218.以下關(guān)于神經(jīng)網(wǎng)絡(luò)模型描述正確的是(_)。
A、神經(jīng)網(wǎng)絡(luò)模型是許多邏輯單元按照不同層級(jí)組織起來的網(wǎng)絡(luò),每一層的輸出
變量都是下一層的輸入變量
B、神經(jīng)網(wǎng)絡(luò)模型建立在多神經(jīng)元之上
C、神經(jīng)網(wǎng)絡(luò)模型中,無中間層的神經(jīng)元模型的計(jì)算可用來表示邏輯運(yùn)算
D、神經(jīng)網(wǎng)絡(luò)模型一定可以解決所有分類問題
答案:ABC
解析:現(xiàn)在很多分類問題的準(zhǔn)確率都很低尤其是醫(yī)學(xué)圖像方面,而且容易受環(huán)境,
如光照影響。
219.一個(gè)交叉驗(yàn)證將數(shù)據(jù)集分成兩個(gè)互補(bǔ)的子集,分別是(_)和(_)。
A、訓(xùn)練集
B、測(cè)試集
C、子集
D、補(bǔ)集
答案:AB
220.()x()、()構(gòu)成人工智能3要素
A、算法
B、算力
C、數(shù)據(jù)
D、程序
答案:ABC
221.下列現(xiàn)象可能是欠擬合導(dǎo)致的有()
A、模型訓(xùn)練損失降到0
B、模型訓(xùn)練損失不收斂
C、訓(xùn)練指標(biāo)與測(cè)試指標(biāo)表現(xiàn)都很差
D、訓(xùn)練指標(biāo)表現(xiàn)好,測(cè)試指標(biāo)表現(xiàn)差
答案:BC
222.下列屬于生成模型的場(chǎng)景有()
A、戴口罩檢測(cè)
B、低分辨率圖片變成高分辨率圖片
C、通過輸入文本語(yǔ)義,輸出一幅符合文本語(yǔ)義的圖像
D\人臉檢)則
答案:BC
223.有兩種策略常用來緩解BP網(wǎng)絡(luò)的過擬合,分別是()和()。
A、晚停
B、早停
G正則化
D、加入損失函數(shù)
答案:BC
解析:通常有兩種策略來緩解BP網(wǎng)絡(luò)的過擬合。第一種策略是早停(earlystop
ping):將數(shù)據(jù)分成訓(xùn)練集合驗(yàn)證集,訓(xùn)練集用來計(jì)算梯度、更新連接權(quán)和閾值,
驗(yàn)證集用來估計(jì)誤差,若訓(xùn)練集誤差降低但驗(yàn)證集誤差升高,則停止訓(xùn)練,同時(shí)
返回具有最小驗(yàn)證集誤差的連接權(quán)和閾值。第二種策略是正則化(regularizati
on),其基本思想是在誤差目標(biāo)函數(shù)中增加一個(gè)用于描述網(wǎng)絡(luò)復(fù)雜度的部分,例如
連接權(quán)和閾值的平方和。
224.數(shù)據(jù)加工的主要?jiǎng)訖C(jī)往往來自(_)。
A、實(shí)時(shí)要求
B、質(zhì)量要求
C、計(jì)算要求
D、數(shù)量要求
答案:BC
225.下列關(guān)于AUC面積描述正確的是(_)。
A、UC被定義為ROC曲線下與坐標(biāo)軸圍成的面積
B、AUC面積的值大于1
C、AUC等于0.5時(shí),則真實(shí)性最低,無應(yīng)用價(jià)值
D、AUC越接近1.0,檢測(cè)方法真實(shí)性越高
答案:ACD
226.人工智能項(xiàng)目開發(fā)過程中,資源成本包括()
A、機(jī)會(huì)成本
B、數(shù)據(jù)成本
C、設(shè)備成本
D、人力成本
答案:BCD
227.人臉活體檢測(cè)常用的技術(shù)手段有()。
A、人臉關(guān)鍵點(diǎn)檢)則
B、靜默活體檢測(cè)
C、人臉語(yǔ)義分割
D、交互式活體檢測(cè)
答案:BD
228.下列屬于樸素貝葉斯分類器的特點(diǎn)的是(_)。
A、算法邏輯簡(jiǎn)單,易于實(shí)現(xiàn)
B、算法邏輯復(fù)雜,不易于實(shí)現(xiàn)
C、分類過程中時(shí)空開銷小
D、分類過程中時(shí)空開銷大
答案:AC
229.寫字樓人臉閘機(jī)使用時(shí)的人臉識(shí)別效果不佳,可能的主要因素有()。
A、光線角度問題
B、網(wǎng)絡(luò)問題
C、面部遮擋問題
D、人臉相似度過大
答案:ABC
230.下列關(guān)于包裹式選擇的描述正確的是(_)。
A、包裹式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化
B、從最終學(xué)習(xí)器性能來看,包裹式特征選擇比過濾式特征選擇更好
C、包裹式特征選擇的計(jì)算開銷通常比過濾式特征選擇大得多
D、包裹式特征選擇的典型算法:LVW算法,其特征子集搜索采用了隨機(jī)策略
答案:ABCD
231.教學(xué)的方法包括()
A、講授法
B、問答法
C、演不法
D、自學(xué)法
答案:ABC
232.卷積神經(jīng)網(wǎng)絡(luò)中常用的池化函數(shù)包括()。
A、最大池化函數(shù)
B、L2范數(shù)
C、相鄰矩形區(qū)域內(nèi)的平均值
D、基于據(jù)中心像素距離的加權(quán)平均函數(shù)
答案:ABCD
解析:最大池化函數(shù);L2范數(shù);相鄰矩形區(qū)域內(nèi)的平均值;基于據(jù)中心像素距離的
加權(quán)平均函數(shù);重疊池化;空金字塔池化。
233.編解碼神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)通常包括()
A、編碼器
B、特征生成器
C、解碼器
D、以上都是
答案:BC
234.互聯(lián)網(wǎng)數(shù)據(jù)采集有()劣勢(shì)
A、后期數(shù)據(jù)清洗難度大
B、容易侵權(quán)
C、獲取數(shù)據(jù)成本高
D、干擾數(shù)據(jù)多
答案:ABD
235.下面屬于數(shù)據(jù)科學(xué)家的主要職責(zé)有(_)。
A、提出“好問題”
B、完成“數(shù)據(jù)加工”
C、實(shí)現(xiàn)“數(shù)據(jù)洞見”
D、數(shù)據(jù)“故事化”
答案:ABCD
236.下列哪些數(shù)據(jù)適合獨(dú)熱編碼?()
A、文本中的單詞
B、性別
C、身高
D、年齡階段(嬰兒、小孩、青年、中年、老年)
答案:BD
237.下面哪些概念屬于CNN網(wǎng)絡(luò)模型。()
A、感受野
B、步長(zhǎng)
C、通道
D、反饋
答案:ABC
238.下列屬于數(shù)值優(yōu)化算法的是(_)。
A、梯度下降法
B、牛頓法
C、極大似然法
D、邏輯回歸
答案:AB
239.下面屬于數(shù)據(jù)科學(xué)主要研究?jī)?nèi)容的有(_)。
A、理論基礎(chǔ)
B、數(shù)據(jù)加工
C、數(shù)據(jù)計(jì)算
D、數(shù)據(jù)產(chǎn)品開發(fā)
答案:BCD
240.衡量數(shù)據(jù)樣本質(zhì)量包括()方面。
A、數(shù)據(jù)量
B、多樣性
C、覆蓋性
D、均衡性
答案:ABCD
241.數(shù)據(jù)產(chǎn)品的主要特征有(_)。
A、數(shù)據(jù)為中心
B、多樣性
C、層次性
D、增值性
答案:ABCD
242.下列哪些任務(wù)屬于回歸任務(wù)()
A、人臉識(shí)別
B、人臉關(guān)鍵點(diǎn)定位
C、人物位置跟蹤
D、人物性別辨識(shí)
答案:BC
243.框A面積為30,框B面積為20,兩個(gè)框可能的IOU值有()
Ax1/3
B、0
C、1
D、2/3
答案:ABD
244.根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為(—)和(__)。
A、監(jiān)督學(xué)習(xí)
B、訓(xùn)練集
C、無監(jiān)督學(xué)習(xí)
D、測(cè)試集
答案:AC
245.下列關(guān)于核函數(shù)的說法正確的是(_)。
A、任何一個(gè)函數(shù)都可以作為核函數(shù)
B、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,它就能作為核函數(shù)使用
C、任何一個(gè)核函數(shù)都隱式地定義了一個(gè)再生核希爾伯特空間
D、核函數(shù)可將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分
答案:BC
246.人工智能項(xiàng)目開發(fā)過程中,項(xiàng)目經(jīng)理的職責(zé)是()
A、質(zhì)量監(jiān)督
B、項(xiàng)目進(jìn)度督導(dǎo)
C、客戶對(duì)接
D、研發(fā)人員調(diào)度
答案:BC
247.下列RGB顏色正確的是()
A、(255,0,0)是紅色
B、(0,255,0)是綠色
C、(0,0,255)是藍(lán)色
D、以上都不對(duì)
答案:ABC
248.按標(biāo)注活動(dòng)的自動(dòng)化程度,數(shù)據(jù)標(biāo)注可以分為(_)。
A、手工標(biāo)注
B、文本標(biāo)注
C、半自動(dòng)標(biāo)注
D、自動(dòng)標(biāo)注
答案:ACD
249.人工智能項(xiàng)目開發(fā)過程中,可行性分析包括()
A、數(shù)據(jù)來源的可行性
B、模型功能實(shí)現(xiàn)的可行性
C、指標(biāo)可達(dá)的可行性
D、現(xiàn)場(chǎng)實(shí)施的可行性
答案:ABCD
250.常見的模型參數(shù)的量化精度有()
A、FL0AT32
B、INT8
C、INT4
D、INT2
答案:BCD
251.人工智能產(chǎn)品采用B/S架構(gòu),B和S分別代表()。
A、客戶端
B、網(wǎng)頁(yè)端
C、服務(wù)端
D、數(shù)據(jù)端
答案:BC
252.感知機(jī)中,(_)接收外界輸入信號(hào)后傳遞給(_)。
A、輸入層
B、輸出層
C、第一層
D、第二層
答案:AB
253.下面屬于數(shù)據(jù)科學(xué)理論基礎(chǔ)的有(_)。
A、統(tǒng)計(jì)學(xué)
B、數(shù)據(jù)可視化
C、機(jī)器學(xué)習(xí)
D、領(lǐng)域知識(shí)
答案:ABCD
254.文本摘要的方法可以分為()
A、分類式摘要
B、抽取式摘要
C、判別式摘要
D、生成式摘要
答案:BD
255.噪聲數(shù)據(jù)的主要表現(xiàn)形式有(_)。
A、錯(cuò)誤數(shù)據(jù)
B、虛假數(shù)據(jù)
C、異常數(shù)據(jù)
D、冗余數(shù)據(jù)
答案:ABC
256.對(duì)人工智能模型進(jìn)行減枝的目的是()
A、降低模型的參數(shù)量
B、提高模型的精度
C、加快模型在邊緣計(jì)算設(shè)備上的推理速度
D、提高模型泛化能力
答案:AC
257.詞性標(biāo)注中包含的詞性有()
A、動(dòng)詞
B、商品名
C、量詞
D、數(shù)詞
答案:ACD
258.下列哪些變換屬于仿射變換。()
A、平移
B、旋轉(zhuǎn)
C、錯(cuò)切
D、縮放
答案:ABCD
259.下面哪些指標(biāo)取值范圍是0到1,值越大,模型效果越好()
A、MSE
B、R2
C、mAP
D、余弦相似度
答案:BC
260.下列哪些場(chǎng)景可以使用關(guān)鍵點(diǎn)檢測(cè)來實(shí)現(xiàn)。()
A、手勢(shì)識(shí)別
B、跌倒識(shí)別
C、人體姿態(tài)識(shí)別
D\人臉檢測(cè)
答案:ABC
261.圖像數(shù)據(jù)結(jié)構(gòu)化的優(yōu)勢(shì)是()。
A、更易統(tǒng)計(jì)
B、更易存儲(chǔ)
C、更易計(jì)算
D、更易傳輸
答案:ABCD
262.數(shù)據(jù)采集的方法包括()
A、互聯(lián)網(wǎng)數(shù)據(jù)采集
B、眾包'行業(yè)合作
C、各種傳感器數(shù)據(jù)
D、商業(yè)設(shè)計(jì)
答案:ABC
263.下列關(guān)于支持向量機(jī)的說法正確的是(_)。
A、支持向量機(jī)的學(xué)習(xí)策略是間隔最大化
B、支持向量機(jī)的基本模型是特征空間上間隔最大的線性分類器
C、支持向量機(jī)只能對(duì)線性可分的樣本進(jìn)行分類
D、傳統(tǒng)支持向量機(jī)只能求解二分類問題
答案:ABD
264.下面對(duì)正確率計(jì)算正確的是()
A、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為18/25
B、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本錯(cuò)誤10
個(gè),正確率為7/25
C、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本正確8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為18/25
D、正樣本10個(gè),負(fù)樣本15個(gè),模型預(yù)測(cè)正樣本錯(cuò)誤8個(gè),預(yù)測(cè)負(fù)樣本正確10
個(gè),正確率為12/25
答案:BCD
265.下列哪些任務(wù)屬于聚類()
A、物以類聚,人以群分
B、近朱者赤,近墨者黑
C、同流合污,臭味相投
D、龍生龍,鳳生風(fēng),老鼠兒子會(huì)打動(dòng)
答案:AC
266.常見的人工智能模型部署方式有()
A、云端部署
B、邊緣設(shè)備部署
C、移動(dòng)端部署
D、防火墻部署
答案:ABC
267.高斯白噪音產(chǎn)生的原因有()。
A、圖像傳感器在拍攝時(shí)不夠明亮、亮度不夠均勻
B、電路各元器件自身噪聲和相互影響
C、圖像傳感器長(zhǎng)期工作,溫度過高
D、相機(jī)分辨率太低
答案:AB
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 新能源汽車銷售渠道行業(yè)的消費(fèi)市場(chǎng)分析
- 綠色塑料行業(yè)發(fā)展方向及匹配能力建設(shè)研究報(bào)告
- 電影制作與發(fā)行行業(yè)的消費(fèi)心理分析
- 智能裝配行業(yè)的消費(fèi)市場(chǎng)分析
- 睡眠科技行業(yè)消費(fèi)者群體特征分析
- 神經(jīng)藥物行業(yè)競(jìng)爭(zhēng)格局與投資戰(zhàn)略研究咨詢報(bào)告
- 高中化學(xué)教學(xué)中情思教育的滲透實(shí)踐
- 人力資源審計(jì)行業(yè)分析報(bào)告及未來三年行業(yè)發(fā)展報(bào)告
- 移動(dòng)支付科技行業(yè)市場(chǎng)發(fā)展趨勢(shì)及投資咨詢報(bào)告
- 云物流行業(yè)技術(shù)趨勢(shì)分析
- 高中數(shù)學(xué)尖子生培養(yǎng)策略探究獲獎(jiǎng)科研報(bào)告
- 機(jī)械長(zhǎng)期維修合同范本
- 主任醫(yī)師正高級(jí)職稱晉升答辯報(bào)告PPT
- 加裝電梯申請(qǐng)書范文(6篇)
- avl fire進(jìn)氣道總述CFD計(jì)算分析思路和評(píng)價(jià)方法
- 國(guó)家電網(wǎng)有限公司員工獎(jiǎng)懲規(guī)定考試題及答案
- DB21∕T 1581-2020 數(shù)字林業(yè) 森林資源分類編碼 屬性代碼
- 違法建筑處置法律解讀培訓(xùn)PPT
- 2023CSCO結(jié)直腸癌診療指南
- 醫(yī)院靜脈血栓栓塞癥(VTE)防治實(shí)施方案
- 基于“雙減”背景下初中英語(yǔ)作業(yè)分層布置設(shè)計(jì)實(shí)踐研究報(bào)告
評(píng)論
0/150
提交評(píng)論