




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
一、單選題
1、下列哪位是人工智能之父?()
A.MarnivLeeMinsky
B.HerbertA.Simon
C.AIIenNewell
DJohnCliffordShaw
正確答案:A
2、根據(jù)王玨的理解,下列不屬于對(duì)問題空間W的統(tǒng)計(jì)描述是()o
A.一致性假設(shè)
B.劃分
C.泛化能力
D.學(xué)習(xí)能力
正確答案:D
3、下列描述無監(jiān)督學(xué)習(xí)錯(cuò)誤的是()。
A.無標(biāo)簽
B.核心是聚類
C.不需要降維
D,具有很好的解釋性
正確答案:C
4、下列描述有監(jiān)督學(xué)習(xí)錯(cuò)誤的是()?
A.有標(biāo)簽
B.核心是分類
C.所有數(shù)據(jù)都相互獨(dú)立分布
D.分類原因不透明
正確答案:C
5、下列哪種歸納學(xué)習(xí)采用符號(hào)表示方式?()
A.經(jīng)驗(yàn)歸納學(xué)習(xí)
B遺傳算法
C.聯(lián)接學(xué)習(xí)
D.強(qiáng)化學(xué)習(xí)
正確答案:A
6、混淆矩陣的假正是指()。
A.模型預(yù)測(cè)為正的正樣本
B.模型預(yù)測(cè)為正的負(fù)樣本
C.模型預(yù)測(cè)為負(fù)的正樣本
D.模型預(yù)測(cè)為負(fù)的負(fù)樣本
正確答案:B
7、混淆矩陣的真負(fù)率公式是為()。
A.TP/(TP+FN)
B.FP/(FP+TN)
C.FN/(TP+FN)
D.TN/(TN+FP)
正確答案:D
8、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。
A.1/4
B.l/2
C.4/7
D.4/6
正確答案:B
9、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,精確率是()。
A.1/4
B.l/2
C.4/7
D.2/3
正確答案:C
10、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,召回率是().
A.1/4
B.l/2
C.4/7
D.2/3
正確答案:D
11、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,Fl-score是().
A.4/13
B.8/13
C.4/7
D.2/3
0.00/2.00
正確答案:B
12、EM算法的E和M指什么?()
A.Expectation-Maximum
B.Expect-Maximum
C.Extra-Maximum
D.Extra-Max
正確答案:A
13、EM算法的核心思想是?()
A.通過不斷地求取目標(biāo)函數(shù)的下界的最優(yōu)值,從而實(shí)現(xiàn)最優(yōu)化的目標(biāo)。
B.列出優(yōu)化目標(biāo)函數(shù),通過方法計(jì)算出最優(yōu)值。
C.列出優(yōu)化目標(biāo)函數(shù),通過數(shù)值優(yōu)化方法計(jì)算出最優(yōu)值。
D.列出優(yōu)化目標(biāo)函數(shù),通過坐標(biāo)下降的優(yōu)化方法計(jì)算出最優(yōu)值。
正確答案:A
14、LDA模型的隱變量2是()。
A.每個(gè)詞對(duì)應(yīng)的主題
B.每篇文檔對(duì)應(yīng)的主題
C.每段話對(duì)應(yīng)的主題
D.每個(gè)詞組對(duì)應(yīng)的主題
正確答案:A
15、LDA模型中的一個(gè)主題指()。
A.詞集合上的一個(gè)概率分布
B.詞組集合上的一個(gè)概率分布
C.整個(gè)文檔上的一個(gè)概率分布
D.整個(gè)文檔集合上的一個(gè)概率分布
正確答案:A
16、SVM算法的性能取決于()。
A.核函數(shù)的選擇
B.核函數(shù)的參數(shù)
C.軟間隔參數(shù)
D.以上所有
正確答案:D
17、SVM中的代價(jià)參數(shù)C表示什么?()
A.在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡
B.交叉驗(yàn)證的次數(shù)
C.以上都不對(duì)
D.用到的核函數(shù)
正確答案:A
18、下列有關(guān)支持向量機(jī)說法不正確的是().
A得到的是局部最優(yōu)解
B.具有很好的推廣能力
C.是凸二次優(yōu)化問題
D.采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理
正確答案:A
19、下列有關(guān)核函數(shù)不正確的是()。
A.可以采用cross-validalion方法選擇最佳核函數(shù)
B.滿足Mercer條件的函數(shù)不一定能作為支持向量機(jī)的核函數(shù)
C.極大地提高了學(xué)習(xí)機(jī)器的非線性處理能力
D.函數(shù)與非線性映射并不是—對(duì)應(yīng)的關(guān)系
正確答案:B
20、一對(duì)一法分類器,k個(gè)類別需要多少個(gè)SVM()。
A.k(k-l)/2
B.k(k-l)
C.k
D.k!
正確答案:A
22、有關(guān)聚類分析說法錯(cuò)誤的是()。
A.無須有標(biāo)記的樣本
B.可以用于提取一些基本特征
C.可以解釋觀察數(shù)據(jù)的一些內(nèi)部結(jié)構(gòu)和規(guī)律
D.聚類分析一個(gè)簇中的數(shù)據(jù)之間具有高差異性
正確答案:D
23、兩個(gè)n維向量a(xii,%i2,…,Xin)和0(小1,%22,…,%2n)之間的歐式距離(euclidean
distance)為()。
A.d12=J(a-B)(a-B)T
a2=Zfc=ilxlk-x2k\
C.d12=maxCkii-x2il)
D.cos(O)=(a/)/(|a||°|)
正確答案:A
24、閔可夫斯基距離表示為曼哈頓距離時(shí)p為()(.
A.1
B.2
C.3
D.4
正確答案:A
25、關(guān)于K-means說法不正確的是()。
A.算法可能終止于局部最優(yōu)解
B.簇的數(shù)目k必須事先給定
C.對(duì)噪聲和離群點(diǎn)數(shù)據(jù)敏感
D.適合發(fā)現(xiàn)非凸形狀的簇
正確答案:D
26、k中心點(diǎn)算法每次迭代的計(jì)算復(fù)雜度是多少?()
A.O(l)
B.O(k)
C.O(nfc)
D.O(fc(n-fc)2)
正確答案:D
27、下面是矩陣M=(:;)的特征值為()。
A.3
B.2
C.-1
D.0
正確答案:A
A.4
B.5
C.6
D.7
正確答案:D
29、下圖中有多少個(gè)最大團(tuán)?()
B.l
C.2
D.3
正確答案:C
30、假設(shè)某事件發(fā)生的概率為p,則此事件發(fā)生的幾率為().
A.p
B.l-p
C.P/(I-P)
D.(l-p)/P
正確答案:C
31、貝葉斯網(wǎng)絡(luò)起源于貝葉斯統(tǒng)計(jì)學(xué),是以()為基礎(chǔ)的有向圖模型,它為處理不
確定知識(shí)提供了有效的方法。
A.線性代數(shù)
B.邏輯學(xué)
C.概率論
D.信息論
正確答案:C
32、下列哪項(xiàng)說法不正確。()
A.人工智能是對(duì)人類智能的模擬
B.人工神經(jīng)元是對(duì)生物神經(jīng)元的模擬
C.生物神經(jīng)信號(hào)由樹突傳遞給軸突
D.人工神經(jīng)元的激活函數(shù)可以有多種設(shè)計(jì)
正確答案:C
33、下列哪項(xiàng)說法正確。()
A.異或問題中能找到一條直線正確劃分所有點(diǎn)
B.隨著自變量數(shù)目的增多,所有二值函數(shù)中線性可分函數(shù)的比例逐漸增大
c.如果一個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)里面有多個(gè)神經(jīng)元,就一定能解決異或問題
D.通常一個(gè)神經(jīng)元包括線性和非線性兩種運(yùn)算
正確答案:D
34、通用近似定理說明()。
A.多層感知機(jī)可以做為函數(shù)近似器逼近任意函數(shù)
B,只需一個(gè)隱藏層的多層感知機(jī)就能作為通用函數(shù)近似器,因此沒必要設(shè)計(jì)深層網(wǎng)絡(luò)
C.給定隱藏層神經(jīng)元,三層感知機(jī)可以近似任意從一個(gè)有限維空間到另一個(gè)有限維空
間的Borel可測(cè)函數(shù)
D.以上全不對(duì)
正確答案:D
35、強(qiáng)化學(xué)習(xí)基本要素有哪些?()
A.狀態(tài)、動(dòng)作、獎(jiǎng)勵(lì)
B.狀態(tài)、動(dòng)作、折扣因子
C.動(dòng)作、折扣因子、獎(jiǎng)勵(lì)
D.狀態(tài)、獎(jiǎng)勵(lì)、探索策略
正確答案:A
36、不需要建模環(huán)境,等待真實(shí)反饋再進(jìn)行接下來的動(dòng)作,這是哪種強(qiáng)化學(xué)習(xí)算法。
()
A.Model-free方法
B.Model-based方法
C.Policy-based方法
D.Value-based方法
正確答案:A
37、Q-learning屬于哪種算法。()
A.On-policy算法
B.Off-policy算法
C.Model-based算法
D.Value-based算法
正確答案:B
38、馬爾科夫決策過程由哪幾個(gè)元素來表示()?
A.狀態(tài)、動(dòng)作、轉(zhuǎn)移概率、策略、折扣因子
B.狀態(tài)、動(dòng)作、轉(zhuǎn)移概率、折扣因子、回報(bào)函數(shù)
C.狀態(tài)、動(dòng)作、輸入、輸出、回報(bào)函數(shù)
D.狀態(tài)、動(dòng)作、值、策略、回報(bào)函數(shù)
正確答案:B
39、關(guān)于episode說法錯(cuò)誤的是()。
A.一個(gè)印isode就是一個(gè)從起始狀態(tài)到結(jié)束的經(jīng)歷
B.蒙特卡洛方法需要很少的episode就可以得到準(zhǔn)確結(jié)果
C.TD方法每次更新不需要使用完整的episode
D.蒙特卡洛的方法需要等到整個(gè)episode結(jié)束才能更新
正確答案:B
40、如果我們的機(jī)器(或智能體)每次訓(xùn)練更新的損耗會(huì)比較大,我們更傾向于選擇
哪種算法。()
A.Sarsa
B.Q-learning
C.兩者都可以
D.兩者都不行
正確答案:A
41、關(guān)于策略梯度的方法說法正確的是()。
A.只適用于離散動(dòng)作空間
B.適用于連續(xù)動(dòng)作空間
C.策略梯度的方法與DQN中的目標(biāo)函數(shù)一致
D.策略梯度的方法通過Q值挑選動(dòng)作
正確答案:B
二、判斷題
1、關(guān)于EM算法的收斂性,EM算法理論上不能夠保證收斂。
正確答案:x
2、關(guān)于EM算法的用途,EM算法只適用不完全數(shù)據(jù)的情形。
正確答案:x
3、Jessen不等式等號(hào)成立的條件是:變量為常數(shù)。
正確答案:V
4、Jessen不等式E(f(x))>=f(E(x)),左邊部分大于等于右邊部分的條件是函數(shù)f是凸
函數(shù),如果f是凹函數(shù),左邊部分應(yīng)該是小于等于右邊部分。
正確答案:V
5、EM算法因?yàn)槭抢碚摽梢员WC收斂的,所以肯定能夠取得最優(yōu)解。
正確答案:X
6、EM算法首先猜測(cè)每個(gè)數(shù)據(jù)來自哪個(gè)高斯分布,然后求取每個(gè)高斯的參數(shù),之后再
去重新猜測(cè)每個(gè)數(shù)據(jù)來自哪個(gè)高斯分布,類推進(jìn)一步迭代,直到收斂,從而得到最后
的參數(shù)估計(jì)值。
正確答案:V
7、EM算法,具有通用的求解形式,因此對(duì)任何問題,其求解過程都是一樣,都能很
容易求得結(jié)果。
正確答案:x
8、EM算法通常不需要設(shè)置步長(zhǎng),而且收斂速度一般很快。
正確答案:V
9、吉布斯采樣是一種通用的采樣方法,對(duì)于任何概率分布都可以采樣出對(duì)應(yīng)的樣本。
正確答案:x
10、LDA模型的核心假設(shè)是:假設(shè)每個(gè)文檔首先由主題分布表示,然后主題由詞概率
分布表示,形成文檔-主題-詞的三級(jí)層次。
正確答案:V
11、Gibbs采樣是一類通用的采樣方法,和M-H采樣方法沒有任何關(guān)系。
正確答案:x
12、關(guān)于LDA模型中的K,K的指定,必須考慮數(shù)據(jù)集合的特點(diǎn),選擇一個(gè)較為優(yōu)化
的數(shù)值。
正確答案:x
13、LDA模型是一種生成式模型。
正確答案:V
14、主題建模的關(guān)鍵是確定數(shù)據(jù)集合的主題個(gè)數(shù)。
正確答案:x
15、主題建模本質(zhì)上是:一種新的文檔表示方法,主要是通過主題的分布來表示一個(gè)
文檔。一種數(shù)據(jù)壓縮方法,將文檔壓縮在更小的空間中。
正確答案:V
16、SVM中的泛化誤差代表SVM對(duì)新數(shù)據(jù)的預(yù)測(cè)準(zhǔn)確度。
正確答案:V
17、若參數(shù)C(costparameter)被設(shè)為無窮,只要最佳分類超平面存在,它就能將所
有數(shù)據(jù)全部正確分類。
正確答案:V
18、"硬間隔"是指SVM允許分類時(shí)出現(xiàn)一定范圍的誤差。
正確答案:X
19、支持向量是最靠近決策表面的數(shù)據(jù)點(diǎn)。
正確答案:V
20、數(shù)據(jù)有噪聲,有重復(fù)值,不會(huì)導(dǎo)致SVM算法性能下降。
正確答案:x
21、分裂層次聚類采用的策略是自底向上。
正確答案:x
22、DBSCAN對(duì)參數(shù)不敏感。
正確答案:x
23、EM聚類屬于軟分聚類方法。
正確答案:V
24、k-means算法、EM算法是建立在凸球形的樣本空間上的聚類方法。
正確答案:V
25、邏輯斯蒂回歸模型是一種回歸算法。
正確答案:x
26、燧最大時(shí),表示隨機(jī)變量最不確定,也就是隨機(jī)變量最隨機(jī),對(duì)其行為做準(zhǔn)確預(yù)
測(cè)最困難。
正確答案:V
27、從最大嫡思想出發(fā)得出的最大嫡模型,采用最大化求解就是在求P(y|x)的對(duì)數(shù)似
然最大化。
正確答案:V
28、GIS算法的收斂速度由計(jì)算更新值的步長(zhǎng)確定。C值越大,步長(zhǎng)越大,收斂速度就
越快。
正確答案:x
29、貝葉斯網(wǎng)絡(luò)具有的條件獨(dú)立性是結(jié)點(diǎn)與其后代結(jié)點(diǎn)條件獨(dú)立。
正確答案:x
30、最大似然估計(jì)方法是實(shí)例數(shù)據(jù)不完備情況下的學(xué)習(xí)方法。
正確答案:x
31、隱馬爾可夫模型是一種統(tǒng)計(jì)模型,經(jīng)常用來描述一個(gè)含有隱含未知參數(shù)的馬爾可
夫過程。
正確答案:V
32、LSTM和GRU網(wǎng)絡(luò)因?yàn)橐肓碎T控單元,可以緩解梯度消失問題。
正確答案:V
33、循環(huán)神經(jīng)網(wǎng)絡(luò)按時(shí)間展開后就可以通過反向傳播算法訓(xùn)練了。
正確答案:V
34、卷積神經(jīng)網(wǎng)絡(luò)通常比全連接神經(jīng)網(wǎng)絡(luò)參數(shù)少,因此能力更差。
正確答案:x
35、訓(xùn)練算法的目的就是要讓模型擬合訓(xùn)練數(shù)據(jù)。
正確答案:x
36、反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近輸出層參數(shù)的梯
度。
正確答案:x
三、多選題
1、LDA模型在做參數(shù)估計(jì)時(shí),最常用的方法是()。
A.Gibbs采樣方法
B.變分推斷
C.梯度下降
D.Beamsearch
正確答案:A、B
2、以下關(guān)于邏輯斯蒂回歸模型的描述正確的是()。
A.針對(duì)分類的可能性進(jìn)行建模,不僅能預(yù)測(cè)出類別,還可以得到屬于該類別的概率。
B.直接對(duì)分類的可能性進(jìn)行建模,無需事先假設(shè)數(shù)據(jù)分布,這樣就避免了假設(shè)分布不
準(zhǔn)確所帶來的問題。
C,模型本質(zhì)仍然是一個(gè)線性模型,實(shí)現(xiàn)相對(duì)簡(jiǎn)單。
D.邏輯斯蒂回歸模型是線性回歸模型
正確答案:A、B、C、D
3、條件隨機(jī)場(chǎng)需要解決的關(guān)鍵問題有()。
A.特征函數(shù)的選擇
B.參數(shù)估計(jì)
C.約束條件
D.模型推斷
正確答案:A、B、D
4、基于搜索評(píng)分的方法,關(guān)鍵點(diǎn)在于()。
A,確定合適的搜索策略
B.確定搜索優(yōu)先級(jí)
C.確定評(píng)分函數(shù)
D.確定選擇策略
正確答案:A、C
5、基于約束的方法通過統(tǒng)計(jì)獨(dú)立性測(cè)試來學(xué)習(xí)結(jié)點(diǎn)間的()。
A.獨(dú)立性
B.依賴性
C.完備性
D.相關(guān)性
正確答案:A、D
6、在數(shù)據(jù)不完備時(shí),貝葉斯網(wǎng)絡(luò)的參數(shù)學(xué)習(xí)方法有()o
A.高斯逼近
B.最大似然估計(jì)方法
C.蒙特卡洛方法
D.拉普拉斯近似
正確答案:A、C、D
7、隱馬爾可夫模型的三個(gè)基本問題是()。
A.估值問題
B.狀態(tài)更新
C.尋找狀態(tài)序列
D.學(xué)習(xí)模型參數(shù)
正確答案:A、C、D
8、通常有哪幾種訓(xùn)練神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法?()
A.梯度下降法
B.隨機(jī)梯度下降法
C.小批量隨機(jī)梯度下降法
D.集成法
正確答案:A、B、C
9、為什么循環(huán)神經(jīng)網(wǎng)絡(luò)可以用來實(shí)現(xiàn)自動(dòng)問答,比如對(duì)一句自然語言問句給出自然語
言回答?()
A.因?yàn)樽詣?dòng)問答可以看成是一種序列到序列的轉(zhuǎn)換
B.因?yàn)檠h(huán)神經(jīng)網(wǎng)要比卷積神經(jīng)網(wǎng)更強(qiáng)大
C.因?yàn)檠h(huán)神經(jīng)網(wǎng)絡(luò)能夠處理變長(zhǎng)輸入
D.因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)不能處理字符輸入
正確答案:A、C
10、以下關(guān)于蒙特卡洛方法描述正確的是().
A.蒙特卡洛方法計(jì)算值函數(shù)可以采用First-visit方法
B.蒙特卡洛方法方差很大
C.蒙特卡洛方法計(jì)算值函數(shù)可以采用Every-visit方法
D.蒙特卡洛方法偏差很大
正確答案:A、B、C
11、在Q-learning中,以下說法正確的是()。
A.在狀態(tài)b時(shí)計(jì)算的Q(s,,a,),對(duì)應(yīng)的動(dòng)作出并沒有真正執(zhí)行,只是用來更新當(dāng)前Q值
B.在狀態(tài)『時(shí)計(jì)算的Q(s1a。,同時(shí)也執(zhí)行了動(dòng)作優(yōu)
C.更新中,Q的真實(shí)值為r+yOnaxQ(s,,a,))
D.更新中,Q的真實(shí)值為Q(s,a)
正確答案:A、C
12、Sarsa與Q-learning的區(qū)別是?()
A.Sarsa是off-policy,而Q-learning是on-policy
B.Sarsa是on-policy,而Q-learning是off-policy
C.Q-learning在算法更新時(shí),對(duì)應(yīng)的下一個(gè)動(dòng)作并沒有執(zhí)行,而sarsa的下一個(gè)動(dòng)作在
這次更新時(shí)已經(jīng)確定了
D.Q-learning是一種保守的算法,sarsa是一種貪婪勇敢的算法
正確答案:B、C
13、Q-learning與Sarsa相同的地方是()。
A.都使用了£-greedy等策略進(jìn)行探索
B.都用q-table存儲(chǔ)狀態(tài)動(dòng)作對(duì)
C.更新公式相同
D.兩者都可以找到最優(yōu)的策略
正確答案:A、B
14、關(guān)于經(jīng)驗(yàn)池(experiencereplay)敘述正確的是()。
A.為了縮小樣本量,可以讓樣本輸入到神經(jīng)網(wǎng)絡(luò)中
B.打破樣本之間的連續(xù)性
C.每次更新時(shí)在經(jīng)驗(yàn)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 《皮膚燙傷護(hù)理指南》課件
- 《設(shè)備保養(yǎng)與維護(hù)教程》課件
- 《微波爐的奇妙用途》課件
- (13)-考點(diǎn)13 近義詞辨析(一)
- 精湛技藝課件:探索工匠精神的內(nèi)涵與價(jià)值
- 三年級(jí)道德與法治下冊(cè) 第二單元 我在這里長(zhǎng)大 7請(qǐng)到我的家鄉(xiāng)來教學(xué)設(shè)計(jì)2 新人教版
- 九年級(jí)道德與法治上冊(cè) 第二單元 行動(dòng)的指南 第五課“三個(gè)代表”重要思想教學(xué)設(shè)計(jì) 教科版
- 西安美術(shù)學(xué)院《神經(jīng)藥理學(xué)》2023-2024學(xué)年第一學(xué)期期末試卷
- 江西生物科技職業(yè)學(xué)院《中國文化與文學(xué)精粹》2023-2024學(xué)年第一學(xué)期期末試卷
- 鐵門關(guān)職業(yè)技術(shù)學(xué)院《媒介集團(tuán)研究》2023-2024學(xué)年第二學(xué)期期末試卷
- 口腔門診總經(jīng)理崗位職責(zé)
- 土方場(chǎng)地平整合同
- 人教版六年級(jí)數(shù)學(xué)下冊(cè)中段檢測(cè)訓(xùn)練卷
- 人工智能設(shè)計(jì)倫理(浙江大學(xué))知到智慧樹章節(jié)答案
- 2021年9月25日廣東省事業(yè)單位招聘高校應(yīng)屆生《基本能力測(cè)試》試題
- 2024年廣東省佛山市順德區(qū)中考語文二模試卷
- 2024-2030年中國街舞培訓(xùn)行業(yè)競(jìng)爭(zhēng)格局及投資前景展望報(bào)告
- 06 H5主流制作工具-易企秀
- 高中數(shù)學(xué)集合練習(xí)題160題-包含所有題型-附答案
- 計(jì)算機(jī)程序設(shè)計(jì)語言(Python)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- 創(chuàng)新創(chuàng)業(yè)教育課程體系建設(shè)方案
評(píng)論
0/150
提交評(píng)論