數(shù)據(jù)工程智慧樹知到期末考試答案章節(jié)答案2024年同濟(jì)大學(xué)_第1頁(yè)
數(shù)據(jù)工程智慧樹知到期末考試答案章節(jié)答案2024年同濟(jì)大學(xué)_第2頁(yè)
數(shù)據(jù)工程智慧樹知到期末考試答案章節(jié)答案2024年同濟(jì)大學(xué)_第3頁(yè)
數(shù)據(jù)工程智慧樹知到期末考試答案章節(jié)答案2024年同濟(jì)大學(xué)_第4頁(yè)
數(shù)據(jù)工程智慧樹知到期末考試答案章節(jié)答案2024年同濟(jì)大學(xué)_第5頁(yè)
已閱讀5頁(yè),還剩8頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

數(shù)據(jù)工程智慧樹知到期末考試答案+章節(jié)答案2024年同濟(jì)大學(xué)使用KMEANS聚類時(shí),更大的K值所得到結(jié)果的誤差的平方和(SSE)一定更小。

答案:錯(cuò)DBSCAN是一種基于密度的聚類。

答案:對(duì)基于中心的歐幾里得密度是指一個(gè)點(diǎn)指定半徑內(nèi)點(diǎn)的個(gè)數(shù)。

答案:對(duì)在機(jī)器翻譯中,如果我們?cè)诓皇褂镁渥託w一化的情況下進(jìn)行波束搜索(beamsearch),該算法將會(huì)輸出過短的譯文。

答案:對(duì)在分布式數(shù)據(jù)庫(kù)中,數(shù)據(jù)劃分后的性能主要取決于數(shù)據(jù)上的具體操作。

答案:對(duì)數(shù)據(jù)審計(jì)不屬于數(shù)據(jù)清理的組成部分。

答案:錯(cuò)可以將熵作為判斷聚類有效性的內(nèi)部測(cè)度。

答案:錯(cuò)SQL語(yǔ)言功能強(qiáng)大,但是非常難理解。

答案:錯(cuò)分布式系統(tǒng)中的CAP理論包括()。

答案:一致性###系統(tǒng)可用性###網(wǎng)絡(luò)分區(qū)容忍性關(guān)于BP神經(jīng)網(wǎng)絡(luò)說法正確的是()

答案:是一種非線性模型###sigmoid是其常用的一種激活函數(shù)###有良好的自組織自學(xué)習(xí)能力機(jī)器學(xué)習(xí)方法###可用于分類或回歸可以用來做可視化渲染的技術(shù)包括:

答案:WebGL###SVG###HTML5Canvas信息可視化中,動(dòng)畫設(shè)計(jì)需要遵守哪些準(zhǔn)則:

答案:一次只展示一個(gè)動(dòng)畫;如果需要同時(shí)展示多個(gè)動(dòng)畫,需要分階段展示###動(dòng)畫必須與其載體,即所對(duì)應(yīng)的可視化形式保持兼容###動(dòng)畫的每個(gè)步驟必須有具體的含義,動(dòng)畫的產(chǎn)生必須有明確的原因以下哪些交互可能會(huì)導(dǎo)致可視化中數(shù)據(jù)的改變:

答案:具象/抽象你有一個(gè)63x63x16的輸入體積,并將其與32個(gè)每個(gè)為7x7的filter進(jìn)行卷積,步幅(stride)為2并且沒有填充(padding)。輸出大小是多少?

答案:29x29x32以下哪一項(xiàng)不是消除平行坐標(biāo)系中視覺混亂問題的方法:

答案:數(shù)據(jù)重構(gòu)以下哪一項(xiàng)不是圖的基本可視化形式:

答案:包含圖在平行坐標(biāo)軸中,數(shù)據(jù)元素被顯示為:

答案:折線做組內(nèi)研究時(shí),使用不同工具完成相同任務(wù)時(shí)往往需要使用不同的數(shù)據(jù),這樣做的目的是:

答案:避免用戶記住答案,影響實(shí)驗(yàn)結(jié)果在平行坐標(biāo)軸中,如果兩個(gè)維度之間沒有相關(guān)性,則其相關(guān)數(shù)據(jù)元素被展現(xiàn)為:

答案:雜亂無章的直線當(dāng)設(shè)計(jì)實(shí)驗(yàn)任務(wù)時(shí),以下哪個(gè)說法是錯(cuò)誤的:

答案:任務(wù)數(shù)量越多越好以下哪一項(xiàng)不是圖的布局所要解決的問題:

答案:確定變得顯示方式您認(rèn)為幽靈存在的可能性約為5%。然后,您不曾說謊的叔叔說他看見了一個(gè)鬼。另一方面,您叔叔的視力不好,曾經(jīng)把一個(gè)包誤認(rèn)為一條狗。您估計(jì)存在的鬼的可能性應(yīng)該?

答案:稍微提高決策樹的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是什么()

答案:父節(jié)點(diǎn)的熵更大SVM中的代價(jià)參數(shù)C表示什么?

答案:在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率

答案:1當(dāng)數(shù)據(jù)密度分布不均勻時(shí),DBSCAN也能夠得到很好的結(jié)果。

答案:錯(cuò)K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇。

答案:對(duì)較小不純度的節(jié)點(diǎn)需要更多的信息來區(qū)分總體。

答案:錯(cuò)關(guān)系數(shù)據(jù)庫(kù)中的連接操作把兩張或多張數(shù)據(jù)庫(kù)表,按照一定條件,把它們各一行記錄連接起來,生成結(jié)果集的一條記錄。

答案:對(duì)基尼指數(shù)反映了從樣本集D中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記不一致的概率,因此越小越好。

答案:對(duì)邏輯回歸分析需要對(duì)離散值做預(yù)處理,決策樹則不需要。

答案:對(duì)對(duì)于KMEANS算法而言,不同的初始聚類中心選擇可能導(dǎo)致不同的聚類結(jié)果。

答案:對(duì)聚類是這樣的過程,它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。

答案:錯(cuò)CHAMELEON是一種靜態(tài)建模的層次聚類算法。

答案:錯(cuò)增大L2正則項(xiàng)的系數(shù)有助于減緩梯度消失問題

答案:錯(cuò)有哪些圖形屬性可以用來編碼數(shù)據(jù)?

答案:顏色###形狀###大小可視化圖形符號(hào)包括哪些形式?

答案:線###面###點(diǎn)下面哪個(gè)是SVM在實(shí)際生活中的應(yīng)用?

答案:圖片分類###新聞聚類###文本分類下列操作哪些屬于關(guān)系數(shù)據(jù)庫(kù)的基本操作?

答案:Group操作###Join操作###Select操作###Insert操作分布式數(shù)據(jù)庫(kù)的主要特點(diǎn)有()。

答案:站點(diǎn)自治性###物理分布性###邏輯完整性通常在ConvNet中看到以下哪些內(nèi)容?

答案:最后幾層是FC層###多個(gè)CONV層,然后接POOL層大數(shù)據(jù)管理的挑戰(zhàn)包括()。

答案:多源異構(gòu)###數(shù)據(jù)量大###高可用性###安全隱私數(shù)據(jù)集成主要可以采用哪些模式?

答案:聯(lián)邦數(shù)據(jù)庫(kù)模式###中介者模式###數(shù)據(jù)倉(cāng)庫(kù)模式假設(shè)你輸入的是300x300色(RGB)圖像,并且沒有使用卷積網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,每個(gè)神經(jīng)元都完全連接到輸入,那么這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏向參數(shù))?

答案:27,000,100MDS投影技術(shù)的設(shè)計(jì)原理是:

答案:最小化數(shù)據(jù)點(diǎn)與數(shù)據(jù)點(diǎn)之間的距離在高、低維空間中的差異當(dāng)需要從中挑選一個(gè)特征來構(gòu)建決策樹模型時(shí),以下哪種準(zhǔn)則的最大化最合適()

答案:H(Y)-H(Y|Xj)神經(jīng)元(neuron)計(jì)算什么?

答案:神經(jīng)元計(jì)算線性函數(shù)(z=Wx+b),然后計(jì)算激活函數(shù)可視化符號(hào)是用來:

答案:呈現(xiàn)數(shù)據(jù)元素及元素之間關(guān)系的假設(shè)某個(gè)行業(yè)中有5%的公司歧視愛荷華州。如果一家公司歧視,它將永遠(yuǎn)不會(huì)從愛荷華州雇用人。假設(shè)有20名同等資格的申請(qǐng)人在該行業(yè)的公司中求職,其中6名來自愛荷華州。如果該公司從這組申請(qǐng)人中雇用了四人,但沒有人來自愛荷華州,那么該公司歧視的可能性是多少?

答案:0.2030“刷選與鏈接”交互是為了完成什么任務(wù):

答案:在不同可視化視圖中展現(xiàn)數(shù)據(jù)元素之間的關(guān)聯(lián)假設(shè)你的輸入是300x300色(RGB)圖像,并且使用了一個(gè)卷積層,其中包含100個(gè)filter,每個(gè)filter為5x5。該隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?

答案:7600以下哪一種不是樹的可視化方法:

答案:關(guān)系圖在眾多數(shù)值型可視化通道中,以下哪一項(xiàng)是最為精確的:

答案:位置下面關(guān)于SVM中核函數(shù)的說法正確的是?1核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間.2它是一個(gè)相似度函數(shù)

答案:1和2下面哪一項(xiàng)用決策樹法訓(xùn)練大量數(shù)據(jù)集最節(jié)約時(shí)間()

答案:減少樹的深度關(guān)于圖的鄰接矩陣表示方式,以下哪個(gè)說法是錯(cuò)誤的:

答案:圖中的路徑可以清晰的展現(xiàn)在鄰接矩陣中假設(shè)你選取了高Gamma值的徑向基核(RBF),這表示:

答案:模型不會(huì)被數(shù)據(jù)點(diǎn)與超平面的距離影響“重構(gòu)”交互主要是為了完成什么任務(wù):

答案:改變可視化的空間布局以提供不同視角在word2vec算法中,你估計(jì)P(t|c),其中t是目標(biāo)單詞,c是上下文(context)單詞。t和c該如何從訓(xùn)練集當(dāng)中選擇?

答案:c和t應(yīng)該相鄰標(biāo)識(shí)通道是用來顯示數(shù)據(jù)的:

答案:分類屬性公路交通圖可以被抽象為以下哪種類型的數(shù)據(jù)?

答案:圖實(shí)現(xiàn)“數(shù)據(jù)瀏覽”交互,可以使用哪些基本方法:

答案:直接導(dǎo)引或拖拽縮放在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,最可能的原因是?

答案:學(xué)習(xí)率太低BP網(wǎng)絡(luò)具有廣泛的適應(yīng)性和有效性。

答案:對(duì)內(nèi)存數(shù)據(jù)庫(kù)無需磁盤IO,可以有效應(yīng)對(duì)停電導(dǎo)致數(shù)據(jù)丟失的問題。

答案:錯(cuò)CHAMELEON算法中既包含對(duì)圖的劃分也包含對(duì)子圖的合并。

答案:對(duì)輪廓系數(shù)屬于簇有效性的外部度量方法之一。

答案:錯(cuò)虛擬式數(shù)據(jù)集成需要從各個(gè)數(shù)據(jù)源中把數(shù)據(jù)拷貝到目標(biāo)數(shù)據(jù)倉(cāng)庫(kù)中。

答案:錯(cuò)在中介者數(shù)據(jù)集成模式中,中介者需要保存各個(gè)數(shù)據(jù)源的數(shù)據(jù)。

答案:錯(cuò)SQL語(yǔ)言是一種聲明性語(yǔ)言。

答案:對(duì)GPU所配置的顯存的大小,對(duì)于在該GPU上訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)的復(fù)雜度、訓(xùn)練數(shù)據(jù)的批次規(guī)模等,都是一個(gè)無法忽視的影響因素。

答案:對(duì)在KMEANS的訓(xùn)練過程中,可以選擇不同的K值,比較使絕對(duì)誤差標(biāo)準(zhǔn)較小的K值,結(jié)合聚類業(yè)務(wù)的可解釋性,從而選擇合適的K值。

答案:對(duì)熵值越小所蘊(yùn)含的不確定信息越小,越有利于數(shù)據(jù)的分類。

答案:對(duì)CHAMELEON算法第二階段中,將不斷尋找合并相對(duì)接近度和相對(duì)互聯(lián)度較低的兩個(gè)子簇。

答案:錯(cuò)劃分聚類算法不具備全局目標(biāo)。

答案:錯(cuò)在數(shù)據(jù)倉(cāng)庫(kù)中,ETL操作可以多次執(zhí)行。

答案:對(duì)下列數(shù)據(jù)庫(kù)中哪些是開源數(shù)據(jù)庫(kù)?

答案:MySQL###PostgreSQL分布式數(shù)據(jù)庫(kù)一般屬于并行數(shù)據(jù)庫(kù)。

答案:對(duì)單層感知機(jī)能夠?qū)崿F(xiàn)各種布爾邏輯函數(shù)。

答案:錯(cuò)單層感知機(jī)可以實(shí)現(xiàn)XOR操作。

答案:錯(cuò)為了能夠構(gòu)建非常深的網(wǎng)絡(luò),我們通常僅使用池化層來減小激活函數(shù)輸出的高度/寬度,且卷積使用“valid”pooling。否則,我們將過快縮小模型的輸入。

答案:錯(cuò)用戶認(rèn)證是確保數(shù)據(jù)庫(kù)安全性的方法之一

答案:對(duì)數(shù)據(jù)清洗中的覆蓋類異常包括()。

答案:元組缺失###值缺失下列哪些屬于數(shù)據(jù)清洗中的語(yǔ)法類異常:

答案:詞法錯(cuò)誤###不規(guī)則取值###值域格式錯(cuò)誤NoSQL數(shù)據(jù)庫(kù)主要可以分為哪幾類?

答案:圖數(shù)據(jù)庫(kù)###列數(shù)據(jù)庫(kù)###文檔數(shù)據(jù)庫(kù)###鍵值數(shù)據(jù)庫(kù)為什么要對(duì)數(shù)據(jù)進(jìn)行可視化?

答案:促進(jìn)數(shù)據(jù)的交流與溝通###直觀展現(xiàn)信息###幫助數(shù)據(jù)分析與推理并行與分布式數(shù)據(jù)庫(kù)主要有哪幾種信息共享架構(gòu)?

答案:共享磁盤架構(gòu)###共享內(nèi)存架構(gòu)###無共享架構(gòu)文檔數(shù)據(jù)庫(kù)的主要優(yōu)點(diǎn)包括()。

答案:結(jié)構(gòu)靈活###不需要預(yù)先定義表結(jié)構(gòu)假設(shè)輸入大小為nHxnWxnC。下面哪幾項(xiàng)是正確的?

答案:可以使用1x1卷積層來降低nC,但不能降低nH,nW。###可以使用池化層來降低nH,nW和nC。數(shù)據(jù)倉(cāng)庫(kù)的主要特點(diǎn)包括()。

答案:一般面向主題###數(shù)據(jù)隨著時(shí)間增加###數(shù)據(jù)內(nèi)容更新少###數(shù)據(jù)是集成的下列屬于數(shù)據(jù)清洗過程中評(píng)價(jià)數(shù)據(jù)質(zhì)量的標(biāo)準(zhǔn)有()。

答案:一致性###完整性###唯一性以下關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說法中正確的是()。

答案:在使用SGD訓(xùn)練時(shí),若訓(xùn)練loss的變化逐漸平緩不再明顯下降時(shí),通??梢酝ㄟ^減小learningrate的方式使其再進(jìn)一步下降###若batchsize過小,batchnormalization的效果會(huì)出現(xiàn)退化以下哪些不是用來提高可視化信息傳達(dá)效率的方法:

答案:最小化謊言因子以下哪一項(xiàng)不可以用來做任務(wù)的衡量指標(biāo):

答案:用戶在完成任務(wù)時(shí)系統(tǒng)的延遲等待時(shí)間以下哪一項(xiàng)是力導(dǎo)向布局的缺點(diǎn):

答案:當(dāng)圖的密度較大時(shí),會(huì)導(dǎo)致視覺混亂以下哪種情況會(huì)導(dǎo)致SVM算法性能下降?

答案:數(shù)據(jù)有噪聲,有重復(fù)值我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,

為了使用較少時(shí)間,

我們可以()

答案:減少樹的深度數(shù)據(jù)標(biāo)準(zhǔn)化(Standardization)和規(guī)范化(Normalization)處理屬于數(shù)據(jù)清理中的()。

答案:數(shù)據(jù)轉(zhuǎn)換以下哪個(gè)不屬于可視化創(chuàng)建的關(guān)鍵步驟?

答案:可視化開發(fā)為了防止過擬合,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),會(huì)加入許多技巧。請(qǐng)問以下技巧中既可以防止過擬合,又可以使最終參數(shù)具有稀疏性?

答案:AddL1RegularizationtoParameters神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)可能有一個(gè)停滯期,這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。為了避免這種情況,下面的哪個(gè)策略有效?()

答案:抖動(dòng)學(xué)習(xí)速率,即改變幾個(gè)時(shí)期的學(xué)習(xí)速率下列哪些數(shù)據(jù)庫(kù)屬于內(nèi)存數(shù)據(jù)庫(kù)?

答案:SQLite###Redis“具象與抽象”交互主要是為了完成什么任務(wù):

答案:從不同的粒度呈現(xiàn)數(shù)據(jù)關(guān)于組內(nèi)研究表述不正確的是:

答案:如果實(shí)驗(yàn)只有兩個(gè)自變量,分析組內(nèi)研究結(jié)果時(shí),需要使用非配對(duì)t檢驗(yàn)數(shù)據(jù)墨水是指:

答案:用于呈現(xiàn)圖表中與數(shù)據(jù)相關(guān)部分的內(nèi)容所消耗的筆墨總量可視化圖形符號(hào)可以用來表示:

答案:數(shù)據(jù)元素神經(jīng)網(wǎng)絡(luò)模型是受人腦的結(jié)構(gòu)啟發(fā)發(fā)明的。神經(jīng)網(wǎng)絡(luò)模型由很多的神經(jīng)元組成,每個(gè)神經(jīng)元都接受輸入,進(jìn)行計(jì)算并輸出結(jié)果,那么以下選項(xiàng)描述正確的是()。

答案:每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出「-0.0001」。X可能是以下哪一個(gè)激活函數(shù)?

答案:tanh在MySQL中,創(chuàng)建名為“education”的數(shù)據(jù)庫(kù)的正確語(yǔ)句是()?

答案:CREATEDATABASEeducation當(dāng)?shù)竭_(dá)ConvNet的更深層時(shí),通常會(huì)看到以下哪項(xiàng)?

答案:nH和nW減小,而nC增加稀有的蜻蜓總是天生就有額外的翅膀。但是,普通的蜻蜓有時(shí)也會(huì)通過突變獲得額外的翅膀。在某些棲息地中,有0.3%的蜻蜓屬于這種稀有物種,已知有0.1%的常見蜻蜓發(fā)生了翼外突變。您會(huì)在該棲息地中看到帶有額外一對(duì)翅膀的蜻蜓。它是稀有物種的成員的概率是多少?

答案:0.7506在平行坐標(biāo)軸中,數(shù)據(jù)的維度被顯示為:

答案:坐標(biāo)軸可視化屬性可以用來表示:

答案:數(shù)據(jù)屬性以下哪一項(xiàng)不是點(diǎn)線圖的布局方式:

答案:鄰接布局在卷積神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的引入是為了()

答案:加入非線性因素等,將某些特征過濾映射出來實(shí)現(xiàn)“重構(gòu)”交互,有哪些基本方法:

答案:重新排序或重組視圖MongoDB創(chuàng)建新數(shù)據(jù)庫(kù)“education”的正確語(yǔ)句是()。

答案:useeducation在格式塔法則中,哪一種法則下所展現(xiàn)的群組關(guān)系最為強(qiáng)烈:

答案:連通性準(zhǔn)則有關(guān)深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練(Training)和推斷(Inference),以下說法中不正確的是:()

答案:TensorFlow使用GPU訓(xùn)練好的模型,在執(zhí)行推斷任務(wù)時(shí),也必須在GPU上運(yùn)行。當(dāng)謊言因子>1時(shí),說經(jīng)可視化設(shè)計(jì):

答案:夸大了數(shù)據(jù)事實(shí)以下等式是ResNet塊中的計(jì)算。上面的兩個(gè)空白是什么?a[l+2]=g(W[l+2]g(W[l+1]a[l]+b[l+1])+bl+2+_______)+_______

答案:分別是a[l]和0以下哪一項(xiàng)不屬于數(shù)值型可視化通道:

答案:色相PCA

的設(shè)計(jì)原理是:()。

答案:最大化數(shù)據(jù)點(diǎn)在低維空間中點(diǎn)的差異以下哪一種交互不屬于常見的可視化交互類型。

答案:定向數(shù)據(jù)可視化有哪些主要分支方向?

答案:科學(xué)可視化###信息可視化###可視分析謊言因子是設(shè)計(jì)用來度量可視化中什么設(shè)計(jì)指標(biāo)的方法?

答案:可視化呈現(xiàn)數(shù)據(jù)時(shí)夸張程度的度量方法以下哪一項(xiàng)不是可視化的基本評(píng)估方法?

答案:定量實(shí)驗(yàn)分析下列選項(xiàng)中哪一項(xiàng)不屬于可視化的基本設(shè)計(jì)準(zhǔn)則。()

答案:設(shè)計(jì)能夠直觀傳遞信息的可視化信息可視化主要是針對(duì)什么類型數(shù)據(jù)的?

答案:抽象數(shù)據(jù)在受控用戶實(shí)驗(yàn)中,當(dāng)我們對(duì)比工具A與工具B時(shí),以下哪一個(gè)假設(shè)符合實(shí)驗(yàn)設(shè)計(jì)標(biāo)準(zhǔn)?

答案:假設(shè)在處理數(shù)據(jù)異常時(shí),用戶使用工具A比使用工具B更快以下哪一項(xiàng)不屬于數(shù)據(jù)的維度的類型()。

答案:時(shí)間屬性“數(shù)據(jù)瀏覽”交互主要是為了完成什么任務(wù):()。

答案:展現(xiàn)數(shù)據(jù)中的不同子集假設(shè)你正在訓(xùn)練LSTM。你有10000個(gè)單詞的詞匯,并且正在使用具有100維激活的LSTM。每步當(dāng)中的維數(shù)是多少?

答案:100為了使RNN更容易訓(xùn)練,需要選取更好的激活函數(shù),如Relu激活函數(shù)。ReLU函數(shù)的左側(cè)導(dǎo)數(shù)為0,右側(cè)導(dǎo)數(shù)恒為1,這就避免了梯度爆炸問題的發(fā)生。

答案:錯(cuò)下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

答案:修正線性單元(ReLU)梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差

答案:dcaeb已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。-每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?

答案:加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力。

答案:對(duì)您正在訓(xùn)練RNN,發(fā)現(xiàn)您的權(quán)重和激活都具有NaN的值(“非數(shù)字”)。以下哪項(xiàng)最可能是此問題的原因?

答案:梯度爆炸問題多對(duì)一RNN架構(gòu)可以應(yīng)用于以下哪些任務(wù)?

答案:情感分類(輸入一段文字并輸出0/1表示正面或負(fù)面情緒)###語(yǔ)音中的性別識(shí)別(輸入音頻剪輯并輸出表明說話者性別的標(biāo)簽)下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?

答案:BaggingRNN會(huì)發(fā)生梯度消失的問題,產(chǎn)生這樣的問題的原因是RNN在算是會(huì)有激活函數(shù)導(dǎo)數(shù)的累乘,如果取tanh或sigmoid函數(shù)作為激活函數(shù)的話,那么必然是一堆小數(shù)在做乘法,結(jié)果就是越乘越小。隨著時(shí)間序列的不斷深入,小數(shù)的累乘就會(huì)導(dǎo)致梯度越來越小直到接近于0,這就是“梯度消失“現(xiàn)象。

答案:對(duì)關(guān)于決策樹算法的描述正確的是()。

答案:決策樹可以看成一個(gè)If-then規(guī)則的集合。VM算法的最小時(shí)間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?

答案:大數(shù)據(jù)集若參數(shù)C(costparameter)被設(shè)為無窮,下面哪種說法是正確的?

答案:只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類在貝葉斯定理的公式當(dāng)中,哪一個(gè)是先驗(yàn)概率?

答案:P(A)怎樣理解“硬間隔”?

答案:SVM只允許極小誤差對(duì)于信息增益,決策樹分裂節(jié)點(diǎn),下面說法正確的是()1.純度高的節(jié)點(diǎn)需要更多的信息去區(qū)分2.信息增益可以用”1比特-熵”獲得3.如果選擇一個(gè)屬性具有許多歸類值,那么這個(gè)信息增益是有偏差的

答案:2和3貝葉斯決策是由先驗(yàn)概率和類條件概率,推導(dǎo)后驗(yàn)概率,然后利用這個(gè)概率進(jìn)行決策。

答案:對(duì)SVM中的泛化誤差代表什么?

答案:SVM對(duì)新數(shù)據(jù)的預(yù)測(cè)準(zhǔn)確度在電視游戲節(jié)目中,參賽者選擇三個(gè)門之一;一扇門的后面有獎(jiǎng),而另兩扇的后面沒有獎(jiǎng)。參賽者選擇一扇門后,游戲節(jié)目主持人將打開其余的一扇門,并顯示門后沒有任何獎(jiǎng)金。然后,主持人詢問參賽者是將自己的選擇切換到另一扇未打開的門,還是將STICK切換到其原始選擇。這對(duì)參賽者來說切換們是有利的。

答案:對(duì)決策樹中屬性選擇的方法有()。

答案:信息增益###GINI系數(shù)###信息增益率DBSCAN算法的缺點(diǎn)包括?

答案:對(duì)于高維問題,密度定義是個(gè)比較麻煩的問題###對(duì)輸入?yún)?shù)敏感###當(dāng)簇的密度變化太大時(shí),不能很好的處理凝聚層次聚類中,定義簇間的相似度的方法有()。

答案:組平均###MIN(單鏈)###Ward方法###MAX(全鏈)全鏈在處理大小不同的簇時(shí),可能使大的簇破裂。

答案:對(duì)以下哪些選項(xiàng)是K-均值聚類面臨的問題?

答案:K的選擇具有挑戰(zhàn)性###關(guān)于數(shù)據(jù)的球形假設(shè)(到聚類中心的距離)###貪心算法存在的問題###難以處理噪聲、異常值CHAMELEON算法的優(yōu)點(diǎn)包括:()。

答案:能識(shí)別具有不同形狀、大小和密度的簇###能夠有效地聚類空間數(shù)據(jù)###對(duì)噪聲和異常數(shù)據(jù)不敏感同一組數(shù)據(jù)通過不同聚類算法得到的簇的個(gè)數(shù)是相同的。

答案:錯(cuò)下列關(guān)于不同的簇類型的說法中,不正確的是()。

答案:在明顯分離的簇中,同簇中的對(duì)象之間的距離要大于異簇的對(duì)象使用KMEANS、DBSCAN等多

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論