深度學習理論與實踐 習題及答案 第4章題目及答案_第1頁
深度學習理論與實踐 習題及答案 第4章題目及答案_第2頁
深度學習理論與實踐 習題及答案 第4章題目及答案_第3頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

第4章題目及答案選擇題線性回歸模型是指f(·)采用(A)組合形式的回歸模型,因變量和自變量的關系是(A)A、線性,線性B、非線性,線性C、線性、非線性D、非線性,非線性2、在利用PyTorch實現(xiàn)Logistic回歸時,我們采用構建多元高斯分布(D)A、torchvision1B、transformsC、ToPILImageD、MultivariateNormal3、Logistic回歸用于二分類問題時,使用(C)函數(shù)將線性模型的計算結果映射到0~1,得到的計算結果作為樣本為正類的置信概率。A、torch.zerosB、log_softmaxC、sigmoid()D、Dlog_softmax(x)4、Logistic回歸通常采用(B)方法優(yōu)化目標函數(shù)。A、動量算法B、隨機梯度下降法C、RMSPropD、Adam算法5、Logistic回歸模型的判決邊界在高維空間是一個超平面,當數(shù)據(jù)集是2維時,判決邊界是平面內(nèi)的(C)A、點B、直線C、有界平面圖形D、有限線段判斷題在回歸問題的實際求解中,可以使用比推導公式中參數(shù)張量更高一階的參數(shù)張量推廣到多因變量情況。√Logistic回歸是二分類模型,預測的是變量為正類的概率?!蘴orch.nn提供了機器學習當中常用的激活函數(shù)。√Logsitic回歸使用交叉熵作為補償函數(shù)。×在進行函數(shù)優(yōu)化的過程中,當構建完優(yōu)化器后,還不能迭代的對模型進行訓練?!撂羁疹}請寫出有i個自變量x的y線性回歸方程形式:y=f(x)=w1x1+w2x2+…+wnxn+btorch.nn中的Linear實現(xiàn)了y=xAT+b.在使用sigmoid()函數(shù)時,將Sigmoid類實例化,再講需要計算的變量作為參數(shù)傳遞給實例化的對象Torch.nn提供了許多標準的損失函數(shù),可以直接使用torch.nn.BCELoss計算二值交叉熵損失在構建函數(shù)優(yōu)化器時,,我們首先需要將學習的參數(shù)傳入,然后傳入優(yōu)化器需要的參數(shù),比如學習率問答題1、請簡述Logistic回歸模型可視化的具體過程。答案:建立判決邊界,一側歸為正類,一側歸為負類,之后利用draw_decision_boundary()函數(shù),繪制判決邊界,并調(diào)用plt.plot繪制線條即可。Logistic回歸模型中,偏回歸系數(shù)βj的解釋意義是什么?答案:βj的流行病學意義是在其他自變量固定不變的情況下,自變量Xj分的暴露水平每改變一個測量單位時所以親的比數(shù)比的自然對數(shù)改變量。請解釋什么是復相關系數(shù)答案:復相關系數(shù)是反映一個\t"/item/%E5%A4%8D%E7%9B%B8%E5%85%B3%E7%B3%BB%E6%95%B0/_blank"因變量與一組\t"/item/%E5%A4%8D%E7%9B%B8%E5%85%B3%E7%B3%BB%E6%95%B0/_blank"自變量(兩個或兩個以上)之間相關程度的指標,是度量復相關程度的指標。請解釋什么是確定系數(shù)答案:確定系數(shù)亦稱\t"/item/%E7%A1%AE%E5%AE%9A%E7%B3%BB%E6%95%B0/_blank"測定系數(shù)、\t"/item/%E7%A1%AE%E5%AE%9A%E7%B3%BB%E6%95%B0/_blank"決定系數(shù)、可決指數(shù)。與\t"/item/%E7%A1%AE%E5%AE%9A%E7%B3%BB%E6%95%B0/_blank"復相關系數(shù)類似的,表示一個隨機變量與多個隨機變量關系的數(shù)字特征,用來反映回歸模式說明因變量變化可靠程度的一個統(tǒng)計指標,一般用符號“R”表示,可定義為已被模式中全部自變量說明的自變量的變差對自變量總變差的比值。請解釋什么是系數(shù)比答案:系數(shù)比值,亦稱“交叉乘積比”、“優(yōu)勢比”。在病例對照調(diào)查中,用以估計有某因素的組較無此因素的組發(fā)生(或死于)該病的\t"/item/%E6%AF%94%E6%95%B0%E6%AF%94%E5%80%BC/_blank"相對危險度的近似值。適用于發(fā)病(或死亡)率較低的疾病。式中,OR為比數(shù)比值;a為病例組有某因素的人數(shù);b為對照組有某因素的人數(shù);c為病例組無某因素的人數(shù);d為對照組無某因素的人數(shù)。對罕見的疾病,OR與RR(相對危險度)基本一致。五.應用題如果label={-1,+1},給出LR的損失函數(shù)?邏輯回歸在訓練的過程當中,如果有很多的特征高度相關或者說有一個特征重復了100遍,會造成怎樣的影響?答案1.假設label={-1,+1},則對于sigmoid函數(shù),有以下特性:同樣,我們使用MLE作估計,對上式取對數(shù)及負值,得到損失為:即對于每一個樣本,損失函數(shù)為:2.如果在損失函數(shù)最終收斂的情況下,有很多特征高度相關也不會影響分類器的效果。對特征本身來說的話,假設只有一個特征,在不考慮采樣的情況下,你現(xiàn)在將它重復100遍。訓練以后完以后,數(shù)據(jù)還是這么多,但是這個特征本身重

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論