Python數(shù)據(jù)分析與數(shù)據(jù)可視化智慧樹知到期末考試答案2024年_第1頁
Python數(shù)據(jù)分析與數(shù)據(jù)可視化智慧樹知到期末考試答案2024年_第2頁
Python數(shù)據(jù)分析與數(shù)據(jù)可視化智慧樹知到期末考試答案2024年_第3頁
免費(fèi)預(yù)覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

Python數(shù)據(jù)分析與數(shù)據(jù)可視化智慧樹知到期末考試答案2024年P(guān)ython數(shù)據(jù)分析與數(shù)據(jù)可視化使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的xlabel()函數(shù)設(shè)置x軸標(biāo)簽時(shí),下面哪個(gè)參數(shù)可以用來設(shè)置字號(hào)?

A:propB:fontC:fontpropertiesD:fontsize答案:fontsize已知x=[1,2,3]和y=[4,5,6],那么表達(dá)式sum(map(lambdai,j:i*j,x,y))的值為?

A:4B:32C:18D:16答案:32使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的legend()函數(shù)創(chuàng)建和顯示圖例時(shí),下面哪個(gè)參數(shù)可以用來設(shè)置圖例的字體?

A:facecolorB:titleC:shadowD:markerfirstE:ncolF:edgecolorG:propH:loc答案:prop在機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn中,KMeans聚類模型完成聚類之后,可以通過_____________屬性查看樣本的標(biāo)簽。

A:labels_B:Label_C:LabelD:labels答案:labels_擴(kuò)展庫matplotlib.pyplot中的函數(shù)plot()可以用來繪制哪種圖形?

A:餅狀圖B:柱狀圖C:雷達(dá)圖D:散點(diǎn)圖E:折線圖答案:折線圖表達(dá)式np.ones((3,4)).sum()的值為____________。

A:1B:0C:7D:12答案:12擴(kuò)展庫matplotlib.pyplot中的函數(shù)pie()可以用來繪制哪種圖形?

A:雷達(dá)圖B:散點(diǎn)圖C:折線圖D:餅狀圖E:柱狀圖答案:餅狀圖表達(dá)式np.diag((1,2,3,4)).shape的值為____________。

A:4B:8C:16D:(4,4)答案:(4,4)在機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn中,KMeans聚類模型完成聚類之后,可以通過_____________屬性查看各個(gè)聚類的中心。

A:clustercentersB:cluster_centersC:cluster_centers_D:clustercenters_答案:cluster_centers_使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的legend()函數(shù)創(chuàng)建和顯示圖例時(shí),下面哪個(gè)參數(shù)可以用來設(shè)置圖例是否顯示陰影效果?

A:edgecolorB:ncolC:titleD:propE:shadowF:locG:facecolorH:markerfirst答案:shadow使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的bar()函數(shù)繪制柱狀圖時(shí),下面哪個(gè)參數(shù)可以用來設(shè)置柱的位置?

A:lwB:widthC:fillD:colorE:hatchF:left答案:color已知x=np.array((1,2,3,4,5)),那么表達(dá)式(2**x).max()的值為____________。

A:60B:25C:32D:15答案:32已知x=np.array([3,5,1,9,6,3]),那么表達(dá)式x[x>5].sum()的值為____________。

A:9B:15C:34D:6答案:15使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的pie()函數(shù)繪制餅狀圖時(shí),下面哪個(gè)參數(shù)用來設(shè)置餅狀圖的半徑?

A:radiusB:startangleC:explodeD:shadowE:centerF:colors答案:radius使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的bar()函數(shù)繪制柱狀圖時(shí),下面哪個(gè)參數(shù)可以用來設(shè)置柱的內(nèi)部填充符號(hào)?

A:leftB:lwC:colorD:widthE:fillF:hatch答案:hatch使用可視化擴(kuò)展庫matplotlib的模塊pyplot中的pie()函數(shù)繪制餅狀圖時(shí),下面哪個(gè)參數(shù)用來設(shè)置每個(gè)扇形區(qū)域偏離圓心的程度?

A:centerB:shadowC:radiusD:colorsE:startangleF:explode答案:explode下面表達(dá)式中等價(jià)于False的是?

A:-2B:{2}C:3D:[]答案:[]已知data=np.arange(20).reshape(5,4),那么表達(dá)式data[3,2]的值為?

A:18B:14C:24D:4答案:14KMeans算法的基本思想是:選擇樣本空間中k個(gè)樣本(點(diǎn))為初始中心,然后對剩余樣本進(jìn)行聚類,每個(gè)中心把距離自己最近的樣本“吸引”過來,然后更新聚類中心的值,依次把每個(gè)樣本歸到距離最近的類中,重復(fù)上面的過程,直至得到某種條件下最好的聚類結(jié)果。

A:錯(cuò)B:對答案:對在使用KNN算法對未知樣本進(jìn)行分類時(shí),參數(shù)k的取值不重要,對結(jié)果影響不大。

A:對B:錯(cuò)答案:錯(cuò)使用上下文管理語句with管理文件對象時(shí),即使with塊中的代碼發(fā)生錯(cuò)誤引發(fā)異常,也能保證文件被正確關(guān)閉。

A:錯(cuò)B:對答案:對擴(kuò)展庫numpy的線性代數(shù)子模塊linalg中提供了用來計(jì)算不同范數(shù)的函數(shù)norm()。

A:對B:錯(cuò)答案:對擴(kuò)展庫numpy的線性代數(shù)子模塊linalg中提供了用來計(jì)算逆矩陣的函數(shù)inv()。

A:錯(cuò)B:對答案:對Python語言中字符串對象的strip()只能刪除字符串兩端的空白字符,無法刪除其他字符。

A:對B:錯(cuò)答案:錯(cuò)理想的模型應(yīng)該方差和偏差都很小。

A:錯(cuò)B:對答案:對在機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn中,SVC類的參數(shù)C用來設(shè)置錯(cuò)誤項(xiàng)的懲罰參數(shù)C,值越大對誤分類的懲罰越小,間隔越小,對錯(cuò)誤的容忍度越高。

A:錯(cuò)B:對答案:錯(cuò)已知x=np.matrix([1,2,3,4,5]),那么表達(dá)式x*x.T的值為matrix([[55]])。

A:錯(cuò)B:對答案:對使用DBSCAN算法進(jìn)行聚類時(shí),需要使用參數(shù)指定聚類的數(shù)量。

A:對B:錯(cuò)答案:錯(cuò)對于復(fù)雜表達(dá)式,如果計(jì)算結(jié)果是正確的,那么不建議再增加圓括號(hào)來說明計(jì)算順序,這樣可以使得代碼更加簡潔清晰。

A:對B:錯(cuò)答案:錯(cuò)已知x是一個(gè)足夠大的numpy二維數(shù)組,那么語句x[0,2]=4的作用是把行下標(biāo)為0、列下標(biāo)為2的元素值改為4。

A:對B:錯(cuò)答案:對聚類算法KMeans屬于有監(jiān)督學(xué)習(xí)算法。

A:對B:錯(cuò)答案:錯(cuò)擴(kuò)展庫pandas中DataFrame對象的index屬性表示列名。

A:錯(cuò)B:對答案:錯(cuò)在樣本的眾多特征中,并不是每個(gè)特征都對要分析的問題有貢獻(xiàn)。即使是對問題有貢獻(xiàn)的若干特征,每個(gè)特征的重要程度可能也不一樣。

A:錯(cuò)B:對答案:對在機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn中,Lasso是可以估計(jì)稀疏系數(shù)的線性模型,尤其適用于減少給定解決方案依賴的特征數(shù)量的場合。如果數(shù)據(jù)的特征過多,而其中只有一小部分是真正重要的,此時(shí)選擇Lasso比較合適。

A:錯(cuò)B:對答案:對機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn中的評估器對象都提供了fit()方法使用數(shù)據(jù)對模型進(jìn)行擬合和訓(xùn)練。

A:錯(cuò)B:對答案:對在使用KNN算法對未知樣本進(jìn)行分類時(shí),已知類別中各類別包含的樣本數(shù)量最好差不多,否則會(huì)影響結(jié)果的準(zhǔn)確性。

A:對B:錯(cuò)答案:對擴(kuò)展庫pandas中DataFrame對象提供了pivot()方法和pivot_table()方法實(shí)現(xiàn)透視表所需要的功能,返回新的DataFrame對象。

A:對B:錯(cuò)答案:對隨機(jī)森林是一種集成學(xué)習(xí)方法,基本思想是把幾棵不同參數(shù)的決策樹打包到一起,每棵決策樹單獨(dú)進(jìn)行預(yù)測,然后計(jì)算所有決策樹預(yù)測結(jié)果的平均值(適用于回歸分析)或所有決策樹“投票”得到最終結(jié)果(適用于分類)。

A:錯(cuò)B:對答案:對對于分類算法而言,準(zhǔn)確率定義被正確分類的樣本數(shù)量與樣本總數(shù)量的比值。

A:錯(cuò)B:對答案:對在對文件進(jìn)行讀寫時(shí),文件指針的位置會(huì)自動(dòng)變化,始終表示讀寫的當(dāng)前位置。

A:對B:錯(cuò)答案:對在Python中,可調(diào)用對象主要包括函數(shù)(function)、lambda表達(dá)式、類(class)、類的方法(method)、實(shí)現(xiàn)了特殊方法__call__()的類的對象,這些對象作為內(nèi)置函數(shù)callable()的參數(shù)會(huì)使得該函數(shù)返回True。

A:對B:錯(cuò)答案:對已知data=np.arange(20),那么語句data.shape=5,-1無法執(zhí)行,因?yàn)?1沒有含義。

A:對B:錯(cuò)答案:錯(cuò)在Python3.x中,reduce()是內(nèi)置函數(shù),可以直接使用。

A:對B:錯(cuò)答案:錯(cuò)已知df為pandas的DataFrame對象,那么df.at[3,'姓名']表示訪問行下標(biāo)為3,姓名列的值。

A:錯(cuò)B:對答案:對機(jī)器學(xué)習(xí)擴(kuò)展庫sklearn的model_selection模塊實(shí)現(xiàn)了多個(gè)交叉驗(yàn)證器類以及用于學(xué)習(xí)曲線、數(shù)據(jù)集分割的函數(shù)。

A:對B:錯(cuò)答案:對在進(jìn)行數(shù)據(jù)分析和挖掘時(shí),應(yīng)使用樣本盡可能多的特征,這樣可以得到更理想的結(jié)果。

A:錯(cuò)B:對答案:錯(cuò)基尼值越大,表示數(shù)據(jù)純度越低,也表示從樣本空間中隨機(jī)選取兩個(gè)樣本時(shí)這兩個(gè)樣本所屬類別不一樣的概率越大。

A:對B:錯(cuò)答案:對縮進(jìn)對于Python程序至關(guān)重要。

A:錯(cuò)B:對答案:對擴(kuò)展庫sklearn.linear_model中LinearRegression類的對象擬合完成之后,可以通過屬性coef_查看回歸系數(shù)。

A:錯(cuò)B:對答案:對列表可以作為字典元素的“鍵”。

A:對B:錯(cuò)答案:錯(cuò)擴(kuò)展庫pandas中Series對象和DataFrame的列數(shù)據(jù)提供了cat、dt、str三種屬性接口(accessors),分別對應(yīng)分類數(shù)據(jù)、日期時(shí)間數(shù)據(jù)和字符串?dāng)?shù)據(jù)。

A:錯(cuò)B:對答案:對圖例往往位于圖形繪制結(jié)果的一角或一側(cè),也可以根據(jù)圖形的特點(diǎn)來設(shè)置位置以及背景色等其他樣式,主要用于對所繪制的圖形中使用的各種符號(hào)和顏色進(jìn)行說明,對于理解圖形有重要的作用。

A:對B:錯(cuò)答案:對擴(kuò)展庫pandas中DataFrame對象支持sort_index()方法沿某個(gè)方向按標(biāo)簽進(jìn)行排序并返回一個(gè)新的DataFrame對象。

A:對B:錯(cuò)答案:對已知df為pandas的DataFrame對象,那么df[:10]表示訪問df中前10行數(shù)據(jù)。

A:對B:錯(cuò)答案:錯(cuò)使用UTF8編碼格式的中文文本文件可以直接使用GBK編碼格式進(jìn)行解碼。

A:對B:錯(cuò)答案:錯(cuò)表達(dá)式np.empty((3,5)).sum()的值一定為0。

A:錯(cuò)B:對答案:錯(cuò)已知x=np.matrix([[1,2,3],[4,5,6]]),那么表達(dá)式x.mean(axis=0)的值為matrix([[2.5,3.5,4.5]])。

A:錯(cuò)B:對

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論