網(wǎng)絡(luò)爬蟲開發(fā)智慧樹知到答案章節(jié)測試2023年楊凌職業(yè)技術(shù)學院_第1頁
網(wǎng)絡(luò)爬蟲開發(fā)智慧樹知到答案章節(jié)測試2023年楊凌職業(yè)技術(shù)學院_第2頁
網(wǎng)絡(luò)爬蟲開發(fā)智慧樹知到答案章節(jié)測試2023年楊凌職業(yè)技術(shù)學院_第3頁
網(wǎng)絡(luò)爬蟲開發(fā)智慧樹知到答案章節(jié)測試2023年楊凌職業(yè)技術(shù)學院_第4頁
網(wǎng)絡(luò)爬蟲開發(fā)智慧樹知到答案章節(jié)測試2023年楊凌職業(yè)技術(shù)學院_第5頁
免費預(yù)覽已結(jié)束,剩余7頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

項目一測試下列不屬于常見爬蟲類型的是()。

A:增量式網(wǎng)絡(luò)爬蟲

B:淺層網(wǎng)絡(luò)爬蟲

C:通用網(wǎng)絡(luò)爬蟲

D:聚焦網(wǎng)絡(luò)爬蟲

答案:B下列不屬于聚焦網(wǎng)絡(luò)爬蟲的常用策略的是()。

A:基于內(nèi)容評價的爬取策略

B:基于深度優(yōu)先的爬取策略

C:基于語境圖的爬取策略

D:基于鏈接結(jié)構(gòu)評價的爬取策略

答案:B下列不屬于常用反爬手段的是()。

A:反爬頻度

B:驗證碼校驗

C:賬號權(quán)限

D:人工篩選

答案:D下列屬于反爬蟲目的的是()。

A:防止網(wǎng)站信息被競爭對手隨意獲取

B:限制用戶訪問權(quán)限

C:限制訪問人數(shù)

D:變換網(wǎng)頁結(jié)構(gòu)

答案:A下列屬關(guān)于Python爬蟲庫的功能描述不正確的是()。

A:HTML/XML解析器pycurl`

B:通用爬蟲庫urllib3

C:通用爬蟲庫Requests

D:爬蟲框架Scrapy

答案:A搜索引擎使用了網(wǎng)絡(luò)爬蟲不停地從互聯(lián)網(wǎng)抓取網(wǎng)站數(shù)據(jù),并將網(wǎng)站鏡像保存在本地。()

A:對

B:錯

答案:Arobots.txt文件中,User-agent后面跟的是爬蟲的名稱,Disallow后面跟著的是可以爬蟲的網(wǎng)頁。()

A:錯

B:對

答案:A爬蟲是手動請求萬維網(wǎng)網(wǎng)站且提取網(wǎng)頁數(shù)據(jù)的程序。()

A:錯

B:對

答案:A每個網(wǎng)站都有robots.txt文件。()

A:對

B:錯

答案:B爬蟲爬取的是網(wǎng)站后臺的數(shù)據(jù)。()

A:對

B:錯

答案:B項目二測試吉多設(shè)計Python的靈感來源于()。

A:C語言

B:ABC語言

C:Unixshell

D:Java語言

答案:B下列關(guān)于Python語言的特點說法中,錯誤的是()。

A:ANSIC

B:Go

C:Python語言是非開源語言

D:Python語言是跨平臺語言

答案:CPython源代碼文件的后綴名是()

A:png

B:doc

C:pdf

D:py

答案:D列表list=[1,2,3,4,5],下列選項中為空的是()

A:ist[1:1]

B:list[1:-1]

C:list[1:]

D:list[:-2]

答案:APython語言中用來定義函數(shù)的關(guān)鍵字是()

A:class

B:def

C:return

D:function

答案:B在安裝Python時,需要根據(jù)已有的系統(tǒng)來選擇相應(yīng)的安裝程序。安裝后,也需要配置環(huán)境變量。()

A:錯

B:對

答案:Belif語句可以單獨使用。()

A:對

B:錯

答案:B元組的元素不能修改。()

A:錯

B:對

答案:B下列選項中,不能創(chuàng)建元組的語句是()。

A:tup=(2)

B:tup=(1,2,98)

C:tup=tuple([1,2,3])

D:tup=[1,2,3]

答案:AD項目三測試如果站點服務(wù)器支持安全套接層(SSL),那么連接到安全站點上的所有URL開頭是()。

A:SHTTP

B:SSL

C:HTTPS

D:HTTP

答案:Cbody元素用于背景顏色的屬性是()。

A:alink

B:color

C:vlink

D:background-color

答案:D為了標識一個HTML文件開始應(yīng)該使用的HTML標記是()。

A:<table>

B:<a>

C:<body>

D:<html>

答案:D在HTML中,單元格的標記是()。

A:<td>

B:<body>

C:<span>

D:<tr>

答案:ACSS中的選擇器不包括包括()

A:超文本標記選擇器

B:元素選擇器

C:ID選擇器

D:類選擇器

答案:A()是網(wǎng)頁與網(wǎng)頁之間聯(lián)系的紐帶,也是網(wǎng)頁的重要特色。

A:框架

B:表格

C:超鏈接

D:導(dǎo)航條

答案:C在HTML中,下面是段落標簽的是:()。

A:<head></head>

B:<p></p>

C:<html></html>

D:<body></body>

答案:B()標簽可以應(yīng)用于〈head〉中。

A:<image>

B:<body>

C:<html>

D:<title>

答案:D下列哪一項是css添加背景圖片的正確語法構(gòu)成?()

A:background-color

B:background-size

C:background-position

D:background-image

答案:D在HTML開發(fā)中,制作網(wǎng)站時首先需要考慮內(nèi)容是()

A:圖片色彩

B:文字字體第四章

C:頁面內(nèi)容

D:頁面布局

答案:D項目四測試HTTPError是URLError的子類,專門用來處理HTTP請求錯誤,比如認證請求失敗等。它有3個屬性,下列選項哪一個不是它的屬性()。

A:Response

B:headers

C:reason

D:code

答案:A下列屬于HTTP必須實現(xiàn)的請求方法的是()。

A:OPTIONS和CONNECT

B:GET與HEAD

C:POST與DELE

D:TRACE和OPTIONS

答案:B下列關(guān)于HTTP狀態(tài)碼類型描述錯誤的是()。

A:3XX表示客戶端的請求需采取進一步操作

B:1XX表示請求已被服務(wù)器接受,無須后續(xù)處理

C:4XX表示客戶端可能發(fā)生錯誤

D:5XX表示服務(wù)器可能發(fā)生錯誤

答案:B通過加入特定的____,可以將爬蟲發(fā)出的請求偽裝成瀏覽器。()

A:Headers

B:opener

C:Request

D:User_Agent

答案:Durlopen方法中的data參數(shù)可以不是bytes類型。()

A:錯

B:對

答案:Arequests庫中的requests.get(url)方法是請求目標網(wǎng)站,類型是一個HTTPresponse類型。()

A:錯

B:對

答案:B如果訪問某網(wǎng)站的頻率太高,則這個網(wǎng)站可能會禁止訪問。()

A:錯

B:對

答案:Brequests庫中的requests.get(url)方法中包括兩個(對象)請求,其中一個為Request請求,即向服務(wù)器請求資源的request對象,第二個是Response請求,即包含從服務(wù)器返回的所有資源。()

A:錯

B:對

答案:BResponse類用于動態(tài)地響應(yīng)客戶端的請求,控制發(fā)送給用戶的信息,并且將動態(tài)地生成響應(yīng),包括狀態(tài)碼、網(wǎng)頁的內(nèi)容等。()

A:對

B:錯

答案:A項目五測試下列不屬于HTTP請求過程的是()。

A:生成請求

B:超時設(shè)置

C:搜索文檔

D:請求重定向

答案:C下列關(guān)于Chrome開發(fā)者工具描述錯誤的是()

A:源代碼面板可查看HTML源碼

B:網(wǎng)絡(luò)面板可查看HTTP頭部信息

C:元素面板可查看元素在頁面的對應(yīng)位置

D:網(wǎng)絡(luò)面板無法查看HTML源碼

答案:D下列關(guān)于Xpah中功能函數(shù)描述錯誤的是()

A:and方法可用于選取同時包含兩種指定值的節(jié)點

B:text函數(shù)可用于選取包含指定文本內(nèi)容的節(jié)點

C:contains方法可用于選取以指定值開頭的節(jié)點

D:text函數(shù)可提取節(jié)點文本內(nèi)容

答案:C下列關(guān)于Beautifulsoup中對象類型描述錯誤的是()

A:string方法可獲取Tag對象中的文本字符串內(nèi)容

B:NavigableString對象無法被編輯,但可以進行替換

C:name方法可以獲取及修改Tag對象名稱

D:attrs方法可獲取Tag對象的HTML屬性,返回值為列表形式

答案:D下列選項中,屬于非結(jié)構(gòu)化數(shù)據(jù)的是:()

A:圖像

B:HTML

C:JSON

D:XML

答案:A對服務(wù)器端來說,它返回給客戶端的數(shù)據(jù)格式可分為非結(jié)構(gòu)化和結(jié)構(gòu)化兩種。()

A:錯

B:對

答案:B網(wǎng)頁中的非結(jié)構(gòu)化數(shù)據(jù)是指數(shù)據(jù)結(jié)構(gòu)不規(guī)則或不完整,沒有預(yù)定義的數(shù)據(jù)模型,不方便使用數(shù)據(jù)庫二維邏輯來表現(xiàn)的數(shù)據(jù),包括所有格式的辦公文檔、文本、圖像等。()

A:對

B:錯

答案:A結(jié)構(gòu)化數(shù)據(jù)就是能夠用數(shù)據(jù)或統(tǒng)一的結(jié)構(gòu)加以表示,具有模式的數(shù)據(jù),包括HTML、XML和JSON等。()

A:錯

B:對

答案:B正則表達式、XPath和BeautifulSoup都是基于HTML/XML文檔的層次結(jié)構(gòu)來確定到達指定節(jié)點的路徑。()

A:錯

B:對

答案:AXPath是一門在XML文檔中查找信息的語言。XPath可用來在XML文檔中對元素和屬性進行遍歷。()

A:錯

B:對

答案:B項目六測試使用以下哪個函數(shù)可以打開一個已經(jīng)存在的文件?()

A:file

B:read

C:close

D:open

答案:D文件訪問的默認模式為()。

A:ab

B:a

C:r

D:w

答案:C以二進制格式打開一個文件用于追加的訪問模式為()。

A:w

B:ab

C:r+

D:r

答案:B改變文件目錄所用的方法是()。

A:chdir()

B:remove()

C:read()

D:rename()

答案:A文件刪除所用的方法是()

A:read()

B:remove()

C:readlines()

D:rename()

答案:B使用withas語法。在with控制塊結(jié)束時,文件會自動關(guān)閉()。

A:錯

B:對

答案:BJSON也就是JavaScript對象標記()。

A:錯

B:對

答案:B使調(diào)用dumps()方法將JSON字符串轉(zhuǎn)化為對象()。

A:對

B:錯

答案:B使用readines()方法不可以把整個文件中的內(nèi)容進行一次性讀?。ǎ?。

A:錯

B:對

答案:A向文件中寫入數(shù)據(jù),需要使用write方法()。

A:錯

B:對

答案:B項目七測試以下哪個技術(shù)不是Ajax技術(shù)體系的組成部分?()

A:DHTML

B:CSS

C:XMLHttpRequest

D:DOM

答案:A下列哪些方法或?qū)傩允荳eb標準中規(guī)定的?()

A:innerHTML

B:all()

C:getElementsByTagName()

D:innerText

答案:C下列selenium庫的方法中,通過元素名稱定位的是()。

A:find_element_by_class_name

B:find_element_by_tag_name

C:find_element_by_name

D:find_element_by_id

答案:C下面方法中,進行瀏覽器頁面前進的方法是()。

A:driver.forward()

B:driver.go()

C:driver.back()

D:driver.refresh()

答案:A關(guān)閉當前頁面的方法是()

A:driver.quit()

B:driver.close()

C:driver.back()

D:driver.forward()

答案:BAjax不能實現(xiàn)頁面的交互()。

A:錯

B:對

答案:A可以使用request向服務(wù)器發(fā)送請求,然后得到響應(yīng)()。

A:錯

B:對

答案:B使用driver.get()方法可以得到網(wǎng)頁窗口的位置()。

A:對

B:錯

答案:B使用Ajax解析內(nèi)容時,得到響應(yīng)后,觸發(fā)onreadystatechange屬性對應(yīng)的方法()。

A:對

B:錯

答案:ADOM操作,即對Document網(wǎng)頁文檔進行操作,如更改、刪除等()。

A:錯

B:對

答案:B項目八測試下列不屬于Scrapy框架的基本組成部分的是()

A:引擎與調(diào)度器

B:解析中間件

C:ItemPipelines

D:下載器與Spiders

答案:A下列對于Scrapy數(shù)據(jù)流向描述錯誤的是()

A:一旦網(wǎng)頁下載完畢,下載器會生成一個該網(wǎng)頁的響應(yīng),并將其通過下載器中間件(返回響應(yīng)方向)發(fā)送給引擎

B:Spiders處理響應(yīng)并返同爬取到的Items及(跟進的)新的請求給引擎解析中間件

C:引擎僅負責打開一個網(wǎng)站,并找到該網(wǎng)站的Spiders,并向該Spiders請求第一個要爬取的URL

D:調(diào)度器返回下一個要爬取的URL給引擎,引擎將URL通過下載器中間件(請求方向)轉(zhuǎn)發(fā)給下載器Download

答案:B下列對于Scrapy常用命令及其作用描述正確的是()

A:List是一個全局命令,主要用于列出項目中所有可用的爬蟲

B:crawl是一個項目命令,主要用于啟動限蟲

C:genspider是一個項目命令,主要用于創(chuàng)建爬蟲模板

D:startproject是一個全局命令,主要用于運行一個獨立的爬蟲

答案:D下列對于Scrapy蟲項目目錄說法錯誤的是()。

A:Spiders目錄用于存放用戶編寫的爬蟲腳本

B:pipelines腳本定義了一個Pipeline類,可以根據(jù)需求將數(shù)據(jù)保存至數(shù)據(jù)庫、文件等

C:settings腳本用于設(shè)置參數(shù)

D:items腳本定義了一個Item類,能夠存儲爬取的數(shù)據(jù)

答案:D下列對于Scrapy的設(shè)置說法錯誤的是()

A:HTTPCACHE_ENABLED設(shè)置能夠啟用HTTP緩存,并設(shè)置路徑

B:DOWNLOAD_DELAY設(shè)置能夠限制爬取的速度

C:Scrapy設(shè)置允許自定義所有Scrapy組件的行為,包括核心、擴展、管道和爬蟲本身

D:DOWNLOADER_MIDDLEWARES設(shè)置能夠激活用戶定制的下載器中間件

答案:DScrapy是一個為了爬取網(wǎng)站數(shù)據(jù),提取結(jié)構(gòu)性數(shù)據(jù)而編寫的應(yīng)用框架,我們只需要實現(xiàn)少量

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論