版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
SpidersSpidersScrapy框架提供了scrapy.Spider做為爬蟲的基類,所有自定義的爬蟲必須從它那里繼承SpidersSpiders負責定義如何爬取及解析數(shù)據(jù)Spidersscrapy.Spider類的字段:主要字段描述name定義爬蟲名稱的字符串allowed_domains包含了允許爬取的域名列表start_urls表示初始URL列表custom_settings定義該spider配置的字典拓展關于設置settings中的值的幾種方法,優(yōu)先級從高到低如下命令行選項1custom_settings2拓展關于設置settings中的值的幾種方法,優(yōu)先級從高到低如下命令行選項1custom_settings2settings.py文件3命令行的默認設置,每一個命令行都有它自己的默認設置4默認的全局設置,被定義在scrapy.settings.default_settings中5Spidersscrapy.Spider類的字段:主要字段描述name定義爬蟲名稱的字符串allowed_domains包含了允許爬取的域名列表start_urls表示初始URL列表custom_settings定義該spider配置的字典crawler定義spider實例綁定的crawler對象Spidersscrapy.Spider類的字段:主要字段描述settings運行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認的回調用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關閉時被調用Spidersscrapy.Spider類的字段:主要字段描述settings運行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認的回調用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關閉時被調用Spidersscrapy.Spider類的字段:主要字段描述settings運行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認的回調用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關閉時被調用Spidersscrapy.Spider類的字段:主要字段描述settings運行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認的回調用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關閉時被調用Spidersscrapy.Spider類的字段:主要字段描述settings運行spider的配置logger用spider名字創(chuàng)建的Python日志記錄器from_crawler(crawler,*args,**kwargs)scrapy用于創(chuàng)建spiders的類方法。start_requests()開始爬蟲URL的函數(shù)parse(response)Scrapy默認的回調用來處理下載的responselog(message[,level,component])日志處理closed(reason)在Spider關閉時被調用Spider參數(shù)使用帶-a選項的爬行命令傳遞,如下所示:scrapycrawlfirst_scrapy-agroup=accessoriesSpider參數(shù)用于指定起始URLSpider參數(shù)使用帶-a選項的爬行命令傳遞,如下所示:scrapycrawlfirst_scrapy-agroup=accessoriesSpider參數(shù)用于指定起始URLSpider參數(shù)演示一個Spider如何接收參數(shù):importscrapyclassFirstSpider(scrapy.Spider):name="first"def__init__(self,group=None,*args,**kwargs):super(FirstSpider,self).__init__(*args,**kwargs)self.start_urls=["/group/%s"%group]通用SpidersCrawlSpider自定義規(guī)則來爬取所有返回頁面中的鏈接XMLFeedSpider用來爬取XMLCSVFeedSpider用來爬取csvSitemapSpider通過Sitemap來發(fā)現(xiàn)爬取的URL通用SpidersCrawlSpider自定義規(guī)則來爬取所有返回頁面中的鏈接XMLFeedSpider用來爬取XMLCSVFeedSpider用來爬取csvSitemapSpider通過Sitemap來發(fā)現(xiàn)爬取的URLCrawlSpiderCrawlSpiderCrawlSpider繼承于Spiders類,有以下類:classscrapy.spiders.CrawlSpider在scrapy的源碼中的位置在scrapy->spiders->crawl.py中Rule規(guī)則是一個規(guī)則對象的列表,定義了爬蟲如何跟蹤鏈接classscrapy.spiders.Rule(link_extractor,callback=None,cb_kwargs=None,follow=None,process_links=None,process_request=None)Rule類跟CrawlSpider在同一文件中:參數(shù)說明LinkExtractor規(guī)定了Spider如何跟蹤鏈接并提取數(shù)據(jù)callback在每個頁面被爬取后被調用cb_kwargs傳遞參數(shù)給回調函數(shù)的字典類型follow指定是否繼續(xù)跟蹤鏈接process_links回調函數(shù)process_request回調函數(shù)parse_start_url(response)start_urls默認回調方法,通過允許解析初始響應來返回項目或請求對象注意:在編寫規(guī)則時,請確保重命名parse函數(shù),因為parse函數(shù)被CrawlSpider用來實現(xiàn)其邏輯fromscrapy.spidersimportCrawlSpider,Rulefromscrapy.linkextractorsimportLinkExtractorclassTestSpider(CrawlSpider):name='test'start_urls=['/',]rules=(Rule(link_extractor=LinkExtractor(deny=('page/2')),callback='parse_item_first',follow=True),Rule(link_extractor=LinkExtractor(allow=('page/3')),callback='parse_item_second'))defparse_item_first(self,response):print('parse_item_first:',response.url)defparse_item_second(self,response):print('
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025物流運輸合同協(xié)議書范文
- 上海體育大學《學校體育學㈠》2023-2024學年第一學期期末試卷
- 2025建筑工程聯(lián)營合作協(xié)議(合同)
- 2025拍攝合同模板
- 上海視覺藝術學院《漢語語言要素教學》2023-2024學年第一學期期末試卷
- 上海師范大學《材料表征方法》2023-2024學年第一學期期末試卷
- 《EDA實驗教程紅綠》課件
- 上海杉達學院《計算機圖形學A》2023-2024學年第一學期期末試卷
- 上海歐華職業(yè)技術學院《商品學》2023-2024學年第一學期期末試卷
- 上海歐華職業(yè)技術學院《高效焊接技術》2023-2024學年第一學期期末試卷
- 娛樂行業(yè)虛擬現(xiàn)實主題公園建設方案
- 公路工程合同糾紛處理與法律適用考核試卷
- 股權合作協(xié)議范本三篇
- 2023年四川省眉山市公開招聘警務輔助人員(輔警)筆試專項訓練題試卷(2)含答案
- CFA固定收益證券知到智慧樹期末考試答案題庫2024年秋首都經濟貿易大學
- 殯儀館鮮花采購投標方案(技術方案)
- 2024-2030年中國成品油行業(yè)深度調查及投資可行性研究報告
- 光伏項目達標投產實施細則-施工
- 2023年黑龍江省齊齊哈爾市龍沙區(qū)煙草專賣局公務員考試《行政職業(yè)能力測驗》歷年真題及詳解
- 噴涂質量協(xié)議書(2篇)
- 統(tǒng)編版(2024)七年級上冊道德與法治第三單元《珍愛我們的生命》測試卷(含答案)
評論
0/150
提交評論