人工智能數(shù)據(jù)服務(wù) 課件 人工智能數(shù)據(jù)服務(wù) 課件 2-1 項(xiàng)目二 數(shù)據(jù)采集 任務(wù)1 網(wǎng)絡(luò)數(shù)據(jù)采集_第1頁
人工智能數(shù)據(jù)服務(wù) 課件 人工智能數(shù)據(jù)服務(wù) 課件 2-1 項(xiàng)目二 數(shù)據(jù)采集 任務(wù)1 網(wǎng)絡(luò)數(shù)據(jù)采集_第2頁
人工智能數(shù)據(jù)服務(wù) 課件 人工智能數(shù)據(jù)服務(wù) 課件 2-1 項(xiàng)目二 數(shù)據(jù)采集 任務(wù)1 網(wǎng)絡(luò)數(shù)據(jù)采集_第3頁
人工智能數(shù)據(jù)服務(wù) 課件 人工智能數(shù)據(jù)服務(wù) 課件 2-1 項(xiàng)目二 數(shù)據(jù)采集 任務(wù)1 網(wǎng)絡(luò)數(shù)據(jù)采集_第4頁
人工智能數(shù)據(jù)服務(wù) 課件 人工智能數(shù)據(jù)服務(wù) 課件 2-1 項(xiàng)目二 數(shù)據(jù)采集 任務(wù)1 網(wǎng)絡(luò)數(shù)據(jù)采集_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

項(xiàng)目2

數(shù)據(jù)采集《人工智能數(shù)據(jù)服務(wù)》學(xué)習(xí)引導(dǎo)任務(wù)3數(shù)據(jù)存儲與加載1任務(wù)2端側(cè)數(shù)據(jù)采集1任務(wù)11網(wǎng)絡(luò)數(shù)據(jù)采集項(xiàng)目導(dǎo)入

隨著互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,我們生活在一個數(shù)據(jù)驅(qū)動的時代。數(shù)據(jù)采集作為信息處理的第一步,對于理解世界、指導(dǎo)決策具有至關(guān)重要的作用。設(shè)想一個城市交通管理中心,需要實(shí)時監(jiān)控和分析交通流量,以優(yōu)化交通信號燈的控制,減少擁堵,提高道路使用效率。通過在關(guān)鍵路口安裝傳感器和攝像頭,收集車輛流量、速度、事故等數(shù)據(jù),管理中心能夠?qū)崟r了解交通狀況,并做出相應(yīng)的調(diào)整。項(xiàng)目導(dǎo)入數(shù)據(jù)采集不僅是一項(xiàng)技術(shù)活動,更是城市管理者服務(wù)社會、提高公共福祉的體現(xiàn)。然而,在智能交通系統(tǒng)的場景中,數(shù)據(jù)的準(zhǔn)確性和公正性對于交通管理至關(guān)重要,這要求我們在數(shù)據(jù)采集和處理過程中保持誠信,對數(shù)據(jù)負(fù)責(zé),確保信息的真實(shí)性和可靠性。項(xiàng)目導(dǎo)入通過本章節(jié)的學(xué)習(xí),學(xué)生不僅能夠掌握數(shù)據(jù)采集的技術(shù)知識,更能夠在思想上得到提升,學(xué)會如何在數(shù)據(jù)采集的實(shí)踐中堅持社會主義核心價值觀,培養(yǎng)成為具有社會責(zé)任感和專業(yè)素養(yǎng)的新時代青年。通過實(shí)際應(yīng)用場景的學(xué)習(xí)和討論,學(xué)生將更加深刻地理解數(shù)據(jù)采集在社會發(fā)展中的作用,以及作為數(shù)據(jù)采集者應(yīng)承擔(dān)的社會責(zé)任。任務(wù)1網(wǎng)絡(luò)數(shù)據(jù)采集1任務(wù)描

述任務(wù)導(dǎo)入知

準(zhǔn)

備任務(wù)小

結(jié)任務(wù)實(shí)

施在數(shù)字化浪潮中,網(wǎng)絡(luò)數(shù)據(jù)采集成為企業(yè)獲取關(guān)鍵信息、優(yōu)化決策的重要工具。然而,網(wǎng)絡(luò)信息的復(fù)雜性和海量性使得數(shù)據(jù)采集工作變得異常艱巨。因此,實(shí)施高效、精準(zhǔn)的網(wǎng)絡(luò)數(shù)據(jù)采集方案至關(guān)重要。通過采用先進(jìn)的爬蟲技術(shù),自動抓取多源數(shù)據(jù),并經(jīng)過清洗、整理和分析,為用戶提供結(jié)構(gòu)化、可視化的數(shù)據(jù)支持。任務(wù)

導(dǎo)

入任

務(wù)

述知

準(zhǔn)

備任務(wù)小

結(jié)任務(wù)實(shí)

施本任務(wù)將采用多種網(wǎng)絡(luò)爬蟲技術(shù),爬取房屋租賃網(wǎng)站上4個頁面的房源信息數(shù)據(jù),并將爬取到的數(shù)據(jù)保存到本地當(dāng)中,其中房源信息包括房源封面照片、戶型、面積等任務(wù)導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施網(wǎng)絡(luò)爬蟲的基本原理:發(fā)送請求接收響應(yīng)解析網(wǎng)頁存儲數(shù)據(jù)循環(huán)抓取與調(diào)度2.1.1網(wǎng)絡(luò)爬蟲的基本原理及基本庫的使用爬蟲類型具體內(nèi)容通用網(wǎng)絡(luò)爬蟲該類爬蟲目標(biāo)是整個互聯(lián)網(wǎng),采用深度優(yōu)先或廣度優(yōu)先等策略遍歷網(wǎng)頁,構(gòu)建搜索引擎的索引庫,如百度。聚焦網(wǎng)絡(luò)爬蟲專注于特定主題或領(lǐng)域的爬蟲,只爬取與主題相關(guān)的網(wǎng)頁,用于提高特定領(lǐng)域搜索的準(zhǔn)確性和效率。增量式網(wǎng)絡(luò)爬蟲定期檢查并只爬取新產(chǎn)生或更新的網(wǎng)頁,減少重復(fù)工作量,節(jié)省資源,提供更實(shí)時的信息。深層網(wǎng)絡(luò)爬蟲模擬用戶填寫表單,獲取需要特定輸入才能訪問的網(wǎng)頁數(shù)據(jù),用于深入分析和挖掘隱藏數(shù)據(jù)。任務(wù)導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施2.基本庫的使用2.1.1網(wǎng)絡(luò)爬蟲的基本原理及基本庫的使用爬蟲庫或框架具體內(nèi)容requests庫用于發(fā)送HTTP請求。requests庫提供了簡單易用的API,支持GET、POST、PUT、DELETE等多種請求方法,并且可以方便地設(shè)置請求頭、請求體等參數(shù)。BeautifulSoup庫用于解析HTML或XML文檔,提取出標(biāo)簽、屬性、文本等信息。BeautifulSoup將復(fù)雜的HTML文檔轉(zhuǎn)換成一個嵌套的Python對象,使得信息提取變得簡單直觀。Scrapy框架一個高級的Python爬蟲框架,提供了完整的爬蟲開發(fā)流程,包括發(fā)送請求、解析網(wǎng)頁、存儲數(shù)據(jù)等。Scrapy還提供了豐富的擴(kuò)展插件和中間件,支持異步IO、分布式爬取等功能。importrequestsurl=''#可修改為具體的網(wǎng)頁headers={'User-Agent':'My-Crawler'}#請求頭response=requests.get(url,headers=headers)ifresponse.status_code==200:print(response.text)簡單使用frombs4importBeautifulSouphtml_doc="""<html><head><title>TestPage</title></head><body><p>Thisisatestparagraph.</p></body></html>"""#網(wǎng)頁文本soup=BeautifulSoup(html_doc,'html.parser')#解析網(wǎng)頁title=soup.title.stringparagraph=soup.p.string項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施1.網(wǎng)頁的主要構(gòu)成在數(shù)字化時代,網(wǎng)頁是信息傳遞與交互的重要載體。一個完整的網(wǎng)頁不僅僅是文字和圖片的堆砌,它由多個部分協(xié)同工作,共同構(gòu)建出豐富、互動的用戶體驗(yàn)。2.1.2網(wǎng)頁前端基礎(chǔ)構(gòu)成具體內(nèi)容內(nèi)容網(wǎng)頁的核心,包括文字、圖片、視頻和音頻等,旨在傳遞有價值的信息和服務(wù),決定網(wǎng)站的風(fēng)格和定位結(jié)構(gòu)網(wǎng)頁的框架,通過HTML標(biāo)簽定義內(nèi)容的排列和邏輯,如標(biāo)題、段落等,影響用戶獲取信息的效率樣式網(wǎng)頁的視覺表現(xiàn),利用CSS調(diào)整布局、顏色和字體,提升網(wǎng)頁的美觀度和吸引力行為網(wǎng)頁的交互性,通過JavaScript實(shí)現(xiàn)動態(tài)效果,如表單驗(yàn)證和數(shù)據(jù)加載,增強(qiáng)用戶體驗(yàn)元數(shù)據(jù)網(wǎng)頁的后臺信息,包括標(biāo)題、描述和關(guān)鍵詞,對搜索引擎優(yōu)化和網(wǎng)頁顯示至關(guān)重要項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施2.HTML語言基礎(chǔ)HTML,全稱超文本標(biāo)記語言,是構(gòu)建網(wǎng)頁的基石。HTML,作為構(gòu)建網(wǎng)頁的基石,通過一系列標(biāo)簽和元素定義網(wǎng)頁的結(jié)構(gòu)和內(nèi)容。2.1.2網(wǎng)頁前端基礎(chǔ)常用標(biāo)簽如標(biāo)題(h1-h6)、段落(p)、鏈接(a)、圖片(img)、列表(ul、ol、li)和表格(table、tr、td)等,用于構(gòu)建網(wǎng)頁的不同部分。HTML標(biāo)簽還支持屬性,如href、src、class和id,以提供額外信息或定義行為。此外,HTML語義化強(qiáng)調(diào)使用有明確含義的標(biāo)簽,提升網(wǎng)頁可讀性、可訪問性和SEO優(yōu)化。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施1.使用Requests發(fā)送HTTP請求requests庫是一個用于發(fā)送HTTP請求的Python庫,它簡化了HTTP請求的發(fā)送過程。2.1.3構(gòu)建爬蟲requests.get(url,params=None,**kwargs):發(fā)送GET請求。url是請求的URL,params是一個字典,包含要添加到URL中的查詢參數(shù)。requests.post(url,data=None,json=None,**kwargs):發(fā)送POST請求。data是一個字典或字節(jié)串,包含要發(fā)送的表單數(shù)據(jù);json是一個字典,將被序列化為JSON格式后發(fā)送。response.status_code:響應(yīng)的狀態(tài)碼,如200表示成功,404表示未找到頁面。response.text:響應(yīng)的文本內(nèi)容,以字符串形式返回。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施2.使用BeautifulSoup解析HTMLBeautifulSoup是一個Python庫,用于解析HTML和XML文檔,創(chuàng)建解析樹,并提供方便的方法來遍歷和搜索這些樹。2.1.3構(gòu)建爬蟲BeautifulSoup庫中的select函數(shù)是使用CSS選擇器從HTML文檔中選擇元素的主要方法。其基本語法是:result_set=soup.select(selector),其中soup是BeautifulSoup對象,selector是一個字符串,表示要選擇的元素的CSS選擇器。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施3.使用使用正則表達(dá)式提取信息正則表達(dá)式是一種強(qiáng)大的文本處理工具,通過定義模式來匹配、查找和替換文本中的特定內(nèi)容。2.1.3構(gòu)建爬蟲re.match(pattern,string,flags=0):從字符串的起始位置匹配一個模式,如果不是起始位置匹配成功的話,match()就返回None。re.search(pattern,string,flags=0):掃描整個字符串并返回第一個成功的匹配。re.findall(pattern,string,flags=0):在字符串中找到正則表達(dá)式所匹配的所有子串,并返回一個包含這些子串的列表。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施3.使用Lxml和XPath提取信息Lxml是一個用于處理XML和HTML文檔的Python庫,它結(jié)合了libxml2和libxslt的功能,為開發(fā)者提供了強(qiáng)大的解析和搜索能力。2.1.3構(gòu)建爬蟲XPath使用路徑表達(dá)式來選取XML文檔中的節(jié)點(diǎn)或節(jié)點(diǎn)集。這些路徑表達(dá)式和我們在常規(guī)的計算機(jī)文件系統(tǒng)中看到的表達(dá)式非常相似。XPath通過元素名或?qū)傩悦麃磉x擇節(jié)點(diǎn),如div表示選擇所有<div>元素。同時,還可以使用/來選擇子節(jié)點(diǎn),如div/p表示選擇所有<div>元素下的<p>子元素;使用//來選擇后代節(jié)點(diǎn),不論層級,如//a表示選擇文檔中的所有<a>元素;使用@來選擇屬性,如a/@href表示選擇所有<a>元素的href屬性。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施1.爬蟲協(xié)議爬蟲協(xié)議,也稱為robots.txt協(xié)議,是網(wǎng)站通過robots.txt文件向爬蟲程序(如搜索引擎爬蟲)發(fā)出的訪問規(guī)則。這個文件告訴爬蟲哪些頁面可以訪問,哪些頁面不能訪問。2.1.4爬蟲的協(xié)議與道德、法律robots.txt文件的位置:通常位于網(wǎng)站的根目錄下,例如/robots.txt。robots.txt的內(nèi)容:該文件使用簡單的文本格式,通過User-agent和Disallow指令來定義規(guī)則。User-agent指定了規(guī)則適用的爬蟲程序,Disallow則指定了禁止訪問的路徑。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施2.爬蟲道德爬蟲道德主要涉及對目標(biāo)網(wǎng)站的尊重和保護(hù),以及合理使用爬取的數(shù)據(jù)。2.1.4爬蟲的協(xié)議與道德、法律尊重網(wǎng)站權(quán)益:爬蟲應(yīng)遵守網(wǎng)站的robots.txt協(xié)議,不爬取禁止訪問的頁面。同時,避免對網(wǎng)站造成過大的訪問壓力,影響網(wǎng)站的正常運(yùn)行。保護(hù)用戶隱私:在爬取過程中,避免收集用戶的個人信息或敏感數(shù)據(jù),尊重用戶的隱私權(quán)。合理使用數(shù)據(jù):爬取的數(shù)據(jù)應(yīng)僅用于合法、合規(guī)的目的,不得用于侵犯他人權(quán)益或進(jìn)行非法活動。同時,對于爬取的數(shù)據(jù),應(yīng)注明來源,尊重原作者的版權(quán)。項(xiàng)

導(dǎo)

入知

準(zhǔn)

備任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施3.爬蟲法律爬蟲活動涉及的法律問題主要包括版權(quán)法、反不正當(dāng)競爭法、計算機(jī)信息網(wǎng)絡(luò)國際聯(lián)網(wǎng)管理暫行規(guī)定等。2.1.4爬蟲的協(xié)議與道德、法律未經(jīng)原作者授權(quán),擅自使用或傳播這些數(shù)據(jù)可能構(gòu)成侵權(quán)行為。利用爬蟲進(jìn)行惡意競爭,如爬取競爭對手的數(shù)據(jù)用于不正當(dāng)競爭行為,可能違反反不正當(dāng)競爭法。爬蟲活動應(yīng)遵守國家關(guān)于計算機(jī)信息網(wǎng)絡(luò)管理的相關(guān)規(guī)定,不得進(jìn)行非法入侵、破壞網(wǎng)絡(luò)安全等行為。項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備網(wǎng)絡(luò)數(shù)據(jù)采集的任務(wù)工單如下表:班級:組別:姓名:掌握程度:任務(wù)名稱租賃網(wǎng)站住房信息爬取任務(wù)目標(biāo)將網(wǎng)絡(luò)上的住房信息爬取下來,并打印出來爬取數(shù)據(jù)住房封面圖片、住房價格、面積等工具清單Python、requests、BeautifulSoup、Lxml操作步驟1.

網(wǎng)絡(luò)數(shù)據(jù)采集環(huán)境搭建:利用Anconda3配置python的版本、安裝相關(guān)的數(shù)據(jù)爬取模塊。2.

構(gòu)建住房信息爬蟲:利用配置好的數(shù)據(jù)采集環(huán)境,構(gòu)建網(wǎng)絡(luò)爬蟲代碼。3.

將爬取到的住房信息數(shù)據(jù)打印或顯示出來考核標(biāo)準(zhǔn)1.實(shí)現(xiàn)與性能:

[協(xié)議支持,網(wǎng)頁抓取能力]2.穩(wěn)定性和可靠性:

[長時間穩(wěn)定運(yùn)行]3.數(shù)據(jù)質(zhì)量:[數(shù)據(jù)準(zhǔn)確性,數(shù)據(jù)完整性,數(shù)據(jù)一致性]4.合規(guī)性與道德標(biāo)準(zhǔn):[遵守robots.txt協(xié)議,保護(hù)用戶隱私,尊重版權(quán)]項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟一網(wǎng)絡(luò)數(shù)據(jù)采集環(huán)境搭建pipinstallrequests-i/simplepipinstallbs4-i/simple項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟一網(wǎng)絡(luò)數(shù)據(jù)采集環(huán)境搭建pipinstalllxml-i/simple項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟二網(wǎng)絡(luò)爬蟲構(gòu)建初始化虛擬環(huán)境切換后的虛擬環(huán)境

1.

打開Pycharm,切換虛擬環(huán)境打開Pycharm之后需要確認(rèn)當(dāng)前python解析器是否是上面創(chuàng)建的虛擬環(huán)境Web_crawler中的解析器,如果不是則需要進(jìn)行切換項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟二網(wǎng)絡(luò)爬蟲構(gòu)建

2.爬蟲代碼構(gòu)建利用requests和BeautifulSoup

編寫爬蟲代碼defget_links(url):#接收參數(shù):每個房源列表頁的urli=0wb_data=requests.get(url,headers=headers)soup=BeautifulSoup(wb_data.text,'lxml')links=soup.select('div.list-main-header.clearfix>a')#獲取每個房源詳情頁的a標(biāo)記,得到a標(biāo)記列表,可以找到詳情頁的urlforlinkinlinks:href=link.get('href')#tag的get函數(shù),獲取a標(biāo)記href的屬性值,即可獲取詳情頁urlhref=''+hreftime.sleep(2)get_info(href)#調(diào)用get_info函數(shù),參數(shù)為詳情頁url項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟二網(wǎng)絡(luò)爬蟲構(gòu)建

2.爬蟲代碼構(gòu)建利用requests和BeautifulSoup

編寫爬蟲代碼具體流程如下:1)

導(dǎo)入需要的模塊:requests、BeautifulSoup和time。2)

設(shè)置請求頭信息,模擬瀏覽器進(jìn)行網(wǎng)頁訪問。3)

定義了一個函數(shù)get_links(url)用于獲取每個房源列表頁的詳細(xì)鏈接地址,然后調(diào)用get_info(url)函數(shù),獲取每個房源的詳細(xì)信息。4)

定義了一個函數(shù)get_info(url)用于獲取房源的詳細(xì)信息,包括房源名稱、戶型、價格、面積、經(jīng)紀(jì)人電話和封面圖片。同時將封面圖片保存到本地。在__main__部分,構(gòu)造了要爬取的房源列表頁的url,并依次調(diào)用get_links(url)函數(shù)來獲取房源詳細(xì)信息。項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟二網(wǎng)絡(luò)爬蟲構(gòu)建

2.爬蟲代碼構(gòu)建利用requests和正則表達(dá)式編寫爬蟲代碼#定義函數(shù),用于獲取房源列表頁的詳細(xì)鏈接地址defget_link(url):linklist=[]##存儲房源鏈接地址列表

res=requests.get(url,headers=headers)##發(fā)送網(wǎng)絡(luò)請求獲取頁面內(nèi)容

#print(res)ptn='<aclass=""href="(.*?)"'#匹配房源鏈接地址的正則表達(dá)式

links=re.findall(ptn,res.text,re.S)#使用正則表達(dá)式提取房源鏈接地址

print(links)forlinkinlinks:if(link!='<%=url%>'):linklist.append(link)#將有效鏈接地址添加到列表中

forlinkinlinklist:get_info(link)項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

施知

準(zhǔn)

備步驟二網(wǎng)絡(luò)爬蟲構(gòu)建

2.爬蟲代碼構(gòu)建利用requests和正則表達(dá)式編寫爬蟲代碼下面是代碼的流程步驟描述:1)

導(dǎo)入需要使用的模塊:re(正則表達(dá)式模塊)、requests(網(wǎng)絡(luò)請求模塊)和time(時間模塊)。2)

設(shè)置請求頭信息headers,模擬瀏覽器訪問。3)

定義函數(shù)get_link(url),用于獲取房源列表頁的詳細(xì)鏈接地址:4)

定義函數(shù)get_info(url),用于獲取房源的詳細(xì)信息:5)

在主程序中,構(gòu)造要爬取的多個頁面的URL列表。遍歷URL列表,依次調(diào)用get_link(url)函數(shù),并在每次請求后暫停5秒(time.sleep(5))以避免請求過于頻繁被網(wǎng)站封鎖。項(xiàng)

導(dǎo)

入任

務(wù)

述任務(wù)小

結(jié)任務(wù)實(shí)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論