數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘_第1頁
數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘_第2頁
數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘_第3頁
數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘_第4頁
數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘_第5頁
已閱讀5頁,還剩9頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘1引言1.1關聯(lián)規(guī)則挖掘的重要性在大數據時代,數據的海量性和復雜性為關聯(lián)規(guī)則挖掘帶來了前所未有的機遇和挑戰(zhàn)。關聯(lián)規(guī)則挖掘是一種發(fā)現(xiàn)數據集中項之間的有趣關聯(lián)或相關性的數據挖掘技術。例如,在零售業(yè)中,通過分析顧客的購買記錄,可以發(fā)現(xiàn)“購買尿布的顧客往往也會購買啤酒”這樣的關聯(lián)規(guī)則,這在市場營銷策略中具有重要價值。在醫(yī)療領域,關聯(lián)規(guī)則可以幫助識別疾病與生活習慣之間的潛在聯(lián)系,為預防和治療提供依據。1.2大數據環(huán)境下的挑戰(zhàn)大數據環(huán)境下,關聯(lián)規(guī)則挖掘面臨的主要挑戰(zhàn)包括數據規(guī)模、數據質量、計算效率和規(guī)則的解釋性。數據規(guī)模的增加意味著需要更高效的算法來處理數據,傳統(tǒng)的Apriori算法在大數據集上可能效率低下。數據質量的挑戰(zhàn)在于如何處理缺失值、異常值和噪聲數據,這些都可能影響挖掘結果的準確性。計算效率要求算法能夠在有限的時間內完成挖掘,而規(guī)則的解釋性則要求挖掘出的關聯(lián)規(guī)則不僅數量多,而且具有實際意義,能夠被用戶理解和應用。1.3示例:使用FP-Growth算法進行關聯(lián)規(guī)則挖掘FP-Growth(FrequentPatternGrowth)算法是一種用于挖掘頻繁項集的高效算法,尤其適用于大數據環(huán)境。下面通過一個具體的例子來展示如何使用Python中的mlxtend庫實現(xiàn)FP-Growth算法進行關聯(lián)規(guī)則挖掘。1.3.1數據樣例假設我們有以下的購物籃數據:交易ID商品1{牛奶,面包,黃油}2{牛奶,尿布,啤酒,面包}3{尿布,啤酒}4{牛奶,尿布,面包,黃油}5{面包,黃油}1.3.2代碼示例frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportfpgrowth

frommlxtend.frequent_patternsimportassociation_rules

#定義交易數據

dataset=[['牛奶','面包','黃油'],

['牛奶','尿布','啤酒','面包'],

['尿布','啤酒'],

['牛奶','尿布','面包','黃油'],

['面包','黃油']]

#使用TransactionEncoder對數據進行編碼

te=TransactionEncoder()

te_ary=te.fit(dataset).transform(dataset)

df=pd.DataFrame(te_ary,columns=te.columns_)

#使用FP-Growth算法挖掘頻繁項集

frequent_itemsets=fpgrowth(df,min_support=0.2,use_colnames=True)

#生成關聯(lián)規(guī)則

rules=association_rules(frequent_itemsets,metric="confidence",min_threshold=0.7)

print(rules)1.3.3代碼解釋數據預處理:使用TransactionEncoder將商品列表轉換為二進制形式,每一列代表一個商品,每一行代表一個交易,1表示商品在交易中出現(xiàn),0表示未出現(xiàn)。挖掘頻繁項集:通過fpgrowth函數,設置最小支持度為0.2,即一個項集至少在20%的交易中出現(xiàn)才能被認為是頻繁的。生成關聯(lián)規(guī)則:使用association_rules函數,設置最小置信度為0.7,即如果一個規(guī)則的置信度低于70%,則不被考慮。通過上述代碼,我們可以從大數據集中高效地挖掘出具有實際意義的關聯(lián)規(guī)則,為決策提供支持。2數據挖掘:關聯(lián)規(guī)則挖掘:大數據環(huán)境下的關聯(lián)規(guī)則挖掘2.1基礎知識2.1.1數據挖掘概述數據挖掘(DataMining)是從大量數據中發(fā)現(xiàn)有用知識、模式和趨勢的過程。它利用統(tǒng)計學、機器學習和數據庫技術來分析數據,以識別隱藏的模式和有價值的信息。數據挖掘可以應用于各種領域,如市場分析、金融風險評估、醫(yī)療診斷等,幫助決策者做出更明智的決策。2.1.2關聯(lián)規(guī)則定義關聯(lián)規(guī)則學習(AssociationRuleLearning)是數據挖掘中的一種方法,用于發(fā)現(xiàn)數據集中項之間的有趣關系或關聯(lián)。關聯(lián)規(guī)則通常表示為“如果A發(fā)生,則B也很可能發(fā)生”,其中A和B是數據集中的不同項。例如,在超市購物籃分析中,關聯(lián)規(guī)則可以揭示“如果顧客購買了面包,則他們也很可能購買黃油”。關聯(lián)規(guī)則的兩個主要度量是支持度(support)和置信度(confidence):-支持度:表示項集在數據集中出現(xiàn)的頻率。-置信度:表示規(guī)則A->B在數據集中成立的條件概率。2.1.3Apriori算法簡介Apriori算法是關聯(lián)規(guī)則學習中最著名的算法之一,由R.Agrawal和R.Srikant在1994年提出。Apriori算法基于頻繁項集的性質,即如果一個項集是頻繁的,那么它的所有子集也應該是頻繁的。算法通過迭代過程,從單個項開始,逐步構建更大的頻繁項集,直到沒有更多的頻繁項集可以找到。Apriori算法步驟初始化:從數據集中提取所有出現(xiàn)頻率超過最小支持度閾值的單個項,形成頻繁1-項集。連接步驟:將頻繁k-項集連接生成候選k+1-項集。剪枝步驟:檢查候選k+1-項集的所有k-項子集是否都是頻繁的,如果不是,則刪除該候選項集。計數步驟:掃描數據集,計算候選k+1-項集的支持度。迭代:重復步驟2至4,直到沒有更多的頻繁項集可以找到。Apriori算法示例假設我們有以下的購物籃數據集:交易ID商品1{牛奶,面包,黃油}2{牛奶,面包}3{面包,黃油}4{牛奶,黃油}5{牛奶,面包,黃油}我們設定最小支持度為2,最小置信度為0.5。#導入所需庫

frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportapriori

frommlxtend.frequent_patternsimportassociation_rules

#定義交易數據

dataset=[['牛奶','面包','黃油'],

['牛奶','面包'],

['面包','黃油'],

['牛奶','黃油'],

['牛奶','面包','黃油']]

#使用TransactionEncoder編碼數據

te=TransactionEncoder()

te_ary=te.fit(dataset).transform(dataset)

df=pd.DataFrame(te_ary,columns=te.columns_)

#應用Apriori算法

frequent_itemsets=apriori(df,min_support=0.4,use_colnames=True)

rules=association_rules(frequent_itemsets,metric="confidence",min_threshold=0.5)

#輸出結果

print(rules)運行上述代碼后,我們可以得到頻繁項集和支持度,以及基于這些頻繁項集的關聯(lián)規(guī)則和它們的置信度。例如,我們可能會發(fā)現(xiàn)“如果顧客購買了牛奶,則他們也很可能購買黃油”這樣的規(guī)則,其支持度和置信度滿足我們的閾值條件。Apriori算法的優(yōu)缺點優(yōu)點:-算法簡單,易于理解和實現(xiàn)。-能夠處理大規(guī)模數據集,發(fā)現(xiàn)所有頻繁項集和關聯(lián)規(guī)則。缺點:-需要多次掃描數據集,計算量大,效率較低。-對于非常大的數據集,可能需要大量的內存來存儲頻繁項集。-可能產生大量的候選項集,導致“組合爆炸”問題。通過以上介紹,我們對數據挖掘中的關聯(lián)規(guī)則挖掘和Apriori算法有了初步的了解。在實際應用中,Apriori算法可以被用于各種場景,如市場籃分析、用戶行為分析等,幫助我們發(fā)現(xiàn)數據中的潛在關聯(lián)和模式。3大數據環(huán)境下的關聯(lián)規(guī)則挖掘3.1大數據的特點大數據不僅指數據量的龐大,更強調數據的多樣性、高速度和價值密度低的特性。在大數據環(huán)境下,數據來源廣泛,包括社交媒體、物聯(lián)網設備、企業(yè)交易記錄等,這些數據不僅量大,而且類型多樣,包括結構化、半結構化和非結構化數據。大數據的高速度要求實時或近實時的數據處理能力,而價值密度低則意味著在海量數據中尋找有價值的信息如同大海撈針,需要高效的數據挖掘技術。3.2傳統(tǒng)算法的局限性3.2.1Apriori算法Apriori算法是關聯(lián)規(guī)則挖掘中最經典的算法之一,它基于頻繁項集的性質,通過多次掃描數據集來發(fā)現(xiàn)頻繁項集,進而生成關聯(lián)規(guī)則。然而,在大數據環(huán)境下,Apriori算法的多次掃描數據集和生成大量候選集的過程變得極其耗時,無法滿足實時或近實時的數據處理需求。#Apriori算法示例

frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportapriori

#示例數據

dataset=[['Milk','Eggs','Bread'],

['Milk','Eggs'],

['Milk','Bread'],

['Eggs','Bread'],

['Milk','Eggs','Bread']]

#數據預處理

te=TransactionEncoder()

te_ary=te.fit(dataset).transform(dataset)

df=pd.DataFrame(te_ary,columns=te.columns_)

#應用Apriori算法

frequent_itemsets=apriori(df,min_support=0.6,use_colnames=True)

print(frequent_itemsets)3.2.2FP-growth算法FP-growth算法通過構建FP樹來減少數據掃描次數,提高頻繁項集的挖掘效率。但在大數據環(huán)境下,單機內存往往無法容納整個數據集,導致FP樹構建失敗或效率低下。#FP-growth算法示例

frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportfpgrowth

#使用與Apriori相同的示例數據

frequent_itemsets=fpgrowth(df,min_support=0.6,use_colnames=True)

print(frequent_itemsets)3.3分布式關聯(lián)規(guī)則挖掘方法3.3.1MapReduce框架下的Apriori算法在MapReduce框架下,Apriori算法可以被重新設計以適應分布式環(huán)境。數據被分割并行處理,減少單個節(jié)點的計算負擔,提高整體處理速度。#MapReduce框架下Apriori算法的偽代碼示例

#Map函數

defmap(key,value):

#將數據轉換為項集

itemset=set(value)

#生成所有可能的單元素項集

foriteminitemset:

yield(item,),1

#Reduce函數

defreduce(key,values):

#計算項集的支持度

support=sum(values)

#如果支持度大于閾值,輸出頻繁項集

ifsupport>=min_support:

yieldkey,support

#MapReduce流程

#1.將數據集分割為多個子集

#2.每個子集通過Map函數處理,生成單元素頻繁項集

#3.通過Shuffle階段將相同項集的數據聚集

#4.Reduce函數計算每個項集的支持度

#5.重復MapReduce流程,生成更高階的頻繁項集3.3.2Spark框架下的FP-growth算法Spark框架提供了分布式內存計算能力,可以高效處理大數據集。在Spark中,可以使用spark-ml庫中的FP-growth算法來挖掘頻繁項集。#Spark框架下FP-growth算法的示例

frompyspark.sqlimportSparkSession

frompyspark.ml.fpmimportFPGrowth

#初始化SparkSession

spark=SparkSession.builder.appName("FPGrowthExample").getOrCreate()

#示例數據

data=[("Milk","Eggs","Bread"),

("Milk","Eggs"),

("Milk","Bread"),

("Eggs","Bread"),

("Milk","Eggs","Bread")]

#創(chuàng)建DataFrame

df=spark.createDataFrame(data,["items"])

#應用FP-growth算法

fpGrowth=FPGrowth(itemsCol="items",minSupport=0.6,minConfidence=0.7)

model=fpGrowth.fit(df)

#輸出頻繁項集

frequent_itemsets=model.freqItemsets.show()

#輸出關聯(lián)規(guī)則

association_rules=model.associationRules.show()通過上述示例,我們可以看到在大數據環(huán)境下,通過分布式計算框架如MapReduce和Spark,可以有效克服傳統(tǒng)關聯(lián)規(guī)則挖掘算法的局限性,實現(xiàn)高效的數據挖掘。4數據挖掘:關聯(lián)規(guī)則挖掘:高級主題4.1頻繁模式增長算法頻繁模式增長算法(FrequentPatternGrowthAlgorithm,簡稱FP-growth)是一種用于挖掘頻繁項集的高效算法,尤其適用于大數據環(huán)境。與Apriori算法相比,F(xiàn)P-growth算法通過構建FP樹來減少數據庫的掃描次數,從而提高挖掘效率。4.1.1FP-growth算法詳解FP樹的構建FP樹是一種壓縮的、有向無環(huán)的樹結構,用于存儲交易數據集中的頻繁項集。每個非根節(jié)點代表一個項,節(jié)點的計數器表示包含該項的交易數量。樹的路徑表示項集,路徑的計數器表示包含該路徑上所有項的交易數量。算法步驟第一遍掃描數據集:計算每個項的頻率,找出頻繁項集。構建FP樹:使用頻繁項集構建FP樹,每個交易在樹中表示為一條路徑。條件模式基的生成:對于每個頻繁項,生成條件模式基,即包含該頻繁項的所有交易的集合。條件FP樹的構建:使用條件模式基構建條件FP樹。遞歸挖掘:在條件FP樹中遞歸挖掘頻繁項集,直到沒有更多的頻繁項集可以挖掘。代碼示例#導入所需庫

frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportfpgrowth

#示例數據集

dataset=[['Milk','Onion','Nutmeg','Eggs','Yogurt'],

['Onion','Nutmeg','Eggs','Yogurt'],

['Milk','Apple','Onion','Nutmeg','Eggs'],

['Milk','Unicorn','Corn','Yogurt'],

['Corn','Onion','Onion','Nutmeg','Eggs','Yogurt'],

['Milk','Corn','Onion','Nutmeg','Eggs','Yogurt'],

['Corn','Onion','Onion','Nutmeg','Eggs','Yogurt'],

['Milk','Unicorn','Corn','Yogurt'],

['Corn','Onion','Nutmeg','Eggs','Yogurt'],

['Milk','Apple','Corn','Onion','Eggs']]

#數據預處理

te=TransactionEncoder()

te_ary=te.fit(dataset).transform(dataset)

df=pd.DataFrame(te_ary,columns=te.columns_)

#應用FP-growth算法

frequent_itemsets=fpgrowth(df,min_support=0.6,use_colnames=True)

print(frequent_itemsets)4.1.2基于GPU的關聯(lián)規(guī)則挖掘在大數據環(huán)境下,傳統(tǒng)的基于CPU的關聯(lián)規(guī)則挖掘算法可能無法滿足實時性和效率的需求。基于GPU的關聯(lián)規(guī)則挖掘利用GPU的并行計算能力,可以顯著提高挖掘速度。GPU加速原理GPU擁有大量的并行計算單元,可以同時處理多個計算任務。在關聯(lián)規(guī)則挖掘中,GPU可以并行計算每個交易的頻繁項集,從而減少計算時間。技術挑戰(zhàn)數據傳輸:CPU和GPU之間的數據傳輸可能會成為性能瓶頸。內存管理:GPU的內存通常小于CPU,需要高效管理以避免溢出。并行化策略:設計有效的并行化策略,以充分利用GPU的計算能力。解決方案優(yōu)化數據傳輸:使用CUDA或OpenCL等API減少數據傳輸時間。內存優(yōu)化:采用分塊處理或壓縮數據結構減少GPU內存需求。高效并行算法:設計適合GPU架構的并行算法,如并行FP-growth。代碼示例基于GPU的關聯(lián)規(guī)則挖掘通常依賴于特定的GPU編程框架,如CUDA或OpenCL。以下是一個使用CUDA進行并行FP-growth的簡化示例:#CUDA并行FP-growth示例代碼

#注意:此代碼僅為示例,實際應用需根據具體GPU編程框架進行調整

importpycuda.driverascuda

importpycuda.autoinit

frompilerimportSourceModule

#定義CUDA內核函數

mod=SourceModule("""

__global__voidfpgrowth_kernel(float*data,int*frequent_items,intnum_transactions,intnum_items){

inttid=threadIdx.x+blockIdx.x*blockDim.x;

if(tid<num_transactions){

//并行處理每個交易的頻繁項集計算

for(inti=0;i<num_items;i++){

if(data[tid*num_items+i]==1){

atomicAdd(&frequent_items[i],1);

}

}

}

}

""")

#假設數據集和頻繁項集的初始化

data=...#數據集

frequent_items=...#頻繁項集

#將數據傳輸到GPU

data_gpu=cuda.mem_alloc(data.nbytes)

frequent_items_gpu=cuda.mem_alloc(frequent_items.nbytes)

cuda.memcpy_htod(data_gpu,data)

cuda.memcpy_htod(frequent_items_gpu,frequent_items)

#調用CUDA內核函數

fpgrowth_kernel=mod.get_function("fpgrowth_kernel")

fpgrowth_kernel(data_gpu,frequent_items_gpu,block=(32,1,1),grid=(num_transactions/32,1))

#將結果從GPU傳輸回CPU

cuda.memcpy_dtoh(frequent_items,frequent_items_gpu)4.1.3結論FP-growth算法和基于GPU的關聯(lián)規(guī)則挖掘技術為大數據環(huán)境下的關聯(lián)規(guī)則挖掘提供了高效解決方案。通過構建FP樹和利用GPU的并行計算能力,可以顯著提高挖掘速度,滿足實時性和大規(guī)模數據處理的需求。在實際應用中,選擇合適的算法和優(yōu)化策略是關鍵。5數據挖掘:關聯(lián)規(guī)則挖掘:案例研究5.1零售業(yè)的關聯(lián)規(guī)則分析5.1.1原理與內容在零售業(yè)中,關聯(lián)規(guī)則挖掘是一種常用的數據分析技術,用于發(fā)現(xiàn)商品之間的購買模式。例如,通過分析超市的銷售數據,可以找出“如果顧客購買了面包,他們也很可能購買黃油”這樣的關聯(lián)規(guī)則。這些規(guī)則基于頻繁項集,即在數據集中頻繁出現(xiàn)的商品組合。算法:AprioriApriori算法是關聯(lián)規(guī)則挖掘中最著名的算法之一。它基于以下兩個關鍵概念:頻繁項集:在數據集中出現(xiàn)頻率超過預設閾值的項集。支持度與置信度:支持度(Support):衡量一個項集在數據集中出現(xiàn)的頻率。置信度(Confidence):衡量一個規(guī)則的可靠性,即在包含前件的交易中,后件出現(xiàn)的頻率。Apriori算法通過迭代過程生成頻繁項集,然后基于這些項集生成關聯(lián)規(guī)則。5.1.2示例代碼與數據樣例假設我們有以下超市銷售數據:數據樣例:

1.{牛奶,面包,黃油}

2.{牛奶,面包}

3.{面包,黃油}

4.{牛奶,黃油}

5.{牛奶,面包,黃油}

6.{面包}

7.{牛奶,面包}

8.{牛奶,黃油}

9.{面包,黃油}

10.{牛奶,面包,黃油}我們將使用Python的mlxtend庫來執(zhí)行Apriori算法。#導入所需庫

frommlxtend.preprocessingimportTransactionEncoder

frommlxtend.frequent_patternsimportapriori,association_rules

importpandasaspd

#定義交易數據

dataset=[

["牛奶","面包","黃油"],

["牛奶","面包"],

["面包","黃油"],

["牛奶","黃油"],

["牛奶","面包","黃油"],

["面包"],

["牛奶","面包"],

["牛奶","黃油"],

["面包","黃油"],

["牛奶","面包","黃油"]

]

#使用TransactionEncoder編碼數據

te=TransactionEncoder()

te_ary=te.fit(dataset).transform(dataset)

df=pd.DataFrame(te_ary,columns=te.columns_)

#應用Apriori算法

frequent_itemsets=apriori(df,min_support=0.3,use_colnames=True)

rules=association_rules(frequent_itemsets,metric="confidence",min_threshold=0.7)

#顯示結果

print(rules)解釋數據編碼:使用TransactionEncoder將商品列表轉換為二進制形式,表示每個交易中商品的出現(xiàn)與否。Apriori算法應用:通過apriori函數生成支持度大于0.3的頻繁項集。規(guī)則生成:使用association_rules函數基于頻繁項集生成置信度大于0.7的關聯(lián)規(guī)則。5.2社交媒體數據的關聯(lián)規(guī)則挖掘5.2.1原理與內容在社交媒體數據中,關聯(lián)規(guī)則挖掘可以用于發(fā)現(xiàn)用戶行為之間的關聯(lián)。例如,分析用戶在社交媒體上的點贊、評論和分享行為,可以找出哪些行為之間存在關聯(lián),或者哪些話題在用戶中同時引起興趣。算法:FP-GrowthFP-Growth算法是另一種用于關聯(lián)規(guī)則挖掘的高效算法,尤其適用于大數據集。它通過構建FP樹來壓縮數據,減少掃描數據集的次數,從而提高效率。5.2.2示例代碼與數據樣例假設我們有以下社交媒體用戶行為數據:數據樣例:

1.{點贊,評論,分享}

2.{點贊,評論}

3.{評論,分享}

4.{點贊,分享}

5.{點贊,評論,分享}

6.{評論}

7.{點贊,評論}

8.{點贊,分享}

9.{評論,分享}

10.{點贊,評論,分享}我們將使用Python的mlxtend庫來執(zhí)行FP-Growth算法。#使用FP-Growth算法

frequent_itemsets=apriori(df,min_support=0.3,use_colnames=True,max_len=3,verbose=1,low_memory=True)

#生成關聯(lián)規(guī)則

rules=association_rules(frequent_itemsets,metric="confidence",min_threshold=0.7)

#顯示結果

print(rules)解釋數據準備:與零售業(yè)案例類似,首先需要將數據編碼為二進制形式。FP-Growth算法應用:雖然mlxtend庫中的apriori函數默認使用Apriori算法,但通過調整參數,如max_len和low_memory,可以使其更適用于大數據集,類似于FP-Growth算法的優(yōu)化。規(guī)則生成與解釋:生成的關聯(lián)規(guī)則可以幫助我們理解用戶行為之間的關聯(lián),例如,如果規(guī)則顯示“點贊->評論”的置信度高,那么我們可以推斷用戶在點贊后很可能也會進行評論。通過這些案例研究,我們可以看到關聯(lián)規(guī)則挖掘在不同領域中的應用,以及如何使用Python的mlxtend庫來實現(xiàn)這些算法。這不僅有助于理解用戶行為,還可以用于優(yōu)化產品推薦、廣告定位和社交媒體策略。6總結與未來趨勢6.1關聯(lián)規(guī)則挖掘的最新進展在大數據環(huán)境下,關聯(lián)規(guī)則挖掘技術不斷演進,以應對海量數據帶來的挑戰(zhàn)。近年來,研究者們提出了多種改進算法,旨在提高挖掘效率和準確性。例如,F(xiàn)P-growth算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論