機器學習-關(guān)聯(lián)規(guī)則_第1頁
機器學習-關(guān)聯(lián)規(guī)則_第2頁
機器學習-關(guān)聯(lián)規(guī)則_第3頁
機器學習-關(guān)聯(lián)規(guī)則_第4頁
機器學習-關(guān)聯(lián)規(guī)則_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第八章基于關(guān)聯(lián)規(guī)則的購物籃分析一、什么是關(guān)聯(lián)規(guī)則

主要是描述一組數(shù)據(jù)屬性之間的密切度或關(guān)聯(lián)程度。分析結(jié)果是一組指定商品之間關(guān)系模式的關(guān)聯(lián)規(guī)則。關(guān)聯(lián)規(guī)則是無監(jiān)督的,所以無需訓練算法和提前標識數(shù)據(jù)。如:美國沃爾瑪超市的數(shù)據(jù)分析人員在做數(shù)據(jù)分析的時候發(fā)現(xiàn),每到周末同時購買啤酒和尿不濕的人較平時增加很多。他們對數(shù)據(jù)進行了進一步挖掘并且走訪了很多同時購買這兩樣商品的顧客,他們發(fā)現(xiàn)這些顧客有幾個共同的特點:一般是周末出現(xiàn)這種情況:

購買者以已婚男士為主他們家中有孩子且不到兩歲,有尿不濕的剛需他們喜歡看體育比賽節(jié)目,并且喜歡邊喝啤酒邊看。顧客有喝啤酒的需求周末是體育比賽扎堆的日子,所以出現(xiàn)這種關(guān)聯(lián)銷售多在周末的時候。發(fā)現(xiàn)這個秘密后,于是超市就大膽的將啤酒放在尿不濕旁邊陳列,讓這些顧客購買起來更方便。實驗結(jié)果發(fā)現(xiàn)二者的銷售量都大幅度的提升。這是一個典型的利用關(guān)聯(lián)銷售提升業(yè)績的案例。例如{花生醬,果凍}→{面包}。購買前兩種就極有可能購買面包。關(guān)聯(lián)規(guī)則總是由項集的子集組成,通過將規(guī)則左項(條件項)(LHS)的一個項集與規(guī)則右項(結(jié)果項)(RHS)的另一個項集聯(lián)系起來。LHS:表示為了觸發(fā)規(guī)則需要滿足的條件RHS:表示滿足條件后的預期結(jié)果。{花生醬,果凍}→{面包}一般,關(guān)聯(lián)規(guī)則可以應用的場景有:優(yōu)化貨架商品擺放或者優(yōu)化郵寄商品的目錄交叉銷售或者捆綁銷售搜索詞推薦或者識別異常

二、概念項:交易數(shù)據(jù)庫中的一個字段,對超市的交易來說一般是指一次交易中的一個物品,如:牛奶項集:包含若干個項的集合,一般會大于0個,如{花生醬,果凍}支持度:項集X在總項集中出現(xiàn)的概率。N:數(shù)據(jù)庫中交易次數(shù)count(X):表示包含項集X的交易次數(shù)。置信度:交易中項或者項集X的出現(xiàn)導致項或者項集Y出現(xiàn)的比例。即在先決條件X發(fā)生的條件下,由關(guān)聯(lián)規(guī)則{X->Y}推出Y的概率頻繁項集:某個項集的支持度大于設(shè)定閾值(人為設(shè)定或者根據(jù)數(shù)據(jù)分布和經(jīng)驗來設(shè)定),即稱這個項集為頻繁項集。提升度(lift):表示含有X的條件下同時含有Y的概率,與無論含不含X含有Y的概率之比。如:{慰問卡,鮮花}的支持度=3/5=0.6{鮮花}→{慰問卡}的置信度=0.6/0.8=0.75{慰問卡}→{鮮花}的置信度=0.6/0.6=1假如有一條規(guī)則:牛肉—>雞肉,那么同時購買牛肉和雞肉的顧客比例是3/7,而購買牛肉的顧客當中也購買了雞肉的顧客比例是3/4。S表示所有的顧客,而A表示買了牛肉的顧客,B表示買了雞肉的顧客,C表示既買了牛肉又買了雞肉的顧客。那么C.count/S.count=3/7,C.count/A.count=3/4。。提升度示例:1000名顧客,購買年貨,A組有500人購買茶葉,有450人購買咖啡;B組有0人購買茶葉,有450人購買咖啡。

茶葉->咖啡的支持度=450/1000=45%茶葉->咖啡的置信度=45%/(500/1000)=90%茶葉->咖啡的提升度=90%/(900/1000)=1由于lift(茶葉X->咖啡Y)=1,所以說明X與Y相互獨立,即是否有X對于Y的出現(xiàn)沒有影響。雖然支持度和置信度都高,但它們之間沒有必然的關(guān)聯(lián)關(guān)系。滿足最小支持度和最小置信度的關(guān)聯(lián)關(guān)系叫做強關(guān)聯(lián)關(guān)系如果lift>1,叫做有效的強關(guān)聯(lián)關(guān)系,如果lift<=1,叫做無效的強關(guān)聯(lián)關(guān)系特別的如果lift(X->Y)=1,則稱X與Y相互獨立三、Apriori算法:現(xiàn)實中,許多潛在的商品組合極少,不是一個一個地評估集合的每一個元素。例如:如一個商店同時銷售汽車產(chǎn)品和化妝品,但{機油,口紅}這兩個物品的組合就可能很少,忽略類似組合,就可以限制規(guī)則的搜索范圍,該算法采用一個簡單的先驗信念作為準則來減少關(guān)聯(lián)規(guī)則的搜索空間:一個頻繁項集(集合)的所有子集也是頻繁的。比如,如果{機油,口紅}是頻繁的,那么當且僅當機油,口紅都是頻繁的。如果只要其中一個是非頻繁的,那么任意一個含有這兩項的集合都可以從搜索中排除。使用關(guān)聯(lián)規(guī)則的過程主要包含以下三個步驟:(1)根據(jù)支持度(support),從事務集合中找出頻繁項集。(2)根據(jù)置信度(confidence),從頻繁項集中找出強關(guān)聯(lián)規(guī)則(置信度閾值需要根據(jù)實驗或者經(jīng)驗而定)(3)根據(jù)提升度(lift),從強關(guān)聯(lián)規(guī)則中篩選出有效的強關(guān)聯(lián)規(guī)則

Apriori算法的核心思想:頻繁集的子集一定是頻繁的非頻繁集的超集一定是非頻繁的創(chuàng)建規(guī)則的過程:識別所有滿足最小支持度閾值的項集。使用那些滿足最小置信度閾值的項集來創(chuàng)建規(guī)則。Apriori算法的優(yōu)缺點:優(yōu)點:能夠處理大量的事務型數(shù)據(jù)規(guī)則中的結(jié)果很容易理解對于數(shù)據(jù)挖掘和發(fā)現(xiàn)數(shù)據(jù)庫中意想不到的知識很有用。缺點:對于小的數(shù)據(jù)集不是很有用需要努力地將對數(shù)據(jù)的真實洞察和常識區(qū)分開容易從隨機模式得出虛假結(jié)論。假設(shè)我們設(shè)置得最小支持度為30%,最小自信度為60%。從上面的表中,可以得到:support(買游戲光碟→買影片光碟)=4000/10000=40%confidence(買游戲光碟→買影片光碟)=4000/6000=66%

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論