關聯(lián)分析是為了探索不同集合共同出現(xiàn)的頻率的一種方法,適用于分析名稱變量则剃,比如著名的啤酒尿布分析拢切。通過分析消費者購物清單,發(fā)現(xiàn)啤酒和尿布經(jīng)常出現(xiàn)在同一張清單上猎物。
apriori原理介紹
apriori是一種常見的關聯(lián)分析方法虎囚。它基于一個前提,就是頻繁集的子集一定是頻繁集蔫磨。這句話的倒過來講同樣成立淘讥,非頻繁集的母集一定也是非頻繁集,我們將這個命題稱之為頻繁集定理堤如。
尋找頻繁集涉及到兩個頻率蒲列,一個是集合在所有數(shù)據(jù)中出現(xiàn)的頻率,稱之為支持度搀罢。另一個是當集合A出現(xiàn)是蝗岖,集合B也同時出現(xiàn)的頻率,稱之為置信度榔至。
可以想象剪侮,第一個集合是單個元素構成的,例如{a}洛退,{a}的支持度為4/5=0.8瓣俯,當a存在時,b的置信度是2/4=0.5兵怯。第二層可以再{a,b}的基礎上繼續(xù)計算支持度和相應的置信度彩匕。如果用這種方式逐個匹配,會發(fā)現(xiàn)計算比較大媒区。根據(jù)頻繁集定理驼仪,我們可以設置一個最小支持度掸犬,當集合支持度小于最小支持度,該集合的所有母集也肯定都小于最小支持度绪爸,這部分數(shù)據(jù)可以直接省略湾碎。例如當我們把最小支持度設為0.7時,第一層的集合就剩下{a}奠货。
apriori python實現(xiàn)
def loadDataSet():#新建數(shù)據(jù)集
return [[1,3,4],[2,3,5],[1,2,3,5],[2,5]]
def createC1(dataSet):
C1 = []
for transaction in dataSet:
for item in transaction:
if not [item] in C1:
C1.append([item])
C1.sort()
return map(frozenset, C1)
def scanD(D, Ck, minSupport):
ssCnt = {}
for tid in D:
for can in Ck:
if can.issubset(tid):
ssCnt[can] = ssCnt.get(can, 0) + 1
#print(D)
numItems = float(len(D))
retList = []
supportData = {}
for key in ssCnt:
support = ssCnt[key] / numItems
if support >= minSupport:
retList.insert(0, key)
supportData[key] = support
return retList, supportData
def aprioriGen(Lk, k):
retList = []
lenLk = len(Lk)
for i in range(lenLk):
for j in range(i + 1, lenLk):
# 前k-2項相同時垄惧,將兩個集合合并
L1 = list(Lk[i])[:k-2]; L2 = list(Lk[j])[:k-2]
L1.sort(); L2.sort()
if L1 == L2:
retList.append(Lk[i] | Lk[j])
return retList
def apriori(dataSet, minSupport=0.5):##支持度計算
C1 = list(createC1(dataSet))
D = list(map(set, dataSet))
L1, supportData = scanD(D, C1, minSupport)
L = [L1]
k = 2
while (len(L[k-2]) > 0):
Ck = aprioriGen(L[k-2], k)
Lk, supK = scanD(D, Ck, minSupport)
supportData.update(supK)
L.append(Lk)
k += 1
return L, supportData
def generateRules(L, supportData, minConf=0.7):
bigRuleList = []
for i in range(1, len(L)): # 不處理單元素集合L[0]
for freqSet in L[i]:
H1 = [frozenset([item]) for item in freqSet]
if (i > 1): # 當集合中元素的長度大于2的時候魔策,嘗試對集合合并。
# 比如:[2,3,5]=>{[2,3],5}
rulesFromConseq(freqSet, H1, supportData, bigRuleList, minConf)
else: # 對于2元組,直接計算置信度
calConf(freqSet, H1, supportData, bigRuleList, minConf)
return bigRuleList
def calConf(freqSet, H, supportData, brl, minConf=0.7): #置信度計算
prunedH = []
for conseq in H:
conf = supportData[freqSet] / supportData[freqSet - conseq] # 置信度
if conf >= minConf:
print (freqSet - conseq,'supp',supportData[freqSet - conseq] , "--->", conseq, "conf", conf )
brl.append((freqSet - conseq, conseq, conf))
prunedH.append(conseq)
# if (len(freqSet) > 2):
# conf = supportData[freqSet] / supportData[conseq] # 置信度
# if conf >= minConf:
# print (conseq, "--->", freqSet - conseq, "conf", conf )
# brl.append((conseq, freqSet - conseq, conf))
# prunedH.append(freqSet - conseq)
return prunedH
def rulesFromConseq(freqSet, H, supportData, brl, minConf=0.7):
m = len(H[0])
if (len(freqSet) > (m + 1)):
Hmp1 = aprioriGen(H, m + 1)
Hmp1 = calConf(freqSet, Hmp1, supportData, brl, minConf)
if (len(Hmp1) > 1):
rulesFromConseq(freqSet, Hmp1, supportData, brl, minConf)
將上述代碼存儲成apriori.py
#引用并計算
import apriori####將上面兩個過程寫入apriori叔遂,調(diào)用
dataSet = apriori.loadDataSet()
print(dataSet)
C1 = apriori.createC1(dataSet)
D = list(map(set, dataSet))
print(type(D))
L1, suppDat = apriori.scanD(D, C1, 0.5)
print(L1)
L, suppData = apriori.apriori(dataSet)
print(L)
L, suppData = apriori.apriori(dataSet, minSupport=0.5)
print(L)
ruleList = apriori.generateRules(L, suppData, minConf=0.5)
FP-tree原理介紹
apriori算法每次發(fā)現(xiàn)潛在的頻繁集都需要重新掃描數(shù)據(jù)集來計算该肴,速度堪憂轴脐。
因此有人提出了FP-tree算法膜楷,這個算法優(yōu)點明顯,只需要對數(shù)據(jù)集掃描兩次就可以完成尋找頻繁集的任務杉编。
第一次掃描超全,對所有的單元素集合刪除支持度過小的集合且建立頻數(shù)指針,如a:1邓馒。過濾并對數(shù)據(jù)集進行排序卵迂。
第二次掃描,建立FP樹绒净。這顆樹是怎么建的呢见咒,從頭開始讀入數(shù)據(jù),將數(shù)據(jù)添加到已有路徑上挂疆,如果路徑不存在則新建路徑改览,同時指針中頻數(shù)變化。這樣問題就集中在對路徑和指針的保存上缤言。
FP-tree python實現(xiàn)
網(wǎng)上這部分代碼很多宝当,這里就略過了
參考資料:機器學習實戰(zhàn)