当前位置 : 主页 > 手机开发 > ROM >

决策树的构造(代码)

来源:互联网 收集:自由互联 发布时间:2021-06-10
1 from matplotlib.font_manager import FontProperties 2 import matplotlib.pyplot as plt 3 from math import log 4 import operator 5 import pickle 6 """ 7 函数说明:计算给定数据集的经验熵(香农熵) 8 Parameters: 9 dataSet - 数据
  1 from matplotlib.font_manager import FontProperties
  2 import matplotlib.pyplot as plt
  3 from math import log
  4 import operator
  5 import pickle
  6 """
  7 函数说明:计算给定数据集的经验熵(香农熵)
  8 Parameters:
  9     dataSet - 数据集
 10 Returns:
 11     shannonEnt - 经验熵(香农熵)
 12     
 13 函数说明:创建测试数据集
 14 Parameters:
 15  16 Returns:
 17     dataSet - 数据集
 18     labels - 分类属性
 19 """
 20 def createDataSet():
 21     dataSet = [[0, 0, 0, 0, no],                        #数据集
 22                [0, 0, 0, 1, no],
 23                [0, 1, 0, 1, yes],
 24                [0, 1, 1, 0, yes],
 25                [0, 0, 0, 0, no],
 26                [1, 0, 0, 0, no],
 27                [1, 0, 0, 1, no],
 28                [1, 1, 1, 1, yes],
 29                [1, 0, 1, 2, yes],
 30                [1, 0, 1, 2, yes],
 31                [2, 0, 1, 2, yes],
 32                [2, 0, 1, 1, yes],
 33                [2, 1, 0, 1, yes],
 34                [2, 1, 0, 2, yes],
 35                [2, 0, 0, 0, no]]
 36     labels = [年龄, 有工作, 有自己的房子, 信贷情况]        #分类属性
 37     return dataSet, labels                             #返回数据集和分类属性
 38 
 39 ‘‘‘
 40 函数说明:按照给定特征划分数据集
 41 Parameters:
 42     dataSet - 待划分的数据集
 43     axis - 划分数据集的特征
 44     value - 需要返回的特征的值
 45 ‘‘‘
 46 def calcShannonEnt(dataSet):
 47     numEntires = len(dataSet)                        #返回数据集的行数
 48     labelCounts = {}                                #保存每个标签(Label)出现次数的字典
 49     for featVec in dataSet:                            #对每组特征向量进行统计
 50         currentLabel = featVec[-1]                    #提取标签(Label)信息
 51         if currentLabel not in labelCounts.keys():    #如果标签(Label)没有放入统计次数的字典,添加进去
 52             labelCounts[currentLabel] = 0
 53         labelCounts[currentLabel] += 1                #Label计数
 54     shannonEnt = 0.0                                #经验熵(香农熵)
 55     for key in labelCounts:                            #计算香农熵
 56         prob = float(labelCounts[key]) / numEntires    #选择该标签(Label)的概率
 57         shannonEnt -= prob * log(prob, 2)            #利用公式计算
 58     return shannonEnt                                #返回经验熵(香农熵)
 59 
 60 if __name__ == __main__:
 61     dataSet, features = createDataSet()
 62     print(dataSet)
 63     print(calcShannonEnt(dataSet))
 64 
 65 """
 66 函数说明:按照给定特征划分数据集
 67 Parameters:
 68     dataSet - 待划分的数据集
 69     axis - 划分数据集的特征
 70     value - 需要返回的特征的值
 71 """
 72 def splitDataSet(dataSet, axis, value):
 73     retDataSet = []                                        #创建返回的数据集列表
 74     for featVec in dataSet:                             #遍历数据集
 75         if featVec[axis] == value:
 76             reducedFeatVec = featVec[:axis]                #去掉axis特征
 77             reducedFeatVec.extend(featVec[axis+1:])     #将符合条件的添加到返回的数据集
 78             retDataSet.append(reducedFeatVec)
 79     return retDataSet                                      #返回划分后的数据集
 80 
 81 """
 82 函数说明:选择最优特征
 83 Parameters:
 84     dataSet - 数据集
 85 Returns:
 86     bestFeature - 信息增益最大的(最优)特征的索引值
 87 """
 88 def chooseBestFeatureToSplit(dataSet):
 89     numFeatures = len(dataSet[0]) - 1                    #特征数量
 90     baseEntropy = calcShannonEnt(dataSet)                 #计算数据集的香农熵
 91     bestInfoGain = 0.0                                  #信息增益
 92     bestFeature = -1                                    #最优特征的索引值
 93     for i in range(numFeatures):                         #遍历所有特征
 94         #获取dataSet的第i个所有特征
 95         featList = [example[i] for example in dataSet]
 96         uniqueVals = set(featList)                         #创建set集合{},元素不可重复
 97         newEntropy = 0.0                                  #经验条件熵
 98         for value in uniqueVals:                         #计算信息增益
 99             subDataSet = splitDataSet(dataSet, i, value)         #subDataSet划分后的子集
100             prob = len(subDataSet) / float(len(dataSet))           #计算子集的概率
101             newEntropy += prob * calcShannonEnt(subDataSet)     #根据公式计算经验条件熵
102         infoGain = baseEntropy - newEntropy                     #信息增益
103         print("第%d个特征的增益为%.3f" % (i, infoGain))            #打印每个特征的信息增益
104         if (infoGain > bestInfoGain):                             #计算信息增益
105             bestInfoGain = infoGain                             #更新信息增益,找到最大的信息增益
106             bestFeature = i                                     #记录信息增益最大的特征的索引值
107     return bestFeature                                             #返回信息增益最大的特征的索引值
108 
109 ‘‘‘
110 函数说明:统计classList中出现此处最多的元素(类标签)
111 
112 Parameters:
113     classList - 类标签列表
114 Returns:
115     sortedClassCount[0][0] - 出现此处最多的元素(类标签)
116 ‘‘‘
117 def majorityCnt(classList):
118     classCount = {}
119     for vote in classList:           #统计classList中每个元素出现的次数
120         if vote not in classCount.keys():
121             classCount[vote] = 0
122         classCount[vote] += 1
123     sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)        #根据字典的值降序排序
124     return sortedClassCount[0][0]    #返回classList中出现次数最多的元素
125 
126 ‘‘‘
127 函数说明:创建决策树
128 Parameters:
129     dataSet - 训练数据集
130     labels - 分类属性标签
131     featLabels - 存储选择的最优特征标签
132 Returns:
133     myTree - 决策树
134 ‘‘‘
135 def createTree(dataSet, labels, featLabels):
136     classList = [example[-1] for example in dataSet]   #取分类标签(是否放贷:yes or no)
137     if classList.count(classList[0]) == len(classList):  #如果类别完全相同则停止继续划分
138         return classList[0]
139     if len(dataSet[0]) == 1:             #遍历完所有特征时返回出现次数最多的类标签
140         return majorityCnt(classList)
141     bestFeat = chooseBestFeatureToSplit(dataSet)      #选择最优特征
142     bestFeatLabel = labels[bestFeat]                 #最优特征的标签
143     featLabels.append(bestFeatLabel)
144     myTree = {bestFeatLabel: {}}                    #根据最优特征的标签生成树
145     del(labels[bestFeat])                           #删除已经使用特征标签
146     featValues = [example[bestFeat] for example in dataSet]   #得到训练集中所有最优特征的属性值
147     uniqueVals = set(featValues)       #去掉重复的属性值
148     for value in uniqueVals:           #遍历特征,创建决策树。
149         myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), labels, featLabels)
150     return myTree
151 
152 ‘‘‘
153 getNumLeafs:获取决策树叶子结点的数目
154     getTreeDepth:获取决策树的层数
155     plotNode:绘制结点
156     plotMidText:标注有向边属性值
157     plotTree:绘制决策树
158     createPlot:创建绘制面板
159 
160 函数说明:获取决策树叶子结点的数目
161 Parameters:
162     myTree - 决策树
163 Returns:
164     numLeafs - 决策树的叶子结点的数目
165 ‘‘‘
166 def getNumLeafs(myTree):
167     numLeafs = 0                   #初始化叶子
168     firstStr = next(iter(myTree))    #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法获取结点属性,可以使用list(myTree.keys())[0]
169     secondDict = myTree[firstStr]      #获取下一组字典
170     for key in secondDict.keys():
171         if type(secondDict[key]).__name__==dict:      #测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
172             numLeafs += getNumLeafs(secondDict[key])
173         else:   numLeafs +=1
174     return numLeafs
175 
176 ‘‘‘
177 函数说明:获取决策树的层数
178 Parameters:
179     myTree - 决策树
180 Returns:
181     maxDepth - 决策树的层数
182 ‘‘‘
183 def getTreeDepth(myTree):
184     maxDepth = 0                       #初始化决策树深度
185     firstStr = next(iter(myTree))      #python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法获取结点属性,可以使用list(myTree.keys())[0]
186     secondDict = myTree[firstStr]      #获取下一个字典
187     for key in secondDict.keys():
188         if type(secondDict[key]).__name__==dict:   #测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
189             thisDepth = 1 + getTreeDepth(secondDict[key])
190         else:   thisDepth = 1
191         if thisDepth > maxDepth: maxDepth = thisDepth            #更新层数
192     return maxDepth
193 
194 ‘‘‘
195 函数说明:绘制结点
196 Parameters:
197     nodeTxt - 结点名
198     centerPt - 文本位置
199     parentPt - 标注的箭头位置
200     nodeType - 结点格式
201 Returns:
202 203 ‘‘‘
204 def plotNode(nodeTxt, centerPt, parentPt, nodeType):
205     arrow_args = dict(arrowstyle="<-")       #定义箭头格式
206     font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14)     #设置中文字体
207     createPlot.ax1.annotate(nodeTxt, xy=parentPt,  xycoords=axes fraction,    #绘制结点
208         xytext=centerPt, textcoords=axes fraction,
209         va="center", ha="center", bbox=nodeType, arrowprops=arrow_args, FontProperties=font)
210 
211 ‘‘‘
212 函数说明:标注有向边属性值
213 Parameters:
214     cntrPt、parentPt - 用于计算标注位置
215     txtString - 标注的内容
216 Returns:
217 218 ‘‘‘
219 def plotMidText(cntrPt, parentPt, txtString):
220     xMid = (parentPt[0]-cntrPt[0])/2.0 + cntrPt[0]                                            #计算标注位置
221     yMid = (parentPt[1]-cntrPt[1])/2.0 + cntrPt[1]
222     createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)
223 
224 ‘‘‘
225 函数说明:绘制决策树
226 Parameters:
227     myTree - 决策树(字典)
228     parentPt - 标注的内容
229     nodeTxt - 结点名
230 Returns:
231 232 ‘‘‘
233 def plotTree(myTree, parentPt, nodeTxt):
234     decisionNode = dict(boxstyle="sawtooth", fc="0.8")                                        #设置结点格式
235     leafNode = dict(boxstyle="round4", fc="0.8")                                            #设置叶结点格式
236     numLeafs = getNumLeafs(myTree)                                                          #获取决策树叶结点数目,决定了树的宽度
237     depth = getTreeDepth(myTree)                                                            #获取决策树层数
238     firstStr = next(iter(myTree))                                                            #下个字典
239     cntrPt = (plotTree.xOff + (1.0 + float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff)    #中心位置
240     plotMidText(cntrPt, parentPt, nodeTxt)                                                    #标注有向边属性值
241     plotNode(firstStr, cntrPt, parentPt, decisionNode)                                        #绘制结点
242     secondDict = myTree[firstStr]                                                            #下一个字典,也就是继续绘制子结点
243     plotTree.yOff = plotTree.yOff - 1.0/plotTree.totalD                                        #y偏移
244     for key in secondDict.keys():
245         if type(secondDict[key]).__name__==dict:                                            #测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
246             plotTree(secondDict[key],cntrPt,str(key))                                        #不是叶结点,递归调用继续绘制
247         else:                                                                                #如果是叶结点,绘制叶结点,并标注有向边属性值
248             plotTree.xOff = plotTree.xOff + 1.0/plotTree.totalW
249             plotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)
250             plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))
251     plotTree.yOff = plotTree.yOff + 1.0/plotTree.totalD
252 
253 ‘‘‘
254 函数说明:创建绘制面板
255 Parameters:
256     inTree - 决策树(字典)
257 Returns:
258 259 ‘‘‘
260 def createPlot(inTree):
261     fig = plt.figure(1, facecolor=white)                                                    #创建fig
262     fig.clf()                                                                                #清空fig
263     axprops = dict(xticks=[], yticks=[])
264     createPlot.ax1 = plt.subplot(111, frameon=False, **axprops)                                #去掉x、y轴
265     plotTree.totalW = float(getNumLeafs(inTree))                                            #获取决策树叶结点数目
266     plotTree.totalD = float(getTreeDepth(inTree))                                            #获取决策树层数
267     plotTree.xOff = -0.5/plotTree.totalW; plotTree.yOff = 1.0;                                #x偏移
268     plotTree(inTree, (0.5,1.0), ‘‘)                                                            #绘制决策树
269     plt.show()                                                                                 #显示绘制结果
270 
271 def classify(inputTree, featLabels, testVec):
272     firstStr = next(iter(inputTree))                                                        #获取决策树结点
273     secondDict = inputTree[firstStr]                                                        #下一个字典
274     featIndex = featLabels.index(firstStr)
275     for key in secondDict.keys():
276         if testVec[featIndex] == key:
277             if type(secondDict[key]).__name__ == dict:
278                 classLabel = classify(secondDict[key], featLabels, testVec)
279             else: classLabel = secondDict[key]
280     return classLabel
281 
282 if __name__ == __main__:
283     dataSet, labels = createDataSet()
284     featLabels = []
285     myTree = createTree(dataSet, labels, featLabels)
286     testVec = [0,1]                                        #测试数据
287     result = classify(myTree, featLabels, testVec)
288     if result == yes:
289         print(放贷)
290     if result == no:
291         print(不放贷)
292 ‘‘‘
293 函数说明: 存储决策树
294 Parameters:
295     inputTree - 已经生成的决策树
296     filename - 决策树的存储文件名
297     Returns:
298 299 ‘‘‘
300 def storeTree(inputTree, filename):
301         fw = open(filename, wb)
302         pickle.dump(inputTree, fw)
303         fw.close()
304 
305 if __name__ == __main__:
306     myTree = {有自己的房子: {0: {有工作: {0: no, 1: yes}}, 1: yes}}
307     storeTree(myTree, classifierStorage.txt)
308 
309 ‘‘‘
310 函数说明:读取决策树
311 Parameters:
312     filename - 决策树的存储文件名
313 Returns:
314     pickle.load(fr) - 决策树字典
315 ‘‘‘
316 def grabTree(filename):
317     fr = open(filename, rb)
318     return pickle.load(fr)
319 
320 if __name__ == __main__:
321     myTree = grabTree(classifierStorage.txt)
322     print(myTree)
323 
324 # if __name__ == ‘__main__‘:
325 #     dataSet, labels = createDataSet()
326 #     featLabels = []
327 #     myTree = createTree(dataSet, labels, featLabels)
328 #     print(myTree)
329 #     createPlot(myTree)
330 
331 
332 # if __name__ == ‘__main__‘:
333 #     dataSet, features = createDataSet()
334 #     print("最优特征索引值:" + str(chooseBestFeatureToSplit(dataSet)))
网友评论