各位用户为了找寻关于python实现决策树C4.5算法详解(在ID3基础上改进)的资料费劲了很多周折。这里教程网为您整理了关于python实现决策树C4.5算法详解(在ID3基础上改进)的相关资料,仅供查阅,以下为您介绍关于python实现决策树C4.5算法详解(在ID3基础上改进)的详细内容

一、概论

C4.5主要是在ID3的基础上改进,ID3选择(属性)树节点是选择信息增益值最大的属性作为节点。而C4.5引入了新概念“信息增益率”,C4.5是选择信息增益率最大的属性作为树节点。

二、信息增益

以上公式是求信息增益率(ID3的知识点)

三、信息增益率

信息增益率是在求出信息增益值在除以

例如下面公式为求属性为“outlook”的值:

四、C4.5的完整代码

? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 from numpy import * from scipy import * from math import log import operator   #计算给定数据的香浓熵: def calcShannonEnt(dataSet):  numEntries = len(dataSet)  labelCounts = {} #类别字典(类别的名称为键,该类别的个数为值)  for featVec in dataSet:   currentLabel = featVec[-1]   if currentLabel not in labelCounts.keys(): #还没添加到字典里的类型    labelCounts[currentLabel] = 0;   labelCounts[currentLabel] += 1;  shannonEnt = 0.0  for key in labelCounts: #求出每种类型的熵   prob = float(labelCounts[key])/numEntries #每种类型个数占所有的比值   shannonEnt -= prob * log(prob, 2)  return shannonEnt; #返回熵   #按照给定的特征划分数据集 def splitDataSet(dataSet, axis, value):  retDataSet = []  for featVec in dataSet: #按dataSet矩阵中的第axis列的值等于value的分数据集   if featVec[axis] == value:  #值等于value的,每一行为新的列表(去除第axis个数据)    reducedFeatVec = featVec[:axis]    reducedFeatVec.extend(featVec[axis+1:])    retDataSet.append(reducedFeatVec)  return retDataSet #返回分类后的新矩阵   #选择最好的数据集划分方式 def chooseBestFeatureToSplit(dataSet):  numFeatures = len(dataSet[0])-1 #求属性的个数  baseEntropy = calcShannonEnt(dataSet)  bestInfoGain = 0.0; bestFeature = -1  for i in range(numFeatures): #求所有属性的信息增益   featList = [example[i] for example in dataSet]   uniqueVals = set(featList) #第i列属性的取值(不同值)数集合   newEntropy = 0.0   splitInfo = 0.0;   for value in uniqueVals: #求第i列属性每个不同值的熵*他们的概率    subDataSet = splitDataSet(dataSet, i , value)    prob = len(subDataSet)/float(len(dataSet)) #求出该值在i列属性中的概率    newEntropy += prob * calcShannonEnt(subDataSet) #求i列属性各值对于的熵求和    splitInfo -= prob * log(prob, 2);   infoGain = (baseEntropy - newEntropy) / splitInfo; #求出第i列属性的信息增益率   print infoGain;   if(infoGain > bestInfoGain): #保存信息增益率最大的信息增益率值以及所在的下表(列值i)    bestInfoGain = infoGain    bestFeature = i  return bestFeature   #找出出现次数最多的分类名称 def majorityCnt(classList):  classCount = {}  for vote in classList:   if vote not in classCount.keys(): classCount[vote] = 0   classCount[vote] += 1  sortedClassCount = sorted(classCount.iteritems(), key = operator.itemgetter(1), reverse=True)  return sortedClassCount[0][0]   #创建树 def createTree(dataSet, labels):  classList = [example[-1] for example in dataSet]; #创建需要创建树的训练数据的结果列表(例如最外层的列表是[N, N, Y, Y, Y, N, Y])  if classList.count(classList[0]) == len(classList): #如果所有的训练数据都是属于一个类别,则返回该类别   return classList[0];  if (len(dataSet[0]) == 1): #训练数据只给出类别数据(没给任何属性值数据),返回出现次数最多的分类名称   return majorityCnt(classList);    bestFeat = chooseBestFeatureToSplit(dataSet); #选择信息增益最大的属性进行分(返回值是属性类型列表的下标)  bestFeatLabel = labels[bestFeat] #根据下表找属性名称当树的根节点  myTree = {bestFeatLabel:{}} #以bestFeatLabel为根节点建一个空树  del(labels[bestFeat]) #从属性列表中删掉已经被选出来当根节点的属性  featValues = [example[bestFeat] for example in dataSet] #找出该属性所有训练数据的值(创建列表)  uniqueVals = set(featValues) #求出该属性的所有值得集合(集合的元素不能重复)  for value in uniqueVals: #根据该属性的值求树的各个分支   subLabels = labels[:]   myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), subLabels) #根据各个分支递归创建树  return myTree #生成的树   #实用决策树进行分类 def classify(inputTree, featLabels, testVec):  firstStr = inputTree.keys()[0]  secondDict = inputTree[firstStr]  featIndex = featLabels.index(firstStr)  for key in secondDict.keys():   if testVec[featIndex] == key:    if type(secondDict[key]).__name__ == 'dict':     classLabel = classify(secondDict[key], featLabels, testVec)    else: classLabel = secondDict[key]  return classLabel   #读取数据文档中的训练数据(生成二维列表) def createTrainData():  lines_set = open('../data/ID3/Dataset.txt').readlines()  labelLine = lines_set[2];  labels = labelLine.strip().split()  lines_set = lines_set[4:11]  dataSet = [];  for line in lines_set:   data = line.split();   dataSet.append(data);  return dataSet, labels     #读取数据文档中的测试数据(生成二维列表) def createTestData():  lines_set = open('../data/ID3/Dataset.txt').readlines()  lines_set = lines_set[15:22]  dataSet = [];  for line in lines_set:   data = line.strip().split();   dataSet.append(data);  return dataSet   myDat, labels = createTrainData() myTree = createTree(myDat,labels) print myTree bootList = ['outlook','temperature', 'humidity', 'windy']; testList = createTestData(); for testData in testList:  dic = classify(myTree, bootList, testData)  print dic

五、C4.5与ID3的代码区别

如上图,C4.5主要在第52、53行代码与ID3不同(ID3求的是信息增益,C4.5求的是信息增益率)。

六、训练、测试数据集样例

? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 训练集:    outlook temperature humidity windy  ---------------------------------------------------------  sunny  hot    high   false   N  sunny  hot    high   true   N  overcast hot    high   false   Y  rain  mild   high   false   Y  rain  cool   normal  false   Y  rain  cool   normal  true   N  overcast cool   normal  true   Y   测试集  outlook temperature humidity windy  -----------------------------------------------  sunny  mild   high   false    sunny  cool   normal  false    rain   mild   normal  false   sunny  mild   normal  true    overcast mild   high   true    overcast hot    normal  false    rain   mild   high   true

以上这篇python实现决策树C4.5算法详解(在ID3基础上改进)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。