中医症型关联规则挖掘
数据探索
由于这里是提交问卷,然后筛选有效问卷的形式获取的属性信息,而且是研究属性的关联程度,所以无需探索数据空值情况,最大最小值情况等信息。
数据清洗
这里没有该步骤
属性规约
由于从问卷调查获得的属性有73种之多,剔除掉无关的属性信息,以及与判断TNM关系不大的属性信息,可以从中筛选6种属性,以及TNM
数据变换
这里的属性是以得分的形式给出的值,但是每种属性的满分是不一样的,所以只看得分的多少是没有意义的,这里用证型系数这个指标来分析:
证型系数 = 该证型分数/该证型满分数
就比如说20140001号患者肝气郁结证的得分是7分,该属性满分是40,所以证型系数是0.175,患者20140179号患者的得分是12,所以证型系数是0.3
又比如说20140001号热毒蕴结证的得分是30分,该属性满分是44,所以证型系数是0.682,患者20140179号患者的得分是34,所以证型系数是0.773
化为证型系数之后,使得各项属性的评判变的公平,而表格中的属性值均化为0到1之间的数
而我们将采用apriori关联规则对关联程度进行分析,apriori处理的是离散数据,如A,B,C这种的类别值的,而不是数值型的零点几这种的,所以我们要对属性值进一步离散化处理,用聚类算法进行分类:
from __future__ import print_function
import pandas as pd
from sklearn.cluster import KMeans #导入K均值聚类算法
datafile = 'data.xls' #待聚类的数据文件
processedfile = 'data_processed.xls' #数据处理后文件
typelabel ={u'肝气郁结证型系数':'A', u'热毒蕴结证型系数':'B',
u'冲任失调证型系数':'C', u'气血两虚证型系数':'D',
u'脾胃虚弱证型系数':'E', u'肝肾阴虚证型系数':'F'}
k = 4 #需要进行的聚类类别数
#读取数据并进行聚类分析
data = pd.read_excel(datafile) #读取数据
keys = list(typelabel.keys())
result = pd.DataFrame()
for i in range(len(keys)):
#调用k-means算法,进行聚类离散化
print(u'正在进行“%s”的聚类...' % keys[i])
kmodel = KMeans(n_clusters = k, n_jobs = 4) #n_jobs是并行数,一般等于CPU数较好
kmodel.fit(data[[keys[i]]].values) #训练模型,得到的是目前第i个属性的聚类模型
r1 = pd.DataFrame(kmodel.cluster_centers_, columns = [typelabel[keys[i]]])
#聚类中心
print('聚类“%s”的聚类中心:' %keys[i],'\n',r1)
r2 = pd.Series(kmodel.labels_).value_counts()
#分类统计
r2 = pd.DataFrame(r2, columns = [typelabel[keys[i]]+'n'])
#转为DataFrame,记录各个类别的数目
print('各属性的分类数目:\n',r2)
r = pd.concat([r1, r2], axis = 1).sort_values(typelabel[keys[i]])
#匹配聚类中心和类别数目
#r1,r2是两个dataframe类型的数据,axis = 1代表是将两张表格横向拼接,0代表纵向拼接
r.index = [1, 2, 3, 4] #把0123的聚类编号改成1234
print(r)
r1得到聚类中心的值,r2得到聚类的个数,将两张表格合并之后得到r
找边界值,就比如说肝气郁结证两个类的中点是0.136954,0.220441,那么边界值就取他们的均值,0.178698
r[typelabel[keys[i]]] = r[typelabel[keys[i]]].rolling(2).mean()
#rolling(2)用来计算相邻2列的均值,以此作为边界点。
r[typelabel[keys[i]]][1] = 0.0 #这两句代码将原来的聚类中心改为边界点。
result = result.append(r.T)
result.to_excel(processedfile)
保存
构建模型
将分类边界值求出后,将属性值离散成类别号:
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B2,C3,D3,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B1,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D3,E2,F1,H2
A3,B2,C1,D2,E3,F1,H2
A2,B2,C1,D3,E1,F1,H2
…
from __future__ import print_function
import pandas as pd
from apriori import * #导入自行编写的apriori函数
import time #导入时间库用来计算用时
inputfile = 'apriori.txt' #输入事务集文件
data = pd.read_csv(inputfile, header = None, dtype = object)
start = time.clock() #计时开始
print(u'\n转换原始数据至0-1矩阵...')
ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数
b = list(map(ct, data.values)) #用map方式执行
data = pd.DataFrame(b).fillna(0) #实现矩阵转换,空值用0填充
end = time.clock() #计时结束
print(u'\n转换完毕,用时:%0.2f秒' %(end-start))
del b #删除中间变量b,节省内存
将data换成0-1矩阵:
为930*28的dataframe,因为有七个属性(加上 TNM分期),每个属性有四个类,一共就是28列
from __future__ import print_function
import pandas as pd
from apriori import * #导入自行编写的apriori函数
import time #导入时间库用来计算用时
inputfile = 'apriori.txt' #输入事务集文件
data = pd.read_csv(inputfile, header = None, dtype = object)
start = time.clock() #计时开始
print(u'\n转换原始数据至0-1矩阵...')
ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数
b = list(map(ct, data.values)) #用map方式执行
data = pd.DataFrame(b).fillna(0) #实现矩阵转换,空值用0填充
end = time.clock() #计时结束
print(u'\n转换完毕,用时:%0.2f秒' %(end-start))
del b #删除中间变量b,节省内存
support = 0.06 #最小支持度
confidence = 0.75 #最小置信度
ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符
start = time.clock() #计时开始
print(u'\n开始搜索关联规则...')
find_rule(data, support, confidence, ms)
end = time.clock() #计时结束
print(u'\n搜索完成,用时:%0.2f秒' %(end-start))
其中find_rule是apriori里面提供的函数算法
apriori.py:
#-*- coding: utf-8 -*-
from __future__ import print_function
import pandas as pd
#自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
x = list(map(lambda i:sorted(i.split(ms)), x))
l = len(x[0])
r = []
for i in range(len(x)):
for j in range(i,len(x)):
if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:
r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))
return r
#寻找关联规则的函数
def find_rule(d, support, confidence, ms = u'--'):
result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果
support_series = 1.0*d.sum()/len(d) #支持度序列
column = list(support_series[support_series > support].index) #初步根据支持度筛选
k = 0
while len(column) > 1:
k = k+1
print(u'\n正在进行第%s次搜索...' %k)
column = connect_string(column, ms)
print(u'数目:%s...' %len(column))
sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数
#创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T
support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度
column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选
support_series = support_series.append(support_series_2)
column2 = []
for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
i = i.split(ms)
for j in range(len(i)):
column2.append(i[:j]+i[j+1:]+i[j:j+1])
cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列
for i in column2: #计算置信度序列
cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]
for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选
result[i] = 0.0
result[i]['confidence'] = cofidence_series[i]
result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出
print('\n结果为:')
print(result)
return result
模型分析
我们得出了五个关联规则:
结果为:
support confidence
A3—F4—H4 0.078495 0.879518
C3—F4—H4 0.075269 0.875000
B2—F4—H4 0.062366 0.794521
C2—E3—D2 0.092473 0.754386
D2—F3—H4—A2 0.062366 0.753247
我们只在乎与H有关的关联规则:
A3—F4—H4 0.078495 0.879518
C3—F4—H4 0.075269 0.875000
B2—F4—H4 0.062366 0.794521
D2—F3—H4—A2 0.062366 0.753247
则四条有效