《数据分析与挖掘 第八章 中医症型关联规则挖掘》

该博客围绕中医症型关联规则挖掘展开。先进行数据探索,因问卷形式获取属性信息且研究关联程度,无需探索空值等情况;接着进行属性规约,从73种属性中筛选出6种及TNM;然后进行数据变换,将属性值化为证型系数并离散化处理;最后构建模型分析,得出与H有关的四条有效关联规则。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

中医症型关联规则挖掘

数据探索
由于这里是提交问卷,然后筛选有效问卷的形式获取的属性信息,而且是研究属性的关联程度,所以无需探索数据空值情况,最大最小值情况等信息。

数据清洗
这里没有该步骤

属性规约
由于从问卷调查获得的属性有73种之多,剔除掉无关的属性信息,以及与判断TNM关系不大的属性信息,可以从中筛选6种属性,以及TNM

数据变换
这里的属性是以得分的形式给出的值,但是每种属性的满分是不一样的,所以只看得分的多少是没有意义的,这里用证型系数这个指标来分析:
证型系数 = 该证型分数/该证型满分数

就比如说20140001号患者肝气郁结证的得分是7分,该属性满分是40,所以证型系数是0.175,患者20140179号患者的得分是12,所以证型系数是0.3
又比如说20140001号热毒蕴结证的得分是30分,该属性满分是44,所以证型系数是0.682,患者20140179号患者的得分是34,所以证型系数是0.773

化为证型系数之后,使得各项属性的评判变的公平,而表格中的属性值均化为0到1之间的数

而我们将采用apriori关联规则对关联程度进行分析,apriori处理的是离散数据,如A,B,C这种的类别值的,而不是数值型的零点几这种的,所以我们要对属性值进一步离散化处理,用聚类算法进行分类:

from __future__ import print_function
import pandas as pd
from sklearn.cluster import KMeans #导入K均值聚类算法

datafile = 'data.xls' #待聚类的数据文件
processedfile = 'data_processed.xls' #数据处理后文件
typelabel ={u'肝气郁结证型系数':'A', u'热毒蕴结证型系数':'B',
            u'冲任失调证型系数':'C', u'气血两虚证型系数':'D',
            u'脾胃虚弱证型系数':'E', u'肝肾阴虚证型系数':'F'}
k = 4 #需要进行的聚类类别数

#读取数据并进行聚类分析
data = pd.read_excel(datafile) #读取数据
keys = list(typelabel.keys())
result = pd.DataFrame()


for i in range(len(keys)):
  #调用k-means算法,进行聚类离散化
  print(u'正在进行“%s”的聚类...' % keys[i])
  kmodel = KMeans(n_clusters = k, n_jobs = 4) #n_jobs是并行数,一般等于CPU数较好
  kmodel.fit(data[[keys[i]]].values) #训练模型,得到的是目前第i个属性的聚类模型
    
  r1 = pd.DataFrame(kmodel.cluster_centers_, columns = [typelabel[keys[i]]])
  #聚类中心
  print('聚类“%s”的聚类中心:' %keys[i],'\n',r1)
  r2 = pd.Series(kmodel.labels_).value_counts()
  #分类统计
  r2 = pd.DataFrame(r2, columns = [typelabel[keys[i]]+'n'])
  #转为DataFrame,记录各个类别的数目
  print('各属性的分类数目:\n',r2)
  
  r = pd.concat([r1, r2], axis = 1).sort_values(typelabel[keys[i]])
  #匹配聚类中心和类别数目
  #r1,r2是两个dataframe类型的数据,axis = 1代表是将两张表格横向拼接,0代表纵向拼接
  
  r.index = [1, 2, 3, 4] #把0123的聚类编号改成1234
  print(r)

在这里插入图片描述
r1得到聚类中心的值,r2得到聚类的个数,将两张表格合并之后得到r
在这里插入图片描述
找边界值,就比如说肝气郁结证两个类的中点是0.136954,0.220441,那么边界值就取他们的均值,0.178698

  r[typelabel[keys[i]]] = r[typelabel[keys[i]]].rolling(2).mean()
  #rolling(2)用来计算相邻2列的均值,以此作为边界点。
  r[typelabel[keys[i]]][1] = 0.0 #这两句代码将原来的聚类中心改为边界点。
  result = result.append(r.T)

在这里插入图片描述

result.to_excel(processedfile)

保存

构建模型
将分类边界值求出后,将属性值离散成类别号:
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B1,C3,D3,E1,F1,H1
A2,B2,C3,D3,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B1,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D1,E1,F1,H1
A1,B2,C1,D3,E2,F1,H2
A3,B2,C1,D2,E3,F1,H2
A2,B2,C1,D3,E1,F1,H2

from __future__ import print_function
import pandas as pd
from apriori import * #导入自行编写的apriori函数
import time #导入时间库用来计算用时

inputfile = 'apriori.txt' #输入事务集文件
data = pd.read_csv(inputfile, header = None, dtype = object)

start = time.clock() #计时开始
print(u'\n转换原始数据至0-1矩阵...')
ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数
b = list(map(ct, data.values)) #用map方式执行
data = pd.DataFrame(b).fillna(0) #实现矩阵转换,空值用0填充
end = time.clock() #计时结束
print(u'\n转换完毕,用时:%0.2f秒' %(end-start))
del b #删除中间变量b,节省内存

将data换成0-1矩阵:
在这里插入图片描述
为930*28的dataframe,因为有七个属性(加上 TNM分期),每个属性有四个类,一共就是28列
在这里插入图片描述

from __future__ import print_function
import pandas as pd
from apriori import * #导入自行编写的apriori函数
import time #导入时间库用来计算用时

inputfile = 'apriori.txt' #输入事务集文件
data = pd.read_csv(inputfile, header = None, dtype = object)

start = time.clock() #计时开始
print(u'\n转换原始数据至0-1矩阵...')
ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数
b = list(map(ct, data.values)) #用map方式执行
data = pd.DataFrame(b).fillna(0) #实现矩阵转换,空值用0填充
end = time.clock() #计时结束
print(u'\n转换完毕,用时:%0.2f秒' %(end-start))
del b #删除中间变量b,节省内存

support = 0.06 #最小支持度
confidence = 0.75 #最小置信度
ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符

start = time.clock() #计时开始
print(u'\n开始搜索关联规则...')
find_rule(data, support, confidence, ms)
end = time.clock() #计时结束
print(u'\n搜索完成,用时:%0.2f秒' %(end-start))

在这里插入图片描述
其中find_rule是apriori里面提供的函数算法
apriori.py:

#-*- coding: utf-8 -*-
from __future__ import print_function
import pandas as pd

#自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
  x = list(map(lambda i:sorted(i.split(ms)), x))
  l = len(x[0])
  r = []
  for i in range(len(x)):
    for j in range(i,len(x)):
      if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:
        r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))
  return r

#寻找关联规则的函数
def find_rule(d, support, confidence, ms = u'--'):
  result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果
  
  support_series = 1.0*d.sum()/len(d) #支持度序列
  column = list(support_series[support_series > support].index) #初步根据支持度筛选
  k = 0
  
  while len(column) > 1:
    k = k+1
    print(u'\n正在进行第%s次搜索...' %k)
    column = connect_string(column, ms)
    print(u'数目:%s...' %len(column))
    sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数
    
    #创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
    d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T
    
    support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度
    column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选
    support_series = support_series.append(support_series_2)
    column2 = []
    
    for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
      i = i.split(ms)
      for j in range(len(i)):
        column2.append(i[:j]+i[j+1:]+i[j:j+1])
    
    cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列
 
    for i in column2: #计算置信度序列
      cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]
    
    for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选
      result[i] = 0.0
      result[i]['confidence'] = cofidence_series[i]
      result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
  
  result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出
  print('\n结果为:')
  print(result)
  
  return result

模型分析
我们得出了五个关联规则:
结果为:
support confidence
A3—F4—H4 0.078495 0.879518
C3—F4—H4 0.075269 0.875000
B2—F4—H4 0.062366 0.794521
C2—E3—D2 0.092473 0.754386
D2—F3—H4—A2 0.062366 0.753247
我们只在乎与H有关的关联规则:
A3—F4—H4 0.078495 0.879518
C3—F4—H4 0.075269 0.875000
B2—F4—H4 0.062366 0.794521
D2—F3—H4—A2 0.062366 0.753247
则四条有效

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值