**笑傲江湖文本数据分成六部分,分词,每部分重新连接成新的数据**
import pandas as pd
data=pd.read_table('D:/Rpython/file/笑傲江湖.txt',engine='python',encoding='utf-8')
group_name=[1,2,3,4,5,6]
labels=pd.cut(data.index,6,labels=group_name) #数据离散化
import jieba
tem=pd.DataFrame()
for i in range(1,7):
data1=data.loc[labels==i,:] #离散化
data1=data1.iloc[:,0].apply(lambda x:jieba.lcut(x)) #分词
data1=data1.apply(lambda x:' '.join(x)) #用空格连接
tem.loc[i,0]=' '.join(data1) #join() 方法用于将序列中的元素以指定的字符连接生成一个新的字符串。
**每个词在句子中出现的次数**
from sklearn.feature_extraction.text import CountVectorizer,TfidfTransformer
km=CountVectorizer().fit(tem.iloc[:,0])
bf=km.transform(tem.iloc[:,0]).toarray()
temp=pd.DataFrame(bf,columns=km.get_feature_names())