import tensorflow.keras
import numpy as np
# 文件路径
path = tensorflow.keras.utils.get_file(
'nietzsche.txt',
origin = 'https://s3.amazonaws.com/text-datasets/nietzsche.txt')
# 读取文件,并转为小写
text = open(path).read().lower()
# 输出文本长度
print('文本长度:%s'%len(text))
maxlen = 60 # 提取60个字符组成的序列
step = 3 # 每隔3个字符提取一次新序列——步长
sequences = [] # 保留所有序列
lables = [] # 保留所有标签
# 构建数据集
for i in range(0,len(text)-maxlen,step):
sequences.append(text[i:i+maxlen]) # 数据
lables.append(text[i+maxlen]) # 标签
print('sequences中的元素个数:%d'%len(sequences))
print('lables中的元素个数:%d'%len(lables))
# 统计数据中不同的字符
print(set(text))
chars = sorted(list(set(text)))
print('不同的字符类别:%d个'%len(chars))
# 根据chars构建一个字典,键为字符,值为索引
chars_dict = dict((c,chars.index(c)) for c in chars)
print(chars_dict)
# 向量化
x = np.zeros((len(sequences),maxlen,len(cha