做特征工程时,常需要利用pyspark 将数据处理后保存为tfrecord以供后续的模型训练。本文给一个保存为tfrecord 和对tfrecord进行解析的案例。
一 、spark将DataFrame写入tfrecord
用spark读取数据经过处理后,保存为pyspark的dataframe形式。
def tfrecord(data,dt_begin,dt_end,is_train=True):
from pyspark.sql import functions as funcs
if is_train: # 如果是train,将数据打乱下(在写tfrecord时就进行)
data = data.orderBy(funcs.rand())
tag = 'train_{0}_{1}_{2}'.format(VERSION, dt_begin, dt_end)
else:
tag = 'test_{0}_{1}_{2}'.format(VERSION, dt_begin, dt_end)

该文介绍了如何在特征工程中使用pyspark对数据进行预处理,然后将其保存为tfrecord格式,以便于后续的模型训练。在处理过程中,涉及到数据清洗、缺失值填充,以及利用DataFrame进行操作。同时,文章还提供了tfrecord文件的解析方法,包括数据读取、shuffle及batch处理,用于模型的训练输入。
最低0.47元/天 解锁文章
997

被折叠的 条评论
为什么被折叠?



