NLP-关于数据集处理的相关代码

本文详细介绍了一种数据处理流程,包括多个文件的数据合并、对话数据的划分以及训练集与测试集的创建。通过Python代码示例,展示了如何从多个源文件中提取数据并整合到单一文件中,接着如何将对话内容拆分为问题与回答对,最后是如何随机划分数据集为训练和测试两部分。
1.将几个文件中的数据合并为一个文件

将要合并的几个文件放入一个文件夹下

import os
#获取目标文件夹的路径
# filedir=os.getcwd()+'/corpus'
#获取当前文件夹中文件名称列表
# filenames=os.listdir(filedir)
#遍历文件名
# for filename in filenames:
    filepath=filedir+'/'+filename
    #遍历单个文件,读取行数
        for line in open(filepath, encoding='utf-8').readlines():
              data.append(line)
        with open('train.txt', 'w',encoding='utf-8') as fout:
              for i in range(0, len(data)):
                   fout.write(data[i])
2.将对话数据划分为问题-回复对
for filename in filenames:
    filepath=filedir+'/'+filename
    #遍历单个文件,读取行数
    for line in open(filepath,encoding='utf-8').readlines():
        line = line.strip()
        if line == '===':
            continue
        data.append((line.replace('Q: ', '').replace('A: ', '')))
    with open('train.txt', 'w') as fout:
        for i in range(0, len(data), 2):
            fout.write(data[i] + '\t' + data[i + 1] +'\t'+ '1'+'\n')

        for i in range(len(data)-2,0,-2):
            fout.write(data[i] + '\t' + data[i-1] + '\t' + '0' + '\n')
3.划分测试集训练集
import random

def train_test_split(infile, test_rate=0.1):
    with open('train.txt', 'w',encoding='utf-8') as f_train, \
            open('test.txt', 'w',encoding='utf-8') as f_test:
        for line in open(infile,encoding='utf-8'):
            if random.random() > test_rate:
                f_train.write(line)
            else:
                f_test.write(line)


if __name__ == '__main__':
    train_test_split('./corpus.txt')
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值