(e:\myself_ai\pytorch310_env) E:\Myself_AI\pretrain_model>python simple_text_model.py
读取到的config: {'random_seed': 42, 'data_path': 'e:/Myself_AI/data/data.csv', 'pretrained_model_path': 'e:/Myself_AI/nlp_models/cc.zh.300.bin', 'best_model_path': 'best_cnn_model.pt', 'log_dir': 'e:/Myself_AI/logging', 'vocab_path': 'e:/Myself_AI/vocab/vocab.pkl', 'stopwords': ['的', '了', '在', '是', '我', '有', '和', '就', '不', '人', '都', '一', '一个', '上', '也', '很', '到', '说', '要', '去', '你', '会', '着', '没有', '看', '好', '自己', '这'], 'max_seq_length': 50, 'batch_size': 4, 'embedding_dim': 300, 'num_filters': 100, 'filter_sizes': [3, 4, 5], 'output_dim': 2, 'dropout': 0.5, 'num_epochs': 10, 'patience': 3, 'learning_rate': 0.001, 'lr_factor': 0.5, 'lr_patience': 2}
2025-05-13 20:35:53,412 - INFO - 配置加载完成:{'random_seed': 42, 'data_path': 'e:/Myself_AI/data/data.csv', 'pretrained_model_path': 'e:/Myself_AI/nlp_models/cc.zh.300.bin', 'best_model_path': 'best_cnn_model.pt', 'log_dir': 'e:/Myself_AI/logging', 'vocab_path': 'e:/Myself_AI/vocab/vocab.pkl', 'stopwords': ['的', '了', '在', '是', '我', '有', '和', '就', '不', '人', '都', '一', '一个', '上', '也', '很', '到', '说', '要', '去', '你', '会', '着', '没有', '看', '好', '自己', '这'], 'max_seq_length': 50, 'batch_size': 4, 'embedding_dim': 300, 'num_filters': 100, 'filter_sizes': [3, 4, 5], 'output_dim': 2, 'dropout': 0.5, 'num_epochs': 10, 'patience': 3, 'learning_rate': 0.001, 'lr_factor': 0.5, 'lr_patience': 2}
Using device: cpu
成功从data.csv加载25604条数据
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\willi\AppData\Local\Temp\jieba.cache
Loading model cost 0.267 seconds.
Prefix dict has been built successfully.
保存词汇表失败: 'NoneType' object is not subscriptable
词汇表大小: 16583
开始训练模型... 做预训练的时候,需要保存词汇表文件,但是一直失败怎么搞?程序是跑完的,并且是可以正常判断的!