目录
1 目的
根据Datawhale大佬们提供的baseline训练模型,并通过docker的方式提交到天池比赛,真的太不容易了。
2 背景
2.1 个人配置
- 操作系统:mac
2.2 赛题要求
- 赛事信息:天池->全球人工智能技术创新大赛【热身赛二】
- Datawhale提供的baseline(特别感谢~):地址
Tips:之后将基于该baseline教程,详细叙述我的配置历程。
2.3 本机跑通Baseline
pytorch配置
踩了许多坑的总结~
3 准备环节
git clone
模型文件到本机,项目命名为tianchi-multi-task-nlp
,运行环境为pytorch虚拟环境,编译器为Pycharm。
pytorch虚拟环境中并没有这两项,我们需要使用pip安装一下。不过要注意一点,我们需要将这两个包安装到pytorch虚拟环境下,而不是直接在cmd中全局安装。
打开Anaconda->powershell prompt
,我们通过powershell prompt
进入pytorch虚拟环境。
conda activate <pytorch环境名称(自己命名)> #激活虚拟环境
- 1
pip install transformers #安装transformers
pip install sklearn #安装sklearn
- 1
- 2
安装结果如图:
下载中文预训练BERT模型bert-base-chinese
,地址:https://huggingface.co/bert-base-chinese/tree/main