task1 中文预训练模型泛化能力天池赛

目录

 

1 目的

2 背景

2.1 个人配置

2.2 赛题要求

2.3 本机跑通Baseline

pytorch配置

3 准备环节

4 模型训练过程

5 Docker提交

5.1 Docker安装

5.2 本机Docker推送

 


​​​​​​​

1 目的

  根据Datawhale大佬们提供的baseline训练模型,并通过docker的方式提交到天池比赛,真的太不容易了。

2 背景

2.1 个人配置

  • 操作系统:mac

2.2 赛题要求

  Tips:之后将基于该baseline教程,详细叙述我的配置历程。

2.3 本机跑通Baseline

pytorch配置

  • 关于windows版的Anaconda+Pytorch+Pycharm+Cuda配置可以看我之前总结的博客:地址
  • 关于CuDNN的配置可以看我另一篇总结:地址

  踩了许多坑的总结~

3 准备环节

  git clone模型文件到本机,项目命名为tianchi-multi-task-nlp,运行环境为pytorch虚拟环境,编译器为Pycharm。

添加transformers和sklearn

  pytorch虚拟环境中并没有这两项,我们需要使用pip安装一下。不过要注意一点,我们需要将这两个包安装到pytorch虚拟环境下,而不是直接在cmd中全局安装。
  打开Anaconda->powershell prompt,我们通过powershell prompt进入pytorch虚拟环境。

conda activate <pytorch环境名称(自己命名)> #激活虚拟环境
  • 1
pip install transformers #安装transformers
pip install sklearn      #安装sklearn
  • 1
  • 2

  安装结果如图:
在这里插入图片描述

数据文件及bert配置

  下载中文预训练BERT模型bert-base-chinese,地址:https://huggingface.co/bert-base-chinese/tree/main

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值