pytorch
涂卡
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Albert+ TextCNN 文本二分类任务实践
文章目录任务数据流程模型baseline自己写的输入输出AlbertClassifierModel训练细节参数实验在test集输出规则serch_f1线上任务参加了一个贝壳找房公司在DataFountain上举办的比赛任务:本次赛题的任务是:给定app中的交流片段,片段包含一个客户问题以及随后的经纪人若干对话消息,从这些随后的经纪人消息中找出一个是对客户问题的。这是一个二分类的问题,就是对许多的 (问题,答案)句子组合 进行 预测,如果问题和回答匹配了,就标注为1。数据训练集: 6000段对话原创 2020-10-24 08:51:56 · 3889 阅读 · 6 评论 -
Bert用在seq2seq任务上——UNILM实战
文章目录1.UNILM简介2.实战2.0 租服务器2.0.1 基础配置2.0.2 网络和安全组2.0.3 系统配置2.0.4 服务器的状态2.0.5 查看账单2.1 环境配置2.1.0 登录服务器2.1.1 安装torch2.1.2 配置 UNILM 要求的包2.2 训练2.3 验证3.结语1.UNILM简介按照我粗浅的理解:传统的seq2seq模型需要用一个encoder把输入的语料处理成向量,一个decoder把向量转换为词表里的词,生成目标语句。Bert是一个预训练好的语言模型,有三层原创 2020-08-24 23:23:22 · 3853 阅读 · 0 评论 -
Re:从零开始的PyTorch生活 week1
Day1 6月28一、关于tensor辨析-1-1可以表示最后一行/列x=tensor([[-0.1859, 1.3970, 0.5236], [ 2.3854, 0.0707, 2.1970], [-0.3587, 1.2359, 1.8951], [-0.1189, -0.1376, 0.4647], [-1.8968, 2.0164, 0.1092]])print(x[:, -1])会打印最后一列:tens原创 2020-06-30 15:25:08 · 256 阅读 · 0 评论
分享