动手学深度学习Task04

笔记摘自课程内容。

机器翻译和数据集

机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。

数据预处理

数据清洗主要去除多余字符以及特殊字符(通常指计算机无法编码)。其次是进行分词,将字符串组成由单词构成的列表,然后再建立词典,即单词id组成的列表。
Encoder-Decoder部分。encoder:输入到隐藏状态。decoder:隐藏状态到输出。encoder的输出是decoder的初始输入。
在这里插入图片描述

Sequence to Sequence模型

SeqtoSeq模型也是基于encoder-decoder框架的。encoder框架输入的是固定长度的句子序列(长了截断,短了补足),输出一个固定长度的语义编码,这个语义编码作为decoder的初始输入。
在训练模型中,decoder每个时间步都输入一个新的词,但在预测时,是将上一个时刻的输出作为下一个时刻的输入。
在这里插入图片描述
encoder-decoder框架解决了输入序列和输出序列不等长的问题,但也存在缺陷。decoder的预测结果,很依赖于encoder输出的语义编码,因此ecoder框架采用的模型本身的缺陷都会影响语义编码的准确性,进而影响decoder的准确率。

Beam Search

直接上图,这个比较好理解。
在这里插入图片描述
它的基本思想就是,decoder每一步输出都是当前的最优解,也就是局部最优解,它不一定是全局最优解。为了缓解这个问题,Bream Search选取当前两个得分最高的解。问题也显而易见,参数量变多了。

注意力机制和Seq2seq模型

在这里插入图片描述
前面的SeqtoSeq,decoder每个时刻的输出依赖的只有一个语义编码,但事实上,decoder每个时刻的输出,应该与当前输出的上下文有关系,引入attention机制,相当于在decoder的时候,每个时刻都会从encoder中挑选出与之相关的上下文信息,然后来进行输出预测。

Transformer模型

关于transformer模型,参考这篇Transformer模型详解

为了在GPU上搭建动手学深度学习pytorch环境,你需要按照以下步骤进行操作。 首先,你需要安装Anaconda来管理你的Python环境。你可以从官方网站 https://www.anaconda.com/ 下载适用于你操作系统的Anaconda安装程序。安装完成后,你可以使用conda命令创建一个新的环境。 接下来,你需要安装CUDA。CUDA是用于支持GPU计算的NVIDIA的并行计算平台和API模型。你可以从NVIDIA的官方网站下载适用于你的显卡型号的CUDA安装程序进行安装。 然后,你需要安装CUDNN。CUDNN是一个针对深度神经网络加速的GPU库。你可以从NVIDIA的开发者网站下载CUDNN并按照安装说明进行安装。 接下来,你可以使用conda命令来安装pytorch。你可以复制以下命令,在新建的环境中输入: ``` conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch ``` 安装完成后,你可以在命令行中输入python进入Python解释器环境,并导入torch模块来测试pytorch的安装。你可以使用以下代码进行测试: ```python import torch from __future__ import print_function x = torch.rand(5, 3) print(x) print(torch.cuda.is_available()) # 测试CUDA是否可用 ``` 这样,你就成功搭建了动手学深度学习pytorch环境,并且可以在GPU上进行深度学习任务了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [01 动手学深度学习-配置环境pytorch](https://blog.youkuaiyun.com/qq_44653420/article/details/123883400)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值