- 博客(3)
- 收藏
- 关注
原创 日语到中文的机器翻译模型构建方法
PyTorch 提供了灵活的方式来定义各种深度学习模型,包括 Transformer 和其组件(如线性层、嵌入层、注意力机制等)。
2024-06-23 10:54:02
1301
1
原创 对机器翻译过程的简单解释
比如,当模型需要识别图像中的狗时,它可以通过注意力机制自动聚焦在图像中的狗的部分,忽略其他不相关的区域。注意力机制实际上是一种分配加权的操作,它允许模型根据当前任务的需要,动态调整不同输入特征的重要性。基于规则的机器翻译(Rule-Based Machine Translation, RBMT)是一种早期的机器翻译方法,它依赖于语言学专家编写的一系列规则和词典来进行翻译。在机器翻译任务中,注意力机制可以让模型在生成每个输出词时,根据输入句子的不同部分动态调整关注的权重,以便更好地翻译整个句子。
2024-06-23 09:25:29
953
原创 前馈神经网络在多层分类中的应用
本实验主要探讨神经网络模型,尤其是多层感知器(MLP)和卷积神经网络(CNN)的应用。实验通过分析简单感知器和MLP的性能差异,以及详细介绍卷积神经网络的机制,展示了这些模型在处理复杂模式识别任务中的能力(以姓氏分类为例)多层感知机(MLP,Multi-Layer Perceptron)是一种前馈神经网络。前馈意味着数据从输入层流向输出层,中间没有反馈循环。MLP由多个层次组成,包括一个输入层、一个或多个隐藏层和一个输出层。每一层由若干个神经元(或称节点)组成。继承自nn.Module。__init__
2024-06-09 16:34:57
1425
4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人