- 博客(3)
- 收藏
- 关注
原创 NLP-基于transformer实现机器翻译
在本次实验中,我们实现了基于transformer实现机器翻译,基于Transformer模型的机器翻译实验通常包括几个关键步骤:首先,通过预处理数据并进行适当的分词处理,确保输入和输出序列的准备工作。其次,构建并训练Transformer模型,包括编码器和解码器,以及注意力机制的应用,用于捕捉长距离依赖关系。然后,使用合适的优化器和损失函数对模型进行优化,以最小化翻译过程中的错误。最后,通过保存模型以便后续推理或继续训练,确保模型在实际应用中的可持续性和灵活性。
2024-06-30 02:58:29
2228
原创 机器翻译:含注意力机制的编码器-解码器
在本次实验中,我们详细介绍了如何用编码器-解码器架构、注意力机制和BLEU得分来实现一个简单的机器翻译任务。是一种深度学习模型结构,用于处理序列到序列的任务,如机器翻译和文本摘要。编码器负责将输入序列编码成上下文向量,捕捉输入序列的语义信息;解码器则利用这个向量生成目标序列。典型的应用包括使用注意力机制来加强编码器和解码器之间的信息流,以及使用位置编码来保持序列中单词的顺序信息。是一种用于增强深度学习模型性能的技术,特别是在处理序列和列表数据时非常有效。
2024-06-29 23:12:47
1716
原创 使用前馈神经网络进行姓氏分类
Sigmoid函数常被用作神经网络的激活函数,能够将变量映射到[0,1]。在本次实验中,我们比较和评估了多层感知机(MLP)模型和卷积神经网络(CNN)模型在姓氏分类任务上的表现。首先,我们对两种模型进行了初始化,选择了合适的损失函数和优化器。对于MLP模型,我们构建了多个全连接层和相应的激活函数,并迭代训练数据。而对于CNN模型,我们引入了卷积层和池化层以从数据中提取特征,然后进行分类。模型训练完成后,我们在测试数据集上对它们进行了性能评估。
2024-06-24 01:22:27
1859
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅