
自然语言处理
文章平均质量分 90
入门两年的练习生
请你一而再,再而三的坚持下去
展开
-
机器翻译:引入注意力机制的Encoder-Decoder深度神经网络训练实战中英文互译(完结篇)
注意力机制是一种在深度学习中广泛使用的技术,它可以有效地处理输入序列和输出序列之间的对应关系。其中,Encoder-Decoder是一种常见的注意力机制,它主要用于序列到序列的任务,例如机器翻译、语音识别等。在Encoder-Decoder中,输入序列首先通过一个编码器进行编码,然后再通过一个解码器进行解码,最终生成输出序列。在这个过程中,注意力机制可以帮助模型更好地理解输入序列中的重要信息,并在生成输出序列的过程中更加准确地对其进行利用。原创 2023-05-01 19:24:12 · 2945 阅读 · 13 评论 -
吴恩达与 OpenAI 强强联手,《ChatGPT 提示工程》中文版免费课程
为了帮助大家能更好的掌握 Prompt 工程,DeepLearning.ai 创始人吴恩达与 OpenAI 开发者 Iza Fulford 联手推出了一门面向开发者的技术教程:《ChatGPT 提示工程》。目前该教程已经在 DeepLearning.ai 正式上线,官网上线提供了可交互式的 Notebook,让你可以一边学习,一边跟着编写代码实践。原创 2023-04-30 20:45:32 · 451 阅读 · 0 评论 -
机器翻译 深度学习预处理实战(中英文互译)一
基于深度学习的机器翻译学习分为三步:(1)解决自动将一种自然语言文本(源语言)翻译为另一种自然语言文本(目标语言)的问题。(2)准备人工翻译的数据集,将其分成训练集和测试集。使用训练集的数据来训练深度神经网络。(3)使用测试集的数据来评估模型表现。深度学习机器翻译其实是用神经网络去学习人工翻译的数据集,使数学世界的神经网络成为取代真实世界中人工翻译的可计算模型。原创 2023-04-28 22:25:43 · 3030 阅读 · 2 评论