自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 从零入门AI for Science(AI+经济)(Datawhale夏令营)

本次赛题是不同电力公司主体的博弈下对市场出清价格的影响下,使用数学模型(主办方期待选手使用ABM模型)预测未来的市场出清价格。

2024-07-28 21:58:49 345

原创 从零入门NLP竞赛(Datawhale夏令营)

使用交叉注意力(Cross-attention)方法,同时接收来自编码器端的输出以及当前 Transformer 块的前一个掩码注意力层的输出。查询是通过解码器前一层的输出进行投影的,而键和值是使用编码器的输出进行投影的。它的作用是在翻译的过程当中,为了生成合理的目标语言序列需要观测待翻译的源语言序列是什么。基于上述的编码器和解码器结构,待翻译的源语言文本,先经过编码器端的每个Transformer 块对其上下文语义的层层抽象,然后输出每一个源语言单词上下文相关的表示。

2024-07-20 21:57:07 741

原创 NLP 自然语言处理( Datawhale AI 夏令营)2

一. Seq2Seq模型序列到序列(Sequence-to-Sequence,简称Seq2Seq)模型是一种深度学习架构,主要用于处理输入和输出都是变长序列的任务,例如机器翻译、文本摘要、语音识别转文字、聊天机器人对话等自然语言处理任务。Seq2Seq模型的核心思想是使用两个主要部分组成的神经网络框架:编码器(Encoder)和解码器(Decoder)。更多:含注意力机制的Seq2Seq模型链接。

2024-07-17 22:01:49 826

原创 NLP 自然语言处理( Datawhale AI 夏令营)1

Task1:了解机器翻译 & 理解赛题。

2024-07-14 22:19:22 725 1

spacy3.73版本压缩包

spacy3.73版本压缩包

2024-07-16

task2baseline代码

task2baseline代码

2024-07-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除