- 博客(16)
- 资源 (1)
- 收藏
- 关注
原创 什么是对抗学习
深度学习中的对抗学习就是两个网络互相竞争对抗,一个生成网络,一个判别网络生成网络生成假数据------------------以假乱真判别网络判别真假数据---------------找出假数据两个网络都在不断增强...
2022-04-12 13:38:01
5936
原创 datagrip管理hive,创建spark client for session 失败
创建失败的原因分析和解决办法1.选用的session不对,一般选用默认的console2.没有成功连接hive3.网络状态不佳(大部分情况)
2022-03-11 10:44:59
2305
原创 datagrip导出查询结果csv文件,出现乱码的情况
datagrip导出含中文的csv文件,出现乱码不用管csv中的乱码,直接将csv导入mysql就行,在mysql中显示正常。
2022-03-11 10:37:55
2605
原创 有关Bert模型的理解
#Bert模型的输入,输出和预训练过程输入:词向量,包括三部分嵌入,token,segment,position输出:融合文本信息的向量表示预训练过程:设置了两个训练任务1.mlm2.next sentence prediction将两个任务的预测损失相加来训练#Bert模型的内部结构核心部分是transformer(attention机制)+attention+残差连接+Layer Normalization 标准化+线性变换 增强整个模型的表达能力...
2022-02-18 16:00:32
590
原创 关于rnn和lstm模型的理解
1.RNN模型和lstm模型的区别处理序列数据的模型,lstm能够解决长序列训练过程中,梯度消失和梯度爆炸的问题,相比与RNN,lstm在长序列中表现更好。2.lstm模型输入门,遗忘门,输出门有两个隐藏状态:h,c...
2022-02-18 14:23:12
567
原创 关于attention机制的理解
1.encoder-decoder机制中间会产生一个语义编码向量c,而这个c是固定长度的,且不变的。引入attention就是为了根据输出y来调整c。2.attention的计算encoder中存在隐藏状态h,c就是关于h的加权和
2022-02-18 11:47:50
939
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人