- 博客(27)
- 收藏
- 关注
原创 OpenAI Completions模型的应用实例及如何激发大语言模型的能力
OpenAI Completions模型的应用实例及如何激发大语言模型的能力
2024-01-02 00:53:49
673
1
原创 利用GPT2生成莎士比亚写作风格的文本(python实现)
利用GPT2生成莎士比亚写作风格的文本(python实现)。GPT2模型就用了这种只包含编码器(decoder-only)的模块。想要运行一个训练好的 GPT-2模型,最简单的方法就是让它自己随机工作(从技术上说,叫做生成无条件样本)。换句话说,我们也可以给它一点提示,让它说一些关于特定主题的话(即生成交互式条件样本)。
2023-06-06 14:15:57
995
1
原创 DeepDream
DeepDream的过程是反向运行一个卷积神经网络,基于网络学到的表示来生成输入。这个过程并不局限于图像模型,甚至并不局限于卷积网络,可以应用于语音、音乐等更多内容。
2023-05-01 11:38:50
271
原创 使用LSTM生成文本
使用LSTM生成文本,较小的温度值会得到极端重复和可预测文本,但局部结构是非常真实的,特别时所有单词都是真正的英文单词(单词就是字符的局部模式)。随着温度值越来越大,生成的文本也变得更有趣,更出乎意料,甚至更有创造性,它有时会创造出全新的单词。
2023-04-30 22:29:06
990
原创 模型集成(model ensembling)
集成是指将一系列不同模型的预测结果汇集到一起,从而得到更好地预测结果。它可以打败任何单个模型,无论这个模型的表现多么好。近年来,一种在实践中非常成功的基本集成方法是宽且深的模型类型,结合了深度学习和浅层学习。这种模型联合训练一个深度神经网络和一个大型的线性模型。
2023-04-30 15:34:27
946
原创 使用Keras回调函数和TensorBoard来检查并监控深度学习模型
使用Keras回调函数和TensorBoard来检查并监控深度学习模型,以及keras.utils.plot_model函数的使用
2023-04-30 11:13:15
776
原创 连体LSTM(Siamese LSTM)或共享LSTM(shared LSTM)
函数式API还有一个重要特性,那就是能够重复多次使用一个层实例。如果你对一个层实例调用两次,而不是每次调用都实例化一个新层,那么每次调用可以重复使用相同的权重。这样你可以构建具有共享分支的模型,即几个分支全都共享相同的知识并执行相同的运算。
2023-04-28 22:11:23
363
原创 Keras中的残差链接(residual connection),用于解决表示瓶颈与梯度消失
残差链接是一种常见的类图网络组件,在2015年之后的许多网络架构(如Xception)中都可以见到。残差链接可以解决困扰所有大规模深度学习模块的两个共性问题:梯度消失和表示瓶颈。
2023-04-25 20:05:27
622
原创 Keras函数式API,如多输入,多输出,类图模型等
现阶段许多模型,如多输入模型,多输出模型,类图模型等等,当我们在调用Keras中的Sequential模型类是无法实现的,因此本文介绍函数式API(functional API)。
2023-04-25 19:39:49
1186
原创 用一维卷积处理序列问题,提出优化方法:结合CNN和RNN来处理长序列
使用一维卷积,从序列中提取局部一维序列段,这种一维卷积可以识别序列中的局部模式。对每个序列段执行相同的输入变换,所以在句子中某个位置学到的模式稍后可以在其他位置被识别,这使得一维卷积神经网络具有平移不变性。为了识别长期的模式,可以选择结合卷积神经网络的速度和轻量与RNN的顺序敏感性,可以在RNN前使用一维卷积作为预处理步骤。
2023-04-24 11:08:55
3535
2
原创 使用Keras中的LSTM完成温度预测问题,并对模型提出不同的改进方法,如:逆向、双向、丢包等
使用Keras库,构建深度学习LSTM网络,完成温度预测问题,并给出不同的提升性能的方法,比如双向网络,丢包等。
2023-04-21 19:05:30
1368
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人