
深度学习
文章平均质量分 64
小金子的夏天
不深思则不能造于道。不深思而得者,其得易失。
展开
-
ChatGPT应用场景
1.智能客服: ChatGPT 可以用作自动化客服系统,为客户提供 24/7 在线帮助2.聊天机器人: ChatGPT 可以制作聊天机器人,提供人性化的交互体验。3.文本生成:ChatGPT 可以生成高质量的文本,应用于各种领域,如新闻报道、广告文案等4.问答系统: ChatGPT 可以用作问答系统,自动回答用户的查询问题。9.语言模型: ChatGPT 可以用作其他 NLP 模型的预训练模型,提高效果10.文本分类: ChatGPT 可以用作文本分类系统,对文本进行分类。原创 2023-02-10 10:59:48 · 6408 阅读 · 2 评论 -
【转】Generative Pretrained Transformer
在做下游任务的时候,利用第一步预训练好的参数初始化 GPT 的网络结构,这样通过预训练学到的语言学知识就被引入到你手头的任务里来了,这是个非常好的事情。文章中使用的是多层Transformer的decoder的语言模型。用V表示词汇表大小,L表示最长的句子长度,dim 表示 Embedding 维度,则 Wp 是一个 L×dim 的矩阵,We 是一个V×dim 的矩阵。特征抽取器不是用的 RNN,而是用的 Transformer,上面提到过它的特征抽取能力要强于 RNN,这个选择很明显是很明智的;原创 2023-02-10 10:56:46 · 4422 阅读 · 0 评论 -
[转]深度学习 Transformer架构解析
在接下来的架构分析中, 我们将假设使用Transformer模型架构处理从一种语言文本到另一种语言文本的翻译工作, 因此很多命名方式遵循NLP中的规则. 比如: Embeddding层将称作文本嵌入层, Embedding层产生的张量称为词嵌入张量, 它的最后一维将称作词向量等.基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务, 如机器翻译, 文本生成等. 同时又可以构建预训练语言模型,用于不同任务的迁移学习.在分析预测更长的文本时, 捕捉间隔较长的语义关联效果更好.原创 2023-02-10 10:54:12 · 867 阅读 · 0 评论 -
僵尸网络(C&C服务器)
那么对于固定的C&C服务器域名,安全人员一般来说很容易对其进行查杀,因此,基于DGA方法僵尸网络也就产生了,DGA全程随机域名生成算法,是指使用主控端和被控端协商好的一种基于随机算法的域...原创 2022-08-29 09:44:28 · 2915 阅读 · 0 评论 -
lstm实例:构建lstm模型过程
参考连接:LSTM系列_3.1~3.3、第一个LSTM小例子:Keras中LSTM建模的5个核心步骤(python)_日拱一卒-优快云博客_lstm python 例子1.定义网络我们将构建一个LSTM神经网络,在可见层中具有1个输入时间步长和1个输入特征,在LSTM隐藏层中具有10个存储器单元,在完全连接的输出层中具有1个具有线性(默认)激活功能的神经元。2.编译网络我们将使用具有默认配置和均方误差丢失函数的高效ADAM优化算法,因为它是回归问题。3.适合网络我们将使网络适合1,原创 2022-03-03 13:29:23 · 14459 阅读 · 0 评论