
深度学习
文章平均质量分 87
ㄣ知冷煖★
优快云人工智能领域优质创作者、阿里云专家博主、腾讯云开发者内容共创官、腾讯云开发者社区2024年度创作之星、百林哲教育专家、全国3D建模大赛国奖获得者、省奖若干、Kaggle竞赛银牌若干、BPAA算法大赛模型鉴赏师、在职算法工程师,计算机硕士。
展开
-
【从0开发】百度BML全功能AI开发平台【实操:以部署情感分析模型为例】
全功能AI开发平台是一个综合性的平台,旨在支持各种人工智能(AI)应用的开发、部署和管理。这些平台通常提供一系列工具、库和服务,以帮助开发者、数据科学家和工程师创建和操作各种类型的AI应用。原创 2023-10-12 14:55:42 · 3201 阅读 · 8 评论 -
【完全攻略】畅游NLP海洋:HuggingFace的快速入门
Hugging Face是一个以自然语言处理(NLP)为重点的技术公司,也是一个开源社区和平台,旨在提供丰富的NLP模型、工具和资源。Hugging Face的目标是成为NLP领域的社区和创新驱动者,他们通过为开发者和研究人员提供开源工具、预训练模型和数据集来实现这一目标。Hugging Face的开源库和工具广泛应用于各种NLP任务,包括文本分类、命名实体识别、情感分析、机器翻译等。原创 2023-07-19 17:30:52 · 3114 阅读 · 0 评论 -
百度ERNIE 3.0——中文情感分析实战
ERNIE(Enhanced Representation through kNowledge IntEgration)是百度研发的一种基于深度学习的预训练语言模型。它通过大规模的无监督学习从大量文本数据中学习语义和知识表示。原创 2023-07-14 14:18:58 · 4713 阅读 · 4 评论 -
R-Drop: Regularized Dropout for Neural Networks 论文笔记(介绍,模型结构介绍、代码、拓展KL散度等知识)
R-Drop——神经网络的正则化DropOut,Dropout是一种强大且广泛应用的深度神经网络的调整训练的技术。尽管效果很好,但由于Dropout所带来的随机性导致了训练和实际之间的不一致性。在本文中,我们引入了一种简单的一致性训练策略来正则化dropout,即R-Drop,它强制dropout生成的不同子模型的输出分布彼此一致。具体来说,对于每个训练样本,R-Drop最小化dropout采样的两个子模型输出分布之间的双向kl -散度。理论分析表明,R-Drop降低了上述不一致性。原创 2023-02-16 15:40:56 · 1977 阅读 · 4 评论 -
Dropout的深入理解(基础介绍、模型描述、原理深入、代码实现以及变种)
深度神经网络包含多个非线性隐藏层,这使得它们有强大的表现力,可以学习输入和输出之间非常复杂的关系。但是在训练数据有限的情况下,深度神经网络很容易过度学习造成过拟合,过拟合是深度神经网络的一个非常严重的问题,此外,神经网络越大,训练速度越慢,Dropout可以通过在训练神经网络期间随机丢弃单元来防止过拟合,实验证明Dropout有很好的效果。原创 2023-02-09 11:37:35 · 60578 阅读 · 7 评论 -
tensorflow.keras常用模块介绍
最近的心情就像窗外的天气一样阴沉。。。原创 2022-12-06 18:40:22 · 2195 阅读 · 0 评论 -
Huggingface Transformers各类库介绍(Tokenizer、Pipeline)
Huggingface是一家在NLP社区做出杰出贡献的纽约创业公司,其创建的库Transformers被广泛使用,Transformers提供了数以千计针对于各种任务的预训练模型模型,开发者可以根据自身的需要,选择模型进行训练或微调,也可阅读api文档和源码, 快速开发新模型。:就是输入的待编码的序列(或1个batch的),可以是字符串或字符串列表。原创 2022-12-01 17:43:05 · 2463 阅读 · 7 评论 -
【线性回归】线性回归的详细介绍&代码完全实现
早上没睡醒!又是在梦中被坏女人骗走感情的一天。原创 2022-08-10 16:21:09 · 7947 阅读 · 0 评论 -
波士顿房价预测
对于波士顿房价数据集的预测实战# 预测 20 世纪 70 年代中期波士顿郊区房屋价格的中位数# 数据点比较少,只有 506 个,分为 404 个训练样本和 102 个测试样本# 输入数据的每个特征都有不同的取值范围。(train_data , train_targets) ,(test_data , test_targets) = boston_housing . load_data() # 查看训练数据输出:可以看到数据量较少,数据维度是13维的。............原创 2022-08-09 10:54:26 · 4080 阅读 · 0 评论 -
Pytorch介绍以及基本使用、深入了解、案例分析。
Pytorch是torch的python版本,是由Facebook开源的神经网络框架,专门针对 GPU 加速的深度神经网络(DNN)编程,相比于Tensorflow,Pytorch简介易用。张量:张量是一种特殊的数据结构,与Numpy中的arrays非常相似,在Pytorch中,我们使用张量对模型的输入和输出以及模型的参数进行编码。注意:Tensors和Numpy中的数组具有底层内存共享,意味着不需要进行复制直接就可以相互转化。今天是周五哎,好耶。.....................原创 2022-08-05 16:51:31 · 18554 阅读 · 4 评论 -
(路透社数据集)新闻分类:多分类问题实战
对于路透社数据集的评论分类实战# 加载路透社数据集,包含许多短新闻及其对应的主题,它包含 46 个不同的主题。# 加载数据:训练数据、训练标签;测试数据、测试标签。# 将数据限定为前 10000 个最常出现的单词。(train_data , train_labels) ,(test_data , test_labels) = reuters . load_data(num_words = 10000) # 查看训练数据输出。......原创 2022-08-04 16:00:17 · 2088 阅读 · 0 评论 -
(imdb数据集)电影评论分类实战:二分类问题
对于imdb数据集的评论分类实战# 加载imdb数据集# 25000 条训练和 25000 条测试数据# 训练集和测试集都包含 50 % 的正面评论和 50 % 的负面评论。# 已经经历过预处理,评论,单词序列已经转化为整数序列。# 加载数据:训练数据、训练标签;测试数据、测试标签。# num _words = 10000 :保留训练数据中前 10000 个最常出现的单词,低频单词将被舍弃。这样得到的向量数据不会太大,便于处理。......原创 2022-08-04 15:35:04 · 1631 阅读 · 0 评论 -
文本分类算法TextCNN
TextCNN是在2014年,由韩国人YoonKim于2014年在“ConvolutionalNeuralNetworksforSentenceClassification”一文中提出的算法。整体结构一层卷积,一层最大值池化,最后将输出外接softmax来进行n分类。因为网络结构简单所以参数数目较少,计算量少,训练速度快。这是TextCNN的优势。第一层(WordEmbedding构建词向量)首先需要将输入语句进行分词,之后将每个词都映射成相应词向量。即词语数值化,方便后续处理。......原创 2022-07-22 15:28:35 · 1784 阅读 · 0 评论 -
激活函数介绍
激活函数是向神经网络中引入非线性因素,通过激活函数神经网络就可以拟合各种曲线(提供网络的非线性建模能力,如果没有激活函数,那么该网络仅能够表达线性映射)。激活函数主要分为饱和激活函数(SaturatedNeurons)和非饱和函数(One-sidedSaturations)。Sigmoid和Tanh是饱和激活函数,而ReLU以及其变种为非饱和激活函数。非饱和激活函数主要有如下优势1、非饱和激活函数可以解决梯度消失问题。2、非饱和激活函数可以加速收敛。............原创 2022-07-20 14:37:34 · 900 阅读 · 0 评论 -
实现mnist手写数字识别
二、一些注意问题2-1、网络构建方式可以是(通过构建器创建):也可以是(通过add方法构建):2-2、确定模型输入数据的规格第一层需要通过参数传递告知模型数据规格,后边的层不需要,因为可以自动的根据第一层的输出进行推导。通过input_shape参数:也可以通过input_dim参数设定,和上边的含义类似:注意:input_shape=(28✖28,)代表的是输入的数据是28✖28维的一阶向量。input_shape的格式是元组,所以必须写为(28*28,)这种形式。参考文章:通过Sequ原创 2022-06-21 18:43:08 · 831 阅读 · 0 评论 -
从RNN、LSTM到GRU的介绍
循环神经网络(RNN),长短期记忆网络(LSTM),门限循环单元(GRU)。RNN原理:神经网络模块A,读取到某个输入x,并且输出一个值h,循环可以使得信息可以从当前一步传到下一步。RNN本质上是与序列和列表相关的。展开来看,RNN可以被看做是同一神经网络的多次复制,每一个神经网络模块都会把信息传递给下一个。展开上图的循环可以得到:注意:每一个神经网络模块所用的权重参数都是共享的,即权重共享。RNN的缺点:1、受到短时记忆的影响,如果一条序列足够长,那它们将很难将信息从较早的时间步传送到后面的时间步,原创 2022-06-15 15:24:26 · 1005 阅读 · 2 评论 -
【超详细】【原理篇&实战篇】一文读懂Transformer
Transformer是一种用于自然语言处理(NLP)和其他序列到序列(sequence-to-sequence)任务的深度学习模型架构,它在2017年由Vaswani等人首次提出。Transformer架构引入了自注意力机制(self-attention mechanism),这是一个关键的创新,使其在处理序列数据时表现出色。原创 2021-11-02 16:48:11 · 485321 阅读 · 61 评论 -
GCN图卷积网络笔记
GCN(Graph Convolutional Network)图卷积网络笔记一、CNN和GCN?1、处理数据结构不同2、特征提取2.1 卷积特征提取2.1 空域方法2.1 频域方法二、图卷积理论基础1、图的拉普拉斯矩阵1.1 傅立叶变换2、这两种变换的关系3、GCN最重要的结论三、图卷积1、傅里叶与卷积的性质2、图的傅立叶变换的矩阵形式3、图卷积4、图卷积网络5、卷积层公式6、图卷积网络公式结语:一、CNN和GCN?1、处理数据结构不同CNN处理的数据是矩阵形式。GCN处理的数据是拓扑结构(图结构原创 2021-09-26 11:57:42 · 1170 阅读 · 0 评论 -
深度学习基础知识
深度学习基础知识一、什么是归一化,它与标准化的区别是什么?二、请问人工神经网络中为什么RELU要好于tanh和Simoid?三、什么样的数据集不适合用深度学习?四、如何缓解梯度消失和梯度爆炸?五、简单说说CNN常用的几个模型六、如何确定是否出现梯度爆炸七、请阐述卷积神经网络CNN的基本原理。八、CNN究竟是怎样一步步工作的?九、当神经网络调参效果不好时,从哪些角度思考?十、通俗理解BN(Batch Normalization)?十一、如何理解反向传播算法?一、什么是归一化,它与标准化的区别是什么?二、请原创 2021-08-06 13:12:56 · 439 阅读 · 0 评论 -
categorical_crossentropy与sparse_categorical_crossentropy的区别
交叉熵损失(categorical_crossentropy)和稀疏交叉熵损失(sparse_categorical_crossentropy)的用法交叉熵损失稀疏交叉熵交叉熵损失如果使用到了one-hot编码,则使用的就是交叉熵损失。稀疏交叉熵一般情况下使用的都是稀疏交叉熵。...原创 2021-07-15 08:57:44 · 418 阅读 · 0 评论