- 博客(8)
- 收藏
- 关注
原创 深度学习项目实战——基于bert的情感分析预测项目
Bert的原理这里有讲,懂了原理以后这个项目就是“小菜一碟”这个项目是根据hotel评价的项目,数据集类似于这样,(你可以参考这个自己去kaggle,paperwithcode,github找一些其他数据集,外卖评价啊景点评价啊都一个原理)其中“,”前的1是好评,0是差评,后边是评价这个项目就是根据这些评价,来预测这是好评还是差评的预测,高级一点说,也就是情感预测。
2025-03-20 23:53:14
982
原创 深度学习自然语言处理(NLP)基础——自注意力机制原理详解、Transformer、BERT、RNN等
NLP(自然语言处理)定义:NLP 是人工智能的一个分支,致力于让计算机理解、处理和生成人类语言。任务文本分类(如情感分析)机器翻译问答系统文本生成命名实体识别等等。技术发展早期:基于规则的方法(如正则表达式、语法分析)。中期:基于统计的方法(如隐马尔可夫模型、条件随机场)。现代:基于深度学习的方法(如 RNN、LSTM、Transformer)。定义:Transformer 是一种基于 自注意力机制(Self-Attention)。
2025-03-14 21:45:08
985
原创 深度学习卷积CNN——Alexnet、VggNet、ResNet经典模型讲解等
通俗来讲,就是当今现在最牛叉模型SOTA(State of the Art)模型指的是在某一特定领域或任务中,当前表现最优、代表着该领域最高水平和最新技术发展状况的算法或模型。例如在图像识别领域中准确率最高的卷积神经网络,自然语言处理领域里理解能力最强的语言模型如 GPT 系列等。高性能指标:在公认的测试集上能取得最高的跑分等性能表现,如在 ImageNet 图像分类任务中准确率突破较高水平。创新性:会提出新方法,如改进模型架构或训练技巧,像 Transformer 架构就颠覆了传统的 RNN 架构。
2025-03-03 21:41:32
1380
原创 深度学习——分类任务基础原理 及 卷积 基础原理
Padding 指的是在进行卷积操作之前,在输入数据(如图片、特征图)的边界周围添加额外元素的过程。这些额外元素可以是零(零填充,Zero-padding),也可以是其他特定的值,具体取决于使用的填充策略。
2025-03-01 21:24:57
1339
原创 深度学习,关于batchsize的一些讲解
背后原理就其实是对于batchsize里的每个x和y对应的loss函数表达式里的参数求偏导,算出梯度,将这组里的所有梯度求平均,再套入公式 每个参数减去学习率*平均偏导 这样更新。
2025-02-28 10:07:17
222
原创 深度学习项目——关于疫情人数预测的回归项目实战
首先我们先定义一个类,这个类一般有三个函数,在 PyTorch 中,自定义数据集类通常继承自,一般需要实现__init__和__len__这三个方法(规定死的)data = np.array(csv_data[1:]) # 1: 第一行后面的if mode == "train": # 训练数据逢5选4, 记录他们的所在行elif mode == "val": # 验证数据逢5选1, 记录他们的所在列col_idx = [i for i in range(0,93)] # 若全选,则选中所有列。
2025-02-26 21:34:13
545
原创 深度学习项目实战——基于线性回归实现一个简单的深度学习神经网络模型
我们现在共有4个维度的数据,比如说一个手机的颜值、性能、颜色、大小,我们来根据这四个维度的数据想要来推测一个手机的价格。假设现在这四个维度的数据和手机价格满足某种线性关系,我们要通过深度学习来预测这种线性关系。如图所以y = w1x1 + b1 + w2x2 + b2 + w3x3 + b3 + w4x4 + b4即y = w1x1 + w2x2 + w3x3 + w4x4 + b(所有常数合为一个b)其实我们可以表示为矩阵运算的,假设有500组数据。
2025-02-17 21:26:45
799
原创 深度学习的基本原理之一(基于最简单的线性回归讲解)
线性回归模型的表达式为,其中 X是输入特征(假设为一维,即一个简单的神经元,若为多维则 X是向量,这里原理相同), w是权重参数, b是偏置参数, y^是模型的预测值。(Loss函数实际就是我们模型预测出来的值y^和实际y的差值的平均值)对于Loss函数来说,输入X和标签Y都是已知的客观的,可以被当作常数,把w和b看作变量来进行更新,以使得我们的loss函数的值越来越小,所以我们要求w和b的偏导数,然后向着loss会减小的地方进行更新w、b。
2025-02-15 19:25:39
273
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人