
深度学习
文章平均质量分 94
从零开始的奋豆
一名大学生
展开
-
深度学习(十一):YOLOv9之最新的目标检测器解读
在追求最佳实时物体检测的过程中,YOLOv9 以其创新的方法克服了深度神经网络固有的信息丢失难题,脱颖而出。通过整合 PGI 和多功能 GELAN 架构,YOLOv9 不仅增强了模型的学习能力,还确保了在整个检测过程中保留关键信息,从而实现了卓越的准确性和性能。原创 2024-03-12 23:50:17 · 2680 阅读 · 1 评论 -
深度学习(十):MFTN多模态融合
多模态情感分析(Moglobal et al.,2011;Zadeh等人,2016 b;Jiang et al.,2015)是情感计算研究的一个越来越受欢迎的领域(Escherichet al.,2017年),专注于将基于文本的情感分析推广到固执己见的视频,其中存在三种沟通方式:语言(口语),视觉(手势)和声学(语音)。如图所示,“这部电影很恶心”的话语本身可能是模糊的(积极或消极的),但如果说话者同时也在微笑,那么它将被视为积极的。另一方面,同样的话语与皱眉将被视为负面的。原创 2023-12-27 20:53:01 · 1824 阅读 · 0 评论 -
深度学习(九):bert之代码实现
处理的过程包括:将标签移动到指定的设备,将数据传递给模型得到预测结果,将预测结果的最大值的索引作为预测的类别,然后将预测结果和标签转换为列表,最后添加到总的预测结果和真实标签中。这些参数包括训练、验证和测试数据的文件路径,BERT预训练模型的路径,分类的数量,最大文本长度,批次大小,训练周期数,学习率,BERT模型的过滤器数量,以及最佳模型和最后模型的保存路径。处理的过程包括:将标签移动到指定的设备,将数据传递给模型得到预测结果,计算损失,清空优化器的梯度,反向传播,更新参数,累加损失。原创 2023-12-26 13:26:02 · 1883 阅读 · 1 评论 -
深度学习(七):bert理解之输入形式
因此,预训练的BERT模型只需添加一个额外的输出层,就可以用于各种任务,如问答和语言推理,而无需进行大量的任务特定架构修改。为了使得BERT模型适应下游的任务(比如说分类任务,以及句子关系QA的任务),输入将被改造成[CLS]+句子A(+[SEP]+句子B+[SEP]) 其中。在BERT中,输入的向量是由三种不同的embedding求和而成,在以下所举的例子中,每个单词都表示为一个768维的向量。1.[CLS]: 代表的是分类任务的特殊token,它的输出就是模型的pooler output。原创 2023-12-23 20:43:08 · 3400 阅读 · 0 评论 -
深度学习(八):bert理解之transformer
transformer 是一种深度学习模型,主要用于处理序列数据,如自然语言处理任务。它在 2017 年由 Vaswani 等人在论文 “Attention is All You Need” 中提出。Transformer 的主要特点是它完全放弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),而是完全依赖于注意力机制(Attention Mechanism)来捕捉输入序列中的模式。原创 2023-12-23 21:27:04 · 2000 阅读 · 0 评论 -
深度学习(六):paddleOCR理解及识别手写体,手写公式,表格
光学字符识别(Optical Character Recognition, OCR),ORC是指对包含文本资料的图像文件进行分析识别处理,获取文字及版面信息的技术,检测图像中的文本资料,并且识别出文本的内容。那么有哪些应用场景呢?其实我们日常生活中处处都有ocr的影子,比如在疫情期间身份证识别录入信息、车辆车牌号识别、自动驾驶等。我们的生活中,机器学习已经越来越多的扮演着重要角色,也不再是神秘的东西。OCR的技术路线是什么呢?ocr的运行方式:输入->图像预处理->文字检测->文本识别->输出。原创 2023-12-06 23:48:59 · 8555 阅读 · 9 评论 -
深度学习(五):pytorch迁移学习之resnet50
迁移学习是一种机器学习方法,它通过将已经在一个任务上学习到的知识应用到另一个相关任务上,来改善模型的性能。迁移学习可以解决数据不足或标注困难的问题,同时可以加快模型的训练速度。迁移学习的核心思想是将源领域的知识迁移到目标领域中。源领域是已经有大量标注数据的领域,而目标领域是需要解决的新问题。通过迁移学习,源领域的知识可以帮助目标领域的学习过程,提高模型的泛化能力和性能。迁移学习可以通过多种方式实现,包括特征提取、模型微调和领域自适应等方法。原创 2023-12-04 21:10:09 · 12445 阅读 · 1 评论 -
深度学习(四):pytorch搭建GAN(对抗网络)
生成对抗网络(GAN)是一种深度学习模型,由两个网络组成:生成器(Generator)和判别器(Discriminator)。生成器负责生成假数据,而判别器则负责判断数据是真实的还是 fake的。这两个网络互相竞争,生成器试图生成更真实的数据以欺骗判别器,而判别器则试图更好地识别生成的数据。GAN 的基本思想是:通过训练生成器和判别器,使得生成器能够生成与真实数据非常相似的数据,同时使得判别器能够更有效地识别这些数据。原创 2023-12-02 22:17:55 · 2875 阅读 · 1 评论 -
深度学习(三):pytorch搭建卷积神经网络
这行代码是用来选择设备的,根据是否有可用的 CUDA 设备来选择使用 GPU 还是 CPU 进行计算。:这个函数用来检查是否有可用的 CUDA 设备。如果返回True,表示有可用的 CUDA 设备;如果返回False,表示没有可用的 CUDA 设备。"cuda:0"和"cpu":这是设备的标识符。"cuda:0"表示选择第一个可用的 CUDA 设备,而"cpu"表示选择 CPU 设备。:这是一个用来表示设备的类。通过传入设备标识符,可以创建一个设备对象。原创 2023-11-30 23:31:31 · 1867 阅读 · 0 评论 -
深度学习(二):pytorch基础知识
PyTorch允许用户创建自定义损失函数和神经网络层,以满足特定的任务需求。在PyTorch中,可以通过继承类来自定义神经网络层。在类中,需要实现forward()方法,该方法定义了层的行为。可以通过在类中定义参数和权重来构建可训练的层。# 定义自定义损失函数# 在这里实现自定义损失函数# 定义神经网络层# 在这里定义层中的参数和权重# 在这里定义层的行为# 初始化自定义损失函数和神经网络层# 定义输入和目标张量# 计算自定义损失函数# 打印损失值。原创 2023-11-29 19:47:30 · 1455 阅读 · 0 评论 -
深度学习(一):Pytorch之YOLOv8目标检测
YOLOv8原创 2023-11-29 16:17:51 · 4014 阅读 · 0 评论