自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(290)
  • 资源 (2)
  • 收藏
  • 关注

原创 video2gif-软件

https://www.video2edit.com/zh/result#j=a1e87457-6aff-45f2-b43e-4f2390d7726ahttps://www.freeconvert.com/convert/video-to-gif/download

2024-08-10 17:26:22 631

原创 大语言模型生成无人系统(如机械臂、无人机等)可以执行的指令序列

大语言模型生成无人系统(如机械臂、无人机等)可以执行的指令序列涉及将自然语言指令转化为具体的、可执行的指令集合。以下是一个详细的流程,展示了如何从自然语言指令生成无人系统的执行指令序列。

2024-08-09 16:24:51 1276

原创 自然语言处理领域介绍及其发展历史

自动的理解人类语言的技术。

2024-07-04 14:20:54 352

原创 智慧语音助手学习

近年来,随着深度学习技术的发展,特别是序列标注任务(如基于条件随机场的序列标注)和预训练语言模型(如BERT、GPT等),槽位填充在对话系统中的精度和效率有了显著提升。这个技术路线图涵盖了基于大模型的语音助理系统开发的主要步骤和关键技术,帮助产品经理规划和管理整个开发过程,确保系统能够按照预期功能和性能要求进行实现和部署。:根据填充的槽位和识别的意图,决定系统如何响应用户,可能涉及到后续的询问、确认或直接操作后端服务。:填充识别出的槽位,将其具体的值提取出来,并与系统的后端服务进行集成,以完成用户的请求。

2024-06-24 14:37:36 1307

原创 深度学习-注意力机制和分数

注意力机制源于对人类视觉的研究,描述了人类在处理大量信息时,会选择性地关注某些信息而忽略其他信息的过程。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,这种机制被称为注意力机制。注意力机制是一种强大的工具,它通过模拟人类处理信息的方式,帮助深度学习模型更加高效地处理大量数据。随着研究的深入,注意力机制在各个领域的应用也将越来越广泛。注意力分数在注意力机制中扮演着关键角色,它决定了模型在处理信息时对不同部分的关注程度。

2024-06-12 07:59:36 1305 4

原创 深度学习-语言模型

语言模型的核心思想是通过对大量文本数据的训练,学习到语言的统计规律,进而能够预测下一个词或序列的概率。序列模型是一类用于处理序列数据的模型,这些序列数据可以是离散的(如文本、时间序列上的符号)或连续的(如股票价格、传感器数据)。:虽然两者都使用概率作为评估指标,但语言模型通常使用困惑度(Perplexity)来评估模型在测试集上的性能,而序列模型则可能使用不同的评估指标,如准确率、召回率、F1分数等。:序列模型是一个更通用的概念,它涵盖了所有处理序列数据的模型,包括但不限于文本数据。

2024-05-29 08:20:54 2048 1

原创 深度学习-序列模型

序列模型是输入输出均为序列数据的模型,它能够将输入序列数据转换为目标序列数据。常见的序列模型类型包括一对一、一对多、多对一、部分多对多和完全多对多。序列模型是一种强大的工具,能够处理各种序列数据并生成有用的输出。随着深度学习技术的不断发展,序列模型在自然语言处理、语音识别等领域的应用越来越广泛,并持续推动着这些领域的发展。

2024-05-28 08:20:48 1678 1

原创 智能时代下,人机交互和虚拟现实的机遇和挑战

人机交互的本质解决什么问题:以前提升人和系统交互的效率,目前人工智能越来越强,人需要影响的因素越来越小,后面还是不是来提高人利用系统的效率,而是通过人机交互来提升用户本身的情感抚慰。主流代表性产品,都需要后端大模型支持,把人的智能和机器智能融合起来。比尔盖茨:第一个惊喜是图形学界面,第二个是ai agent。人机交互为中心来看,下一代的人机协同,解决不确定的问题。把人类智能和机器智能结合起来。人机交互作为一个大方向,2019年以后是协同共进。

2024-05-28 08:08:27 489

原创 深度学习模型

深度学习网络模型是人工智能领域的重要分支,它通过模拟人脑神经网络的工作方式来处理数据并识别模式。以上是深度学习网络模型的一些主要类型及其特点。这些模型在各自的领域内取得了显著成果,推动了深度学习技术的发展。

2024-05-27 08:39:57 700

原创 深度学习-样式迁移

样式迁移(Neural Style Transfer)是计算机视觉领域中的一项技术,它允许用户将一张图片(样式图片)的风格迁移到另一张图片(内容图片)上,从而生成一张融合了两种图片特征的新图片。

2024-05-27 08:18:48 398

原创 深度学习-转置卷积

转置卷积(Transposed Convolution),也被称为反卷积(Deconvolution),是深度学习中的一种操作,特别是在卷积神经网络(CNN)中。它可以将一个低维度的特征图(如卷积层的输出)转换为更高维度的特征图(如上一层的输入),从而实现了上采样或反卷积的效果。在图像分割任务中,转置卷积可以用于在解码器中恢复原先的尺寸,从而对原图中的每个像素进行分类。与传统的上采样方法相比,转置卷积的上采样方式并非预设的插值方法,而是具有可学习的参数,可以通过网络学习来获取最优的上采样方式。

2024-05-24 08:13:26 667

原创 计算机视觉中-语义分割

与图像分类(为整个图像分配一个标签)和目标检测(识别和定位图像中的目标)不同,语义分割要求算法对图像进行更精细的理解,以区分同一类别中的不同对象实例(这通常被称为实例分割,但语义分割通常不考虑实例级别的区分)。语义分割是计算机视觉中的一个关键技术,它涉及对图像中的每个像素进行类别划分,从而识别出图像中的不同物体或区域。具体来说,语义分割就是按照“语义”给图像上目标类别中的每一点打上一个标签,使得不同种类的东西在图像上被区分开来,可以理解为像素级别的分类任务。这些标签用于指示图像中每个像素所属的类别。

2024-05-23 08:56:36 2185 1

原创 物体检测算法-R-CNN,SSD,YOLO

目标检测算法主要分为两个类型(1)two-stage方法,如R-CNN系算法(region-based CNN),其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高。

2024-05-22 08:33:56 2410 1

原创 循环神经网络-序列数据

循环神经网络-序列数据

2024-04-18 00:45:00 211

原创 深度学习需要做的事情

深度学习网络的训练和优化涉及多个方面,包括网络设计、数据准备、特征提取、调参等。虽然调参是优化模型性能的关键步骤之一,但网络的设计和数据的准备同样重要。综合考虑所有这些因素,才能构建高性能和泛化能力强的深度学习模型。因此,深度学习网络并不仅仅是调参,而是一个涉及多个环节的复杂过程。

2024-04-10 00:45:00 938

原创 卷积神经网络-ResNet

ResNet(Residual Network)是由Kaiming He等人在2015年提出的一个深度学习模型架构,它通过引入残差连接(Residual Connection)来解决深度神经网络训练过程中的梯度消失和梯度爆炸问题。ResNet在ImageNet图像识别挑战赛上取得了非常好的成绩,并且被广泛应用于各种计算机视觉任务。ResNet有几个不同版本,如ResNet-18、ResNet-34、ResNet-50、ResNet-101和ResNet-152等,它们的主要区别在于网络的深度和参数数量。

2024-04-09 00:30:00 978

原创 卷积神经网络-批量归一化

批量归一化是一种非常有效的深度学习技术,能够加速模型训练、增强模型稳定性和允许构建更深的网络。在实际应用中,批量归一化已成为许多深度神经网络架构的标准组件。

2024-04-07 18:15:00 1235

原创 GoogleLeNet-含并行连接的网络

GoogleLeNet(Inception v1)是一个创新的深度卷积神经网络模型,它通过引入“Inception模块”和多尺度特征提取的策略,显著提高了模型的参数效率、计算效率和分类准确率。GoogleLeNet的成功不仅证明了深度学习在计算机视觉领域的强大潜力,而且也为后续更深、更复杂的卷积神经网络模型(如Inception v2、Inception v3、Inception v4等)的研究和应用提供了有益的启示。

2024-04-05 01:45:00 921

原创 卷积神经网络(CNN)的发展经历了多个阶段和里程碑式的模型

卷积神经网络从LeNet-5到自适应卷积网络,经历了多个重要的发展阶段,形式逐渐丰富和复杂。这些模型不仅在图像分类、物体检。卷积神经网络(CNN)的发展经历了多个阶段和里程碑式的模型。

2024-04-04 11:27:21 2465

原创 网络中的网络-NiN

NiN是一个创新的深度卷积神经网络模型,它通过引入“网络中的网络”概念和1x1的卷积核设计,显著提高了模型的非线性能力、特征提取能力和参数效率。NiN的成功证明了深度学习在计算机视觉领域的进一步潜力,并为后续更深、更复杂的卷积神经网络模型的研究和应用提供了有益的启示。

2024-04-04 11:05:39 567

原创 VGG网络模型

VGG是一个经典的深度卷积神经网络模型,它的简单统一的网络结构和深度的网络层次使得它在图像分类任务上取得了优秀的性能。虽然VGG模型的参数较多,计算量较大,但它为深度卷积神经网络的发展和应用奠定了坚实的基础。VGG和AlexNet都是在ImageNet大规模视觉识别挑战赛(ILSVRC)中取得突破性成果的深度卷积神经网络模型。VGG和AlexNet都是深度学习在计算机视觉领域的重要里程碑,它们共同推动了深度学习在图像分类、物体检测和物体定位等任务上的快速发展。

2024-04-04 10:21:01 2159

原创 AlexNet网络模型

AlexNet 是深度学习历史上的一个重要里程碑,它的成功证明了深度卷积神经网络在计算机视觉任务上的巨大潜力。其后,更深、更复杂的网络架构也在不断出现,但 AlexNet 为深度学习和计算机视觉领域的发展奠定了坚实的基础。ImageNet 是一个大规模视觉识别挑战赛(ILSVRC)的数据集,也是一个计算机视觉领域的重要基准测试集。ImageNet 数据集包含超过一百万张标注图像,涵盖了一千个不同类别的物体。该数据集用于评估和比较各种图像分类、目标检测和物体定位算法的性能。

2024-04-04 08:24:24 991

原创 卷积层+多个输入通道

在深度学习中,卷积神经网络(CNN)通常用于处理具有多个输入通道的数据。当输入数据具有多个通道(例如彩色图像的RGB通道)时,卷积操作可以同时在每个通道上进行,并将各通道的结果相加,从而得到单个输出特征图。

2024-04-01 22:01:51 225

原创 卷积神经网络-池化层

池化层(Pooling Layer)是深度学习神经网络中的一个重要组成部分,通常用于减少特征图的空间尺寸,从而降低模型复杂度和计算量,同时还能增强模型的不变性和鲁棒性。池化层在CNN中起到了非常重要的作用,可以有效地减少模型的复杂度,提高模型的计算效率,并增强模型对输入数据的不变性和鲁棒性。例如,一个2x2的最大池化层会将每个2x2的方块区域中的4个值中的最大值作为一个单独的值输出到下一层。通过减少特征图的空间尺寸,可以减少模型的参数数量和计算量,从而加速模型的训练和推理过程。

2024-04-01 21:59:33 1759

原创 卷积神经网络-卷积层

虽然深度学习领域已经涌现出许多新的模型和技术,但多层感知机(MLP)仍然在某些特定的应用和场景中保持其重要地位。选择使用MLP还是其他深度学习模型取决于具体的任务需求、数据类型和应用场景。在实际应用中,人们会根据问题的复杂性和数据的性质来选择最合适的模型。全连接层和卷积层在深度学习中各有其独特的应用和特性。它们可以结合使用,通过卷积层提取特征,然后通过全连接层进行分类或回归,构建有效的深度学习模型。

2024-03-24 21:30:00 3329

原创 深度学习

深度学习是一个涵盖了多种神经网络模型、优化算法、正则化技术以及相关工具和库的广泛领域,它在计算机视觉、自然语言处理、强化学习等多个领域都有着广泛的应用。深度学习是机器学习的一个分支,它主要基于人工神经网络,特别是深层神经网络进行学习和训练。

2024-03-24 11:33:58 532

原创 AI+数值稳定性

一些激活函数,如ReLU(Rectified Linear Unit),可以在一定程度上缓解梯度爆炸的问题,因为它们能够将负值梯度置为零,减少了梯度的传播。选择一些不容易出现梯度消失的激活函数,如ReLU、Leaky ReLU、ELU等,这些激活函数在某些区域具有较大的梯度,能够有效地缓解梯度消失的问题。在反向传播过程中,限制梯度的范围,防止其超出一个合理的范围。合适的参数初始化方法,如Xavier初始化或He初始化,可以使得参数的初始值更接近于合理的范围,减少梯度消失的风险。对于负数输入,输出为0。

2024-03-23 12:53:43 914

原创 AI+权重衰退

权重衰退通过向模型的损失函数添加一个正则化项,惩罚模型中较大的权重值,使得模型倾向于学习到更简单的模式,从而提高泛化能力。具体而言,权重衰退通过在损失函数中添加一个项来实现,该项是权重的平方和与一个调整参数的乘积,通常表示为λ∥w∥²,其中w表示模型的权重,λ是一个调整参数,用于控制正则化的强度。总而言之,AI+权重衰退是一种用于减少过拟合风险的常见技术,通过在损失函数中引入正则化项来惩罚模型中较大的权重值,使模型更具有泛化能力。在实际应用中,可以根据数据的特点和模型的需求选择合适的正则化方法。

2024-03-17 18:45:00 888

原创 ai+模型选择+过拟合和欠拟合

验证数据集是用来选择模型超参数的,训练数据集是用来训练模型参数的非大型数据集上通常使用k-折交叉验证。

2024-03-10 21:00:00 821

原创 深度学习+感知机

感知机是一个二分类模型,是最早的AI模型之一。它的求解算法等价于使用批量大小为1的梯度下降。它不能拟合 XOR函数,导致的第一次 A寒冬。多层感知机(MLP,Multilayer Perceptron)是一种人工神经网络(ANN,Artificial Neural Network)。它除了输入输出层之外,中间可以有多个隐藏层,其中最简单的多层感知机结构仅包含一个隐藏层,形成三层的网络结构。多层感知机的核心特性在于其层与层之间的全连接性,即每一层的每一个节点都与下一层的每一个节点连接。

2024-03-09 21:45:00 1384 1

原创 深度学习-Softmax 回归 + 损失函数 + 图片分类数据集

交叉熵损失对于分类问题而言,是一种常见且有效的选择,尤其与softmax激活函数结合使用,因为它可以自然地惩罚模型对正确类别的不确定性。它被认为是计算机视觉领域中的 “Hello World”,因为它是一个相对简单但足够复杂的问题,可以用于验证和比较不同模型的性能。这种任务是一个经典的图像分类问题,可以使用各种深度学习模型,如卷积神经网络(CNN),来解决。叉熵损失函数(Cross-Entropy Loss)是在分类问题中常用的损失函数,特别是在深度学习任务中。数据读取速度要比模型训练速度块。

2024-03-03 21:33:45 1840

原创 深度学习的一个完整过程通常包括以下几个步骤

这些步骤形成了深度学习项目的一个迭代过程,通常需要不断的调整和改进。在整个过程中,良好的文档记录和实验管理是非常重要的,以便追溯模型的训练历史、超参数的选择等信息。

2024-03-03 16:50:13 3005

原创 3.2日-线性模型,基础优化方法,线性回归从零开始实现

梯度下降是一种优化算法,常用于机器学习和深度学习中,用于最小化或最大化函数。在机器学习中,梯度下降通常用于最小化损失函数,以调整模型参数使其更好地拟合训练数据。梯度: 函数的梯度是该函数在某一点上的导数,表示函数在该点上的变化率。对于多变量函数,梯度是一个向量,指向函数在该点上变化最快的方向。目标函数: 在机器学习中,我们通常有一个目标函数(也称为损失函数),它是模型参数的函数,描述了模型预测与实际观测之间的差距。参数调整: 我们希望通过调整模型的参数来最小化目标函数。

2024-03-02 23:45:00 642

原创 深度学习介绍

自然语言处理是感知的范围,人几秒内科研感知。2017年就可以做到5%以内。

2024-02-20 23:45:00 525

原创 3-数据操作

数据操作1 N维组样例2 创建数组3 访问元素4 数据操作实现5 数据预处理1 N维组样例2 创建数组3 访问元素4 数据操作实现5 数据预处理

2024-02-20 23:45:00 261

原创 真实感渲染的非正式调研与近期热门研究分享

这是最好的时代,最坏的时代

2023-10-29 11:14:39 289

原创 实践-CNN卷积层

训练一个网络需要2-3天的时间。用经典网络来,一些细节没有必要去扣。过拟合了,先调数据,再调模型。根据网络结构来写就可以了。

2023-08-14 11:18:47 808 1

原创 实践-传统深度学习

TensorFlow:每一步都需要自己做。Keras:做起来更轻松。任务简单化。构建代码中使用起来是不一样的。Caffe适合做图像识别,只有卷积网络,不适合自然语言处理,更新的慢,很多网络没有。TensorFlow:所有的东西亲力亲为。Keras:用起来简单,上手非常快。用TensorFlow当做他执行的一个后端。

2023-08-14 10:20:52 904

原创 卷积神经网络CNN

特征提取传统神经网络:参数矩阵很大,训练时间长,怎么样提特征是最好的方法。

2023-08-12 15:39:48 683

原创 深度学习基础知识笔记

损失函数是怎么定义的,网络是不会变的,不同的任务损失函数是不一样的。w权重矩阵,是优化来的,什么样的w适合做当前的人物。挑战:照射角度,形状改变,部分遮挡,背景混入。套路:收集数据给定标签,训练分类器,测试评估。移动端-计算量太大,速度慢,卡。损失函数既能做分类又能做回归的。缺点过于强大了,否则过拟合了。参数:成千上百万的。

2023-08-12 09:18:24 848

VIVE_Cosmos_controller_rendermodels_bindings.zip

手柄的模型的纹理需要自己创建materil,贴纹理

2021-06-05

openGL_cube.rar

学习OpenGL,做出一个旋转的立方体,熟悉OpenGL的基本流程

2019-05-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除