自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 视觉识别详解

视觉识别是一项复杂而多样化的技术,它的核心在于通过视觉信息对图片中的内容进行分类、检测或识别。以下是对视觉识别过程的详细阐述: 图像来源:视觉识别主要应用于数字图像,包括照片、视频帧等。 预处理步骤: 尺寸调整:确保图像尺寸一致,便于后续处理。 亮度和色调调整:标准化图像的亮度和色调,以减少对模型的影响。 归一化:将图像数据转换到0-1范围内,防止数值过大或过小的问题。 边缘检测: 使用算法如Canny边缘检测法,提取图像的边缘信息,有助于识别物体

2025-02-15 23:11:25 1435

原创 神经网络的基本构成和功能

神经网络是一种人工神经系统模拟的算法,它通过层次结构处理信息,类似于生物神经系统中的神经元之间的连接。特征提取与融合:不同层次分别提取不同级别的特征,并结合起来形成更全面的表示。定义:深度神经网络由多层神经元组成,每一层都有不同的功能,如感知、处理和决策。定义:批量处理是将一批数据同时进行推理和训练,以提高计算效率和加速训练过程。定义:神经元是神经网络的基本单元,通常由一个或多个细胞体、树突和轴突组成。输入样本:提供训练数据,包括输入特征和对应的目标(如分类标签)。

2025-02-12 00:43:15 667

原创 GPT模型的发展历程

GPT(Generative Pre-trained Transformer)系列是由 OpenAI 开发的生成式人工智能模型,自 2014 年发布 GPT-1 以来,经历了多个版本的迭代和改进。简介:OpenAI 已于 2023 年推出 GPT-4 Plus,并计划发布 GPT-5 到 GPT-7。引入了更大的模型规模(如 150B 参数)和更多的训练数据。简介:由 OpenAI 发布,基于 GPT-1 的改进版,进一步增强了生成能力。简介:GPT-5 和 GPT-6 是 OpenAI 继续发力的版本。

2025-02-12 00:26:35 488

原创 神经网络的训练过程详解

首先,我们需要定义一个神经网络的结构,比如输入层有2个神经元,隐藏层有3个神经元,输出层有1个神经元。使用验证集评估模型性能,若表现不佳,可能需要调整网络结构、激活函数或损失函数。选择适合的优化算法,如随机梯度下降(SGD)、动量方法(SGM)、Adam等,调整学习率和其他超参数。损失函数根据任务类型选择,比如交叉熵损失用于分类任务,均方误差用于回归任务。传统上,神经网络处理单个样本,但现代框架支持批量计算,可提高训练效率。根据损失函数计算参数梯度,并更新权重和偏置,以最小化损失。

2025-02-10 00:19:30 988

原创 循环神经网络(RNN)

它的核心在于通过循环结构和状态记忆,捕捉输入序列中的时间依赖关系,使得模型能够生成或预测序列的下一个元素。在训练RNN时,由于长时间依赖关系的存在,可能导致梯度无法有效传播,影响模型收敛。在现有的深度学习框架中,通常支持批量计算,这可以加快训练速度,并提高训练稳定性。RNN的核心在于通过隐藏层传递状态信息,使得模型能够记住之前的信息。在缺乏标注数据的情况下,RNN的性能可能会受到显著影响。选择适当的优化算法,如Adam、SGD、 RMSProp等,根据具体任务调整学习率和其他参数,以加速训练收敛。

2025-02-10 00:04:54 448

原创 Transformer

自注意力子层通过计算词与词之间的相关性矩阵,捕捉词语间的依赖关系,然后将这些信息加总得到新的表示。编码器负责将输入序列转换为一个连续的表示形式,而解码器则根据这个表示生成目标语言的序列。解码器与编码器相似,但它的目标是从源语言的连续表示生成目标语言的连续序列。同样,每层包含自注意力子层和前馈神经网络,解码器需要处理目标语言的位置信息,以生成合适的标记。接受源语言的中间表示,并结合目标语言的位置信息(如词位索引)进行自注意力处理。同样由自注意力和前馈神经网络组成,但需要处理目标语言的位置信息。

2025-02-09 23:52:30 429

原创 AI大模型的发展

大模型(Large Language Model,LLM)是基于深度学习技术训练的生成型人工智能模型,如GPT系列。2020年至今:随着计算能力的提升,参数规模大幅扩展,如GPT-3、Claude 2等,大模型逐渐走向成熟。2014年:BERT和GPT:这些模型采用了 Transformer架构,将自然语言处理任务推向新的高度。神经网络革命:1980年代,随着人工神经网络的兴起,模型开始使用层析结构,能够处理更复杂的任务。更高效的大模型:通过优化算法和架构设计,降低训练和运行成本。

2025-02-09 23:46:23 206

原创 图像识别:CNN

ResNet(2015):引入残差学习(Residual Learning),解决梯度消失问题,成为图像识别领域的标志性模型。深度结构:通过多个卷积层和池化层,CNN能够逐步提取图像中的低级特征(如边缘)到高级特征(如对象形状)。VGGNet(2014):通过使用更深的网络结构(如16层或19层),进一步提升了性能。池化层:将卷积层的输出进行下采样,减少计算量,同时捕捉图像的位置不变性特征。卷积层:使用小尺寸的卷积核(如3x3)过滤图像,将局部信息提取。图像分割:将图像分成具有意义的区域(如人体部分)。

2025-02-09 23:40:27 374

原创 GO语言的指针

在 Go 语言中,指针 是一种强类型,并且它是内存访问的一种基础工具。通过使用指针,可以直接操作内存地址,从而实现高效的数据操作和灵活的内存管理。Go:Go 语言提供了类似于指针的结构(如 *struct),但其内存管理更为智能化,自动处理部分内存分配和释放。内存管理:Go 语言自动处理内存归档,但通过手动分配和释放指针,可以实现更高效的内存管理,尤其是在性能敏感的应用中。直接访问内存:通过指针,可以直接读取和写入内存,实现高效的数据操作,尤其是在处理大型数据时。// 初始化指针,并分配内存。

2025-02-09 23:30:22 247

原创 深度学习的诞生和发展

1986年: Geoffrey Hinton、David Rumsey和Teuvo Kohonen等科学家在《Nature》杂志上发表了一篇名为“Neural networks and physical systems with Emergent Collective Properties”(简称“神经网络与物理系统的集体属性”)的文章,强调了深度结构对学习能力的重要性。多层感知机(MLP):传统的多层感知机(MLP)模型通过逐层非线性激活函数提取特征,虽然简单但也为后来的复杂模型奠定了基础。

2025-02-09 23:22:52 539

原创 什么是AI人工智能

总的来说,AI是一个非常广泛的领域,涉及多种技术和方法,每个技术都有其独特的优势和适用场景。比如说,如果我给一个深度学习模型显示很多猫图片,它会自己识别出猫的特征,比如眼睛、鼻子和胡须,然后知道这是猫。比如,在医疗诊断中,你可能不仅要依赖深度学习模型,还需要结合医生的经验和已有的医学知识。机器学习更多的是一种方法论,而AI则是一个更广泛的领域,涵盖了多种技术,如深度学习、自然语言处理、计算机视觉等。另外,我还听说过“强化学习”,这是另一种AI技术,它通过试错和奖励机制来让模型自主学习任务。

2025-02-09 23:20:33 423

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除