自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(142)
  • 问答 (25)
  • 收藏
  • 关注

原创 数据标注软件

1.X-AnyLabeling-CPU 下载软件标注2.Makesense.ai 在线标注3.Label Studio安装使用类似jupyter notebook使用pip install label-studio -i https://pypi.doubanio.com/simple --user安装后运行:label-studio start4.labelme和 labelimg

2025-12-02 17:59:58 75

原创 卷积和池化的默认取整规则一致:均为向下取整

卷积和池化的输出尺寸取整规则:均为向下取整。

2025-11-26 17:18:01 322

原创 人工智能众的 TFLOPS 和TOPS区别

*缩写全称中文翻译核心定位(一句话说清)TFLOPS每秒万亿次浮点运算仅衡量「浮点运算」的吞吐量(带小数的计算)TOPS每秒万亿次运算衡量「通用运算」的吞吐量(含整数、逻辑、位运算等)关键前提:两者的 “量级单位” 一致(1 T = 10¹² 万亿次 / 秒),核心差异仅在于「衡量的运算类型不同」。

2025-11-26 15:35:02 393

原创 浮点型数据分析

简称全称俗称核心定位FP16半精度高速度、省存储,精度够用场景FP32单精度平衡精度与速度,通用场景FP64双精度 / 全精度最高精度,科研级场景注:“全精度” 是行业俗称(相对 FP16/FP32 的 “低精度 / 中精度” 而言),IEEE 754 标准中无 “全精度” 官方命名,正式名称是双精度浮点型(FP64)。场景推荐精度核心考量AI 模型训练 / 推理、游戏渲染FP16/FP32精度够用,追求速度和存储效率普通工程计算、日常编程FP32。

2025-11-26 15:28:55 241

原创 FP16 | Up to 65 TFLOPS INT8 | Up to 130 TOPS

同一硬件在不同数据格式下的性能表现——FP16 侧重 “小数精度”,INT8 侧重 “整数吞吐量”,130 TOPS 是 65 TFLOPS 的 2 倍,完全符合 “整数运算比浮点运算更简单、更快” 的硬件设计逻辑。

2025-11-26 15:22:32 549

原创 比较详细的浮点型8位、整型8位数据区别,

背景:标准 IEEE 754 浮点型无 8 位规格(最小为 16 位半精度 float16),8 位浮点型是工业界(如 AI、嵌入式)为压缩存储设计的自定义格式,核心是用 “符号位 + 指数位 + 尾数位” 表示小数。常见格式与小数位对应格式总位数符号位指数位尾数位(小数位核心)小数位含义取值范围(近似)E4M38143尾数部分共 3 位,可表示的小数精度为 \(2^{-3}=0.125\)(如 0.125、0.25 等)-120~120(步长 0.125)E5M281。

2025-11-26 15:00:05 462

原创 扩散模型迭代优化关键步骤 + 特征相似度变化表

红色连衣裙的版型(收腰 A 字)完全清晰,纯白背景无杂质,裙摆处出现模糊的蕾丝花纹,面料纹理能初步识别(如雪纺的轻薄感),整体画面干净无明显噪声。1. 蕾丝纹理的边缘特征优化,消除锯齿状噪声2. 连衣裙的褶皱特征(自然垂坠)根据面料特征补充3. 纯白背景的像素特征完全纯净,无任何杂色点。蕾丝裙摆的花纹清晰可辨,收腰的线条流畅自然,面料质感(如蕾丝的镂空感)真实,领口 / 袖口等小细节成型,仅蕾丝纹理的边缘有轻微模糊。全图是黑白 / 彩色雪花状噪声,无任何可识别的物体或颜色,纯白背景特征也未体现。

2025-11-19 20:23:08 705

原创 Stable Diffusion 商品图生成参数调优指南

颜色] 连衣裙,[材质] 面料,[版型] 版型(收腰 / 直筒 / 鱼尾),正面全身图,纯白背景,高清纹理,平铺拍摄,无褶皱,商业摄影质感,8K 分辨率,光线均匀,细节清晰。酒红色连衣裙,雪纺面料,收腰 A 字版型,正面全身图,纯白背景,高清纹理,平铺拍摄,无褶皱,商业摄影质感,8K 分辨率,光线均匀,细节清晰。模糊,变形,褶皱,水印,文字,杂乱背景,人物,阴影过重,光线昏暗,低分辨率,锯齿边缘,颜色偏差,面料反光,多余装饰,不对称。

2025-11-19 19:32:09 852

原创 文本生成图像核心步骤

1. 分辨率:基础版 1024×1024,V6 版支持 2048×2048(高清)2. 版本选择:V5(平衡)、V6(精准)、Niji(动漫专用)3. 风格指令:支持 “--style raw”(写实)、“--ar 16:9”(比例)4. 迭代次数:默认 25 步,支持 “--s 200”(高风格化)核心动作:撰写清晰文本指令(如 “鲜红色收腰连衣裙,蕾丝裙摆,淡蓝天空背景”),可添加风格(油画 / 写实)、细节(高分辨率 / 8K)、构图(半身照 / 全景)描述。Web 版无需部署)

2025-11-19 19:23:42 624

原创 BERT/ViT 模型核心参数 + 实际编码案例表

文本输入内容编码后向量(简化展示)与 “红色连衣裙” 向量的相似度核心说明红色连衣裙100%(基准)核心语义输入,作为对比基准红色的连衣裙98.2%多语气词 “的”,语义基本一致鲜红色连衣裙92.7%修饰词差异(红色→鲜红色),语义高度相似蓝色牛仔裤29.5%语义完全不同,向量差异极大红色连衣裙 夏季款94.1%新增属性词,核心语义未变图像输入内容编码后向量(简化展示)与 “红色连衣裙(正面图)” 向量的相似度核心说明红色连衣裙(正面图,224×224)

2025-11-19 11:15:27 598

原创 图像卷积操值超过了255怎么处理

在图像卷积操作中,当卷积计算结果超过 255(或低于 0,因为像素值通常在 0-255 的整数范围,对应 8 位图像)时,需要通过特定策略处理,以确保结果能正确表示为有效的像素值。

2025-11-05 15:08:37 294

原创 全连接层的第二层是怎么减少神经节点数

拉平后的全连接层通过权重矩阵的维度设计(上一层节点数 × 下一层节点数,下一层节点数更少)实现节点数减少。每个下一层节点都是上一层所有节点的 “加权组合”,通过训练优化权重,在压缩维度的同时保留关键特征(如狗、猫、鸟的核心识别特征),最终实现高效且鲁棒的分类。

2025-10-31 18:19:00 730

原创 案例分析交叉熵和交叉验证区别和联系

维度交叉熵(Cross-Entropy)交叉验证(Cross-Validation)本质一种损失函数,用于量化 “预测概率分布” 与 “真实标签分布” 的差距。一种模型评估策略,通过划分数据集多次训练和验证,检验模型的泛化能力(避免过拟合)。作用阶段模型训练过程中(每次前向传播后计算,指导权重更新)。模型训练后或训练中(用于评估模型性能,选择最优参数或结构)。核心目标让模型的预测概率尽可能接近真实标签(如狗的预测概率接近 100%)。

2025-10-31 17:43:52 463

原创 模型微调实现案例分析

微调的核心是算法自动优化模型参数,但需要人工设置超参数(如学习率、冻结层等)来控制训练过程。具体步骤包括:1)准备新任务数据集;2)加载预训练模型;3)人工设定微调策略(冻结层、学习率等);4)用新数据自动训练模型(反向传播更新参数);5)保存微调后的模型。关键在于人工仅配置训练规则(超参数),模型参数由算法根据数据和超参数自动调整,实现高效迁移学习。这种"人工定规则,算法调参数"的方式体现了深度学习的自动化优势。

2025-10-31 17:09:55 429

原创 大模型微调怎么实现?当然不是人工对一些参数微小调整!

人工根据资源和任务,选择参数高效微调方法(如 LoRA、冻结微调),并设置超参数(学习率、秩等);算法利用新任务数据,通过反向传播自动优化 “待更新参数”(而非全部参数);最终得到适配新任务的模型,全程无需人工直接修改参数数值。核心仍是 “人工定策略,算法调参数”,区别仅在于大模型因参数规模特殊,需要更高效的微调方法来降低成本 —— 这也是大模型落地的关键技术之一。

2025-10-31 16:50:25 361

原创 一个图像的不同通道的灰度图像在有的地方边缘连接不是相同的

由于图像中不同物体对 R、G、B 颜色的 “贡献度” 不同(比如苹果贡献红、叶子贡献绿),导致各通道内 “像素值突变的位置、强度” 不同 —— 最终体现为 “边缘连接不同”:有的通道边缘清晰连续,有的通道边缘模糊断裂,有的通道甚至没有边缘。而 CNN 之所以要给每个通道配独立卷积核,正是为了 “分别捕捉这些不同通道的边缘信息”,再把它们组合起来,才能更全面、准确地识别物体(比如同时用 R 通道的苹果边缘和 G 通道的叶子叶脉边缘,快速区分苹果和叶子)。

2025-10-30 15:49:30 494

原创 彩色图像的R 通道 G、B 通道分别代表图像的什么?R 通道 G、B 通道本质每个像素是0-255的数。

R、G、B 通道是 “容器”,分别装着红色、绿色、蓝色分量的亮度信息(0-255 的像素值);边缘、纹理等特征是 “容器内数据的分布规律”—— 由像素值的空间变化(突变、重复等)决定;卷积核的作用是 “探测器”:通过权重设计,专门捕捉这些 “变化规律”(比如对突变敏感的核检测边缘,对重复模式敏感的核检测纹理),而不同通道的 “变化规律” 由对应通道的卷积核单独捕捉,最终组合成完整特征。简单说:通道是 “账本”,记录着红、绿、蓝的数值;

2025-10-30 15:35:44 524

原创 32×32 的彩色图片是3通道,生成的 6 个特征图

需要6个卷积核,每个卷积核是3通道,相当于每个卷积核有3个3*3矩阵,每组中的 3 个卷积核)会导致特征提取 “无差别对待”这3个3*3矩阵分别与32×32 的彩色图片是3个通道相乘,最后求和即可。具体如下:需要,每组包含 3 个卷积核(对应输入的 3 个通道),因此总卷积核数量是 6×3=18 个。

2025-10-30 15:22:05 319

原创 CNN 核心组件(节点、权重、特征)关系的可视化示意图文字说明

可以理解为:权重是 “模具”,节点是 “冲压机”,输入数据是 “原材料”,特征就是 “冲压出的零件”—— 模具(权重)决定零件形状,冲压机(节点)负责加工,原材料不同,出来的零件(特征)也不同。想象 CNN 是一个多层级的 “特征加工厂”,每一层由无数 “计算节点” 组成,节点之间通过 “带权重的连接线” 传递信号,最终从原始数据中 “榨取” 出层层递进的特征。

2025-10-30 14:55:39 517

原创 对于样本的真实标签分布(通常是 one-hot 编码,如[0,1,0])和模型预测的概率分布(如[0.2,0.7,0.1]),交叉熵计算两者的 “距离”,值越小说明预测越准确。案例分析

2025-10-29 11:33:32 217

原创 嵌入编码案例解释

将高维离散类别映射到低维稠密向量(如32维),每个类别对应一个可学习的实数向量,通过训练自动捕捉潜在关联。相似类别(如"猫""狗")的向量数值接近,在向量空间中距离更近;差异大的类别则距离较远。这种嵌入表示克服了one-hot编码的高维稀疏问题,同时保留了语义关系。典型应用于NLP词嵌入和推荐系统,通过模型优化自动学习向量数值,使32维组合能有效区分1000个类别并反映其关联性。

2025-10-28 18:03:38 1146

原创 全连接层的权重,训练时输入狗、猫、鸟的图像,特征值乘以权重获得概率与独热编码对比,最终使得权重都适合狗、猫、鸟的解释过程

初始权重随机,对类别无区分能力;输入每个类别的图像时,通过 “特征 × 权重→分数→概率” 计算预测结果;与独热编码对比产生损失,损失通过反向传播指导权重调整:增强对 “自身类别特征” 的权重(如狗神经元对圆润耳朵的权重);减弱对 “其他类别特征” 的权重(如狗神经元对翅膀的权重为负);经过多类别样本的反复优化,最终权重能让每个类别的神经元对自身特征敏感,对其他类别特征抑制,实现准确分类。

2025-10-24 18:03:55 782

原创 多类别分类中,标签的 “独热编码” 形式与输出层神经元的位置处理过程

输出层神经元的位置与标签的独热编码位置是人为定义的一一对应关系(如第 1 个神经元对应狗的标签位置)。这种对应关系是交叉熵损失能够 “定位错误” 并指导权重优化的前提 —— 确保损失能准确告诉网络:“哪个类别的神经元输出错了,需要调整”。

2025-10-24 17:03:41 290

原创 用小批量 SGD 训练时, 数据不能被批次整除时处理过程

实际训练中,对于最后剩下的少量样本(如 2 张),最常用且推荐的方式是直接将其作为最后一个批次训练,深度学习框架会自动支持这种可变批量大小的计算。这种处理既不浪费数据,也不会对模型的最终性能造成显著影响,是兼顾效率和效果的最优选择。

2025-10-24 16:31:21 332

原创 小批量 SGD 训练过程

用小批量 SGD 训练时,1 个 epoch 可能更新 7 次权重(如 100 张分 7 批)。10/7约等于14.,在小批量 SGD 训练中,每批 14 张图片是的,反向传播则是基于这 14 张图像的 “综合损失” 进行反馈,同步调整权重。

2025-10-24 16:29:02 387

原创 卷积核权重优化

卷积核本质上是一组 “可学习的权重矩阵”,矩阵中的每个数值都是卷积层的权重参数。这些权重初始随机,通过反向传播根据损失值被不断优化,最终能精准提取对图像分类有用的特征(如狗、猫、鸟的专属特征)。因此,“卷积核的权重” 和 “全连接层的权重” 一样,都是 CNN 中核心的可训练参数,决定了网络的特征提取能力。

2025-10-24 16:11:28 421

原创 卷积神经网络(CNN)的图像分类机制,核心涉及网络结构、训练过程、识别逻辑及优化机制

CNN 通过 “特征提取(卷积 + 池化)→ 特征加工(全连接隐藏层)→ 类别判断(全连接输出层 + Softmax)” 实现图像分类。训练的核心是通过反向传播和多类别协同优化,让权重学会 “特征与类别” 的映射;识别则是复用训练好的权重,基于特征推理出概率最高的类别。整个过程中,全连接层的权重(隐藏层 + 输出层)和卷积核权重是关键可训练参数,决定网络的分类能力。

2025-10-24 15:59:34 411

原创 反向传播通过 “综合损失” 协调权重调整,比如100张图像,狗33张,猫33张,鸟34张,是训练每一张图像每次都反向传播?还是训练完100张图像反向传播?

在训练过程中,反向传播的触发时机取决于所采用的。

2025-10-24 15:55:28 481

原创 卷积神经网络全连接层的隐藏层和输出层(都属于全连接层)都有权重和偏置

隐藏层:有权重和偏置,用于将前一层特征转换为更抽象、更有效的特征,服务于最终分类;输出层:有权重和偏置,用于将隐藏层特征转换为类别分数,直接对应分类结果;所有层的权重和偏置都是训练过程中需要优化的参数,共同决定网络的性能。简单说:隐藏层是 “特征加工厂”(权重是加工工具),输出层是 “类别计分器”(权重是计分规则),两者缺一不可,且都需要 “工具 / 规则”(权重)才能工作。

2025-10-24 15:39:11 373

原创 全连接层神经元权重数量计算

项目决定因素例子(3 类别 + 4 特征)最后一层神经元数量类别数3 个(狗、猫、鸟各 1 个)每个神经元的权重数前一层输入特征数4 个(对应 4 个特征)每个神经元的偏置数固定为 1 个 / 神经元每个神经元 1 个,共 3 个偏置类别数 → 决定 “输出层有多少个神经元”(1 个类别对应 1 个神经元);前层特征数 → 决定 “每个神经元有多少个权重”(1 个特征对应 1 个权重);每个神经元都有 1 个偏置,与类别数、特征数无关。

2025-10-24 15:04:11 380

原创 Softmax 不 “认识” 狗或猫,它只是把全连接层的 “类别分数” 转化为概率;狗的分数 = 2.1,猫的分数 = 1.5,鸟的分数 = 0.8,这些分数咋得到的?

训练开始时,全连接层的权重(W_狗、W_猫等)和偏置(b_狗等)都是随机初始化的(比如从 0 附近的正态分布中采样)。这时候,特征向量与权重的匹配是 “瞎蒙” 的:比如狗的特征 f1 可能被猫神经元的权重 w1_猫偶然放大,导致 z_猫比 z_狗高,所以初始分数完全随机(就像例子中狗 10%、猫 30% 的概率)。类别分数(如 2.1、1.5、0.8)是特征向量与全连接层权重的加权求和结果初始时因权重随机而随机;训练中通过优化权重,让 “正确类别” 的特征与权重更匹配,从而分数更高;

2025-10-24 11:25:56 471

原创 Softmax 激活函数输出各个类别的概率,Softmax 激活函数怎么知道狗的概率?猫的概率?然后对比输出是狗?

比如,当狗图像输入时,如果 “狗的分数” 太低(导致 Softmax 后概率低,损失大),网络就会调整权重,让卷积层提取的 “狗的特征”(如耳朵、体型)更强烈地 “激活” 狗对应的神经元,最终使它的分数升高。整个过程就像:老师(训练)告诉学生(网络)“这个特征组合对应狗”,学生通过练习(迭代)记住 “看到这些特征,就给狗打高分”,最后考试(识别)时,哪个类别分最高就选哪个。真正让 “狗的概率”“猫的概率” 与实际类别关联的,是训练过程中对全连接层权重的优化,以及预先定义的类别标签。

2025-10-24 11:20:21 1223

原创 神经网络综述

神经网络的本质是由人工神经元(Artificial Neuron)按特定结构连接形成的数学计算模型生物类比:单个人工神经元对应大脑中的神经细胞,神经元之间的 “连接” 对应生物突触,连接的 “强度”(即权重)对应突触传递信号的效率。核心功能:通过对输入数据进行多层非线性变换(而非人工预设规则),自动学习数据中的隐藏特征(如图像中的边缘、文本中的语义关联),最终输出预测结果(如 “这是一只猫”“这段文本是正面评价”)。

2025-10-14 09:25:07 690

原创 人工智能学科主要单词

2025-10-14 09:17:31 1028

原创 文件夹里快速启动jupyter notebook

2.弹出power shell 界面输入Jupyter notebook。3.前提是要求必须先安装好Jupyter notebook。1.在文件夹导航栏里面输入CMD.

2025-10-13 08:07:02 139

原创 【天池经典打榜赛】赛道四-知识图谱预测赛的代码文档

print(f"预测完成,共预测{len(predictions)}条记录")"""构建频率索引:(h, r)->t, r->t 和全局t的统计"""# 其中t1是预测分值最高的尾实体,t10是预测分值最低的尾实体。# 如果预测结果不足,使用关系r的统计信息,按照出现频率从高到低排序。# 返回的预测结果列表中,实体顺序即为预测分值从高到低的顺序。# 预测结果中,实体顺序是按照预测分值从高到低排列的。# 全局top实体也是按照出现频率从高到低排序的。"""预测给定(h, r)对的top_k个尾实体"""

2025-10-01 08:04:11 505

原创 通信专业知识图谱​

通信专业知识图谱​(一)核心领域​(二)关键技术​(三)应用场景​。

2025-09-27 18:13:48 432

原创 人工智能专业知识图谱

一、人工智能专业知识图谱​。

2025-09-27 18:13:46 386

原创 卷积层叠感受野计算

当步长为 1 时,n 个 3×3 卷积层叠加的感受野为。2 个叠加:2×2+1=5 → 5×5;3 个叠加:2×3+1=7 → 7×7。这也是现代 CNN 偏好多个小卷积核叠加的核心原因之一:用更少参数(2 个 3×3 共 18 个参数,少于 1 个 5×5 的 25 个参数)实现相同或更大的感受野,同时增加非线性表达能力(多一次激活函数)。

2025-09-27 18:03:53 388

原创 Pycharm2025.2终端出现PS,无法切换到当前虚拟环境

找到Shell路径输入:C:\Windows\System32\cmd.exe 最后点击确定

2025-09-27 17:17:51 236

空空如也

运行命令 C:\Users\Administrator>pip install tensorflow 请问 tensorflow以后缀whl为命名的包下载到电脑哪个地方了?

2022-02-08

打开Jupyter notebook 里面的new 下面的目录是啥意思?

2022-02-10

电脑同时安装opencv 与opencv-python,他们会相互影响.不正常运行吗?

2022-02-18

图像能量图怎么计算,代码 matlab

2022-04-14

需求红外图像的近红外信息的代码

2022-04-13

神经网络图用什么软件 画出来

2022-03-30

图像去雾中的暗通道与亮通道混合,怎么评价大气光值获取的准确性?

2022-03-18

anaconda已建好虚拟环境并且已安装tensorflow,但是软件查询不到,在NO installed里面提示未安装,什么原因?

2022-02-10

神经网络一些文件后缀为H5,请问该文档怎么生成 ?对应什么第三方库?怎么知道里面的原始文档?

2022-02-13

matlab软件scatter3生产的图像如何保存为ply格式

2022-02-06

Anaconda 创建环境问题

2022-02-10

测试tensorflow2版本问题 ,出现告警以及错误。

2022-02-11

安装opencv离线包出错 ?提示ModuleNotFoundError: No module named 'skbuild'

2022-02-08

安装3-4个python依赖包突然C盘少了40G?是不是安装了无用的?怎么办?

2022-02-08

python第三方库的名字问题

2022-02-07

python第三方库 安装更新、共享使用问题

2022-02-08

pyhon 有的程序一会大写,一会小写,还有空格怎么方便切换输入

2022-02-08

python 哪些地方不需要输入空格?

2022-02-08

点云数据matlab2017b 运行结果dragon是倾斜的,需要正视

2022-01-15

matlab 灰度图转彩色 function R=gray2rgb(img1,img2)出现错误

2021-12-09

win10系统dify添加添加 Ollama,基础 URL不管怎么填1434端口都出错

2025-02-06

ubuntu18.04已安装好opencv4.6版本,但是为什么pip list 不列出opencv?

2023-09-03

关于#神经网络#的问题:训练优化获得权重参数包括全连接层的权重参数吗(相关搜索:卷积神经网络)

2023-08-18

128GTF卡烧录ubuntu18.04系统,查询容量大小只有32G,其他容量如何出现(相关搜索:格式化)

2023-08-24

虚拟机安装win7一直无法发现U盘,安装网上的设置方法都不行

2023-08-20

pycharm使用pytorch运行问题

2023-06-13

cuda安装时操作系统问题

2023-06-13

pth文件 怎么修改?怎么保存?

2023-05-23

ValueError: True is not in list

2023-05-18

是没有安装AlexNet吗

2023-05-19

GPU无法使用显示False

2023-05-20

ensp 视频组播实验室时,为何不能把组播组的IP地址改为225.0.0.1

2022-11-11

WIN10无法使用虚拟机。不支持虚拟化的Intel VT-x/EPT

2022-09-18

ensp防火墙无法ping通

2022-09-08

matlab求圆心,给出迭代曲线与圆心坐标

2022-07-11

双S形隶属度函数的数学表达式是啥

2022-07-12

布拉格光栅MATLAB反射谱仿真不会修改代码

2022-06-04

matlab 对粒子群惯性权重编程

2022-05-08

红外图像怎么区分出天空区域与非天空区域,matlab代码

2022-04-14

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除