- 博客(56)
- 收藏
- 关注
原创 11.03
数据内容: DSB2018是一个开源的医学图像数据集,专门用于细胞分割任务,包含670张显微镜下拍摄的照片,并辅以相应的标注文件。模型架构: 展示了一个基于VGG的轻量化网络模型,其结构包含多个卷积层和上采样层,旨在返回与输入图像相同分辨率的分割结果。像素值归一化: 将像素值从0-255区间缩放到0-1区间,以进行标准化处理,便于神经网络的训练。通道转换: OpenCV加载图像为BGR格式,需转换为模型使用的RGB格式。3. 模型训练核心环节。
2025-11-03 16:03:08
125
原创 10.31
引入了从浅到深的多阶段损失函数。优势:在UNet的基础上引入了更多层级的特征融合,通过更复杂的连接方式、更全面的特征拼接,U-net++能够更好地利用图像中的各种特征信息,从而进一步提高分割性能。结构设计: 采用编码器-解码器架构,通过纵向的跳跃连接,将浅层的丰富细节特征与深层的上下文特征进行融合。上采样: 主要通过反卷积等方式实现,目的是扩大特征图的空间尺寸,准备与更低层的高分辨率特征图进行融合。通过特征融合,能够同时捕获目标的精细边缘和整体背景信息,提升了分割的准确性。
2025-10-31 15:51:55
271
原创 10.29
全景分割 (Panoptic Segmentation): 结合了语义分割和实例分割的优点,不仅会将不同个体分离开,还会对每个像素进行语义类别标记,从而同时区分前景中的不同实例和背景。卷积模块: 主要负责从图像中提取层级化的特征,包括底层的纹理、边缘以及高层的语义信息(如人、车、动物)。反卷积操作: 其核心目的是将小的特征图放大成更大的尺寸。网络结构命名: 当整套神经网络用于图像分割任务时,包含卷积层的编码器网络负责下采样,而包含反卷积层的解码器网络则负责上采样与重构。
2025-10-29 11:26:27
261
原创 10.28
其中,MAP定义为在不同IOU(交并比)阈值(0.5至0.95,步长0.05)下的平均精度,并对所有阈值情况下的结果取加权平均,形成一个综合性的性能评分,数值越大代表模型表现越好。输入尺寸的下采样要求:模型输入图片的高宽尺寸需满足特定的整除要求(如32的倍数),以保证下采样操作的顺利进行。EMA (指数移动平均):EMA能让模型参数更新过程更加平滑,减小波动,相比归一化方法具有其独特优势。1. 训练配置的核心超参数。3. 卷积层的功能澄清。2. 评估指标的讲解。
2025-10-29 11:06:42
145
原创 10.27
网络结构解析:介绍了如何阅读YOLOv5的YAML配置文件,解析其各个配置项(如类别数、深度、宽度参数),并根据这些参数结合代码,将模型结构完整地还原构建。配置文件与代码的分离:模型搭建可依靠YAML配置文件自动化完成,使开发者能聚焦于调整超参数进行模型优化,而非手写复杂的神经网络层定义。纯代码实现:即便采用配置文件,在遇到困难时也可以回归到用代码一行一行手动构建网络的模式,进行特定结构的自定义和调试。1. 模型与结构解释。2. 开发实践技巧。
2025-10-27 16:53:50
145
原创 10.23
数据预处理和增强的核心代码,其涵盖了多种图片格式的处理及图片变换、标签修复等多种数据增强技术。val/:生成展示训练过程中各类指标(如准确率、PR曲线等)的结果文件和日志。tools/:包含项目通用的工具函数、异常处理和数据处理逻辑。models/:存放训练得到的模型文件(.pt)。weights/:存放已训练好的模型权重。data/:包含数据增强的相关代码模块。2. 代码核心流程与文件作用。3. 代码解析与调试策略。1. 项目简介与数据集。
2025-10-23 16:18:22
162
原创 10.21
注意力机制(SAM): 源起自NLP领域的技术,被引入CV任务中。PANet: 在传统FPN的基础上增加了自底向上的路径,实现特征上下双向融合,使网络同时具备边缘和细节的感知能力,有助于识别小目标等。梯度通道直连: 为简化模型结构、提升速度,通过捷径的方式直接将低层特征传递至高层,避免了复杂特征级联过程。速度与精度: 参数量的减小使得YOLOv4相比YOLOv3速度更快,并略有精度提升。传统FPN: 采用自顶向下的方式传递高层语义特征。1. YOLOv4技术。
2025-10-21 15:45:36
102
原创 10.20
CIoU (Complete-IoU):进一步优化的损失函数,融合了上述两种思想,不仅考虑中心点距离,还加入了长宽比的约束,综合考虑了位置、形状等多个因素,被认为是非常优秀的区域交并比指标。GIOU (Generalized IoU):引入了包围盒(C)的概念,通过计算最小包围盒与并集区域的差值,并将其纳入损失计算,解决了IoU在非重叠情况下的局限性。DIoU (Distance-IoU):在GIOU基础上,增加了预测框和真实框中心点间距离的惩罚项,能更有效地衡量框的位置偏】差。
2025-10-20 16:13:07
241
原创 10.17
候选框(Anchor Box)数量从YOLO v2的5个增加到了9个,旨在更精确地捕捉中小大小目标,同时不同的锚框尺寸也与感受野(卷积核覆盖区域)相应调整,以适应不同尺寸的目标。在处理重叠目标(如人和自行车在同一个物体上同时存在的场景)时,传统的Softmax回归因强制输出的概率分布和为1,会倾向于只选择最高概率的类别,从而丢失正确的多类别检测结果。为应对不同大小目标的检测需求,YOLOv3引入了三种不同尺度的特征图(13x13, 26x26, 52x52),分别用于检测小目标、中目标和大目标。
2025-10-17 16:35:09
248
原创 10.16
YOLO系列目标检测算法核心原理与改进:YOLOV1将检测转化为回归问题,采用S×S网格预测B个候选框(含位置、置信度及C类概率),通过多部分损失函数优化,但存在小目标检测差等问题。YOLOV2引入批量归一化、高分辨率训练、DarkNet网络结构,去除全连接层并采用K-means聚类生成更贴合数据集的anchor box,显著提升检测精度和速度。两代算法均采用NMS后处理,YOLOV2通过结构优化和训练策略改进使性能更优。
2025-10-16 16:20:25
1643
原创 10.15
IOU (交并比): 用于评估预测框与真实框的接近程度,是评估回归任务的关键指标。FP (False Positive):真实不存在物体(真实框为负样本),但模型误将其预测为正样本(预测框存在),导致产生了错误的检测框。TP (True Positive):真实存在物体(真实框为正样本),模型也成功预测并返回该物体(预测框也为正样本),且两者IOU达标。One-stage算法: 如YOLO系列、SSD等,流程简化,直接从特征图预测位置和类别,速度快,实时性好。
2025-10-15 14:48:55
315
原创 10.14
提及问题:有同学提出疑问,认为Batch Size可能存在计算量、资源占用等方面的实际影响,但核心观点是只要在合理范围内,基本不影响工作量和模型结果。评估指标: 明确了应使用全局的“准确率”(Precision/ACC)作为核心评估指标,而非单张图片的“置信度”,以获得更全面的模型效果评价。batch size的影响: 对于固定的轮数,batch size只影响训练总耗时,不改变模型处理的有效“工作量”和样本总数。3. VGG网络模型的实现。
2025-10-15 08:38:35
250
原创 10.13
深度学习框架的本质是一种“工具箱”,封装了大量实现深度学习运算的方法,其核心概念与Python的NumPy库等基础库相似,均为数学计算与数据操作的核心工具之一。实现了训练集和验证集的精确率(Accuracy)计算逻辑:在输出所有类别的置信度后,选取其中最高的置信度对应的类别作为最终预测,再与真实标签对比得出。论文阐述要求:对数据集的选择、超参数设定等环节,必须提供充分的、合理的解释和实验依据,以支撑研究结论。明确学生毕业设计的成果中,必须包含多个模型对比时的可视化图表,以便于区分和分析不同模型的表现。
2025-10-13 17:55:20
310
原创 9.28 深度学习10
轻量级网络”的核心思想:通过减少参数量(例如使用全局平均池化)来降低计算成本,使其能在普通计算机上运行,与集成学习的优势形成互斥。针对回归问题,明确了通过“加权取平均”或“普通平均”等方法整合多个模型的连续预测数值,并区分了普通平均与加权平均的不同应用场景。强调“均方误差”(MSE)是评价回归模型优劣的关键标准,它衡量了预测值与真实值之间的差距平方的平均数。补充说明了“R方”(决定系数)是另一个常用的回归评估指标,用于衡量模型解释数据方差的能力。3. 回归问题的评估标准。
2025-09-28 11:56:47
205
原创 9.27 深度学习9
内存优化:提出了使用with语句(上下文管理器)和in-place操作来避免不必要的数据保存,这有助于释放内存并提升计算速度,特别是其内部隐含着boolean类型的求和技巧,无需额外创建中间变量。关键注意事项:全局平均池化应在网络中后期使用,即在网络提取了足够层次的特征(包括底层和高层特征)之后,才能进行。过早使用会导致重要特征信息丢失。概念:全局平均池化(GlobalAverage Pooling)是指池化核的大小与输入特征图的大小完全相同,从而在整个特征图上取一次平均值。
2025-09-27 16:14:13
309
原创 9.26 深度学习8
该数据集为一个包含10个类别的公开数据集,类别分别是飞机、汽车、鸟、猫、鹿、卡车、青蛙、海马、船和坦克。训练集来自data1至data5,共约5万个样本,测试集为data6,包含约1万个样本。
2025-09-26 13:49:54
236
原创 9.25 深度学习7
定义:将不同的图像划分到不同的类别标签,以实现最小的分类误差。分类层次:分为通用的多类别图像分类、子类细粒度图像分类和实例级图片分类三个层次。
2025-09-25 14:05:06
170
原创 9.22 深度学习5
核心组件:主要包括神经网络的“层”(Layer)、模型(Model)、损失函数(Loss Function)和优化器(Optimizer)。:由多个层组成的网络结构,用于完成特定的任务,如图像分类、语音识别等。:用于衡量模型预测值与真实值之间的差异,是模型训练的目标函数。通过最小化损失函数来优化模型参数。:用于更新模型参数,以最小化损失函数。常见的优化器包括SGD(随机梯度下降)、Adam等。参数:在训练过程中被优化的内部变量,主要包括层的权重w和偏置b。其中,卷积层的权重通常被称为“卷积核”。
2025-09-22 16:13:26
445
原创 9.19 深度学习4
空间结构: MLP将图像拉平为向量,导致破坏了像素间的空间位置关系,不利于捕捉像人脸轮廓这样的空间结构特征。参数量过大: 对于RGB图像,其参数量(如36亿)远超计算所需,导致模型过于复杂。平移不变性: 卷积前几层对输入图像的平移不敏感,能识别位置无关的目标物,但这也可能破坏原始空间结构。局部性:神经网络各层仅对局部邻域负责,前几层提取颜色等低层特征,后几层逐步理解更高阶的物体(如狗脸)信息。参数共享机制: 卷积核在整个输入上滑动并重复使用相同的权重(参数),极大减少了需要学习的参数总数,解决了MLP
2025-09-19 16:27:14
378
原创 9.18 深度学习3
然后,利用链式法则从输出层开始,反向传播误差,计算每一层权重和偏置关于损失的梯度,进而调整这些参数,使得模型在下一轮迭代中预测更准确。正向传播:样本从输入层逐层前向传递,经过各层的加权求和以及激活函数的处理,最终在输出层得到模型的预测结果。网络由输入层、若干个隐藏层和输出层组成,隐藏层的层数及每层的神经元数量(即隐藏层大小)均为可预先设定的超参数。泛化误差:模型在未来未见过的数据(即新数据集)上的误差。softmax回归能将模型的输出转换为一组概率值,这些概率值的总和为1,被称为各类的“置信度”。
2025-09-18 16:09:08
369
原创 9.17 深度学习2
Softmax回归是深度学习中处理分类问题的关键层,其核心特点是输出的每个概率值相加等于1,因此这些值可被解释为模型对各类别的“置信度”。多类分类:输出层的神经元数量根据类别数量设定,如10类别分类问题,输出层有10个神经元。在分类任务中,模型的输出层通常会采用Softmax回归;而在回归任务中,则使用线性回归。类别向量:也被称作独热向量,是一种将离散的类别信息转换为机器可处理的数字形式的方法。全连接层:一种神经网络层,其中层内每个神经元都与前一层的所有神经元相连。回归与分类:回归单个连续,通常多个输出。
2025-09-17 14:47:33
160
原创 9.16 深度学习1
理论奠基:1940年代提出人工神经元概念,1950年图灵提出图灵测试,1956年达特茅斯会议提出“人工智能”概念。复兴与深化:1985年后,得益于廉价GPU和算力的进步,深度学习进入快速发展时期。无监督学习:在没有标签的场景下进行学习,包括聚类分析、因果关系探究和生成式建模。标注问题:指同一对象存在多种属性或标签的场景,如一张照片中同时有猫、狗、驴等。2015年,ResNet网络的提出解决了网络过深层后准确率反而下降的问题。序列问题:强调整体顺序,如语义理解、语音、文本、视频剪辑后的顺序变化。
2025-09-17 09:13:50
136
原创 8.26 支持向量机
原始问题中“最大化”被转化为“最小化”问题,通过变换表达式(如a−B → B−a),实现目标函数结构的简化,该转换使后续求解更易操作,且不影响最优解的准确性。为降低W和B两个变量的求解复杂度,提出引入中间变量α,通过α表示W和B,实现从双变量问题向单变量问题的转换。C值越大,目标函数值越大,迫使模型追求更小的分类间隔,分类越严格;极大值与极小值转换过程中,a−b与b−a互为相反数,本质是同一优化问题的正负表达。在KKT转换后,首先对W和B求偏导,获得中间变量me的值,但尚未完成极值求解。
2025-08-26 13:54:48
355
原创 8.25 朴素贝叶斯
预测时使用测试集特征(X_test)进行推理,输出各分类的概率值,可选择是否对概率取对数(log)以简化计算,通过 score 方法可获取模型评分(如查准率、查全率等),用于评估模型性能。P(xi|C)= (count(xi,C)+1) / (count(C)+|V|),|V| 为特征取值数或词典大小。实际代码里用 log 化乘法为加法,防止下溢:score(C)=log P(C)+Σi log P(xi|C)。似然:P(xi|C)= 类别 C 中特征 xi 出现的次数 / 类别 C 的总特征计数。
2025-08-25 13:41:10
469
原创 8.21 随机森林
• 代表:AdaBoost、Gradient Boosting、XGBoost、LightGBM、CatBoost。max_depth / min_samples_leaf:控制单棵树复杂度,防过拟合;max_features:‘sqrt’、‘log2’ 或整数,决定随机特征子集大小;• 并行训练:对原始数据做有放回采样(Bootstrap),每棵树用不同子集;• 核心:串行训练,每轮加大上一轮错分样本权重(或拟合残差),最终加权投票。• 结果聚合:分类任务采用多数投票,回归任务采用均值。
2025-08-21 18:17:14
173
原创 8.21 聚类算法
CH(Calinski-Harabasz):分子是“簇间离散度”,分母是“簇内离散度”,值越大说明簇自身越紧、簇间越开。O(n·K·d·iter),与样本数 n、维度 d、迭代次数线性相关,大数据集仍可并行。CH 指数越大 → 簇内紧、簇间散 → 越好。曼哈顿距离:各维度绝对差之和,对异常值不敏感,常用于高维稀疏数据。init:初始中心点选择,常用 k-means++ 减少随机性。K:簇数量,需先验或借助 CH/轮廓系数/肘部法则再定。难点:K 值难定、复杂度随样本线性、无法发现任意形状簇。
2025-08-21 18:15:56
238
原创 8.20 数据预处理
不同特征的数值范围差异巨大,需通过缩放消除量纲影响:最小-最大法把数据压到 0-1,Z-score 法将其转为均值为 0、方差为 1 的分布,RobustScaler 则对离群点更稳健。第三个由于数据集中所有数据集中加乘除运算,会导致有小数存在,计算机的二进制为64位,等到的结果也会有小数存在,所以原本结果为0,计算机给出的结果为-0.00000几e。处理策略,填补时,可以用整列的均值、中位数、众数,也可以指定常数。– 逐格布尔标记,判断单元格是否为空。sklearn 统一接口。
2025-08-21 15:51:58
257
原创 819 机器学习-决策树2
2、sklearn.tree.DecisionTreeClassifier 关键参数。基尼指数Gini(D): ·p越大,Gini(D)越小。• CART → 基尼指数(分类);平方误差最小化(回归)少分叉 + 多验证 + 后剪枝”数据集预测:例如心脏病数据集。信息增益:某个属性带来的熵增。信息增益率:信息增益÷自身熵。• C4.5 → 信息增益率。信息增益:某个属性带来的熵增。• ID3 → 信息增益。1、决策树三大经典算法。
2025-08-20 11:20:56
281
原创 8.15 机器学习(2)K最近邻算法
1、定义:K 近邻(K-Nearest Neighbor, KNN)用最近的 K 个已知样本代表/决定未知样本的类别。预测X和Y的值,选择最优K值交叉验证,标明范围。适用小规模、低维、类别边界不规则的数据。④ 统计这 K 个邻居中类别出现频率,K 值选择、距离度量方式决定模型效果。练习:导入葡萄酒数据集(为分类问题)① 计算未知点到所有已知点的距离,③ 选前 K 个(K ≤ 20),⑤ 将频率最高的类别作为预测结果,三、鸢尾花数据集练习(为分类问题)将他们分类、增加特征、类别名。② 按距离升序排序,
2025-08-15 16:41:49
413
原创 8.14 机器学习(1)
本文系统介绍了机器学习的基础概念与核心要素。主要内容包括:机器学习的定义(通过数据持续改进性能的过程)及其三要素(任务、数据、度量);基本术语如数据集、样本、特征等;主要学习任务分类(监督学习中的分类/回归、无监督学习中的聚类/关联分析);模型评估方法(误差分析、拟合状态判断、损失函数);以及模型选择原则(奥卡姆剃刀、没有免费午餐定理)。文章强调机器学习是通过数据+算法+评估来提升任务性能,需警惕欠/过拟合,选择适合实际问题的简洁模型。
2025-08-14 15:10:31
391
原创 8.12 数据分析(1)
o_cat=i.strip().split('\t')[2:len(catg)] ---第二个和以后为2。sub_cat=i.strip().split('\t')[1] ----第一个分类为1。main_cat=i.strip().split('\t')[0] ----主类别为0。:Pandas(数据处理)、NumPy(数值计算)、SciPy(统计检验)之后可以运用一些数据库进行数据的分析:例如:可视化、整理、画图、分类、做表等。我们先需要在寻找一些数据集,来支撑我们的代码。
2025-08-13 11:26:26
468
原创 8.11 数据科学与计算
因为豆瓣电影网站的评分都为准确值,没有空值,所以进行一个自己添加,设置随机抽取数值的空字段的代码,这里抽取50个随机数。91.92.93 空 空 96.97 把94.95行删除,就是他们的空字段被删除行了。列举其中的六组数据,均值为8.9,将空值补齐。将没有评分的电影评分被暂无评分代替。②用指定内容来替换一些空字段。④计算列的中位数替换空单元格。③计算列的均值替换空单元格。①删除包含空字段的行。
2025-08-12 10:44:54
124
原创 8.8 数据Seaborn
定位:基于 Matplotlib 的高级 Python 可视化库,专注“统计图形”。设计目标:– 简化代码量(少量代码即可出复杂图)。– 提供美观的默认主题与调色盘。2.常用统计图形。
2025-08-08 18:12:57
265
原创 8.7 Matplotlib
饼图:plt.pie(sizes, labels, colors, autopct, startangle)例:plt.plot([1,8],[3,10],'ro--') 红色虚线+圆点。③直方图:plt.hist(x, bins, color, label)水平:plt.barh(y, width, height, color)垂直:plt.bar(x, height, width, color)①散点图:plt.scatter(x, y, s, c)可以画点和线,X轴和Y轴行和列。
2025-08-07 18:52:40
717
原创 8.6 pandas(2)
median()函数,作用为:计算列的中位数替换空单元格。fillna()函数,作用为:指定内容来替换一些空字段。mean()函数,作用为:计算列的均值替换空单元格。key 为列名(姓名、语文考试、语文平时……value 为对应的三位同学成绩列表。Pandas处理丢失数据还可以使用。:得到一个 3 行 7 列的表格。按行,案列,求得平均分、最高分。
2025-08-07 18:33:29
199
原创 8.5 pandas(1)
• 构造参数:data, index, columns, dtype, copy。• 构造参数:data, index, dtype, name, copy。• 常见格式:csv/tsv/txt → read_csv()• df.loc[[行索引1, 行索引2]]:取多行。• 三种创建方式:列表、ndarray、字典。• 三种创建方式:列表、ndarray、字典。• head(n):前 n 行,默认 5。• tail(n):后 n 行,默认 5。• dropna():删除空值行/列。
2025-08-05 18:13:09
310
原创 8.5 numpy2(2)
argsort():返回排序索引而非值(返回的是数组值从小到大的索引值)where():条件索引(返回输入数组中满足给定条件)sort():原地或返回排序副本(可指定轴)argmax()/argmin():极值索引。extract():按条件抽取元素。max()/min():沿轴极值。nonzero():非零元素索引。
2025-08-05 18:10:29
206
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅