自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(56)
  • 收藏
  • 关注

原创 11.03

​​数据内容​​: DSB2018是一个开源的医学图像数据集,专门用于细胞分割任务,包含670张显微镜下拍摄的照片,并辅以相应的标注文件。​​模型架构​​: 展示了一个基于VGG的轻量化网络模型,其结构包含多个卷积层和上采样层,旨在返回与输入图像相同分辨率的分割结果。​​像素值归一化​​: 将像素值从0-255区间缩放到0-1区间,以进行标准化处理,便于神经网络的训练。​​通道转换​​: OpenCV加载图像为BGR格式,需转换为模型使用的RGB格式。​​3. 模型训练核心环节​​。

2025-11-03 16:03:08 125

原创 10.31

引入了从浅到深的多阶段损失函数。​​优势:在UNet的基础上引入了更多层级的特征融合,通过更复杂的连接方式、更全面的特征拼接,U-net++能够更好地利用图像中的各种特征信息,从而进一步提高分割性能。​​结构设计​​: 采用编码器-解码器架构,通过纵向的跳跃连接,将浅层的丰富细节特征与深层的上下文特征进行融合。​​上采样​​: 主要通过反卷积等方式实现,目的是扩大特征图的空间尺寸,准备与更低层的高分辨率特征图进行融合。通过特征融合,能够同时捕获目标的精细边缘和整体背景信息,提升了分割的准确性。

2025-10-31 15:51:55 271

原创 10.29

​​全景分割 (Panoptic Segmentation)​​: 结合了语义分割和实例分割的优点,不仅会将不同个体分离开,还会对每个像素进行语义类别标记,从而同时区分前景中的不同实例和背景。​​卷积模块​​: 主要负责从图像中提取层级化的特征,包括底层的纹理、边缘以及高层的语义信息(如人、车、动物)。​​反卷积操作​​: 其核心目的是将小的特征图放大成更大的尺寸。​​网络结构命名​​: 当整套神经网络用于图像分割任务时,包含卷积层的编码器网络负责下采样,而包含反卷积层的解码器网络则负责上采样与重构。

2025-10-29 11:26:27 261

原创 10.28

其中,MAP定义为在不同IOU(交并比)阈值(0.5至0.95,步长0.05)下的平均精度,并对所有阈值情况下的结果取加权平均,形成一个综合性的性能评分,数值越大代表模型表现越好。​​输入尺寸的下采样要求​​:模型输入图片的高宽尺寸需满足特定的整除要求(如32的倍数),以保证下采样操作的顺利进行。​​EMA (指数移动平均)​​:EMA能让模型参数更新过程更加平滑,减小波动,相比归一化方法具有其独特优势。​​1. 训练配置的核心超参数​​。​​3. 卷积层的功能澄清​​。​​2. 评估指标的讲解​​。

2025-10-29 11:06:42 145

原创 10.27

​​网络结构解析​​:介绍了如何阅读YOLOv5的YAML配置文件,解析其各个配置项(如类别数、深度、宽度参数),并根据这些参数结合代码,将模型结构完整地还原构建。​​配置文件与代码的分离​​:模型搭建可依靠YAML配置文件自动化完成,使开发者能聚焦于调整超参数进行模型优化,而非手写复杂的神经网络层定义。​​纯代码实现​​:即便采用配置文件,在遇到困难时也可以回归到用代码一行一行手动构建网络的模式,进行特定结构的自定义和调试。​​1. 模型与结构解释​​。​​2. 开发实践技巧​​。

2025-10-27 16:53:50 145

原创 10.23

数据预处理和增强的核心代码,其涵盖了多种图片格式的处理及图片变换、标签修复等多种数据增强技术。​​val/​​:生成展示训练过程中各类指标(如准确率、PR曲线等)的结果文件和日志。​​tools/​​:包含项目通用的工具函数、异常处理和数据处理逻辑。​​models/​​:存放训练得到的模型文件(.pt)。​​weights/​​:存放已训练好的模型权重。​​data/​​:包含数据增强的相关代码模块。​​2. 代码核心流程与文件作用​​。​​3. 代码解析与调试策略​​。​​1. 项目简介与数据集​​。

2025-10-23 16:18:22 162

原创 10.21

​​注意力机制(SAM)​​: 源起自NLP领域的技术,被引入CV任务中。​​PANet​​: 在传统FPN的基础上增加了自底向上的路径,实现特征上下双向融合,使网络同时具备边缘和细节的感知能力,有助于识别小目标等。​​梯度通道直连​​: 为简化模型结构、提升速度,通过捷径的方式直接将低层特征传递至高层,避免了复杂特征级联过程。​​速度与精度​​: 参数量的减小使得YOLOv4相比YOLOv3速度更快,并略有精度提升。​​传统FPN​​: 采用自顶向下的方式传递高层语义特征。​​1. YOLOv4技术。

2025-10-21 15:45:36 102

原创 10.20

​​CIoU (Complete-IoU)​​:进一步优化的损失函数,融合了上述两种思想,不仅考虑中心点距离,还加入了长宽比的约束,综合考虑了位置、形状等多个因素,被认为是非常优秀的区域交并比指标。​​GIOU (Generalized IoU)​​:引入了包围盒(C)的概念,通过计算最小包围盒与并集区域的差值,并将其纳入损失计算,解决了IoU在非重叠情况下的局限性。​​DIoU (Distance-IoU)​​:在GIOU基础上,增加了预测框和真实框中心点间距离的惩罚项,能更有效地衡量框的位置偏】差。

2025-10-20 16:13:07 241

原创 10.17

候选框(Anchor Box)数量从YOLO v2的5个增加到了9个,旨在更精确地捕捉中小大小目标,同时不同的锚框尺寸也与感受野(卷积核覆盖区域)相应调整,以适应不同尺寸的目标。在处理重叠目标(如人和自行车在同一个物体上同时存在的场景)时,传统的Softmax回归因强制输出的概率分布和为1,会倾向于只选择最高概率的类别,从而丢失正确的多类别检测结果。为应对不同大小目标的检测需求,YOLOv3引入了三种不同尺度的特征图(13x13, 26x26, 52x52),分别用于检测小目标、中目标和大目标。

2025-10-17 16:35:09 248

原创 10.16

YOLO系列目标检测算法核心原理与改进:YOLOV1将检测转化为回归问题,采用S×S网格预测B个候选框(含位置、置信度及C类概率),通过多部分损失函数优化,但存在小目标检测差等问题。YOLOV2引入批量归一化、高分辨率训练、DarkNet网络结构,去除全连接层并采用K-means聚类生成更贴合数据集的anchor box,显著提升检测精度和速度。两代算法均采用NMS后处理,YOLOV2通过结构优化和训练策略改进使性能更优。

2025-10-16 16:20:25 1643

原创 10.15

​​IOU (交并比)​​: 用于评估预测框与真实框的接近程度,是评估回归任务的关键指标。​​FP (False Positive)​​:真实不存在物体(真实框为负样本),但模型误将其预测为正样本(预测框存在),导致产生了错误的检测框。​​TP (True Positive)​​:真实存在物体(真实框为正样本),模型也成功预测并返回该物体(预测框也为正样本),且两者IOU达标。​​One-stage算法​​: 如YOLO系列、SSD等,流程简化,直接从特征图预测位置和类别,速度快,实时性好。

2025-10-15 14:48:55 315

原创 10.14

​​提及问题​​:有同学提出疑问,认为Batch Size可能存在计算量、资源占用等方面的实际影响,但核心观点是只要在合理范围内,基本不影响工作量和模型结果。​​评估指标​​: 明确了应使用全局的“准确率”(Precision/ACC)作为核心评估指标,而非单张图片的“置信度”,以获得更全面的模型效果评价。​​batch size的影响​​: 对于固定的轮数,batch size只影响训练总耗时,不改变模型处理的有效“工作量”和样本总数。​​3. VGG网络模型的实现​​。

2025-10-15 08:38:35 250

原创 10.13

深度学习框架的本质是一种“工具箱”,封装了大量实现深度学习运算的方法,其核心概念与Python的NumPy库等基础库相似,均为数学计算与数据操作的核心工具之一。实现了训练集和验证集的精确率(Accuracy)计算逻辑:在输出所有类别的置信度后,选取其中最高的置信度对应的类别作为最终预测,再与真实标签对比得出。论文阐述要求:对数据集的选择、超参数设定等环节,必须提供充分的、合理的解释和实验依据,以支撑研究结论。明确学生毕业设计的成果中,必须包含多个模型对比时的可视化图表,以便于区分和分析不同模型的表现。

2025-10-13 17:55:20 310

原创 9.28 深度学习10

轻量级网络”的核心思想:通过减少参数量(例如使用全局平均池化)来降低计算成本,使其能在普通计算机上运行,与集成学习的优势形成互斥。针对回归问题,明确了通过“加权取平均”或“普通平均”等方法整合多个模型的连续预测数值,并区分了普通平均与加权平均的不同应用场景。强调“均方误差”(MSE)是评价回归模型优劣的关键标准,它衡量了预测值与真实值之间的差距平方的平均数。补充说明了“R方”(决定系数)是另一个常用的回归评估指标,用于衡量模型解释数据方差的能力。​​3. 回归问题的评估标准​​。

2025-09-28 11:56:47 205

原创 9.27 深度学习9

​​内存优化​​:提出了使用with语句(上下文管理器)和in-place操作来避免不必要的数据保存,这有助于释放内存并提升计算速度,特别是其内部隐含着boolean类型的求和技巧,无需额外创建中间变量。​​关键注意事项​​:全局平均池化应在网络中后期使用,即在网络提取了足够层次的特征(包括底层和高层特征)之后,才能进行。过早使用会导致重要特征信息丢失。​​概念​​:全局平均池化(GlobalAverage Pooling)是指池化核的大小与输入特征图的大小完全相同,从而在整个特征图上取一次平均值。

2025-09-27 16:14:13 309

原创 9.26 深度学习8

该数据集为一个包含10个类别的公开数据集,类别分别是飞机、汽车、鸟、猫、鹿、卡车、青蛙、海马、船和坦克。训练集来自data1至data5,共约5万个样本,测试集为data6,包含约1万个样本。

2025-09-26 13:49:54 236

原创 9.25 深度学习7

定义:将不同的图像划分到不同的类别标签,以实现最小的分类误差。分类层次:分为通用的多类别图像分类、子类细粒度图像分类和实例级图片分类三个层次。

2025-09-25 14:05:06 170

原创 9.24 深度学习6

工作箱主要包括数据处理与加载模块、TensorBoard可视化工具,以及计算机视觉相关的transforms和模型等。

2025-09-24 15:49:58 433

原创 9.22 深度学习5

核心组件:主要包括神经网络的“层”(Layer)、模型(Model)、损失函数(Loss Function)和优化器(Optimizer)。:由多个层组成的网络结构,用于完成特定的任务,如图像分类、语音识别等。:用于衡量模型预测值与真实值之间的差异,是模型训练的目标函数。通过最小化损失函数来优化模型参数。:用于更新模型参数,以最小化损失函数。常见的优化器包括SGD(随机梯度下降)、Adam等。参数:在训练过程中被优化的内部变量,主要包括层的权重w和偏置b。其中,卷积层的权重通常被称为“卷积核”。

2025-09-22 16:13:26 445

原创 9.19 深度学习4

空间结构: MLP将图像拉平为向量,导致破坏了像素间的空间位置关系,不利于捕捉像人脸轮廓这样的空间结构特征。参数量过大: 对于RGB图像,其参数量(如36亿)远超计算所需,导致模型过于复杂。平移不变性: 卷积前几层对输入图像的平移不敏感,能识别位置无关的目标物,但这也可能破坏原始空间结构。局部性:神经网络各层仅对局部邻域负责,前几层提取颜色等低层特征,后几层逐步理解更高阶的物体(如狗脸)信息。参数共享机制: 卷积核在整个输入上滑动并重复使用相同的权重(参数),极大减少了需要学习的参数总数,解决了MLP

2025-09-19 16:27:14 378

原创 9.18 深度学习3

然后,利用链式法则从输出层开始,反向传播误差,计算每一层权重和偏置关于损失的梯度,进而调整这些参数,使得模型在下一轮迭代中预测更准确。正向传播:样本从输入层逐层前向传递,经过各层的加权求和以及激活函数的处理,最终在输出层得到模型的预测结果。网络由输入层、若干个隐藏层和输出层组成,隐藏层的层数及每层的神经元数量(即隐藏层大小)均为可预先设定的超参数。泛化误差:模型在未来未见过的数据(即新数据集)上的误差。softmax回归能将模型的输出转换为一组概率值,这些概率值的总和为1,被称为各类的“置信度”。

2025-09-18 16:09:08 369

原创 9.17 深度学习2

Softmax回归是深度学习中处理分类问题的关键层,其核心特点是输出的每个概率值相加等于1,因此这些值可被解释为模型对各类别的“置信度”。多类分类:输出层的神经元数量根据类别数量设定,如10类别分类问题,输出层有10个神经元。在分类任务中,模型的输出层通常会采用Softmax回归;而在回归任务中,则使用线性回归。类别向量:也被称作独热向量,是一种将离散的类别信息转换为机器可处理的数字形式的方法。全连接层:一种神经网络层,其中层内每个神经元都与前一层的所有神经元相连。回归与分类:回归单个连续,通常多个输出。

2025-09-17 14:47:33 160

原创 9.16 深度学习1

理论奠基:1940年代提出人工神经元概念,1950年图灵提出图灵测试,1956年达特茅斯会议提出“人工智能”概念。复兴与深化:1985年后,得益于廉价GPU和算力的进步,深度学习进入快速发展时期。无监督学习:在没有标签的场景下进行学习,包括聚类分析、因果关系探究和生成式建模。标注问题:指同一对象存在多种属性或标签的场景,如一张照片中同时有猫、狗、驴等。2015年,ResNet网络的提出解决了网络过深层后准确率反而下降的问题。序列问题:强调整体顺序,如语义理解、语音、文本、视频剪辑后的顺序变化。

2025-09-17 09:13:50 136

原创 8.26 支持向量机

原始问题中“最大化”被转化为“最小化”问题,通过变换表达式(如a−B → B−a),实现目标函数结构的简化,该转换使后续求解更易操作,且不影响最优解的准确性。为降低W和B两个变量的求解复杂度,提出引入中间变量α,通过α表示W和B,实现从双变量问题向单变量问题的转换。C值越大,目标函数值越大,迫使模型追求更小的分类间隔,分类越严格;极大值与极小值转换过程中,a−b与b−a互为相反数,本质是同一优化问题的正负表达。在KKT转换后,首先对W和B求偏导,获得中间变量me的值,但尚未完成极值求解。

2025-08-26 13:54:48 355

原创 8.25 朴素贝叶斯

预测时使用测试集特征(X_test)进行推理,输出各分类的概率值,可选择是否对概率取对数(log)以简化计算,通过 score 方法可获取模型评分(如查准率、查全率等),用于评估模型性能。P(xi|C)= (count(xi,C)+1) / (count(C)+|V|),|V| 为特征取值数或词典大小。实际代码里用 log 化乘法为加法,防止下溢:score(C)=log P(C)+Σi log P(xi|C)。似然:P(xi|C)= 类别 C 中特征 xi 出现的次数 / 类别 C 的总特征计数。

2025-08-25 13:41:10 469

原创 8.21 随机森林

• 代表:AdaBoost、Gradient Boosting、XGBoost、LightGBM、CatBoost。max_depth / min_samples_leaf:控制单棵树复杂度,防过拟合;max_features:‘sqrt’、‘log2’ 或整数,决定随机特征子集大小;• 并行训练:对原始数据做有放回采样(Bootstrap),每棵树用不同子集;• 核心:串行训练,每轮加大上一轮错分样本权重(或拟合残差),最终加权投票。• 结果聚合:分类任务采用多数投票,回归任务采用均值。

2025-08-21 18:17:14 173

原创 8.21 聚类算法

CH(Calinski-Harabasz):分子是“簇间离散度”,分母是“簇内离散度”,值越大说明簇自身越紧、簇间越开。O(n·K·d·iter),与样本数 n、维度 d、迭代次数线性相关,大数据集仍可并行。CH 指数越大 → 簇内紧、簇间散 → 越好。曼哈顿距离:各维度绝对差之和,对异常值不敏感,常用于高维稀疏数据。init:初始中心点选择,常用 k-means++ 减少随机性。K:簇数量,需先验或借助 CH/轮廓系数/肘部法则再定。难点:K 值难定、复杂度随样本线性、无法发现任意形状簇。

2025-08-21 18:15:56 238

原创 8.20 数据预处理

不同特征的数值范围差异巨大,需通过缩放消除量纲影响:最小-最大法把数据压到 0-1,Z-score 法将其转为均值为 0、方差为 1 的分布,RobustScaler 则对离群点更稳健。第三个由于数据集中所有数据集中加乘除运算,会导致有小数存在,计算机的二进制为64位,等到的结果也会有小数存在,所以原本结果为0,计算机给出的结果为-0.00000几e。处理策略,填补时,可以用整列的均值、中位数、众数,也可以指定常数。– 逐格布尔标记,判断单元格是否为空。sklearn 统一接口。

2025-08-21 15:51:58 257

原创 819 机器学习-决策树2

2、sklearn.tree.DecisionTreeClassifier 关键参数。基尼指数Gini(D): ·p越大,Gini(D)越小。• CART → 基尼指数(分类);平方误差最小化(回归)少分叉 + 多验证 + 后剪枝”数据集预测:例如心脏病数据集。信息增益:某个属性带来的熵增。信息增益率:信息增益÷自身熵。• C4.5 → 信息增益率。信息增益:某个属性带来的熵增。• ID3 → 信息增益。1、决策树三大经典算法。

2025-08-20 11:20:56 281

原创 8.18 机器学习-决策树(1)

分类/回归:数据从根节点→叶子节点逐步决策,最终落在叶子节点。

2025-08-18 15:33:27 308

原创 8.15 机器学习(2)K最近邻算法

1、定义:K 近邻(K-Nearest Neighbor, KNN)用最近的 K 个已知样本代表/决定未知样本的类别。预测X和Y的值,选择最优K值交叉验证,标明范围。适用小规模、低维、类别边界不规则的数据。④ 统计这 K 个邻居中类别出现频率,K 值选择、距离度量方式决定模型效果。练习:导入葡萄酒数据集(为分类问题)① 计算未知点到所有已知点的距离,③ 选前 K 个(K ≤ 20),⑤ 将频率最高的类别作为预测结果,三、鸢尾花数据集练习(为分类问题)将他们分类、增加特征、类别名。② 按距离升序排序,

2025-08-15 16:41:49 413

原创 8.14 机器学习(1)

本文系统介绍了机器学习的基础概念与核心要素。主要内容包括:机器学习的定义(通过数据持续改进性能的过程)及其三要素(任务、数据、度量);基本术语如数据集、样本、特征等;主要学习任务分类(监督学习中的分类/回归、无监督学习中的聚类/关联分析);模型评估方法(误差分析、拟合状态判断、损失函数);以及模型选择原则(奥卡姆剃刀、没有免费午餐定理)。文章强调机器学习是通过数据+算法+评估来提升任务性能,需警惕欠/过拟合,选择适合实际问题的简洁模型。

2025-08-14 15:10:31 391

原创 8.12 数据分析(1)

o_cat=i.strip().split('\t')[2:len(catg)] ---第二个和以后为2。sub_cat=i.strip().split('\t')[1] ----第一个分类为1。main_cat=i.strip().split('\t')[0] ----主类别为0。​:Pandas(数据处理)、NumPy(数值计算)、SciPy(统计检验)之后可以运用一些数据库进行数据的分析:例如:可视化、整理、画图、分类、做表等。我们先需要在寻找一些数据集,来支撑我们的代码。

2025-08-13 11:26:26 468

原创 8.11 数据科学与计算

因为豆瓣电影网站的评分都为准确值,没有空值,所以进行一个自己添加,设置随机抽取数值的空字段的代码,这里抽取50个随机数。91.92.93 空 空 96.97 把94.95行删除,就是他们的空字段被删除行了。列举其中的六组数据,均值为8.9,将空值补齐。将没有评分的电影评分被暂无评分代替。②用指定内容来替换一些空字段。④计算列的中位数替换空单元格。③计算列的均值替换空单元格。①删除包含空字段的行。

2025-08-12 10:44:54 124

原创 8.8 数据Seaborn

定位:基于 Matplotlib 的高级 Python 可视化库,专注“统计图形”。设计目标:– 简化代码量(少量代码即可出复杂图)。– 提供美观的默认主题与调色盘。2.常用统计图形。

2025-08-08 18:12:57 265

原创 8.7 Matplotlib

饼图:plt.pie(sizes, labels, colors, autopct, startangle)例:plt.plot([1,8],[3,10],'ro--') 红色虚线+圆点。③直方图:plt.hist(x, bins, color, label)水平:plt.barh(y, width, height, color)垂直:plt.bar(x, height, width, color)①散点图:plt.scatter(x, y, s, c)可以画点和线,X轴和Y轴行和列。

2025-08-07 18:52:40 717

原创 8.6 pandas(2)

median()函数,作用为:计算列的中位数替换空单元格。fillna()函数,作用为:指定内容来替换一些空字段。mean()函数,作用为:计算列的均值替换空单元格。key 为列名(姓名、语文考试、语文平时……value 为对应的三位同学成绩列表。Pandas处理丢失数据还可以使用。:得到一个 3 行 7 列的表格。按行,案列,求得平均分、最高分。

2025-08-07 18:33:29 199

原创 8.5 pandas(1)

• 构造参数:data, index, columns, dtype, copy。• 构造参数:data, index, dtype, name, copy。• 常见格式:csv/tsv/txt → read_csv()• df.loc[[行索引1, 行索引2]]:取多行。• 三种创建方式:列表、ndarray、字典。• 三种创建方式:列表、ndarray、字典。• head(n):前 n 行,默认 5。• tail(n):后 n 行,默认 5。• dropna():删除空值行/列。

2025-08-05 18:13:09 310

原创 8.5 numpy2(2)

argsort():返回排序索引而非值(返回的是数组值从小到大的索引值)where():条件索引(返回输入数组中满足给定条件)sort():原地或返回排序副本(可指定轴)argmax()/argmin():极值索引。extract():按条件抽取元素。max()/min():沿轴极值。nonzero():非零元素索引。

2025-08-05 18:10:29 206

原创 8.4 numpy3

【代码】8.4 numpy3。

2025-08-04 16:42:33 133

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除