自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 深度卷积神经网络简介

图像分类(ImageNet)、目标检测(YOLO、Faster R-CNN)、语义分割(U-Net)。)是一种专门用于处理具有网格结构数据(如图像、视频、音频)的深度学习模型。:一个小型矩阵(如3×3、5×5),在输入数据上滑动,计算局部区域的加权和。视频分析(行为识别)、医学影像(肿瘤检测)、自然语言处理(文本分类)。:Dropout、数据增强(旋转/裁剪图像)、权重衰减(L2正则化)。风格迁移(如你之前提到的NST)、图像生成(GANs)。:无需人工设计特征(如SIFT、HOG)。

2025-04-02 00:01:23 464

原创 神经风格转移(Neural Style Transfer, NST)

神经风格转移(Neural Style Transfer, NST)是一种基于深度学习的图像生成技术,旨在将一幅图像的风格(如纹理、色彩)与另一幅图像的内容相结合,创造出具有艺术效果的合成图像。:利用卷积神经网络(CNN)分别提取内容图像的结构信息和风格图像的纹理特征,通过优化过程生成兼具两者的新图像。总损失 = α × 内容损失 + β × 风格损失,通过梯度下降(如L-BFGS)调整生成图像像素值。:生成图像与内容图像在指定层特征图的均方误差(MSE)。:将照片转化为名画风格(如梵高、毕加索)。

2025-04-01 23:31:57 356

原创 3D CNN处理代码

A[输入CT:64x64x64x1] --> B[Conv3D-32核] --> C[MaxPool3D] --> D[Conv3D-64核]CT/MRI等医学影像具有立体结构,3D卷积可识别如肿瘤体积、血管走向等三维特征,2D卷积会因切面处理丢失深度关联。:医学影像(如CT)需捕捉三维空间特征(如肿瘤的立体结构),2D卷积会丢失深度信息。:展平可能丢失空间信息,但此处因后续任务为分类(非生成任务),可接受。:CT扫描的三维体素(voxel)尺寸,代表深度、高度、宽度。

2025-04-01 23:02:41 890

原创 深度学习中的ML Strategy是什么?

ML策略的本质是。

2025-03-31 10:06:35 621

原创 逻辑回归与决策树的区别

实际应用中常将二者结合(如逻辑回归输入决策树的输出作为特征),或升级为集成模型(如GBDT+LR混合模型)。输出特征系数(权重),可直接解释为特征对结果的影响程度(如“收入每增加1万元,逾期概率上升5%”)。假设特征与目标呈线性关系(需通过Sigmoid函数映射),无法直接处理非线性问题(如环形数据分布)。通过特征分裂自动捕捉非线性关系(如“收入>5万且年龄<30岁”的复杂规则)。信息增益类方法(如ID3)倾向于选择取值多的特征(如“用户ID”)。特征与目标关系复杂,需捕捉非线性模式(如用户行为预测)。

2025-03-30 15:40:25 281

原创 决策树模型类型及计算方法

适合分类任务,C4.5优化了连续特征处理。

2025-03-30 14:44:29 405

原创 在深度网络中,当批量梯度下降(Batch Gradient Descent)过程过于缓慢时,可以采用以下技术加速训练并帮助成本函数 J快速收敛到较小值

使用FP16和FP32混合精度计算,减少显存占用,加速计算(需支持Tensor Core的GPU)。通过结合上述技术,可以显著加速深度网络的训练过程,并帮助成本函数 JJ 更快收敛到较小值。:对每层的输入进行归一化(均值为0,方差为1),缓解梯度消失/爆炸。:动态调整特征权重(如Transformer),加速信息传递。:引入“惯性”概念,累积历史梯度方向,抑制震荡,加速收敛。:随着训练逐步减小学习率,初期快速接近极值,后期精细调整。:允许使用更大的学习率,加速收敛,减少对参数初始化的依赖。

2025-03-30 00:16:46 498

原创 L1正则化与L2正则化的区别

特征选择 + 稀疏性 → 高维数据、轻量化模型。

2025-03-29 23:40:14 845

原创 为什么要使用小批量梯度下降

其批量大小的选择(介于1和m之间)既避免了极端情况(SGD的噪声过大和Batch GD的计算成本高),又通过折衷策略在收敛速度和泛化能力间取得最佳平衡。实际应用中,建议根据硬件条件和任务需求,选择2的幂次批量大小(如32、64),并通过实验调参优化。研究发现,较小的批量大小(如32 vs. 1024)往往能提升模型的测试集性能,因为噪声迫使模型探索更平坦的极小值区域(flat minima),而平坦极小值通常泛化能力更强。(如32~512),既降低单样本噪声的负面影响,又避免全量计算的高开销。

2025-03-29 23:35:37 705

原创 小批量梯度下降(Mini-batch Gradient Descent)中,若成本函数 J 的图像不总是下降(表现为震荡或偶尔上升),可能由以下原因导致

尝试降低学习率或使用学习率衰减。

2025-03-29 23:33:29 609

原创 关于二分法的几种情况(chatgpt)

在使用该模板时,需要保证函数具有单调性和有界性,即函数单调递增或单调递减,并且存在一个区间使得该区间内的。对于一个有序数组,找到最后一个小于或等于目标值的下标,如果目标值在数组中不存在,则返回插入位置。对于一个有序数组,找到第一个大于或等于目标值的下标,如果目标值在数组中不存在,则返回插入位置。对于一个满足单调性的函数,找到一个最小的 `x` 使得 `f(x) >= target`。对于一个单调递增或递减的有序数组,找到一个目标值的下标。对于一个旋转有序数组,找到一个目标值的下标。

2023-05-07 18:09:13 111 1

原创 绘制谢尔平斯基三角形(newbing)

`sierpinski([points[0],getMid(points[0],points[1]),getMid(points[0],points[2])],degree-1,myTurtle)`:调用自身函数,传入新的参数,分别是最大三角形左上角顶点、左边中点、上边中点组成的列表、层级减一、和原来相同的Turtle对象。- `myPoints=[(-500,-250),(0,500),(500,-250)]`:定义一个列表,包含了最大三角形的三个顶点的坐标,赋值给变量`myPoints`。

2023-04-03 17:49:33 261 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除