- 博客(114)
- 收藏
- 关注
原创 One-Hot 标签
One-Hot编码是一种将类别数据转换为数值数据的常用方法。它通过创建长度为类别总数的二进制向量来表示数据,其中仅有一个位置为1,其余为0。这种方法避免了简单数字编码可能引入的错误顺序假设,确保所有类别处于平等地位。典型应用包括分类问题的输入特征和输出标签处理,如手写数字识别。虽然One-Hot编码能有效消除顺序误解,但也存在维度爆炸和无法表达类别间关系的缺点。当类别数量过多时,通常会采用嵌入等替代方案。
2025-11-24 12:02:02
357
原创 决策树(Decision Tree)(补)
决策树对数据微小变化敏感,稳定性差,易过拟合。树集成方法(如随机森林)通过多树协作投票提升泛化能力。随机森林采用有放回抽样和随机特征选择增强多样性。提升树(如XGBoost)通过串行优化修正错误,具有高效、正则化等优势。决策树适合结构化数据,速度快且可解释,但对非结构化数据表现较差。神经网络则擅长处理各类数据,但可解释性弱。树模型适用于需快速、可解释的场景,但需依赖集成方法克服单树缺陷。
2025-11-14 08:00:00
1176
原创 自蒸馏学习方法
自蒸馏学习是一种模型优化方法,通过让模型自身充当"教师"和"学生"角色,将知识从复杂模型传递到简化版本。核心是利用软化标签传递类别关联信息,结合蒸馏损失和原始损失进行训练。该方法具有轻量化、自监督和强泛化特点,适用于模型压缩、提升小模型性能及半监督学习场景。典型实现包括同模型层间蒸馏、多阶段自蒸馏等。关键参数需调节温度系数和损失权重,确保教师模型稳定性和结构匹配,实现高效知识迁移。
2025-11-13 17:50:18
1034
原创 决策树回归的内容
决策树回归是一种监督学习模型,通过特征分裂将数据集划分为子集,输出子集内样本标签均值作为预测值。其核心是选择能最大限度减少子集方差的分裂特征,如示例中以"Earshape"为根节点特征。决策树容易过拟合,可通过剪枝或集成方法(如随机森林、梯度提升树)改善。此外,还能通过特征重要性评估各特征对预测的贡献。该方法直观易懂,适合处理非线性关系数据。
2025-11-13 08:59:01
1003
原创 RGB-D
摘要:RGB-D技术融合彩色图像(RGB)与深度信息(Depth),使机器具备三维感知能力。该技术主要包括四种硬件方案(结构光、ToF、双目视觉、LiDAR),通过不同原理获取深度数据。核心数据处理包含畸变校正、去噪、配准等预处理步骤,并支持三维重建、目标检测、姿态估计等算法应用。技术指标如深度范围、精度、帧率等决定了设备适用场景,目前在消费电子、机器人、医疗等领域广泛应用。未来发展趋势包括多传感器融合、端侧AI加速等方向,以解决现有技术在大场景、复杂环境中的挑战。
2025-11-12 20:53:49
750
原创 信息增益(Information Gain)
信息增益是决策树选择分裂特征的核心指标,通过计算特征分裂前后熵的减少量来评估其分类价值。本文以"耳朵形状"特征为例详细演示了信息增益的计算流程:先计算父节点熵(1),再按特征取值划分样本集并计算子节点熵(尖的0.72,下垂的0.72),最后得到信息增益0.28。对比计算"脸型"特征也得到相同结果。关键点在于特征分裂后子节点加权熵之和越小,说明该特征分类能力越强。决策树选择信息增益最大的特征进行分裂,从而实现最佳分类效果。
2025-11-12 10:00:00
646
原创 决策树(Decision Tree)
本文系统介绍了决策树的核心原理与应用。主要内容包括:1)数据准备,以猫分类数据集为例说明特征和标签的作用;2)决策树结构,分析根节点、决策节点和叶节点的作用;3)不纯度度量熵的定义与计算,说明其衡量分类混乱程度的作用;4)特征选择方法信息增益的计算过程;5)决策树的递归构建步骤和停止准则;6)预测流程及优缺点分析。文章通过具体案例详细解释了决策树从构建到预测的全过程,并概述了随机森林等改进方法。
2025-11-12 08:00:00
727
原创 混淆矩阵、精准率 、召回率与 F1 分数
【摘要】在稀有疾病分类等类别不平衡场景中,传统准确率指标存在严重误导性。文章通过混淆矩阵引入精准率(预测阳性中真实阳性的比例)和召回率(真实阳性中被检出的比例),揭示二者存在此消彼长的关系。提出用F1分数(调和平均数)综合评估模型性能,并对比不同阈值下的指标变化。进一步讨论多分类场景的扩展评估方法,包括微观/宏观平均、Fβ变体以及ROC与P-R曲线的适用差异。强调在医学诊断等关键领域,需结合精准率和召回率进行更全面的模型评估。
2025-11-11 09:00:00
1000
原创 机器学习项目全周期学习笔记
本文系统介绍了机器学习项目的全生命周期管理、部署架构、模型偏见及不良用例。项目周期包括项目定界、数据采集、模型训练和生产部署四个关键阶段,强调迭代优化和业务落地。模型部署需考虑架构选择(服务端/边缘推理)和MLOps运维体系(监控、扩容、日志等)。特别指出模型可能存在的偏见问题(如招聘歧视)及其治理方案(公平性指标、数据增强)。同时警示了技术滥用风险(深度伪造、欺诈等),提出需通过技术、法律、伦理等多维度进行综合治理。全文覆盖了机器学习从开发到应用的全流程要点及伦理考量。
2025-11-11 07:30:00
1304
原创 K-means 聚类
K-means是一种高效的无监督聚类算法,通过迭代优化将数据划分为K个簇。其核心步骤包括:随机初始化簇中心、计算数据点到簇中心的距离并分配簇、更新簇中心位置,直至收敛。算法最小化簇内平方和(SSE)作为优化目标,使用欧氏距离衡量相似度。实际应用中需预处理数据、确定最佳K值(肘部法则/轮廓系数)、标准化特征并评估结果。该算法计算高效但需预设K值、对初始中心敏感,适用于客户分群、图像分割等场景。关键参数包括n_clusters、n_init和metric,评估指标含SSE、轮廓系数等。
2025-11-10 19:54:30
1607
原创 迁移学习(Transfer Learning)
摘要:迁移学习是一种利用预训练模型解决目标任务的深度学习技术。其核心原理是通过复用预训练模型在源任务(如100万张图像分类)中学习到的通用特征(边缘、角点等),仅微调输出层或部分网络参数来适配目标任务(如小规模数字分类)。该技术能显著降低训练成本,在小数据场景(如仅50张图像)下仍能取得良好效果,适用于图像、文本等输入类型相同的任务迁移。标准流程包括选择预训练模型和目标任务微调两个阶段。
2025-11-09 09:30:00
1891
原创 数据增强(Data Augmentation)
数据增强是通过对现有样本进行合理变形或加噪来扩充训练集,旨在解决数据不足导致的过拟合问题,并提升模型对真实场景噪声和变形的鲁棒性。核心方法包括:1)引入扭曲(如弹性形变),模拟真实形态变化;2)添加符合实际场景的噪声(如背景音或传感器噪声)。有效性关键在于增强必须匹配测试集的真实分布,盲目添加随机噪声可能适得其反。此外,需区分训练集(可加噪声)与测试集(保持原始状态)。高级技术如风格迁移和GAN可生成更逼真的样本。数据增强应基于误差分析,针对模型弱点进行迭代优化,这一方法论适用于计算机视觉、自然语言处理等多
2025-11-09 08:00:00
860
原创 误差分析(Error Analysis)
本文探讨了机器学习模型优化的核心方法论。首先介绍了误差分析的关键作用,通过垃圾邮件分类器案例展示了如何对错误样本进行分类归因(如医药类垃圾邮件、钓鱼邮件等),将模糊的模型问题转化为具体优化方向。其次详细阐述了针对不同错误类型的解决方案,包括数据收集、特征工程(如邮件路由特征、拼写错误检测)等技术手段。最后构建了机器学习开发的迭代循环框架,强调"设计-训练-诊断-再设计"的持续优化流程。这三个环节形成有机联动:误差分析明确问题,解决方案针对性优化,而迭代循环确保改进可持续。这种"
2025-11-08 10:11:53
876
原创 偏差 - 方差(Bias/Variance)(补)
摘要:本文系统阐述了神经网络中偏差-方差权衡问题的诊断与解决方法,介绍了正则化技术的原理与实现(特别是L2正则化),并演示了代码实例。同时阐述了机器学习开发的迭代循环过程,最后以垃圾邮件分类为例,说明通过数据收集、特征工程和算法改进提升模型性能的方法。核心观点包括:通过增大网络降低偏差、增加数据减少方差;正则化技术能有效平衡大网络的拟合能力与泛化性能;机器学习开发需要持续诊断和迭代优化;垃圾邮件分类需结合多种技术手段提升识别效果。
2025-11-08 08:00:00
594
原创 正则化L1,L2
正则化是机器学习中防止模型过拟合的关键技术。L2正则化(权重衰减)通过在损失函数中添加权重平方和,使模型参数趋于较小值以提高泛化能力;L1正则化(LASSO)则通过添加权重绝对值实现特征选择,产生稀疏解。二者主要区别在于是否产生零权重:L2保留所有特征但缩小权重,L1会直接剔除不重要特征。弹性网络(Elastic Net)结合了L1和L2的优点,同时兼顾特征选择和模型稳定性。正则化技术根据数据特性(如特征维度、样本量)和需求(如特征解释性)选择使用,是优化模型性能的重要手段。
2025-11-07 10:30:00
706
原创 偏差 - 方差(Bias/Variance)
本文系统阐述了机器学习中的偏差-方差权衡问题。首先解析了偏差(欠拟合)和方差(过拟合)的概念及其表现:高偏差模型训练和验证误差都高,高方差模型训练误差低但验证误差高。其次介绍了通过正则化参数λ调节模型复杂度的方法,指出需要找到最优λ平衡偏差和方差。然后提出了诊断方法,包括对比训练/验证误差、学习曲线分析等,强调应根据诊断结果选择针对性改进策略:高偏差可通过增加特征、减小λ等提升模型复杂度;高方差则可通过增加数据、减少特征或增大λ降低复杂度。最后从理论层面解释了期望泛化误差的分解,为偏差-方差权衡提供了统计学
2025-11-07 08:00:00
1042
原创 模型评估与选择
文章摘要:本文从模型评估与模型选择两个维度展开。模型评估部分阐述了过拟合问题,提出通过训练/测试集划分来评估模型泛化能力,重点分析了线性回归和分类问题的评估指标(平方误差/交叉熵损失)。模型选择部分强调验证集的重要性,详细介绍了三划分数据集(训练/验证/测试)的方法,并以多项式回归和神经网络为例,说明了通过验证集选择最优模型的完整流程。全文系统性地阐述了机器学习中模型评估与选择的原理和方法,为构建泛化性能良好的模型提供了实践指导。
2025-11-06 09:30:00
603
原创 Adam 算法(Adaptive Moment Estimation)
摘要:Adam算法(Adaptive Moment Estimation)是深度学习中广泛使用的优化算法,由Kingma和Ba于2014年提出。它融合了动量法和RMSProp的优点,通过自适应调整每个参数的学习率实现高效训练。算法核心是同时跟踪梯度的一阶矩(均值)和二阶矩(方差),并据此调整学习率:梯度波动大的参数减小学习率,波动小的增大学习率。Adam具有收敛快、自适应性强、鲁棒性好等优点,但也存在可能陷入局部极小值等缺点。适用于大规模数据集、深层网络等场景。文中还给出了数学推导、Python实现示例和框
2025-11-06 08:00:00
2232
原创 多分类(Multiclass Classification)&多标签分类(Multi-label Classification)
多分类与多标签分类技术解析 摘要:本文系统介绍了两种常见分类任务。多分类任务通过Softmax回归将样本划分到互斥类别中,详细阐述了Softmax函数原理、神经网络实现及数值优化技巧。多标签分类则处理样本可同时属于多个类别的情况,采用Sigmoid激活函数和二元交叉熵损失,介绍了独立模型和共享特征两种建模方法。文章比较了两类任务的差异,包括类别关系、标签形式、激活函数选择等,并提供了TensorFlow/Keras实现示例和评估指标建议,为不同场景下的分类问题提供技术指导。
2025-11-05 10:30:00
2104
原创 激活函数:让神经网络 “跳出线性陷阱” 的关键
摘要: 激活函数是神经网络中引入非线性的关键组件,用于增强模型学习复杂模式的能力。常见的激活函数包括线性函数(仅用于特定回归任务)、Sigmoid(适合二分类输出层,但存在梯度消失问题)和ReLU(隐藏层主流选择,计算高效但可能引发神经元“死亡”)。不同层级的激活函数选择策略不同:输出层根据任务类型(如Sigmoid用于二分类),隐藏层优先选用ReLU以避免梯度消失。数学推导证明,若无激活函数,多层网络将退化为线性模型。扩展变种如LeakyReLU、Swish等进一步优化了性能。非线性激活函数是神经网络解决
2025-11-05 08:00:00
799
原创 TensorFlow & PyTorch
TensorFlow和PyTorch是深度学习两大主流框架。TensorFlow由Google开发,侧重工业部署,支持静态/动态图,生态丰富但API较复杂;PyTorch由Meta开发,原生动态图,语法简洁,适合科研调试。TensorFlow在移动端/生产环境更具优势,PyTorch在学术研究更受欢迎。两者功能正逐步趋同,实际应用中可根据需求选择或结合使用。
2025-11-04 09:00:00
429
原创 TensorFlow 中训练神经网络
本文介绍了基于TensorFlow的神经网络实现流程。首先描述了典型的神经网络结构:包含输入层、两个隐藏层(分别使用25和15个sigmoid神经元)和输出层(1个sigmoid神经元)。重点讲解了TensorFlow实现核心步骤:1)使用Sequential顺序模型定义全连接网络;2)二分类任务采用二元交叉熵损失函数;3)通过fit方法执行梯度下降训练。同时对比了逻辑回归与神经网络的实现差异,并指出实际应用中隐藏层更推荐使用ReLU激活函数以解决梯度消失问题。整个流程涵盖了从模型构建到训练优化的完整实现方
2025-11-04 03:30:00
876
原创 矩阵乘法(学习笔记)
本文系统介绍了矩阵运算的核心概念及应用。从点积运算(衡量向量相似度)出发,逐步讲解向量-矩阵乘法(对矩阵列向量做点积)和矩阵-矩阵乘法(行向量与列向量的点积集合),强调维度匹配规则(左矩阵列数=右矩阵行数)。通过NumPy实现示例(@运算符或matmul函数),演示了高效矩阵计算方法。重点阐述了神经网络全连接层的向量化实现,展示矩阵乘法如何用于线性变换(权重矩阵×输入+偏置)和激活函数处理。最后指出矩阵乘法在图像处理、神经网络和数值计算中的广泛应用,作为实现线性变换的基础工具。
2025-11-03 10:30:00
671
原创 神经网络学习笔记
本文介绍了神经网络的基本原理与应用。神经网络由输入层、隐藏层和输出层构成,通过权重连接和激活函数实现非线性变换。核心内容包括神经元计算、正向传播过程和典型应用场景(需求预测、人脸识别、手写数字识别)。文章详细演示了使用TensorFlow和NumPy实现神经网络的步骤,比较了向量化与循环计算的性能差异,并简要介绍了CNN、RNN等进阶方向。
2025-11-03 09:00:00
1138
原创 欠拟合、过拟合与正则化*
本文探讨机器学习中欠拟合和过拟合问题及其解决方法。欠拟合指模型过于简单无法拟合训练数据(高偏差),过拟合则是模型过于复杂学习训练数据噪声(高方差)。解决过拟合的三种方法包括:增加训练数据、特征选择和正则化。重点介绍了正则化技术,通过向损失函数添加惩罚项限制参数大小,从而降低模型复杂度。正则化适用于线性回归和逻辑回归,通过调整λ参数控制惩罚力度,是防止过拟合的通用方法。
2025-11-02 13:30:00
2164
原创 线性回归与逻辑回归的损失函数区别&逻辑回归的梯度
本文对比了线性回归和逻辑回归的两种损失函数。线性回归使用平方误差损失函数,该函数是凸函数,通过最小化预测值与真实值之间的平方差来实现回归任务。逻辑回归则采用对数损失函数,通过sigmoid函数将输出转换为概率,针对分类问题设计。其损失函数分两种情况处理,最终合并为一个凸函数表达式,确保优化时能找到全局最优解。文中特别指出,若错误地将平方误差用于逻辑回归会导致非凸问题,而正确的对数损失能保证凸性。两种损失函数都通过梯度下降优化,但分别适用于连续值预测和概率分类的不同场景。
2025-11-02 08:00:00
1956
原创 Binary Classification& sigmoid 函数的逻辑回归&Decision Boundary
本文介绍了二元分类的基本概念及逻辑回归模型的应用。二元分类任务旨在将样本划分为两个互斥类别(如垃圾邮件识别、肿瘤诊断等),通常用0/1表示。逻辑回归通过线性组合和Sigmoid函数将输出限制在0-1区间,表示样本属于某类的概率。决策边界是模型分类的分界线,可分为线性和非线性两种:线性边界通过简单线性方程划分(如直线),非线性边界则通过特征变换(如平方项)形成复杂形状(如圆形)。逻辑回归的关键优势在于其输出的概率解释性和处理非线性问题的灵活性。
2025-11-01 10:00:00
963
原创 从线性到多项式:回归模型的进阶与特征工程
摘要:本文探讨了线性回归模型中的关键问题及优化方法。首先指出特征数值范围与参数合理性的关系,强调特征缩放的重要性,介绍了均值归一化和Z-分数归一化两种常用方法。接着分析了梯度下降的收敛验证和学习率调优技巧,提出学习率调试策略。最后引入多项式回归模型突破线性假设,强调其本质是特征工程的一种形式,但需注意对高次特征进行缩放以避免参数不合理问题。这些方法共同构成了构建有效回归模型的技术体系,能显著提升模型性能和收敛效率。
2025-11-01 08:00:00
1231
原创 为什么 NumPy 比循环快?
本文阐述了线性模型中向量化计算的重要性及其底层原理。传统循环计算方法效率低下,而通过NumPy的向量化运算(如np.dot)能利用CPU的SIMD指令实现并行计算,大幅提升性能。文章对比了梯度下降算法中循环更新与向量化更新的效率差异,指出向量化方法简洁高效。同时介绍了线性回归的数学符号体系,并分析了梯度下降与正规方程两种优化方法的适用场景,最终推荐梯度下降作为更通用的参数优化方法。
2025-10-30 08:00:00
487
原创 多特征线性回归(Multiple Linear Regression)
摘要:多特征线性回归扩展单变量模型,通过多个自变量预测因变量。其模型表达式包含权重参数和截距项,通过最小化均方误差求解参数,可采用正规方程法或梯度下降法。关键预处理包括特征缩放、共线性处理和缺失值处理。评估指标如MSE、R²等衡量模型性能。常见问题有过拟合和欠拟合,可通过正则化、特征选择等方法解决。该模型适用于复杂数据预测,需根据数据特点选择合适方法和参数。
2025-10-29 09:00:00
628
原创 梯度下降(Gradient Descent)
摘要:梯度下降是一种优化算法,通过迭代调整参数w和b来最小化成本函数J(w,b)。其核心思想是从初始点出发,沿梯度反方向(最陡下降方向)逐步更新参数值。关键要素包括:学习率α控制步长,需适中以避免震荡或收敛过慢;参数必须同步更新以防计算偏差。算法通过计算偏导数确定梯度方向,不断逼近局部最小值,最终实现成本函数的最小化。
2025-10-29 08:00:00
625
原创 机器学习中的等高线
机器学习中的等高线是参数优化的可视化利器。它通过将高维损失函数投影到二维平面,直观展示梯度下降路径、特征尺度差异和多重共线性等问题。圆形等高线表示特征尺度一致,细长椭圆反映特征尺度差异,狭长山谷状则暗示多重共线性。通过观察等高线形态,可针对性优化学习率、特征预处理或模型结构。等高线还能用于分类边界可视化、聚类效果评估和超参数调优,是理解模型行为和优化训练过程的重要工具。
2025-10-28 11:55:11
922
原创 线性回归中梯度下降的最终结果是否为全局最小解
摘要:梯度下降法在线性回归中能否收敛到全局最小解取决于三个关键因素:(1)必须使用严格凸的均方误差(MSE)损失函数;(2)需设置合适的学习率,过大过小都会影响收敛;(3)特征需标准化处理并消除异常值和多重共线性。当满足这些条件时,梯度下降能保证找到全局最优解,否则可能导致模型性能不佳。实际应用中需要同时满足算法前提和数据质量要求才能获得理想结果。
2025-10-28 10:38:56
1382
原创 单变量线性回归(Univariate Linear Regression)&代价函数(Cost Function)
监督学习是通过带标签的数据训练模型进行预测,主要包括回归(预测连续值)和分类(预测离散类别)两类任务。单变量线性回归针对单一输入特征,使用假设函数fw,b(x)=wx+b建模。通过最小化均方误差代价函数来选择最优参数w和b,使预测值与实际值差距最小。代价函数可视化呈现下凸特性,通过寻找最低点确定最优参数。该方法是机器学习的基础,后续可扩展至多变量回归和梯度下降优化算法。
2025-10-26 20:23:17
855
原创 ML:Supervised/Unsupervised
本文辨析了人工智能领域的核心概念。机器学习(ML)是实现AI的核心技术手段,通过数据驱动算法优化模型,分为监督学习(预测标签)和无监督学习(探索数据结构)。通用人工智能(AGI)是终极目标,指具备人类水平的通用智能,目前尚未实现。文章还介绍了监督学习的回归与分类任务,无监督学习的聚类与降维技术,以及异常检测等关键应用领域。最后通过框架图总结了AI、AGI和ML之间的层级关系。
2025-10-24 23:46:09
1220
原创 深度学习 GPU 两种使用方法
深度学习训练中,GPU凭借其众核架构和高内存带宽,能大幅加速矩阵运算和梯度下降等并行计算任务。相比CPU,GPU可将训练时间从"天"级压缩到"小时"级。PyTorch提供了两种GPU使用方法:分散式迁移需对模型、数据等逐一进行GPU判断迁移,代码较冗余;集中式迁移则先定义目标设备,再统一使用to(device)方法迁移所有对象,代码更简洁高效。以CIFAR-10为例,使用GPU训练可将时间从数小时缩短至十几分钟,显著提升效率。
2025-10-23 17:53:06
894
原创 (补)CNN 模型搭建与训练:PyTorch 实战 CIFAR10 任务的应用
本文介绍了如何利用训练好的CIFAR10模型进行单图预测。主要包括:1)重新定义与原训练一致的Prayer网络结构;2)对输入图像进行标准化预处理(32x32 RGB转Tensor);3)调整输入维度适配批量推理;4)加载训练模型进行无梯度预测;5)输出10类别的预测分数及最可能类别索引。整个过程实现了从离线训练模型到实时预测工具的转化,最终输出结果需对照CIFAR10类别表解读。关键点在于确保推理环境与训练条件完全匹配,包括模型结构、输入尺寸和数据格式的一致性。
2025-10-23 17:09:07
1073
原创 神经网络中的 HWC→CHW 格式转换
HWC(高度、宽度、通道)和CHW(通道、高度、宽度)是神经网络中两种数据格式。CHW格式更符合主流框架(如PyTorch)要求,能提升计算效率,减少内存访问延迟,并与预训练模型兼容。转换方法包括使用NumPy的transpose或PyTorch的permute函数进行维度置换。CHW格式有利于优化GPU计算性能,适配深度学习框架的卷积操作要求。
2025-10-23 15:19:07
1054
原创 深度学习中的优化器
深度学习优化器是模型训练的关键组件,负责根据梯度调整网络参数以最小化损失函数。常见优化器包括SGD(简单稳定但收敛慢)、SGD+Momentum(加速收敛)、AdaGrad(适合稀疏数据)、RMSprop和Adam(结合动量和自适应学习率,推荐首选)。在PyTorch中,优化器使用分为三步:初始化、清空梯度、反向传播和参数更新。关键超参数包括学习率(需合理设置和衰减)、动量(默认0.9)和权重衰减(防过拟合)。建议优先使用Adam优化器,对稀疏数据可选AdaGrad,追求极致性能可尝试调优SGD+Momen
2025-10-23 14:36:19
835
原创 CNN 模型搭建与训练:PyTorch 实战 CIFAR10 任务
本文详细介绍了使用PyTorch实现CIFAR10图像分类任务的完整流程。主要内容包括:1)数据准备,使用torchvision加载和预处理CIFAR10数据集;2)模型定义,构建包含卷积层、池化层和全连接层的CNN网络;3)训练过程,包括损失函数、优化器设置,以及训练/测试循环的实现;4)结果评估,通过TensorBoard可视化训练损失和准确率曲线。文章提供了完整的代码实现和关键步骤说明,帮助读者理解深度学习图像分类任务的基本流程和实现方法。
2025-10-23 14:03:41
743
5点用例最近插入算法流程可视化(Prayer).html
2025-10-13
5点用例最近邻算法流程可视化(Prayer).html
2025-10-13
PySpark基础例题(包含map、reduceByKey、filter、sortBy等算子)
2025-09-14
通过PySpark单词计数案例带你学习map、flatMap、reduceByKey方法(Python)
2025-09-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅