- 博客(14)
- 收藏
- 关注
原创 机器学习全面详解:从基础概念到实战应用
机器学习的本质是数据驱动的模式识别与预测。它让计算机通过对历史数据的分析,自动构建数学模型,并用该模型对未知数据进行推理和决策。核心目标:从数据中提取特征、发现规律,实现 “预测”(如房价预测)或 “分类”(如垃圾邮件识别)。关键区别:与传统编程不同,机器学习无需人工编写具体规则,而是由模型自主从数据中学习规则。通俗理解:就像教孩子识别水果 —— 不用逐一说明 “苹果是红色、圆形、带果柄”,而是给孩子看大量苹果图片,孩子自然能总结特征并识别新的苹果。
2025-10-25 19:17:22
892
原创 MindSpore昇思大模型:开启AI之旅的快速通道
from mindspore.nn import SoftmaxCrossEntropyWithLogits # 交叉熵损失函数(适合分类任务)from mindspore.nn import Momentum # Momentum优化器# 1. 损失函数:SoftmaxCrossEntropyWithLogits(包含Softmax激活与交叉熵计算)# sparse=True表示标签为整数形式(如0-9),而非one-hot编码# 2. 优化器:Momentum(动量优化,加速收敛)
2025-10-25 18:19:25
736
原创 循环神经网络(RNN)全解析:从原理差异到实战落地
基于 LSTM 实现情感分类模型,核心是 "LSTM 提取时序特征 + 全连接层分类":python运行# 词向量层# LSTM层# 全连接层(分类)# 取LSTM最后一个时间步的输出作为全局特征循环神经网络通过循环结构解决了序列数据的时序依赖问题,但标准 RNN 的长期依赖缺陷被 LSTM/GRU 的门控机制缓解,而 Transformer 的注意力机制进一步推动了序列模型的发展。从情感分类实验可见,RNN 类模型在 NLP 任务中具有清晰的落地流程,核心在于数据预处理(词向量)和。
2025-10-24 16:40:41
704
原创 一文读懂卷积神经网络(CNN):从基础原理到经典模型
CNN 的核心优势在于对图像局部特征的高效提取,从 LeNet-5 的基础范式,到 ResNet 的残差连接、MobileNet 的轻量化设计,其演进始终围绕 “更高效、更轻量、更鲁棒” 的目标。掌握这些基础原理和经典模型,是深入计算机视觉领域的关键第一步。
2025-10-24 16:02:21
958
原创 一文搞懂前馈网络(全连接):原理 + MindSpore 实战
# 优化器:Adam+权重衰减optimizer = nn.Adam(net.trainable_params(), lr=0.001, weight_decay=1e-4)。全连接网络的训练,本质是 “优化权重 w和偏置 b”,让模型预测越来越准。MindSpore 不用改损失函数,直接在优化器里加参数:。损失函数是 “裁判”,用来衡量模型预测值 y^和真实标签 y的差距。(1)回归任务(预测连续值,如房价、温度)用均方误差(MSE),计算预测值和真实值的平方差平均值:。
2025-10-24 15:13:50
1415
原创 深度解析 ResNet:突破梯度困境的经典网络架构
而 ResNet 通过残差连接,将输入x直接跳过该层(或多层)传递到后续层,此时网络只需学习 “残差映射”F(x)=H(x)−x,最终输出为:H(x)=F(x)+x。为减少深层网络的计算量,Bottleneck Block 采用 “1×1 卷积 + 3×3 卷积 + 1×1 卷积” 的结构,通过 1×1 卷积先降维、再升维,大幅减少参数数量:。输入x → 1×1卷积(调整维度) → 输出x'↓→ BN → ReLU → 3×3卷积 → BN → ReLU → 3×3卷积 → 输出F(x)。
2025-10-24 15:01:12
970
原创 深度学习核心技术拆解:优化器与正则化详解(原理 + 场景 + 实践)
Ltotal=Loriginal+λ1⋅i∑∣wi∣+λ2⋅i∑wi2(λ1控制 L1 强度,λ2控制 L2 强度)。w=w−Gt+ϵη⋅∇L(w)(Gt为参数梯度平方的累积和,ϵ为防止分母为 0 的微小值,通常取1e−8)。w=w−E[g2]t+ϵη⋅∇L(w)(E[g2]t为梯度平方的移动平均,权重 0.9 和 0.1 可调整)。w=w−vt^+ϵη⋅mt^(默认参数:β1=0.9,β2=0.999,ϵ=1e−8)。
2025-10-23 20:00:35
958
原创 超详细!PyTorch 安装教程(Windows/macOS/Linux 全适配)
CPU 版本:仅依赖计算机的中央处理器(CPU)进行计算,适合入门学习、小规模模型训练或没有独立显卡的设备(如轻薄本)。安装简单,无需额外配置。GPU 版本:依赖 NVIDIA 独立显卡(需支持 CUDA)进行计算,训练大型模型时速度比 CPU 快 10-100 倍。但需要提前安装 NVIDIA 驱动和 CUDA 工具包,配置稍复杂。
2025-10-23 19:51:11
686
原创 深度学习通用调优指南:模型调试与训练策略优化
核心逻辑是:先通过训练曲线、数据分布分析定位问题(如欠拟合、过拟合、数据不匹配),再根据任务特性选择适配的优化方案(如图像任务加注意力、文本任务用预训练嵌入),最后通过验证集性能验证优化效果,若未达预期则重新诊断。若训练集与验证集的准确率、损失均趋于稳定(如分类任务准确率稳定在 90%,损失稳定在 0.3),但距离目标性能(如 95% 准确率)仍有差距,需判断是 “欠拟合” 还是 “性能瓶颈”:。正则化是对抗过拟合的核心手段,需根据任务类型和模型结构选择合适的方法,避免 “过度正则化” 导致欠拟合:。
2025-10-23 19:32:11
552
原创 从零开始!用 FNN 实现手写数字识别
隐藏层:2 层,第一层 128 个神经元,第二层 64 个神经元,激活函数用 ReLU(常用的非线性激活函数,能解决梯度消失问题)。运行代码后,我们会看到一张手写数字 “5” 的图片(因为 x_train [0] 的标签是 5),这就是我们要让模型学习识别的数据。print("训练集图片形状:", x_train.shape) # (60000, 28, 28):60000张28×28的图片。# 因为是10分类任务,需要将标签转为10维向量(如标签5转为[0,0,0,0,0,1,0,0,0,0])
2025-10-23 19:25:20
639
原创 基于昇思大模型的 RNN 情感分类实战:从原理到代码实现
情感分类是指将文本(如评论、推文)划分为不同情感类别的任务(常见为二分类:正面 / 负面)。循环神经网络(RNN)因能捕捉序列数据的时序依赖关系,成为处理文本这类序列数据的经典选择 —— 它可以 “记住” 前文信息,从而理解文本的语义连贯性。在昇思 MindSpore 中,我们可以通过简洁的代码实现 RNN(含 LSTM、GRU 等变体)的情感分类模型,下面从数据处理、模型构建、训练评估三个环节展开。
2025-10-23 11:24:20
393
原创 深入了解 IMDB 影评数据集:挖掘电影情感与文本价值的宝藏
无论是 NLP 初学者入门情感分析,还是研究者验证新模型的有效性,IMDB 影评数据集都是一个理想的选择。数据质量高:情感倾向明确,样本均衡,贴近真实文本场景。获取便捷:支持多种获取方式,适配不同工具链(Python、TensorFlow、PyTorch)。社区支持强:作为经典数据集,有大量开源项目和学术论文可参考,降低学习和研发成本。
2025-10-16 09:54:10
897
原创 揭秘LSTM的核心计算原理
W_i, U_i, b_i 等(权重、偏置):模型可训练参数,对输入 x_t 和上一时刻外部状态 h_{t-1} 做线性变换,是门控与记忆计算的核心参数。o_t :输出门,输出 [0,1] 区间向量,控制内部状态 C_t 向外部状态 h_t 的输出比例。i_t :输入门,输出 [0,1] 区间向量,控制候选记忆 \tilde{C_t} 的融入比例。f_t :遗忘门,输出 [0,1] 区间向量,控制上一时刻记忆 C_{t-1} 的遗忘比例。C_{t-1} :上一时刻内部状态(记忆单元),承载历史记忆信息。
2025-10-15 11:21:30
570
原创 一文读懂支持向量机:从原理到应用的入门指南
而核技巧的 “魔力” 在于:它不需要显式地把数据映射到高维空间,而是通过一个 “核函数”,直接计算高维空间中样本的内积(一种关键运算)—— 既实现了 “升维分类”,又避免了巨大的计算量。这个 “最大距离” 被称为 “间隔(Margin)”,而那些距离决策边界最近的点,就是 “支持向量(Support Vector)”—— 名字里的 “支持向量”,指的就是这些 “支撑起间隔” 的关键样本。间隔的大小,直接决定了模型的稳健性。但现实中,很多数据是 “非线性可分” 的,比如下面这种 “月亮形” 数据:。
2025-10-02 16:59:59
588
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅