自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 吴恩达课后作业(一):具有神经网络思维的Logistic回归

本文介绍了基于Sigmoid函数的简单神经网络实现猫图像识别的方法。主要内容包括:1)数据预处理(图像平坦化和归一化);2)参数初始化;3)核心逻辑回归算法实现,包括Sigmoid函数、损失值计算和梯度下降;4)预测函数构建;5)模型整合与测试。最终实现了训练集70.33%和测试集34%的识别准确率。文章提供了完整的Python代码实现,展示了从数据加载到模型训练的完整流程,为学习神经网络基础提供了实践参考。

2025-09-20 11:44:10 468

原创 Inception 实现MNIST识别

本文实现了一个基于Inception模块的卷积神经网络用于MNIST手写数字识别。网络结构包含两个卷积层和两个Inception模块,通过多分支卷积结构提取特征。使用PyTorch框架实现,采用SGD优化器和交叉熵损失函数,在10个epoch的训练后,测试准确率可达99%以上。实验结果表明该网络结构能有效提升MNIST识别的性能,但运行速度较慢。文中还提供了完整的训练流程和准确率随epoch变化的可视化结果。

2025-08-13 21:11:42 185

原创 深度学习之基于卷积神经网络的手写数字识别(课后作业)

摘要: 该代码实现了一个基于PyTorch的MNIST手写数字识别卷积神经网络。主要包含数据预处理(归一化)、三卷积层网络结构定义(含ReLU激活和最大池化)、训练测试流程(使用SGD优化器和交叉熵损失函数)以及准确率可视化。代码设置了10个训练周期,每300个batch输出一次损失值,并在每个epoch结束时测试模型准确率。最后作者观察到训练过程中准确率波动较大,呈现"过山车"式的变化。程序使用GPU加速(若可用),并将训练过程中的准确率变化以折线图形式展示。

2025-08-12 22:36:48 153

原创 深度学习之基于卷积网络神经的手写数字识别

本文实现了一个基于PyTorch的MNIST手写数字识别卷积神经网络模型。使用包含两个卷积层、池化层和全连接层的网络结构,通过SGD优化器进行训练。代码中修正了forward拼写错误,并添加了GPU支持。训练过程显示每300批次的损失值,测试阶段计算模型准确率。最终绘制了10个训练周期内测试准确率的变化曲线,直观展示了模型性能随训练轮次的提升情况。该实现完整展示了从数据加载、模型构建到训练测试的深度学习流程。

2025-08-07 11:00:13 266

原创 深度学习之处理多维特征的输入

该代码实现了一个基于PyTorch的三层神经网络,用于糖尿病数据集二分类任务。模型结构为8-6-4-1,前两层使用ReLU激活函数,输出层使用Sigmoid。采用SGD优化器和BCELoss损失函数,训练1000个epoch后绘制了损失下降曲线。数据集从CSV文件加载,包含8个特征和1个二元标签。训练过程中记录了每个epoch的损失值,最终可视化展示了训练过程中损失的变化趋势。

2025-08-04 09:56:14 162

原创 深度学习之Logistic回归

本文演示了使用PyTorch实现逻辑回归模型的过程。主要内容包括:1)准备二分类训练数据;2)构建包含线性层和Sigmoid激活函数的模型;3)使用二元交叉熵损失和SGD优化器;4)进行1000次训练迭代;5)可视化预测结果,绘制概率曲线和0.5决策边界。代码展示了逻辑回归从数据准备到模型训练、评估的完整流程。

2025-08-02 22:19:38 220

原创 深度学习之使用pytorch框架实现简单的线性模型

本文使用PyTorch框架实现线性回归模型。主要步骤包括:1)准备数据集,将x和y数据转换为tensor;2)设计LinearModel类作为学习模型;3)构建MSE损失函数和SGD优化器;4)进行1000轮训练,每轮计算预测值、损失函数,并更新参数。最后测试了一个新样本x=4.0的预测结果,并绘制了权重w与损失值的变化关系图。该实现展示了PyTorch进行线性回归的标准流程,包括前向传播、反向传播和参数更新等关键步骤。

2025-08-01 09:52:34 196

原创 深度学习之反向传播算法

本文展示了神经网络反向传播的PyTorch实现代码。该代码创建了一个简单的线性回归模型,使用均方误差损失函数,通过100次迭代训练权重w。训练过程中记录了权重变化和MSE损失值,并最终可视化这两个指标的变化曲线。代码首先定义训练数据x_data和y_data,初始化权重w并设置可求导。在每次迭代中计算损失、执行反向传播、更新权重并清零梯度。训练后预测x=4时的输出,并绘制权重和损失随训练轮次的变化曲线,直观展示了模型的学习过程。

2025-07-30 10:21:40 194

原创 深度学习之简单的梯度下降模型

机器学习中的梯度下降示例:通过PyTorch实现线性回归训练。代码展示了一个简单线性模型y=w*x的训练过程,使用均方误差(MSE)作为损失函数。关键步骤包括:1) 前向计算预测值;2) 计算损失函数;3) 计算梯度;4) 更新权重w(学习率0.05)。训练70轮后,权重从初始值1.0逐渐接近理想值2.0,预测x=4时的结果从4.0提升到接近8.0。附图展示了权重w与损失函数值的变化关系曲线,验证了梯度下降算法的有效性。

2025-07-29 10:18:02 313

原创 深度学习之简单的线性回归模型

本文通过构建简单的线性回归模型y=w*x,使用给定的数据点(x_data,y_data)进行拟合。采用均方误差(MSE)作为评估指标,计算不同权重w值(0.0-4.0,步长0.1)下的损失值,并绘制损失曲线。结果显示最优权重w=2.0时MSE最小,表明该模型能完美拟合给定数据。

2025-07-28 15:35:31 116

原创 深度学习之简单的DNN实现

本文介绍了深度神经网络(DNN)的基本原理和实现流程。主要内容包括:1)DNN通过样本学习输入输出特征关系;2)实现步骤:数据生成(随机数X1-X3及对应Y1-Y3)、数据集划分(70%训练)、网络构建(4层全连接结构)、参数设置(MSE损失函数+SGD优化器);3)训练过程(1000次迭代)及测试结果(准确率约67%);4)模型保存与重载验证。所有操作均使用PyTorch在GPU上完成,并提供了完整的代码实现流程。

2025-07-25 11:16:42 473

原创 操作系统中的高级调度和低级调度

操作系统中的高级调度,低级调度的主要任务是什么?为什么要引入中级调度?

2025-03-13 16:24:31 562

原创 wireshark进行网络取证

使用wireshark进行网络取证

2024-03-13 11:37:23 1429

原创 Windows环境取证

电子取证里的Windows环境取证

2024-03-13 09:10:10 3557 3

原创 Web安全漏洞个人学习笔记

Web安全学习笔记

2024-01-09 20:37:24 1514 1

原创 Suricata(Ubuntu)的安装以及使用过程(超详细)

Suricata(Ubuntu)的安装以及使用过程

2023-12-30 00:44:37 6354 2

原创 Python实现置换密码

python实现置换密码

2023-12-28 08:58:12 1462 1

原创 拉宾(Rabin)公钥

【代码】拉宾(Rabin)公钥。

2023-12-25 09:28:48 1213

原创 ElGamal公钥实现

【代码】ElGamal公钥实现。

2023-12-25 09:24:37 492

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除