
深度学习笔记
文章平均质量分 89
深度学习笔记
小广向前进
世事洞明皆学问,人情练达即文章。
展开
-
tensorflow转onnx记录
使用tf2onnx 将pb文件转为onnx文件加上。安装tf2onnx以及onnxruntime。原创 2023-03-01 15:57:52 · 1588 阅读 · 0 评论 -
cuda11.6.2 + cudnn8.8.0 + tensorRT8.5.3 + pytorch1.13安装记录(亲测有效)
tensorrt、pytorch、cuda、cudnn 安装教程原创 2023-02-16 16:20:04 · 2727 阅读 · 0 评论 -
conda 搭建tensorflow-GPU和pycharm以及VS2022 软件环境配置
conda 搭建tensorflow-GPU和pycharm以及VS2022 软件环境配置原创 2023-02-17 15:34:13 · 2318 阅读 · 1 评论 -
深度学习之 imgaug (图像增强)学习笔记
Imgaug之增强标记BoundingBoximgaug是一个封装好的用来进行图像augmentation的python库,支持关键点(keypoint)和bounding box一起变换。原创 2023-03-01 11:39:35 · 3636 阅读 · 1 评论 -
深度学习基础训练流程
tensorlfow一般编程语言 python,易开发,模块多tensorflow框架训练科学计算库,python的一个包为什么使用框架完成反向传播,自动求导提供基础API接口卷积层、全连接层、池化层等优化器环境cpugpu并行计算,矩阵运算。原创 2023-02-21 10:32:37 · 2866 阅读 · 0 评论 -
pytorch搭建手写数字识别LeNet-5网络,并用tensorRT部署
pytorch搭建手写数字识别LeNet-5网络,使用opencv 加载图片并用tensorRT部署原创 2023-02-20 14:40:56 · 1323 阅读 · 0 评论 -
机器学习笔记(六)分类评价指标、混淆矩阵、精准率、召回率、P-R曲线、ROC曲线
准确率(accuracy)的陷阱、混淆矩阵(Confusion Matrix)、分类评价指标、PR曲线、ROC曲线、TP、FP、TN、FN、TPR、FPR、精准率(precision)、召回率(recall)、AUC、F1 score原创 2022-03-30 16:28:01 · 2861 阅读 · 0 评论 -
机器学习笔记(五)逻辑回归 、决策边界、OvR、OvO
目录1、分类问题2、逻辑回归3、损失函数4、决策边界4、OvR与OvO1、分类问题机器学习中有三大问题,分别是回归、分类和聚类。线性回归属于回归任务,而逻辑回归和k近邻算法属于分类任务。逻辑回归算法主要应用于分类问题,比如垃圾邮件的分类(是垃圾邮件或不是垃圾邮件),或者肿瘤的判断(是恶性肿瘤或不是恶性肿瘤)。在二分类的问题中,我们经常用 1 表示正向的类别,用 0 表示负向的类别。2、逻辑回归logistic回归是广义线性回归,因此与线性回归有很多相同之处。它们的模型形式基本上相同,都具有y^=wx原创 2022-03-29 17:06:04 · 2796 阅读 · 0 评论 -
机器学习笔记(四)模型泛化 、过拟合与欠拟合、L1正则化、L2正则化
目录1、过拟合与欠拟合2、学习曲线3、数据划分4、交叉验证5、偏差方差权衡 Bias Variance Trade off6、模式正则化 Regularization6.1、岭回归 Ridge Regression6.2、LASSO6.3、L1正则,L2正则和弹性网 Elastic Net1、过拟合与欠拟合欠拟合 underfitting算法所训练的模型不能完整表述数据关系过拟合 overfitting算法所训练的模型过多的表达了数据间的噪音关系2、学习曲线学习曲线:以训练数据原创 2022-03-28 15:25:51 · 2155 阅读 · 0 评论 -
机器学习笔记(三)梯度下降法 Gradient-Descent 与 数据归一化
机器学习笔记(三)梯度下降法 Gradient-Descent原创 2022-03-25 16:35:58 · 2430 阅读 · 0 评论 -
机器学习笔记(二)k近邻算法 kNN、线性回归法 Linear Regression
线性回归法 Linear Regression1、简单线性回归寻找一条直线,最大程度的“拟合”样本特征的样本输出标记之间的关系样本特性只有一个,称为:简单线性回归。假设我们找到了最佳拟合的直线方程:y=ax+by=ax+by=ax+b,则对于每一个样本点x(i)x^{(i)}x(i),根据我们的直线方程,预测值为:y^(i)=ax(i)+b\hat{y}^{(i)}=ax^{(i)}+by^(i)=ax(i)+b,真值为:y(i)y^{(i)}y(i)。我们希望y(i)y^{(i)}y(i) 和原创 2022-03-23 16:50:22 · 3271 阅读 · 0 评论 -
机器学习笔记(一)numpy的使用、机器学习基础概念
目录numpy1、创建 numpy.array1.1、常规创建 numpy.array 的方法1.2、其他创建 numpy.array 的方法1.2、其他创建随机数 random2、numpy.array 基本操作2.1、numpy.array 的基本属性2.2、numpy.array 的数据访问2.3、numpy.array 合并和分割3、numpy.array 中的运算4、numpy 中的聚合操作5、numpy 中arg运算6、numpy 中的比较和Fancy Indexing6.1、Fancy Ind原创 2022-03-22 09:59:59 · 2912 阅读 · 0 评论