- 博客(43)
- 收藏
- 关注
原创 Leetcode——链表
Leetcode——链表合并两个有序链表删除排序链表中的重复元素环形链表相交链表移除链表元素反转链表回文链表删除链表中的节点链表(Linked List)是最简单的线性的、动态数据结构。理解它是理解树结构、图结构的基础。区别于数组,链表中的元素不是存储在内存中连续的一片区域,链表中的数据存储在每一个称之为「结点」复合区域里,在每一个结点除了存储数据以外,还保存了到下一个节点的指针(Pointer)。由于不必按顺序存储,链表在插入数据的时候可以达到 O(1)O(1) 的复杂度,但是查找一个节点或者访问特
2021-09-16 11:09:37
1396
原创 Recurrent Neural Networks RNN -- Explained
多年来,递归神经网络(RNN)一直是解决顺序数据和自然语言处理(NLP)问题的大多数问题的答案,其变体(如LSTM)仍广泛用于众多最新模型中 到这个日期。 在本文中,我将介绍有关RNN的基本概念,并使用PyTorch实现纯香草RNN模型以生成文本。
2021-01-25 15:32:07
571
原创 Convolutional Neural Networks CNN -- Explained
本教程将介绍一种可以在图像分类任务中实现非常高准确性的深度学习方法-卷积神经网络。 特别是,本教程将向您展示PyTorch中卷积神经网络的理论和实际应用。
2021-01-25 14:21:29
784
1
原创 Support Vector Machine SVM -- Explained
Support Vector Machine SVM -- Explained什么是SVM?SVM的工作方式SVM的类型为什么在机器学习中使用SVM优点缺点内核功能线性的多项式高斯径向基函数(RBF)Sigmoid其他数据集示例线性SVM示例非线性SVM示例现实问题什么是SVM?支持向量机是用于分类,回归和离群值检测的一组监督学习方法。所有这些都是机器学习中的常见任务。您可以使用它们基于数百万张图像检测癌细胞,也可以使用它们通过拟合良好的回归模型预测未来的行驶路线。您可以针对特定的机器学习问题使用特
2021-01-25 13:40:00
386
原创 Logistic Regression -- Explained
Logistic Regression -- ExplainedLogistic回归简介线性回归与逻辑回归最大似然估计与普通最小二乘法Logistic回归如何工作?Scikit-learn中的模型构建加载数据中选择特征分割数据模型开发与预测使用混淆矩阵进行模型评估。使用热图可视化混淆矩阵混淆矩阵评估指标ROC曲线Logistic回归的优缺点优点缺点结论分类技术是机器学习和数据挖掘应用程序的重要组成部分。数据科学中大约70%的问题是分类问题。有许多可用的分类问题,但是物流回归很常见,是解决二元分类问题的有用
2021-01-25 13:14:47
719
原创 K-Nearest Neighbour -- Explained
K-Nearest Neighbour -- ExplainedK-Nearest Neighbour -- Explainedk-最近-Neigbors的优缺点优点缺点K-Nearest Neighbour – ExplainedK近邻: K-nearest neighbors(kNN)是一种受监督的机器学习算法,可用于解决分类和回归任务。我将kNN视为来自现实生活的算法。人们往往会受到周围人的影响。我们的行为受到我们成长的朋友的指导。我们的父母也以某种方式塑造我们的个性。如果您与热爱运动的人一起长大
2021-01-25 12:53:26
324
原创 PyTorch - 36 - PyTorch DataLoader源代码 - Debugging Session
欢迎来到DeepLizard。 我叫克里斯。 在本集中,我们将从上次查看数据归一化的地方开始。 只是这一次,我们将要调试代码,而不是编写代码,尤其是要调试到PyTorch源代码中,以查看在规范化数据集时到底发生了什么。
2021-01-13 14:02:19
388
原创 PyTorch - 35 - PyTorch数据集标准化 - Torchvision.Transforms.Normalize()
欢迎来到Deeplizard。 我叫克里斯。 在本集中,我们将学习如何规范化数据集。 我们将看到如何在代码中执行数据集归一化,并且将看到归一化如何影响神经网络训练过程。
2021-01-13 13:57:11
1995
原创 PyTorch - 34 - 在GPU上进行PyTorch - 使用CUDA训练神经网络
Welcome to deeplizard. My name is Chris. In this episode, we're going to learn how to use the GPU with PyTorch. We'll see how to use the GPU in general, and we'll see how to apply these general techniques to training our neural network.
2021-01-13 13:44:11
2782
原创 PyTorch - 33 - PyTorch DataLoader Num_workers - 深度学习速度限制增加
欢迎来到这个神经网络编程系列。 在这一集中,我们将看到如何利用PyTorch DataLoader类的多进程功能来加速神经网络训练过程。
2021-01-13 13:28:43
1065
原创 PyTorch - 32 - CNN训练循环重构 - 同时进行超参数测试
欢迎来到这个神经网络编程系列。 在本集中,我们将看到如何在保持训练循环和结果井井有条的同时轻松地对大量超参数值进行实验。
2021-01-13 13:23:47
1005
原创 PyTorch - 31 - Training Loop Run Builder - 神经网络实验
欢迎来到这个神经网络编程系列。 在本集中,我们将编写一个RunBuilder类,该类将允许我们使用不同的参数生成多个运行。
2021-01-13 13:09:49
684
原创 PyTorch - 30 - 超参数调整和实验 - 训练深度神经网络
欢迎来到这个神经网络编程系列。 在本集中,我们将看到如何使用TensorBoard快速试验不同的训练超参数,以更深入地了解我们的神经网络。
2021-01-13 13:00:00
3425
原创 PyTorch - 29 - 使用PyTorch的TensorBoard - 可视化深度学习指标
欢迎来到这个神经网络编程系列。 在本集中,我们将学习如何在神经网络训练过程中使用TensorBoard可视化CNN的指标。
2021-01-13 12:44:02
597
原创 PyTorch - 28 - PyTorch,TensorFlow和NumPy中的Stack vs Concat - 深度学习Tensor Ops
欢迎来到这个神经网络编程系列。 在本集中,我们将剖析级联和堆叠张量之间的区别。 我们将看三个示例,一个示例使用PyTorch,一个使用TensorFlow,另一个使用NumPy。
2021-01-13 12:36:05
827
原创 PyTorch - 27 - 带PyTorch的CNN Confusion Matrix - 神经网络编程
欢迎来到这个神经网络编程系列。 在本集中,我们将构建一些函数,这些函数将使我们能够为训练集中的每个样本获取预测张量。
2021-01-13 12:21:44
3266
原创 PyTorch - 26 - CNN训练循环说明 - 神经网络代码项目
欢迎来到这个神经网络编程系列。 在本集中,我们将学习如何使用Python为卷积神经网络构建训练循环。
2021-01-12 21:04:14
1077
原创 PyTorch - 25 - CNN训练与代码示例 - 神经网络编程课程
欢迎使用PyTorch进行神经网络编程。 在本集中,我们将学习训练卷积神经网络所需的步骤。
2021-01-12 20:57:52
1267
原创 PyTorch - 24 - CNN输出大小公式 - 额外的神经网络调试Session
欢迎使用PyTorch进行神经网络编程。 在此情节中,我们将看到输入张量在CNN中流动时如何进行变换。
2021-01-12 20:49:40
865
原创 PyTorch - 23 - 神经网络批处理 - 将图像批传递到PyTorch CNN
欢迎使用PyTorch进行神经网络编程。 我们在本集中的目标是将一批图像传递到我们的网络并解释结果。 事不宜迟,让我们开始吧。
2021-01-12 20:27:54
1267
原创 PyTorch - 22 - 使用PyTorch进行CNN图像预测 - 解释正向传播
欢迎使用PyTorch进行有关神经网络编程的系列文章。 在这一集中,我们将看到如何使用卷积神经网络从数据集的样本图像生成输出预测张量。 事不宜迟,让我们开始吧。 在本系列的这一点上,我们已经完成了模型的构建,从技术上讲,我们可以从这里直接进入训练过程。 但是,让我们努力更好地了解我们的网络是如何开箱即用的,然后,一旦我们对网络有了更深入的了解,我们将更好地准备去了解培训过程。第一步是了解正向传播。
2021-01-12 16:31:47
2866
原创 PyTorch - 21 - CNN Forward方法 - PyTorch深度学习实现
欢迎使用PyTorch进行有关神经网络编程的系列文章。 在这一篇中,我们将展示如何在PyTorch中为卷积神经网络实现正向方法。
2021-01-12 16:21:53
1735
原创 PyTorch - 20 - 如何调试PyTorch源代码 - Python中的深度学习
欢迎来到Deeplizard。 我叫克里斯。 在这一集中,我们将看到如何使用Visual Studio Code IDE调试PyTorch源代码。
2021-01-12 16:10:47
1637
原创 PyTorch - 19 - 可调用神经网络 - 深度的线性层
欢迎使用PyTorch进行有关神经网络编程的系列文章。 在这一篇中,我们将学习如何调用PyTorch神经网络模块,这意味着什么,以及它如何告知我们如何调用网络和层转发方法。
2021-01-12 16:04:58
696
原创 PyTorch - 18 - CNN权重 - PyTorch神经网络中的可学习参数
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 现在是时候了解我们CNN内部的重量张量了。 我们会发现这些权重张量存在于我们的图层中,并且是网络的可学习参数。 事不宜迟,让我们开始吧。
2021-01-12 15:50:38
2181
原创 PyTorch - 17 - CNN层 - PyTorch深度神经网络架构
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 在本文中,我们将通过对构造CNN各个层时使用的参数的理解,来了解它们。
2021-01-12 15:32:42
608
原创 PyTorch - 16 - 建立PyTorch CNN - 面向对象的神经网络
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 在本文中,我们将开始使用PyTorch构建我们的第一个卷积神经网络(CNN)。 事不宜迟,让我们开始吧。
2021-01-11 21:48:10
815
原创 PyTorch - 15 - PyTorch数据集和数据加载器 - 深度学习和AI的训练集探索
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 在本文中,我们将了解如何使用Dataset和DataLoader PyTorch类。本文的目标是使人们对使用数据集和数据加载器对象感到满意,并对我们的训练集有所了解。 事不宜迟,让我们开始吧。
2021-01-11 21:28:46
1261
3
原创 PyTorch - 14 - CNN图像准备代码项目 - 学习提取,转换,加载(Extract, Transform, Load : ETL)
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 在本文中,我们将编写本系列第二部分的第一个代码。我们将使用Torchvision(PyTorch用于机器学习的计算机视觉软件包)演示非常简单的提取,转换和加载管道。 事不宜迟,让我们开始吧。
2021-01-11 21:08:02
436
原创 PyTorch - 13 - 深度学习中的数据(重要)-人工智能的时尚MNIST
欢迎回到有关神经网络编程的系列文章。 在这篇文章中,我们将介绍Fashion-MNIST数据集。 我们将研究数据集规范,数据集的构建方式以及该数据集与原始MNIST手写数字数据集有何不同。 事不宜迟,让我们开始吧。
2021-01-11 20:47:28
479
原创 PyTorch - 12 - 深度学习代码 - ArgMax和缩减Tensor Ops
欢迎回到有关神经网络编程的系列文章。 在本文中,我们将学习张量的约简操作。我们将重点介绍常用的argmax()函数,并了解如何访问张量中的数据。 事不宜迟,让我们开始吧。
2021-01-11 20:28:22
712
原创 PyTorch - 11 - 深度学习张量 - 使用PyTorch进行广播和明智的操作
欢迎回到有关神经网络编程的系列文章。 在这篇文章中,我们将通过了解元素操作来扩展我们的知识,而不仅仅是重塑操作。
2021-01-11 14:24:43
933
原创 PyTorch - 10 - CNN扁平化操作 (Flatten Operation) 可视化 - 用于深度学习的张量批处理
欢迎回到有关神经网络编程的系列文章。 在本文中,我们将可视化单个灰度图像的张量展平操作,并且将展示如何展平特定的张量轴,这是CNN经常需要的,因为我们处理的是与单个输入相对的成批输入。 事不宜迟,让我们开始吧。
2021-01-11 14:01:00
6112
原创 PyTorch - 09 - Flatten, Reshape, 和Squeeze说明 - 使用PyTorch进行深度学习的张量
欢迎回到有关神经网络编程的系列文章。 从本系列的这篇文章开始,我们将开始使用到目前为止所掌握的关于张量的知识,并开始涵盖神经网络和深度学习的基本张量操作。
2021-01-11 13:41:41
1336
原创 PyTorch - 08 - 创建用于深度学习的PyTorch张量-最佳选择
欢迎回到有关使用PyTorch进行神经网络编程的系列文章。 在本文中,我们将仔细研究将数据转换为PyTorch张量的主要方法之间的差异。到本文结束时,我们将了解主要选项之间的差异以及应该使用哪些选项以及何时使用这些选项。 事不宜迟,让我们开始吧。
2021-01-11 12:38:49
310
原创 PyTorch - 07 - 神经网络编程 - 使用PyTorch进行深度学习
PyTorch - 07 - 神经网络编程 - 使用PyTorch进行深度学习Introducing PyTorch TensorsInstances Of The torch.Tensor ClassTensor AttributesTensors Have A torch.dtypePyTorch Tensor Type PromotionTensors Have A torch.deviceTensors Have A torch.layoutTake Away From The Tensor Att
2021-01-11 12:12:52
566
原创 PyTorch - 06 - CNN张量形状说明:卷积神经网络和特征图
PyTorch - 06 - CNN张量形状说明:卷积神经网络和特征图Convolutional Neural NetworkShape Of A CNN InputImage Height And Width图像色彩通道Image BatchesNCHW vs NHWC vs CHWN输出通道和特征图Feature Maps总结Convolutional Neural Network在此神经网络编程系列中,我们正在努力构建卷积神经网络(CNN),因此让我们看一下CNN的张量输入。在最后两篇文章中,
2020-12-15 12:50:02
1807
1
原创 PyTorch - 05 - Rank, Axes 和Shape:深度学习张量
PyTorch - 05 - Rank, Axes 和Shape:深度学习张量Rank, Axes 和Shape:深度学习张量张量等级排名和索引张量轴轴长张量的形状张量的形状很重要重塑张量总结Rank, Axes 和Shape:深度学习张量等级,轴和形状的概念是在深度学习中最关心我们的张量属性。秩轴数形状等级,轴和形状是在深度学习中从张量开始时最关心我们的三个张量属性。 这些概念是相互依存的,首先是等级,然后是轴,最后是形状,因此请密切注意这三个之间的关系。等级,轴和形状在一起都与我们在
2020-12-15 12:32:57
758
原创 PyTorch - 04 - 张量解释:深度学习的数据结构
PyTorch - 04 - 张量解释:深度学习的数据结构What Is A Tensor?Specific Instances Of TensorsIndexes Required To Access An ElementTensors Are Generalizations数学计算机科学总结What Is A Tensor?神经网络中的输入,输出和转换都使用张量表示,结果,神经网络编程大量使用了张量。张量是神经网络使用的主要数据结构。张量的概念是其他更具体概念的数学概括。让我们看一下张量的一
2020-12-15 12:13:02
453
原创 PyTorch - 03 - CUDA之解释:为什么深度学习使用GPU?
PyTorch - 03 - CUDA之解释:为什么深度学习使用GPU?为什么深度学习和神经网络使用GPUGraphics Processing Unit (GPU)Parallel Computing神经网络:并行计算卷积示例Nvidia硬件(GPU)和软件(CUDA)PyTorch随附CUDA在PyTorch中使用CUDAGPU可能比CPU慢GPGPU计算Tensors Are Up Next为什么深度学习和神经网络使用GPU这篇文章的目的是帮助初学者了解CUDA是什么以及它如何与PyTorch配合
2020-12-15 11:56:36
2958
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅