神经网络
文章平均质量分 76
神经网络学习
Escape the bug
简单而快乐。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch中的gather的理解和用法
对于 PyTorch 中的 gather 函数理解原创 2023-11-27 14:48:45 · 574 阅读 · 0 评论 -
我们一块来学SVM支持向量机
SVM支持向量机支持向量1.线性可分2.最大间隔超平面3.最优化问题参考文章支持向量机(support vector machines,SVM)是一种二分类模型,它将实例的特征向量映射为空间中的一些点,SVM 的目的就是想要画出一条线,以 “最好地” 区分这两类点,以至如果以后有了新的点,这条线也能做出很好的分类。SVM 适合中小型数据样本、非线性、高维的分类问题。支持向量1.线性可分在分类问题中,最简单的分类就是二分类问题,而且这个二分类问题是一个线性可分问题。在一维空间,也就是一个坐标轴上面,原创 2022-03-08 10:41:16 · 594 阅读 · 0 评论 -
神经网络中Batch和Epoch之间的区别是什么?
随机梯度下降法是一种具有大量超参数的学习算法。通常会使初学者感到困惑的两个超参数: Batch大小和Epoch数量,它们都是整数值,看起来做的事情是一样的。在这篇文章中,您将发现随机梯度下降中Batch和Epoch之间的差异。阅读这篇文章后,你会知道:· 随机梯度下降是一种迭代学习算法,它使用训练数据集来更新模型。· 批量大小是梯度下降的超参数,在模型的内部参数更新之前控制训练样本的数量。· Epoch数是梯度下降的超参数,其控制通过训练数据集的完整传递的数量。概观这篇文章分为五个部转载 2020-11-26 21:24:11 · 1296 阅读 · 3 评论 -
神经网络文章收藏
U-net网络原创 2020-11-18 16:04:30 · 268 阅读 · 0 评论 -
学习一下:卷积神经网络
卷积神经网络目录01.概述2.背景3.网络结构数据输入层/ Input layer卷积计算层/ CONV layerReLU激励层 / ReLU layer池化层 / Pooling layer全连接层 / FC layer参考文章目录01.概述神经网络(neual networks)是人工智能研究领域的一部分,当前最流行的神经网络是深度卷积神经网络(deep convolutional neural networks, CNNs),虽然卷积网络也存在浅层结构,但是因为准确度和表现力等原因很少使用。目原创 2020-11-18 09:45:20 · 944 阅读 · 0 评论
分享