
深度学习
文章平均质量分 91
Kuekua-seu
努力学习AI算法!
博客:kuekua.github.io
展开
-
Diffusion model经典论文
Diffusion model现状:比GAN训练更稳定,生成多样性更好,但生成效果不如GAN。作者因此思考,是否可以通过优化网络结构,在真实度和多样性上进行平衡,让生成效果变好。如何在有限计算资源的前提下提升Diffusion model的生成效果。原创 2024-03-07 11:28:52 · 1165 阅读 · 0 评论 -
AIGC学习资料总结
详细讲述了DALL·E的基本原理,DALL-E1相当于 VQVAE2+GPT(把pixel CNN换成了GPT),DALL-E2 是GLIDE + CLIP。视频还大篇幅讲述基础知识:AE,VAE,VQVAE,GAN,diffusion model的区别,着重讲述diffusion model的原理,还有classifier guided diffusion和classifier free diffusion。原创 2023-04-20 11:12:38 · 514 阅读 · 0 评论 -
Deep Learning读书笔记2---深度前馈网络
1.基本概念隐藏层: 神经网络中输入与输出层之间的中间层,训练数据并没有给出这些层中的每一层所需的输出,所以叫隐藏层。模型的宽度: 网络中的每个隐藏层通常都是向量值的。这些隐藏层的维数决定了模型的宽度。 向量的每个元素都可以被视为起到类似一个神经元的作用。 除了将层想象成向量到向量的单个函数,我们也可以把层想象成由许多并行操作的单元组成,每个单元表示一个向量到标量的函数。 每个单原创 2017-09-07 10:51:21 · 4623 阅读 · 0 评论 -
deeplearning.ai之卷积神经网络
1. 卷积层的优点: 2. 经典网络架构介绍LeNet-5 池化层为均值,而目前主流为max激活函数为sigmod或者tanh,而目前主流为reluAlexNet Local Response Normalization(LRN): 认为网络不需要那么多高激活神经元,因此将某些位置进行归一化处理(即对某点所有通道上的值进行归一化)。VGG-19 VGG网络的特征是简单,只使用3原创 2017-12-09 23:04:29 · 403 阅读 · 0 评论 -
深度学习模型网络学习之移动网络
1. SquezeeNet论文地址: SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE1.1 论文导读小型网络模型的优点:有利于分布式训练,减少数据交换量模型变小,对客户端的更新更便捷更容易在FPG原创 2018-04-06 18:51:48 · 886 阅读 · 0 评论 -
背景分割算法评测标准研究
## 基本概念:#### IOU: ## VOC数据集:#### 1. segmentation accuracy:__计算方式:__ segmentation accuracy = true positives /(true positives+ false positives + false...原创 2018-06-23 16:02:15 · 1173 阅读 · 0 评论 -
深度学习网络训练技巧
1. 数据增强1.1 海康威视研究院ImageNet2016:第一,对颜色的数据增强,包括色彩的饱和度、亮度和对比度等方面,主要从Facebook的代码里改过来的。 第二,PCA Jittering,最早是由Alex在他2012年赢得ImageNet竞赛的那篇NIPS中提出来的. 我们首先按照RGB三个颜色通道计算了均值和标准差,对网络的输入数据进行规范化,随后我们在整个训练集上计...原创 2018-07-19 11:59:40 · 1981 阅读 · 0 评论 -
深度学习模型网络学习之分类网络学习
VGG原创 2018-08-11 21:56:01 · 988 阅读 · 0 评论 -
目标检测之RCNN系列算法学习
目标检测之RCNN系列算法学习1. RCNN1.1 解决的问题1.1.1 image size warp1.1.2 训练数据不足1.2 论文结论1.2.1 数据相关性1. RCNN标题Rich feature hierarchies for accurate object detection and semantic segmentation Tech report作者团队...原创 2018-10-05 22:36:12 · 410 阅读 · 0 评论 -
Yolo3+mobileNet
1.Yolo3学习文章地址:https://pjreddie.com/media/files/papers/YOLOv3.pdf原创 2019-06-28 21:58:28 · 5346 阅读 · 1 评论 -
Batch Normalization
算法解决的问题:Internal Covariate Shift:训练时每个batch数据的分布可能会有所差异,原理:如图所示,训练时uuu,ooo为当前batch的均值和方差,并通过一阶矩的形式计算整个训练集的均值和方差,yyy,BBB根据decay参数进行更新学习的参数;推断时uuu,ooo为训练时计算好的整个训练集的均值和方差,yyy,BBB为训练时计算好的参数。参考网站:te...原创 2019-07-25 21:07:53 · 160 阅读 · 0 评论 -
深度学习最全优化方法总结
Adam算法:原理:mmm与vvv分别为梯度ggg的一阶矩和二阶矩估计,E(m)=E(g),E(v)=E(g2),E(m)=E(g),E(v)=E(g^2),E(m)=E(g),E(v)=E(g2),算法优点:结合了Adagrad善于处理稀疏梯度和RMSprop善于处理非平稳目标的优点对内存需求较小 ,计算量较小为不同的参数计算不同的自适应学习率也适用于大多非凸优化 - 适用于大...原创 2019-07-25 22:13:33 · 240 阅读 · 0 评论 -
YOLO算法的调整与优化
一. 代码篇1.1 引入const引用形参改善代码效率举个栗子: 在convolutional_layer.c文件的convolutional_out_height函数中:/*** 根据输入图像的高度(h),两边补0的个数(pad),卷积核尺寸(size)以及跨度(stride)计算输出的特征图的高度** 输入:l 卷积层,包含该卷积层的所有参数,实际这里没有必要输入整个l,因为只需原创 2017-11-21 17:47:55 · 9439 阅读 · 0 评论 -
deeplearning.ai之神经网络和深度学习
1. Logistic Regression Cost Function: 2. Vectorization 尽量使用向量化代替循环以提高执行效率!**Tips of Numpy:** 使用python/numpy时,在定义数据矩阵时,最好明确指定矩阵的行列数,否则可能会因python的广播特性出现一些不可预料的bug!3. Why deep representations用简单的L原创 2017-12-17 22:28:45 · 609 阅读 · 0 评论 -
CS231n学习笔记--13. Generative Models
1. Unsupervised LearningSupervised vs Unsupervised Learning:2. Generative Models概述:Generative Models的作用:Generative Models的分类:3. PixelRNN and PixelCNN基本原理:PixelRNN:PixelCNN:Training is faster than Pixel原创 2017-11-04 11:17:39 · 686 阅读 · 0 评论 -
CS231n学习笔记--14. Reinforcement Learning
1. What is Reinforcement Learning概述: 举个栗子: 再举一个: 2. Markov Decision ProcessMathematical formulation of the RL problemMarkov property: Current state completely characterises the state of the world原创 2017-11-06 23:00:16 · 638 阅读 · 0 评论 -
CS231n学习笔记--9.CNN Architectures
1. AlexNetTips:Trained on GTX 580 GPU with only 3 GB of memory.Network spread across 2 GPUs, half the neurons (feature maps) on each GPU.所以在CONV1中分为两部分,每部分输出大小为55X55X48!heavy data augmentation:a. 增大原创 2017-10-06 11:02:52 · 1088 阅读 · 0 评论 -
CS231n学习笔记--8.Deep Learning Software
1.CPU & GPU GPU更擅长做并行化简单任务处理,如矩阵运算等!2. Deep Learning Frameworks利用Numpy手动构建神经网络:利用TensorFlow构建神经网络:利用PyTorch构建神经网络:3. TensorFlow利用TensorFlow构建神经网络容易出现以下问题:解决方法: 1. Change w1 and w2 from placeholder (f原创 2017-10-04 20:41:35 · 1168 阅读 · 0 评论 -
Deep Learning读书笔记4---深度模型中的优化
1. 最小化经验风险利用训练集上的经验分布,p^(x,y)\hat{p}(x,y)替代真实分布p(x,y)p(x,y)。 现在,我们将最小化经验风险: 其中mm表示训练样本的数目。2.小批量算法通常,在所有训练集上准确计算优化参数计算代价非常大,因为我们需要在整个数据集上的每个样本上评估模型。 在实践中,我们可以从数据集中随机采样少量的样本,然后计算这些样本上的平均值。 随机方法的典型示例原创 2017-09-21 11:38:07 · 5618 阅读 · 0 评论 -
CS231n学习笔记--10.Recurrent Neural Networks
1. Recurrent Neural NetworkRNN 的关键点之一就是他们可以用来连接先前的信息到当前的任务上,例如使用过去的视频段来推测对当前段的理解。 有时候,我们仅仅需要知道先前的信息来执行当前的任务。例如,我们有一个语言模型用来基于先前的词来预测下一个词。如果我们试着预测 “the clouds are in the sky” 最后的词,我们并不需要任何其他的上下文 —— 因此下一原创 2017-10-07 23:01:51 · 646 阅读 · 0 评论 -
Deep Learning读书笔记1--基础知识篇(第二、三、四、五章)
Deep LearningAn MIT Press bookIan Goodfellow and Yoshua Bengio and Aaron Courville英文原版感谢大神在GitHub上共享自己的中文翻译:Deep-Learning中文PDF版第二章 线性代数An MIT Press bookIan Goodfellow an原创 2017-08-16 11:33:25 · 1963 阅读 · 0 评论 -
CS231n学习笔记--4.Backpropagation and Neural Networks
1.损失函数 其中SVM 损失函数计算的是不正确分类的得分惩罚,即Syi是正确分类结果的得分,Sj是错误分类结果的得分,超参数(1)度量正确分类得分的优越性。2.简单损失函数流程图:4.求解损失函数的梯度矩阵 其中,绿色数值代表前向网络中的实际值,红色数值代表反向神经网络得到的梯度值。5.常见的激活函数sigmoid有点落伍了(fallen out of favor and it is原创 2017-09-10 11:15:01 · 1025 阅读 · 0 评论 -
SVM--支持向量机简述
此文是根据July大神所写的支持向量机通俗导论(理解SVM的三层境界)一文的读后感,记录下自己的一点感悟与体会。SVM 它本质上即是一个分类方法,用wT +b 定义分类函数,于是求w、b,为寻最大间隔,引出1/2∥w∥2,继而引入拉格朗日因子,化为对拉格朗日乘子α的求解(求解过程中会涉及到一系列最优化或凸二次规划等问题),如此,求w、b 与求α 等价,而α的求解可以用一种快速学习算法SMO,至于核函原创 2017-09-14 22:35:54 · 1538 阅读 · 0 评论 -
CS231n学习笔记--11.Detection and Segmentation
1. Computer Vision Task2. Semantic Segmentation2.1 特点: a. Label each pixel in the image with a category label b. Don’t differentiate instances, only care about pixels2.2 步骤:a. Semantic Segmentation I原创 2017-10-14 17:48:35 · 1494 阅读 · 0 评论 -
CS231n学习笔记--15. Efficient Methods and Hardware for Deep Learning
Agenda Hardware 101: the Family Hardware 101: Number Representation Hardware 101: Number Representation 1. Algorithms for Efficient Inference1.1 Pruning Neural Networks Iteratively Retrain to Re原创 2017-11-08 23:36:43 · 825 阅读 · 0 评论 -
CS231n学习笔记--12.Visualizing and Understanding
What’s going on inside ConvNets?1. First Layer: Visualize Filters卷积网络第一层特征以原图像的特征清晰的展现出来:但是后续层的输出无法直接理解:2. Last Layer最后一层(全连接层)以最邻近算法得出物体类别:用降维算法得出结果:人脸检测特征激活值示例:遮挡实验,用于检测图像某一部分影响识别结果的程度,右图中,像素越红影响越小,越原创 2017-10-15 22:37:00 · 980 阅读 · 0 评论 -
Deep Learning读书笔记8--应用
1. 大规模深度学习深度学习的基本思想基于联结主义:尽管机器学习模型中单个生物性的神经元或者说是单个特征不是智能的,但是大量的神经元或者特征作用在一起往往能够表现出智能。 在训练过程中,数据并行某种程度上来说更加困难。 对于随机梯度下降的单步来说,我们可以增加小批量的大小,但是从优化性能的角度来说,我们得到的回报通常并不会线性增长。 使用多个机器并行地计算多个梯度下降步骤是一个更好的选择。 不幸的是原创 2017-10-17 11:40:13 · 541 阅读 · 0 评论 -
Deep Learning读书笔记7--实践方法论
1. 性能度量精度是模型报告的检测是正确的比率,而召回率则是真实事件被检测到的比率。 检测器永远报告没有患者,会得到一个完美的精度,但召回率为零。 而报告每个人都是患者的检测器会得到一个完美的召回率,但是精度会等于人群中患有该病的比例(在我们的例子是0.0001%0.0001\%,每一百万人只有一人患病)。 当使用精度和召回率时,我们通常会画PR曲线,yy轴表示精度,xx轴表示召回率。 如果检测到的原创 2017-10-13 10:54:34 · 753 阅读 · 0 评论 -
Deep Learning读书笔记6---序列建模:循环和递归网络
1. 展开计算图循环神经网络使用下面的公式定义隐藏单元的值。 为了表明状态是网络的隐藏单元,我们使用变量hh代表状态重写:上式可以用两种不同的方式绘制。 一种方法是为可能在模型的物理实现中存在的部分赋予一个节点,如生物神经网络。 在这个观点下,网络定义了实时操作的回路,如下图的左侧,其当前状态可以影响其未来的状态。 在本章中,我们使用回路图的黑色方块表明在时刻tt的状态到时刻t+1t+1的状态单个时原创 2017-10-11 14:15:23 · 2856 阅读 · 0 评论 -
Deep Learning读书笔记3---深度学习中的正则化
1.概念正则化定义为“对学习算法的修改——旨在减少泛化误差而不是训练误差”。 目前有许多正则化策略。 有些策略向机器学习模型添加限制参数值的额外约束。 有些策略向目标函数增加额外项来对参数值进行软约束。 有时侯,这些约束和惩罚被设计为编码特定类型的先验知识; 其他时候,这些约束和惩罚被设计为偏好简单模型,以便提高泛化能力。 有时,惩罚和约束对于确定欠定的问题是必要的。 其他形式的正则化,如被称为原创 2017-09-15 09:28:55 · 5239 阅读 · 0 评论 -
Deep Learning读书笔记5---卷积网络
1. 卷积公式: 2.卷积运算特点:稀疏交互: **参数共享:**参数共享是指在一个模型的多个函数中使用相同的参数。 在卷积神经网络中,核的每一个元素都作用在输入的每一位置上(是否考虑边界像素取决于对边界决策的设计)。 卷积运算中的参数共享保证了我们只需要学习一个参数集合,而不是对于每一位置都需要学习一个单独的参数集合。**平移等变:**如果一个函数满足输入改变,输出也以同样的方式改变这一性质,我们原创 2017-09-27 10:58:52 · 1777 阅读 · 0 评论 -
Yolo2代码解析
1. 激活层/*计算激活函数对加权输入的导数,并乘以delta,得到当前层最终的delta(敏感度图)输入: x 当前层的所有输出n l.output的维度,即为l.batch * l.out_c * l.out_w * l.out_h(包含整个batch的)ACTIVATION 激活函数类型delta 当前层敏感度图(与当前层输出x维度一样)说明1: 该函数不但计算原创 2017-11-10 11:44:36 · 5550 阅读 · 0 评论 -
CS231n学习笔记--Assignment2/3
1. Assignment21.1 全连接神经网络深度学习小白——CS231n Assignment2(FC) 深度学习笔记8:softmax层的实现1.2 卷积神经网络深度学习小白——CS231n Assignment2(CNN)pooling mean max 前向和反向传播对于mean pooling,真的是好简单:假设pooling的窗大小是2x2, 在forward的时候啊,就是在前面卷积原创 2017-11-11 23:28:34 · 458 阅读 · 0 评论 -
CS231n学习笔记--16. Adversarial Examples and Adversarial Training
Overview• What are adversarial examples? • Why do they happen? • How can they be used to compromise machine learning systems? • What are the defenses? • How to use adversarial examples to improve原创 2017-11-11 18:46:56 · 5694 阅读 · 0 评论 -
YOLO算法学习及训练
1. YOLO2代码在window下的训练代码: https://github.com/AlexeyAB/darknet原始代码: https://pjreddie.com/darknet/Tips: 1. 虽然要求OPENCV版本为2.4.13或2.4.3以上,VS2015,但实际上改一下代码中opencv和VS的配置信息,低版本也可以,本人版本opencv2.4.10 + VS2013。原创 2017-10-17 17:54:49 · 13081 阅读 · 0 评论 -
CS231n学习笔记--5.CNN&&6-7. Training Neural Networks
1.CNN1.1 原理Tips:1.每个卷积层由K个卷积模板生成,例如:第一层一般为边缘检测的卷积模板。2.为了使卷积前后的数据维度一致,可以将原始数据进行边拓展,拓展的数量为P。1.2.CNN流程Tips:1.每个卷积层后会有Relu操作,起将矩阵稀疏化的作用。2.若干个卷积层后会有POOL操作,其实就是降采样,一般取采样区域中的最大值为采原创 2017-09-13 18:35:19 · 1667 阅读 · 0 评论