
machine learning
eat_the_frog
to be or not to be
展开
-
多维张量
参照网页: 张量(tensor)是什么? 多维张量的几何理解 TensorFlow:使用tf.reshape函数重塑张量 tensorflow笔记:tf.reshape的详细讲解整理1.什么是张量(tensor)深度学习框架中的一个核心组件,后续的所有运算和优化算法几乎...转载 2020-01-14 16:08:59 · 2301 阅读 · 2 评论 -
GAN-李宏毅
课程链接https://www.bilibili.com/video/av24011528/?p=1知乎笔记Introduction李宏毅GAN教程(1)Basic Theory李宏毅GAN教程(2)改进GAN -WGAN怎样训练一个GAN?一些小技巧让GAN更好的工作Condition GAN李宏毅GAN教程(5)Condition GAN李宏毅GAN教程(6)...转载 2019-10-29 17:47:17 · 189 阅读 · 0 评论 -
正则化实现方法tf&keras
目录正则化:Tensorflowkeras实现开发新的正则项正则化:保留所有变量,但减小特征变量的数量级。这种处理方法更合适,因为实际所有变量对结果都有一定贡献,只是有些变量对结果的影响很小。正规化背后的思路:这些参数的值越小,通常对应于越光滑的函数,也就是更加简单的函数。就不易发生过拟合的问题。TensorflowTensorFlow中正则化的实现Tenso...转载 2019-10-24 16:46:43 · 1424 阅读 · 0 评论 -
梯度下降之随机梯度下降 -minibatch 与并行化方法
问题的引入:考虑一个典型的有监督机器学习问题,给定m个训练样本S={x(i),y(i)},通过经验风险最小化来得到一组权值w,则现在对于整个训练集待优化目标函数为:其中为单个训练样本(x(i),y(i))的损失函数,单个样本的损失表示如下:引入L2正则,即在损失函数中引入,那么最终的损失为:注意单个样本引入损失为(并不用除以m):正则化的解释这里的正则化项可...转载 2019-10-24 10:44:04 · 226 阅读 · 0 评论 -
权重衰减(weight decay)/正则化与学习率衰减(learning rate decay)
推荐:深度学习总结(九)——正则化1. 权重衰减(weight decay)L2正则化的目的就是为了让权重衰减到更小的值,在一定程度上减少模型过拟合的问题,所以权重衰减也叫L2正则化。正则项惩罚系数,会惩罚节点的权重矩阵,如果我们的正则项系数很高以至于一些权重矩阵几乎等于零。1.1 L2正则化与权重衰减系数L2正则化就是在代价函数后面再加上一个正则化项:其中C0代表原始...转载 2019-10-24 09:28:22 · 1696 阅读 · 0 评论 -
正则化
推荐:https://blog.youkuaiyun.com/jinping_shi/article/details/52433975推荐:ML中的过拟合问题1.欠拟合/过拟合现象1.1 现价预测问题(回归问题)、、三种方法: 线性拟合:很多数据未拟合 二次拟合: 四次拟合:过拟合1.2 分类问题--第2个图比较好不知道你之...转载 2019-10-23 12:11:08 · 2730 阅读 · 0 评论 -
向量L0、L1、L2、L∞范数,矩阵F-范数---转
一、向量范数向量范数表征向量空间的大小。 二、矩阵范数————————————————版权声明:本文为原文博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.youkuaiyun.com/qq_36512295/article/details/88824622...转载 2019-10-17 17:14:00 · 700 阅读 · 0 评论 -
batch-normalization
目录1.what is BN2. Howto Batch Normalize?[]3. Whereto use BN?4. WhyBN?5. Whento use BN?1.what is BNbatch normalization嘛,就是“批规范化” 在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各...转载 2019-04-18 07:32:10 · 149 阅读 · 0 评论 -
SENET&CBAM
https://mp.youkuaiyun.com/posteditSENET一个feature map经过一系列卷积池化得到的feature map,每个通道的重要程度还是不一样的,也就是说每个通道其实还应该有一个重要性权值才行,然后每个通道的重要性权值乘以每个通道原来的值,就是我们求的真正feature map,这个feature map不同的通道重要性不一样(可能权值大的乘以原来的数要大些)...转载 2019-03-11 06:57:05 · 2799 阅读 · 0 评论 -
Keras层的实现
keras中文文档https://keras.io/zh/layers/recurrent/keras源码分析https://www.jianshu.com/p/8dcddbc1c6d4实现自己的Keras层https://blog.youkuaiyun.com/DawnRanger/article/details/78307244所有keras层的基类:Layerkeras所...转载 2019-03-06 19:01:10 · 850 阅读 · 0 评论 -
LSTM原理
LSTM原理f:遗忘门forget gatei:输入门input gateo:输出门output gateg:input modulation gate ~ctTensorFlow中的LSTM源码理解与二次开发https://blog.youkuaiyun.com/LoseInVain/article/details/79642721PLSTM的T...转载 2019-03-06 17:16:21 · 736 阅读 · 0 评论 -
Attention机制
Attention-based Model其实就是一个相似性的度量,当前的输入与目标状态越相似,那么在当前的输入的权重就会越大,说明当前的输出越依赖于当前的输入。严格来说,Attention并算不上是一种新的model,而仅仅是在以往的模型中加入attention的思想,所以Attention-based Model或者Attention Mechanism是比较合理的叫法,而非Attenti...转载 2019-03-03 16:17:16 · 365 阅读 · 0 评论 -
TCN时间卷积网络-处理时间序列数据的网络结构
Temporal Convolutional Network Causal Convolutions灵活的感受视野比如改变卷积核的参数,容易控制模型的记忆大小;Receptive fieldReceptive field = nb_stacks_of_residuals_blocks * kernel_size * last_dilation. If a T...转载 2019-02-24 17:56:35 · 14176 阅读 · 4 评论 -
Colab
!apt-get install -y -qq software-properties-common python-software-properties module-init-tools!add-apt-repository -y ppa:alessandro-strada/ppa 2>&1 > /dev/null!apt-get update -qq 2>&...原创 2019-02-28 15:30:05 · 491 阅读 · 0 评论 -
核函数和核矩阵【转】
核函数为了解决线性不可分的问题,需要将样本从原始空间映射到高维空间,在高维空间实现线性可分。然后利用常见的线性分类器ex:SVM分类然而,将输入的空间中样本映射到新的空间中,在新的空间中求内积;维数高,计算开销大。【可通过最后一张图理解】设计采用核函数的方法:利用核函数,不需要将输入空间中的样本映射到新的空间中去,在输入空间中就可以直接计算出内积了。对输入空间向高维空间的一种隐式映射...转载 2019-02-12 17:55:51 · 19881 阅读 · 2 评论