
deep learning
子涣_new
这个作者很懒,什么都没留下…
展开
-
作业2 台大李宏毅——Classification (分类)--1
台大李宏毅课程作业2内容提要助教例程自己的程序数据获取data_settrainmain首先分享找到的关于作业2的说明PDF和主教给的例程。链接:https://pan.baidu.com/s/1VoWKz2cOTrVFnQkSQjIrKA 提取码:njz3其中.ipynb文件用Jupyter Notebook打开,阅读比较方便。下面的链接是作业中用到的数据集:链接:https://pan.baidu.com/s/1HpXeECc1ay_a2FP76SaX4w提取码:mneu最后放上助教对本原创 2020-08-24 17:16:23 · 531 阅读 · 0 评论 -
台大李宏毅课程笔记5——Logistic Regression (逻辑回归)
台大李宏毅课程笔记4内容提要模型建立逻辑回归和线性回归对比Cross Entropy(交叉熵)原理及推导与Square Error(均方差对比)描述分类与生成分类生成分类优势多分类数据映射按照惯例先放课程视频连接:https://www.bilibili.com/video/BV1JE411g7XF?p=11《Pattern Recognition and Machine Learning》《模式识别与机器学习》内容提要本节课以三步骤讲解了逻辑回归,实现描述分类。step1:Function Se原创 2020-08-07 16:12:46 · 330 阅读 · 0 评论 -
台大李宏毅课程笔记4——Classification:Probabilistic Generative Model(分类:概率生成模型)
台大李宏毅课程笔记4内容提要分类与回归正推分类算法概率分类推导假设目标属于高斯分布多个分布分别求取联合求取相同分布小结优秀的数学推导按照惯例先放课程视频连接:https://www.bilibili.com/video/BV1JE411g7XF?p=10内容提要这节课主要讲的是分类算法。以多个特征作为输入数据,以分类结果作为输出。首先,介绍了分类与回归算法的区别;之后,以贝叶斯公式引出分类概率;(优秀的理解)之后,以高斯分布为例,解释最大似然估计的二分类方法;分类与回归分类即为求取一个目标函原创 2020-08-07 12:17:02 · 298 阅读 · 0 评论 -
台大李宏毅课程笔记3——New Optimization for Deep Learning深度学习新优化
台大李宏毅课程笔记3SGD with Momentum(SGDM)RMSPropAdamSWATS本次笔记主要包含两节课:https://www.bilibili.com/video/BV1JE411g7XF?p=8https://www.bilibili.com/video/BV1JE411g7XF?p=9SGD with Momentum(SGDM)SGDM通俗的讲就是在本次计算的偏导和learningrate的基础上,加上上一次的运动长度,也就是保持原来的运动趋势。下面两个图是对比SGDM原创 2020-08-05 14:45:46 · 734 阅读 · 0 评论 -
台大李宏毅课程作业1——Regression
李宏毅课程作业1作业内容完整程序程序分段描述加载库文件数据导入及预处理作业内容布置作业的视频链接:李宏毅2020机器学习配套作业讲解一句话就是用每个月20天的数据作为训练集,以9小时数据作为输入,求第10消失的pm2.5值。完整程序废话不多说,先上完整程序。然后再逐步解释,这个程序是纯手刻~不过注释较少,在本文档进行细致解释。import sysimport pandas as pdimport numpy as npimport randomimport matplotlib.pypl原创 2020-08-04 21:07:45 · 569 阅读 · 0 评论 -
台大李宏毅课程笔记2——Gradient Descent(梯度下降)
李宏毅课程笔记2AdagradStochastic Gradient DescentFeature Scaling(特征缩放)梯度下降的理论解释本次笔记主要包含三节课:Gradient Descent 1 2 3(梯度下降)李老师将梯度下降分为三节来讲,本次笔记对其进行统一的总结和记录。先放上视频链接:Gradient Descent 1https://www.bilibili.com/video/BV1JE411g7XF?p=5Gradient Descent 2https://www.bil原创 2020-08-04 20:48:26 · 200 阅读 · 0 评论 -
台大李宏毅课程笔记1——Regression&Basic Concept
李宏毅课程笔记1Regression提出问题建立模型梯度下降Regularization(正则化)Basic Concept(基本概念)重点备忘本次笔记主要包含两节课:Regression(回归)和Basic Concept(基本概念)先放上视频链接:Regression(回归)https://www.bilibili.com/video/BV1JE411g7XF?p=3Basic Concept(基本概念)https://www.bilibili.com/video/BV1JE411g7XF?原创 2020-08-03 21:42:47 · 285 阅读 · 0 评论 -
pytorch学习随笔记录二——遇到的未知函数记录
文章目录numpy数组维度互换函数**swapaxes**numpy数组维度互换函数swapaxes由于本次写的程序需要将数据数组除了batch之外,每次需要二次分组。所以处理数据维度又多了一层,但是经常需要变换两个分组的维度。此处用到swapaxes函数。数组是numpy库的。num = np.random.random((2,3,4))print(num)num = np.swapa...原创 2020-02-25 18:45:58 · 357 阅读 · 0 评论 -
pytorch学习随笔记录一——tensor,Autograd与数学求导结果计算对比
文章目录tensortensor常用操作对应代码Autogradtensor无论查多少资料看tensor总是从头说起,我觉得无外乎,如何定义,如何计算,如果转换。直接将常规用法写为一个文件,直接运行看结果和注释就可以知道tensor几乎全部的用法了。这个是参考侠之大者_7d3f的简书文章:https://www.jianshu.com/p/be67a948eebb。具体代码如下:当然,顺...原创 2020-02-12 16:51:56 · 377 阅读 · 1 评论 -
pytorch矩阵乘法mm,bmm
文章目录矩阵维度矩阵乘法torch.mmtorch.bmmtorch.matmul矩阵维度首先需要确认多维矩阵每个维度的对应含义。a = torch.tensor([[[3.], [1.]], [[4.], [0.]], [[2.], [1.]]])这是一个三维矩阵,他的size是:3,2,1很容易理解和记忆,最外层[]内的元素数即size的第一个参数,第二层对应第二个参数,以此类推。...原创 2019-09-27 16:54:26 · 4538 阅读 · 1 评论 -
python学习基础——numpy
文章目录引言array主要属性引言我竟然跟着百度文库学numpy,具体链接:Python中的Numpy入门教程看pytorch文档,第一句就是“本文的默认读者已经熟悉numpy”,面对这句话,我有点虚,就回去仔细看一看numpy的内容。毕竟用过MATLAB,应该还好。这里主要记录numpy的主要函数。这里附上中文手册:NumPy中文手册点开了中文手册,这期的主题改了,围绕中文手册的快速入门...原创 2019-08-30 22:55:10 · 586 阅读 · 0 评论 -
GAN实现MNIST图片生成——1.完整程序解读
文章目录提出问题提出方案方案一:分别训练多个网络方案二:一个网络网络上的MNIST_GAN程序理解导入库导入数据构建网络结构参数定义绘图开始迭代提出问题为了学习并且掌握GAN网络的基本知识,先用GAN网络实现MNIST图片生成,但是不仅仅是随机数字生成,我想实现指定数字生成。输入数字,生成对应图片。提出方案方案一:分别训练多个网络一共有0~9共十个数字,分别训练十个网络。再根据输入数字不...原创 2019-08-21 17:43:04 · 2604 阅读 · 0 评论 -
GAN实现MNIST图片生成——2.tensorflow图都搞不定
文章目录实现想法修改input函数修改D的网络修改loss函数实现想法我的想法是,将G的输入增加对应数字项;在D的输出中,分为real和fake的判别输出,以及num的值输出;用对真输入的判别和估值作为D的loss;用对假输入的判别和估值作为G的loss;这些思路都与原来变化不大,改动量较少;进一步想法,用判别的loss和估值的loss分别进化网络不同层的参数,那是下一步想法。修改...原创 2019-08-24 16:54:01 · 381 阅读 · 0 评论 -
《深度学习之TensorFlow》reading notes(3)—— MNIST手写数字识别之二
文章目录模型测试本文是在上一篇文章《深度学习之TensorFlow》reading notes(2)—— MNIST手写数字识别的基础上写的,主要内容是进一步实现对模型的测试、保存和模型读取使用。模型测试...原创 2019-06-20 16:51:31 · 255 阅读 · 0 评论 -
Jupyter Notebook kernel环境问题解决方案
目录Jupyter Notebook在conda虚拟环境使用问题Jupyter Notebook在conda虚拟环境使用问题昨天发现了jupyter notebook的便捷之处,今天就遇到了一些麻烦。首先就是,我用anaconda创建的虚拟环境不能被找到;找了网上一堆教程,说的最多的就是装nb_conda来实现虚拟环境切换,具体方法连接。如果你的问题可以直接用这种方法解决就最好了。如...原创 2019-03-26 19:42:00 · 794 阅读 · 0 评论 -
《深度学习之TensorFlow》reading notes(1)——y=2x +常用资料备忘
目录围绕TensorFlow这本书进行学习第一个练习 $y\approx 2\times x$练习使用markdown写博客围绕TensorFlow这本书进行学习第一个练习 y≈2×xy\approx 2\times xy≈2×x准备数据搭建模型迭代训练使用模型练习使用markdown写博客...原创 2019-03-27 09:41:36 · 332 阅读 · 0 评论 -
GAN-overview reading note(2)Least Squares-GAN
昨天说了GAN记得基本概念,同时说了等效的数学模型,和需要求解的目标函数!附上链接:文章目录LSGANLSGAN中文名:最小二乘GAN英文全称:Least Squares Generative Adversarial Networks原文地址:https://arxiv.org/abs/1611.04076github相关程序项目:https://github.com/hwalsukl...原创 2019-04-10 17:46:09 · 346 阅读 · 0 评论 -
搭建全新的python和tensorflow环境
文章目录引言在anconda中新建环境安装lib引言 经历了tensorflow异常,Jupyter Notebook异常,最后又经历了tensorboard异常,在解决了前两者之后,最后一个我实在是无力应战,最后,我放弃了,我妥协了!我换python版本可以吧,反正我对3.7也没啥特殊感情,最初只是因为它比较新而已……我现在换回3.6。又双叒叕一次重头再来,这次把建立基本环境的方法记录一下...原创 2019-04-08 18:05:58 · 4859 阅读 · 12 评论 -
tensorflow基础知识整理
基础知识tensor 张量插入UML图插入Mermaid流程图插入Flowchart流程图tensor 张量tensor是tensorflow中的基础变量,可以想象成一个结构体,由三个部分构成:tensor类型阶形状插入UML图张三李四王五你好!李四, 最近怎么样?你最近怎么样,王五?我很好,谢谢!我很好,谢谢!李四想了很长时间,文字太长了不适合放在一行.打量着王五...很好... 王五...原创 2019-04-09 11:08:19 · 682 阅读 · 0 评论 -
GAN-overview reading note(4)LSTMs解读
文章目录前情回顾前情回顾没想到自己已经坚持写到第四篇了,附上之前三篇的链接:GAN-overview reading note(1)基础概念GAN-overview reading note(2)Least Squares-GANGAN-overview reading note(3)Wasserstein GAN...原创 2019-04-15 21:48:22 · 341 阅读 · 1 评论 -
《深度学习之TensorFlow》reading notes(2)—— MNIST手写数字识别
文章目录MNIST手写数字识别准备数据建立模型(绘图)正向模型tf.matmultf.nn.softmax反向传播模型tf.reduce.xxx进行训练MNIST手写数字识别这简直就是机器学习或者说人工智能领域的“hello world!”《深度学习之TensorFlow》这本书也是拿这个例子作为讲完tensorflow基本语法后的第一个直接训练,基础语法我也没有仔细看,这种东西就当字典看看...原创 2019-04-12 17:43:39 · 400 阅读 · 0 评论 -
GAN-overview reading note(1)基础概念
文章目录GAN基本概念基本概念目标函数f-divergenceGAN万字长文综述原文链接GAN基本概念基本概念GAN(Generative Adversarial Networks)GAN(Generative Adversarial Networks)从其名字可以看出,是一种生成式的,对抗网络。再具体一点,就是通过对抗的方式,去学习数据分布的生成式模型。所谓的对抗,指的是生成网络和判...原创 2019-04-09 20:33:27 · 484 阅读 · 0 评论 -
GAN-overview reading note(3)Wasserstein GAN
文章目录了解WGAN了解WGAN继续读GAN overview,在第一部分基本了解了GAN的基本概念,又在第二部分了解了LSGAN对其的改进,同时也基本了解了GAN在训练过程中容易出现梯度为0,导致很难训练生成器。附上前两篇bolg的链接:GAN-overview reading note(1)基础概念GAN-overview reading note(2)Least Squares-G...原创 2019-04-13 20:52:08 · 390 阅读 · 0 评论 -
Jupyter Notebook,day1 2019.3.25
jupyter notebook参考:https://www.cnblogs.com/nxld/p/6566380.htmlhttps://www.itcodemonkey.com/article/6025.html简单来说,写代码主要为 code 单元格;用shift+enter直接运算输出;写注释或者修饰,或者不同等级标题用 markdown单元格,其中,标题用#开头,...原创 2019-03-25 20:17:36 · 215 阅读 · 0 评论