- 博客(14)
- 资源 (2)
- 收藏
- 关注
原创 深度学习-视频集合
作者:机器之心 链接:https://www.zhihu.com/question/31785984/answer/204979840 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 Analytics Vidhya 网站曾发表过一篇文章,梳理了一些 2016 年关于深度学习的视频、教材和课程。分享出来,希望大家能从中受益。 文章由机器之心编
2017-07-29 09:47:14
687
原创 基于numpy+pandas的单层神经网络
import numpy as np from data_prep import features, targets, features_test, targets_test def sigmoid(x): return 1 / (1 + np.exp(-x)) def sigmoid_prime(x): return sigmoid(x) * (1 - sigmoi
2017-07-27 21:53:01
711
原创 基于Numpy+Python2.7的线性回归
#The optimal values of m and b can be actually calculated with way less effort than doing a linear regression. #this is just to demonstrate gradient descent from numpy import * # y = mx + b #
2017-07-25 21:07:04
1018
原创 《庄子》阅读感想-逍遥游
”野马也,尘埃也 ,生物之以息相吹也。 任何发生的事情都是在很多人共同作用下发生的。 适莽苍者,三餐而反,腹犹果然;适百 里者,宿舂粮;适千里者,三月聚粮。 想要走的够远,就应当做足够的准备。 斥鴳笑之曰:“彼且奚适也?我腾跃而上,不过数仞而下,翱翔蓬 蒿之间,此亦飞之至也,而彼且奚适也?”此小大之辩也。 故夫知效一官,行比一乡,德合一君,而徵一国者,其自视也,亦
2017-07-25 15:57:29
1119
原创 仅用Numpy写的感知机(单层前馈神经网络)
单层前馈神经网络 from numpy import * class NeuralNetwork(): def __init__(self): random.seed(1) self.synaptic_weights = 2 * random.random((3,1)) - 1 def __sigmoid(self, x):
2017-07-23 15:55:17
553
原创 python2与python3的区别
python2的print使用方法为: print "Hello", "world!" > Hello world! python3的print使用方法为 print("Hello", "world!") > Hello world! print()方式在python2版本是无法使用的,在python2.6版本中,print函数可以通过 __future_
2017-07-23 13:49:13
273
原创 Anaconda基础使用指南
管理包 安装了 Anaconda 之后,管理包是很简单的。 安装包,在终端中键入 conda install package_name 。如,要安装 numpy,键入 conda install numpy 可同时安装多个包。如:conda install numpy scipy pandas 还可以通过添加版本号(例如 conda install nump
2017-07-23 13:31:15
857
原创 BP算法推导
反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数EE关于权重ww(或偏置bb)的偏导数∂E{\partial E}/∂w{\partial w}的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。使用wljkw_{jk}^l表示从(l−1)th(l-1)^{th}层的kthk^{th}神经元到lthl^{th}层的jthj^{th}神经元上的权重。之所以ll的序号在(l−1)
2017-07-18 21:28:03
582
原创 BP算法推导
反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数$E$关于权重$w$(或偏置$b$)的偏导数${\partial E}$/${\partial w}$的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。 使用$w_{jk}^l$表示从$(l-1)^{th}$层的$k^{th}$神经元到$l^{th}$层的$j^{th}$神经元上的权重。之所以$l$的序号在$(l-1)
2017-07-18 09:29:50
360
原创 如何避免成为伪工作者
每天可能有很多工作,在做完一部分工作的同时,可能会有更多的工作到来,因为工作是动态迭代的过程,永远不可能有做完的时候。很多人因此产生焦虑,工作效率不高,这种人被称为伪工作者。 避免成为伪工作者,应当找到最重要的工作并优先完成,选择出做哪件事能够获得最大利益(个人/团体)。查看原文:http://data.1kapp.com/?p=199
2017-07-15 21:29:53
524
原创 优秀机器学习视频笔记收集
机器学习基石 学习笔记查看原文:http://data.1kapp.com/%e4%bc%98%e7%a7%80%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e8%a7%86%e9%a2%91%e7%ac%94%e8%ae%b0%e6%94%b6%e9%9b%86/
2017-07-14 19:27:26
297
原创 在线机器学习书籍
贝叶斯方法:概率编程查看原文:http://data.1kapp.com/%e5%9c%a8%e7%ba%bf%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e4%b9%a6%e7%b1%8d/
2017-07-14 17:08:48
312
原创 第一次接触tensorflow
#此为单变量版 import tensorflow as tf import numpy as np#creat data x_data = np.random.rand(100).astype(np.float32)#随机100个数据项,以float32格式存储 y_data = x_data*0.1+0.3#y=0.1x+0.3###creat tensorflow structure star
2017-07-06 18:00:33
217
原创 BP算法公式推导
反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数EE关于权重ww(或偏置bb)的偏导数∂E{\partial E}/∂w{\partial w}的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。使用wljkw_{jk}^l表示从(l−1)th(l-1)^{th}层的kthk^{th}神经元到lthl^{th}层的jthj^{th}神经元上的权重。之所以ll的序号在(l−1)
2017-07-06 13:33:55
2641
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人