
ML
文章平均质量分 55
watkins
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
S函数 Sigmoid Function or Logistic Function
S函数 Sigmoid Function or Logistic Function原创 2014-07-08 11:08:17 · 2018 阅读 · 0 评论 -
使用深度学习打造智能聊天机器人
原文转载于:http://geek.youkuaiyun.com/news/detail/85091作者:张俊林,中科院软件所博士,技术书籍《这就是搜索引擎:核心技术详解》、《大数据日知录:架构与算法》作者。曾担任阿里巴巴、百度、新浪微博资深技术专家,目前是用友畅捷通工智能相关业务负责人,关注深度学习在自然语言处理方面的应用。 责编:周建丁(zhoujd@youkuaiyun.com) 本文为转载 2016-07-12 19:54:55 · 2806 阅读 · 2 评论 -
Understanding LSTM Networks
Understanding LSTM NetworksPosted on August 27, 2015Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each转载 2016-07-06 17:28:40 · 1320 阅读 · 0 评论 -
learn word2vector from scratch -- part 1
本文详细介绍了word2vector的算法原理,公式推导,参数更新的公式推导。一共分为4个部分,为了保证每个网页不是太长,分为4个网页分别给出。原创 2016-08-15 18:49:23 · 1648 阅读 · 1 评论 -
learn word2vector from scratch -- part 2
本文详细介绍了word2vector的算法原理,公式推导,参数更新的公式推导。一共分为4个部分,为了保证每个网页不是太长,分为4个网页分别给出。原创 2016-08-15 18:52:32 · 1493 阅读 · 0 评论 -
learn word2vector from scratch -- part 3
本文详细介绍了word2vector的算法原理,公式推导,参数更新的公式推导。一共分为4个部分,为了保证每个网页不是太长,分为4个网页分别给出。原创 2016-08-15 18:57:32 · 1599 阅读 · 0 评论 -
learn word2vector from scratch -- part 4
本文详细介绍了word2vector的算法原理,公式推导,参数更新的公式推导。一共分为4个部分,为了保证每个网页不是太长,分为4个网页分别给出。原创 2016-08-15 19:01:16 · 1660 阅读 · 0 评论 -
S2S (sequence to sequence) 算法理解
最近S2S火得一塌糊涂,不得不学习一下原创 2016-08-05 16:18:53 · 5821 阅读 · 0 评论 -
Evaluation of Deep Learning Toolkits
本文转载于Evaluation of Deep Learning ToolkitsEvaluation of Deep Learning ToolkitsAbstract. In this study, I evaluate some popular deep learning toolkits. The candidates are listed in alphabetical order: Ca转载 2016-08-24 10:36:03 · 2383 阅读 · 0 评论 -
Hinton's Dropout in 3 Lines of Python
Hinton's Dropout in 3 Lines of PythonHow to install Dropout into a neural network by only changing 3 lines of python.Posted by iamtrask on July 28, 2015Summary: Dropout is a vital转载 2016-06-30 15:20:30 · 1648 阅读 · 0 评论 -
Learning RNN from scratch (RNN神经网络参数推导)
从上一篇原创的文章到现在,已经有一年多了,目前终于有一些新的总结分享个大家。本文主要讲了RNN神经网络的基本原理,并给出了RNN神经网络参数更新的详细推导过程(back propagation),对于想知道RNN的参数是如果推导的,可以仔细阅读本文。因为时间有限,下面的总结难免有疏漏之处,请大家指正。本文结合了一个非常经典的RNN的例子代码,进行了详细的说明,RNN的代原创 2016-06-28 09:49:01 · 11418 阅读 · 4 评论 -
PCA的应用示例
在 PCA 详细算法介绍 (http://blog.youkuaiyun.com/watkinsong/article/details/38536463) 中, 因为篇幅问题 没有给出详细的代码示例, 这里给出代码示例。通过对人脸图像进行降维深入了解PCA算得使用。首先看一下数据集, 我们有12张人脸图像, 用10张人脸训练PCA降维矩阵, 剩下的两张可以用作测试。原创 2014-08-13 19:13:50 · 34956 阅读 · 15 评论 -
PCA 降维算法详解 以及代码示例
1. 前言 PCA : principal component analysis ( 主成分分析)最近发现我的一篇关于PCA算法总结以及个人理解的博客的访问量比较高, 刚好目前又重新学习了一下PCA (主成分分析) 降维算法, 所以打算把目前掌握的做个全面的整理总结, 能够对有需要的人有帮助。 自己再看自己写的那个关于PCA的博客, 发现还是比较混乱的, 希望这里能过做好整理。 本文的所有原创 2014-08-13 16:36:06 · 110392 阅读 · 31 评论 -
matlab ( octave ) imwrite 保存图像详解
刚刚写了imshow, 想了想发现imwrite和imshow是完全一致的, 所以根据上篇文章简单写写imwrite用法。上篇文章链接: http://blog.youkuaiyun.com/watkinsong/article/details/38535341采用图像:imwrite() 中, 如果参数为uint8类型, 那么期待的参数像素值范围为0-255, 如果参数矩原创 2014-08-13 13:38:15 · 13809 阅读 · 1 评论 -
matlab ( octave ) imshow显示图像详解
最近在用octave (类似于matlab的计算软件, 函数和matlab一致) 写程序的时候, 在显示图像和保存图像的时候遇到了一些小问题, 所以简单的总结了一下。本文用的图像为灰度图像:imread() 返回的图像类型是uint8类型, 这时用imshow显示图像的时候, imshow会认为输入矩阵的范围在0-255, 如果imshow的参数为double类型的原创 2014-08-13 13:16:50 · 10590 阅读 · 0 评论 -
LDA: 从头到尾彻底理解LDA (Latent Dirichlet Allocation)
LDA (Latent Dirichlet ), 潜在狄利克雷分布,从头到尾详细理解, 参数估计详细介绍。原创 2014-12-14 11:49:52 · 28436 阅读 · 5 评论 -
转载(添加自己的理解): 支持向量机通俗导论(理解SVM的三层境界)
最近一直在学习SVM, 想着干脆就彻底的把读书的时候不会的东西弄明白, 所以把july 的SVM详解仔细看了以下, 然后又看了两次台大的SVM教学视频,终于对SVM有了比较透彻的了解, 所以在这里转载一下july的SVM, 并且在一些地方添加了一下自己的理解,希望能够与大家分享一下。文中添加注解的地方,以以下标志开始和结束------------------------------转载 2015-01-06 10:52:01 · 2384 阅读 · 0 评论 -
Cross entropy
In information theory, the cross entropy between two probability distributions {\displaystyle p} and {\displaystyle q} over the same underlying set of events measures the average number of bits转载 2016-06-24 19:15:28 · 2503 阅读 · 0 评论 -
The Max Trick when Computing Softmax
The softmax function appears in many machine learning algorithms. The idea is, if you have a set of values, to scale them so they sum to 1.0 and therefore can be interpreted as probabilities.For exampl转载 2016-06-12 11:16:21 · 1451 阅读 · 0 评论 -
Understanding LSTM Networks
本文转载于:http://colah.github.io/posts/2015-08-Understanding-LSTMs/Understanding LSTM NetworksPosted on August 27, 2015Recurrent Neural NetworksHumans don’t start their thinking from转载 2016-11-07 15:06:45 · 2001 阅读 · 0 评论