
机器学习
飞龙在天max
这个作者很懒,什么都没留下…
展开
-
贝叶斯滤波与matlab实现小机器人定位
贝叶斯滤波1. 概率基础回顾条件概率:p(x∣y)=p(x,y)/p(y) p(x,y)=p(x∣y)p(y)=p(y∣x)p(x)p(x|y)=p(x,y)/p(y) \\\ \\ p(x,y)=p(x|y)p(y)=p(y|x)p(x)p(x∣y)=p(x,y)/p(y) p(x,y)=p(x∣y)p(y)=p(y∣x)p(x)全概率公式:p(x)=∑yp(x,y)=∑yp(x∣y)p(y)p(x) = \sum\limits_y {p(x,y)}=\sum\原创 2020-10-16 16:28:44 · 1595 阅读 · 1 评论 -
Word2Vec 算法详解
Word2Vec 算法就是降维!我们训练一个具有单个隐藏层的简单神经网络,想要的是这些隐藏层的权重,这些权重实际上就是word vectors.这种trick还有很多形式。Another place you may have seen this trick is in unsupervised feature learning, where you train an auto-encoder to compress an input vector in the hidden layer, and原创 2020-09-08 18:11:03 · 1017 阅读 · 0 评论 -
Word Embedding算法综述及资源
简介https://machinelearningmastery.com/what-are-word-embeddings/https://www.zhihu.com/question/32275069词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。One of the benefits of using dense and low-dimensional v翻译 2020-09-07 17:55:43 · 581 阅读 · 0 评论 -
Generative Adversarial Nets
Generative Adversarial Nets摘要生成器和判别器在训练过程中,相互对抗,共同进化。我们同时训练两个模型,生成模型G,用来捕获数据分布,一个判别模型D用来评估输入样本来自于训练数据(真实数据)的概率。对G来说训练的过程是最大化D犯错误的概率。这个框架相当于一个极小化极大的双方博弈游戏。对于任意函数G, D,在空间中存在一个唯一解,即为G恢复训练数据,D处处等于1/2。G,D都由多层感知机定义,整个系统可以由反向传播训练,所以不需要马尔科夫链和近似推理网络。实验证明可以定性和定量生翻译 2020-07-03 10:31:08 · 199 阅读 · 0 评论 -
ObjectDetection调研报告
文章目录1. 定义2. 传统方法2.1 滑动窗口2.2 HOG Det.3. two-stage方法r-cnnSPPNetfaster r-cnn2. one-stage方法2.1 yolo2.2 ssd1. 定义图像分类采用图像并预测图像中的对象。例如,当我们构建一个cat-dog分类器时,我们给猫或狗拍照并预测它们的类别,但是当一张图片有多个分类对象时,我们就需要进行分类并且定位。(cla...原创 2019-11-27 10:25:17 · 161 阅读 · 0 评论 -
建立CNN模型1
建立CNN模型1.import 相关模组sequentialConv2DMaxPooling2DDropout2. 用Sequential开始建模3. convolution and pooling3.1 卷积层一个滤镜(矩阵),把本来的图片进行转换,转换之后可以代表之前的一些特征。(放大本来的特征)3.2 池化层精简一点?Conv2d 和 pooling 交替使用r...原创 2019-11-18 10:31:07 · 867 阅读 · 0 评论 -
吴恩达思维导图
翻译 2019-10-31 20:36:56 · 201 阅读 · 1 评论 -
奇异值分解(SVD)原理与在降维中的应用
奇异值分解(SVD)原理与在降维中的应用。 奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。具体参考:https://www.cnblog...转载 2019-10-19 10:46:59 · 103 阅读 · 0 评论 -
Neural Networks part 1
吴恩达老师的机器学习真的是非常好的入门课程,这次我想写写做神经网络feedforward propagation algorithm时遇到的小bug:这是一个非常简单的神经网络,用来进行手写数字的识别,开始我的预测函数其中计算部分是这样的:bias=1; %偏置%第1,2,3层a{1}=[bias*ones(m,1),X]; a{2}=a{1}*Theta1';a{3}=...原创 2019-08-01 19:51:09 · 105 阅读 · 0 评论