自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

转载 tensorflow2 基于文本分类

本文都是按照tensorflow官方教程的学习import tensorflow as tffrom tensorflow import kerasimport numpy as np下载IMDB数据集IMDB 数据集已经打包在 Tensorflow 中。该数据集已经经过预处理,评论(单词序列)已经被转换为整数序列,其中每个整数表示字典中的特定单词。以下代码将下载 IMDB 数据集到您的机器上(如果您已经下载过将从缓存中复制)imdb = keras.datasets.imdb(trai

2022-02-14 00:06:20 266

转载 tensorflow2.0 图像分类

本文装载至tensorflow官方教程import tensorflow as tffrom tensorflow import kerasimport numpy as npimport matplotlib.pyplot as plt导入Fashion MNIST数据集fashion_mnist = keras.datasets.fashion_mnist(train_images,train_labels),(test_images,test_labels) = fashion_mni

2022-02-12 04:18:33 488

转载 Tensorflow入门学习

如何快速入门tensorflow,从tensorflow官网转载#导入Tensorflowimort tensorflow as tffrom tensorflow.keras.layers import Dense,Flatten,Conv2Dfrom tensorflow.keras import Model加载MNIST数据集mnist = tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test) = mnist.load_dat

2022-02-08 03:55:04 241

原创 PCA判断方向

由于产生的物体掩码带有物体摆放方向的信息,我们利用基于主成分分析(PCA)的方法从像素级二进制掩码估计零件的方向。一般来说,PCA是一种无监督,可以识别数据主要组成部分的方法。为了我们的目的,一组像素点的主方向是通过主成分分析来判断。图像分割部分输出的是一个覆盖零件的掩码其中n是掩码中的像素点数目,即PCA中的样本数目。首先,我们计算掩码的平均值点作为掩码的中心点:注意,平均点使几何中心。之后,减去掩码中所有的点。由c产生的残差坐标因此,Res的协方差矩阵及其对应的特征值和特征向量:由于像

2022-01-26 04:38:17 889 1

原创 工业齿轮位姿判断(1)

工业机器人大量应用在零件识别、抓取和现场巡检的制造环节、场景,机器人对零件的姿态识别技术已经成为智能制造领域中的重要一环。由于零件的位姿容易受到零件的种类、光照变化、遮挡等条件的影响,因此确定零件的位姿很具有挑战。现阶段的机械臂抓取工作主要分为以下几种:(1)基于传统算法的物体抓取机制。优先寻找物体轮廓,进而判断物体摆放方向,并根据形状估计物体中心位置的方式。如梁等人通过SURF(Speeded Up Robust Features)提取特征重建场景点云,然后利用ICP(Iterative Closest

2022-01-24 04:31:31 181

原创 隐马尔可夫5

1.前向算法前向概率:给定隐马尔科夫模型ααα,定义到时刻ttt部分观测序列为o1,o2,...,oto_1,o_2,...,o_to1​,o2​,...,ot​且状态为qiq_iqi​的概率为前向概率,记作αt(i)=P(o1,o2,...,ot,it=qi∣λ)α_t(i)=P(o_1,o_2,...,o_t,i_t=q_i|λ)αt​(i)=P(o1​,o2​,...,ot​,it​=qi​∣λ)直接看例子:考虑盒子和球模型λ=(A,B,π)λ=(A,B,π)λ=(A,B,π),状态集合Q

2022-01-20 02:49:14 1051

原创 隐马尔科夫4

本文是我学习李航老师的《统计学习方法》的学习笔记。概率计算法计算观测序列概率P(O∣λ)P(O|λ)P(O∣λ)的前向与后向算法。1.直接计算法给定模型λ=(A,B,π)λ=(A,B,π)λ=(A,B,π)和和观测序列O=(o1,o2,...,oT)O=(o_1,o_2,...,o_T)O=(o1​,o2​,...,oT​),计算观测序列O出现的概率P(O∣λ)P(O|λ)P(O∣λ),最直接的方法就是按概率公式直接计算。通过列举所有可能的长度为T的状态序列I=(i1,i2,...,iT)I=(i_

2022-01-18 05:02:11 580

原创 隐马尔科夫3

1.观测序列的生成过程根据隐马尔科夫模型的定义,可以将一个长度为T的观测序列O=(o1,o2,..,oT)O=(o_1,o_2,..,o_T)O=(o1​,o2​,..,oT​)的生成过程描述如下。输入:隐马尔科夫模型λ=(A,B,π)λ=(A,B,π)λ=(A,B,π),观测序列长度T;输出:观测序列O=(o1,o2,...,oT)O=(o_1,o_2,...,o_T)O=(o1​,o2​,...,oT​)。(1)按照初始状态分布πππ产生状态i1i_1i1​;(2)令t=1;(3)按照状态i

2022-01-16 04:18:24 548

原创 隐马尔可夫(2)

以下内容是根据李航《统计学习方法》自己的学习和总结。先看一个盒子和球的例子:假设有4个盒子,每个盒子里都装有红、白两种颜色的球,盒子里的红、白球由表中列出。按照下面的方法抽球,产生一个球的颜色的观测序列:开始,从4个盒子里以等概率随机选取一个盒子,从这个盒子里随机抽出一个球,记录其颜色后,放回;然后,从当前盒子随机转移到下一个盒子,规则是:如果当前盒子是1,那么下一盒子一定是盒子2;如果当前盒子是2或3,那么分别以概率为0.4和0.6转移到左边或右边的盒子;如果当前是盒子4,那么个以0.5的概

2022-01-14 04:01:26 665

原创 隐马尔科夫

知识概况隐马尔科夫,是建立在两个基本假设成立的基础上。什么是状态变量和观测变量呢?通俗解释–比如说,状态变量是高兴,对应的观测变量可以是脸上笑。状态变量是生气,对应的观测变量可以是板着脸。i1,i2,...,iTi_1,i_2,...,i_Ti1​,i2​,...,iT​表示每一个时刻,i1→i2i_1\to i_2i1​→i2​表示从上一个时刻到下一个时刻的状态转移。...

2022-01-12 03:07:55 352

原创 动态滤波和卡尔曼滤波(3)

一、隐马尔科夫模型隐马尔科夫模型是一个特别有用的概念,在目标跟踪或滤波中广泛使用的卡尔曼滤波就是一个隐马尔科夫的应用,还有其他很有应用。马尔科夫(有时被称为可视马尔科夫,VMM)与隐马尔科夫(HMM)都是用来描述时序概率问题的,用当前及过去的信息来预测未来信息。那么VMM和HMM有什么区别呢?VMM中的状态序列是可观测的,HMM中的状态序列是不可观测的,而可观测到的事件是一个状态序列的一个概率事件,即HMM是一个双重随机过程,其中的状态是隐藏的,所以称为隐马尔科夫。1. 定义隐马尔科夫模型是关于时序

2022-01-10 01:25:36 469

转载 动态滤波和卡尔曼滤波(2)

3.滤波问题根据目前为止所有的测量数据,估计当前的状态,这便是滤波。但是直接计算会有一个很明显的问题,注意到,计算值的条件是过去所有的测量数据,意味着计算每一个时刻都要回顾整个历史测量数据,那么随着时间的推移,更新的代价会越来越大。所以需要找到一种办法,根据时刻t的滤波结果,和时刻t+1的的测量数据,就能计算出t+1时刻的滤波结果,这个计算过程叫做递归估计。用公式表示,存在某个函数f,满足:P(Xt+1∣Y1:t+1)=f(YT+1,P(Xt∣Y1:t)P(X_{t+1}|Y_{1:t+1})=f(Y

2022-01-08 02:48:54 605

转载 动态滤波和卡尔曼滤波

1、先验知识(1)、条件概率条件概率的定义:条件概率是指事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为:P(A∣B)P(A|B)P(A∣B),读作“A在B发生的条件下发生的概率”。乘法定理:P(A∩B)=P(A)∗P(B∣A)=P(B)∗P(A∣B)P(A\cap B)=P(A)*P(B|A)=P(B)*P(A|B)P(A∩B)=P(A)∗P(B∣A)=P(B)∗P(A∣B)由乘法定理就可以推出全概率公式,P(A∣B)=P(A)∗P(B∣A)P(B)P(A|B)=\frac{P(

2022-01-06 05:02:53 561

原创 最小二乘法(1)

最小二乘法(1)用于测量处理的线性数学模型是由一个超定线性方程组给定的:∑j=1naijxj≈bj(i=1,2,3,....,N),n<N\sum_{j=1}^n a_{ij} x_j \approx b_j (i = 1,2,3,....,N), n<Nj=1∑n​aij​xj​≈bj​(i=1,2,3,....,N),n<N简写为Ax≈bAx \approx bAx≈b注:b=∣∣bi∣∣i=1Nb = ||b_i||_{i=1}^Nb=∣∣bi​∣∣i=1N​ ——

2022-01-04 04:02:41 199

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除