
算法
文章平均质量分 87
Hua Zhu
自动驾驶从业者,涉及环境感知、规划控制、仿真器、ROS
展开
-
【机器人】 D*算法-动态路径规划
D*算法-动态路径/运动规划目录D*算法-动态路径/运动规划1 前言1.1 命名由来1.2 使用场合2 算法逻辑2.1 主流程2.2 核心函数3 要点探讨3.1 D* 主要特点3.2 D* 和Dijkstra、A* 到底什么关系4 实例5 参考资料5.1 原文5.2 其他参考1 前言1.1 命名由来原话:The name of the algorithm, D*, was chosen because it resembles A*原创 2021-07-18 21:45:44 · 4628 阅读 · 2 评论 -
【数据分析】图解python数据分析常用库的关系
图解python数据分析常用库的关系numpy:核心数据组织 ndarray,常用统计函数pandas:数据二维报表风格管理,index,columns, valuescipy:常用科学计算库:傅里叶变化,优化算法等matplotlib:数据可视化基础包,提供基础绘图功能seaborn:数据可视化高级包,提供数据统计分析专业函数以及绘图方法。...原创 2019-06-04 16:51:52 · 562 阅读 · 0 评论 -
【机器学习】 特征值分解、奇异值分解与PCA的原理
1、PCA的原理 设n维随机变量X, 其对应的协方差矩阵是C 基于正交矩阵P,对随机变量X做正交变换,得到变量Y,对应协方差矩阵为R,如下所示。 C是X的协方差矩阵,R是Y的协方差矩阵,二者都是一个对称矩阵 协方差矩阵的对角线以外的值都是n维变量各分量之间的相关性的度量值,当值为0时表示两个分量无关,即相互独立,此时我们得到的变量具有很好的统计特性,便于处理,即我们的目标是...............原创 2019-05-21 11:47:32 · 1177 阅读 · 0 评论 -
【算法】图解A* 搜索算法
A* 算法是启发式搜索算法,是根据Dijkstra算法改进而来。问题引入如下图所示,S为起始(start)节点,G为目标(goal)节点。节点之间连线是两点的路径长度,如A到E的路径长度c(A,E) = 9。 节点旁的h值时当前节点到达目标节点(G)的预估值,如h(A)=15, 表示从当前点A到达目标点G的估计路径长度为15,此处h(x)即为启发函数,启发函数的设计有很多方法,具体可......原创 2019-01-11 00:57:25 · 35841 阅读 · 18 评论 -
【matplotlib】 图解pyplot figure、subplot、axes、axis的区别
图解matplotlib.pyplot figure、subplot、axes、axis的区别基本概念用matplotlib.pyplot绘图需要知道以下几个概念:画图板/画布:这是一个基础载体,类似实际的画图板,用pyplot.figure()函数创建,程序中允许创建多个画图板,具体操作的画板遵循就近原则(操作是在最近一次调用的画图板上实现),缺省条件下内部默认调用pyplot.fi...原创 2019-01-05 18:12:43 · 14134 阅读 · 1 评论 -
【强化学习】深度强化学习:DQN(深度Q学习)、经验回放、固定Q目标迭代流程。
以下是深度强化学习:深度Q网络DQN的迭代流程、其中增加了经验回放、固定Q目标等处理技巧。流程的关键点是:1、该流程是一个横向展开流程,从左向右是时间轴上的逐步迭代。2、流程中动作值函数的逼近方法使用的是神经网络模型(图中含NET的步骤,具体根据需要设计)。3、除初始化环节,每个迭代循环分为两大步操作,以随机缓存区为分界,上部为采样环节(sample,提供新的数据),下部为学习环节...原创 2019-01-03 10:02:51 · 7709 阅读 · 0 评论 -
【强化学习】强化学习:时间差分学习算法、SARSAmax算法、Q学习算法与神经网络模型结合迭代流程
以下是强化学习-时间差分学习算法、SARSAmax算法、Q学习算法与神经网络模型相结合的迭代流程图(深度Q学习)流程的关键点是:1、流程中动作值函数的逼近方法使用的是神经网络模型(图中含NET的步骤,具体根据需要设计)。2、流程中需要先利用网络完成所有动作空间的动作值估算,然后根据max策略选取一个动作值作为动作估计值,再结合折扣系数、直接奖励估算真值。3、每一次迭代中,都会使用两...原创 2019-01-02 23:09:59 · 688 阅读 · 0 评论 -
【强化学习】强化学习:时间差分学习算法、SARSA(0)算法与神经网络模型结合迭代流程
以下是强化学习-时间差分学习算法(SARSA(0)算法)与神经网络模型相结合的迭代流程图流程的关键点是:1、流程中动作值函数的逼近方法使用的是神经网络模型(图中含NET的步骤,具体根据需要设计)。2、模型中使用的动作值的真值是用神经网络模型(使用NET步骤)进行估算后乘于折扣率加上当前奖励得到的。3、每一次迭代中,用来训练模型的状态值S、动作值A都是上一步迭代所得(on-line策...原创 2019-01-02 18:17:02 · 648 阅读 · 0 评论 -
【机器学习】机器学习知识图谱:传统学习、神经网络、深度学习、强化学习、对抗学习等
注:以下为个人总结机器学习知识图谱,来源参考《机器学习》西瓜书、《深度学习》Udacity、《机器学习》Coursera等。原创 2019-01-01 15:59:25 · 2319 阅读 · 1 评论