
Machine-Learning
文章平均质量分 84
Machine-Learning Algorithm
lotylotylotyloty
有问题随时留言!博主很忙~,可能回复很慢,请大家见谅!看到了会回复的
展开
-
Conservative Q-Learning(CQL)保守Q学习(三)-CQL在DDPG下的代码实现和实际应用效果
一些,但是笔者在此问题"BipedalWalker-v3"中并未发现它的明显优势,只能说在Reward的结果上,两者差距并不是很大,并且还存在着偶然性。可能是由于10W的数据集采用Batch=256来采样效果可能稍差一些并且存在一定的偶然性。4.用户可以直接运行OFFLineT_CQL.py与OFFLineT_QL.py两个文件来分别对应的加入了CQL的DDPG和未加入CQL的DDPG算法,得到结果并画图。笔者对CQL进行了实现和原文章代码部分的修改,放在了下面的链接里,欢迎各位对代码提出点评和修正。原创 2023-04-01 14:38:06 · 998 阅读 · 10 评论 -
Conservative Q-Learning(CQL)保守Q学习(二)-CQL2(下界V值估计),CQL(R)与CQL(H)
本文内容为《Conservative Q-Learning(CQL)保守Q学习(一)-CQL1(下界Q值估计)》的续写,限于篇幅,笔者无法将他们写在一起,必须分开来写,请各位读者见谅,本文将介绍CQL2的算法及其变种算法,并给出理论证明。原创 2023-03-26 18:38:57 · 1522 阅读 · 13 评论 -
Conservative Q-Learning(CQL)保守Q学习(一)-CQL1(下界Q值估计)
本文介绍非常有用的C-Q Learning算法,有助于解决Q值低估的问题,本文讲介绍2020年NIPS上的文章 是一篇兼具理论和实际应用的好文章。由于CQL原文内容符号比较混乱,并且在公式推导和符号定义上存在一些小错误。笔者进行了仔细阅读和分析,在此做出一些自己语言的总结理解和重述,给予和笔者一样的读者和研究者进行参考和帮助,希望可以和大家一起讨论和学习。、原创 2023-03-25 17:10:30 · 1966 阅读 · 15 评论 -
两种方法对经典最小二乘法的改进
一、经典最小二乘法①经典最小二乘法原理介绍最小二乘法的原理实质比较简单,本质的目的是要确定如下建立的一元线性回归模型的两个回归参数a1a_1a1和b1b_1b1:y=a1x+b1y=a_1x+b_1y=a1x+b1若已知m组样本观测数据(xi,yi)(i=1,2,3,4⋅⋅⋅m)(x_i,y_i)(i=1,2,3,4···m)(xi,yi)(i=1,2,3,4⋅⋅⋅m),经典的做法是根据离差平方和来达到一种最小的准则来进行确定的,即确定满足下面条件的a1′a_1'a1′和b1′b_原创 2020-08-08 16:11:15 · 7494 阅读 · 4 评论 -
机器学习算法分类概要汇总(一)ML-KNN算法(含代码)
笔者结合机器学习过程中利用MATLAB编程所实现的一些算法来对一些常见算法进行了函数封装便于初学人士进行参考和利用,这里简要介绍算法的概念和主要方法,适用于初学者去理解算法!注意!是理解算法,本文主要以例子来讲述算法,更加注重实际应用。更加详细算法的实现请见其他博客。一、ML-KNN算法算法概要介绍。多标签学习算法是基于KNN算法的一种改进算法,这里大概介绍一下ML—KNN算法的实现过程,结合一种例子方便不了解的人士来学习,直接上例子,便于大家去理解,问题引出 先给出一列三维样本特征及其三维坐标点原创 2020-11-11 19:36:49 · 3231 阅读 · 11 评论 -
经典数学模型之——灰度预测模型
1.灰度模型GM(1,1)简介和适用条件①GM(1,1)简介:灰度模型是一种强大的预测模型,是基于原始的数据进行累加计算求得一种规律在进行建模的模型,其强大在于将无序的原始序列可以转变为一种有序的生成指数序列,缺点在于它只适合于指数增长的预测,较为单一,GM(1,1)为一阶只含一个变量的微分方程模型。②GM(1,1)适用条件和改进(1)适用条件:已知原始样本数量为nnn,这里首先定义可容覆盖区间Θ\ThetaΘ如下:Θ=(e−2n+1,e2n+2) \Theta=( e^{-2\over n+原创 2020-08-16 18:24:36 · 18088 阅读 · 2 评论