自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 动态规划 解决矩阵链相乘问题

矩阵的乘法定义如下:设A是m×p的矩阵,B是p×n的矩阵,则A与B的乘积为m×n的矩阵,记作C=AB,其中,矩阵C中的第i行第j列元素cij​cij​k1∑p​aik​×bkj​ai1​b1j​ai2​b2j​⋯aip​bpj​当多个矩阵相乘时,采用不同的计算顺序所需的乘法次数不相同。

2024-10-19 12:17:10 1464 1

原创 动态规划 求子集和的个数

给定n个不同的正整数集合w=(w1,w2,…,wn)和一个正数W,要求找出w的子集s,使该子集中所有元素的和为W。第一行两个数字n(0

2024-10-19 11:59:20 768

原创 吴恩达机器学习——强化学习理论知识,个人学习笔记

状态-动作 价值函数的定义(Q函数的定义)显然,这是一个关于 状态 和 动作 的函数,其结果为我们在整个决策过程中所获得的价值。这是一个递归的定义。以离散模型进行举例说明Q值的作用:共有6个状态,其中1、6为最终状态。根据回报公式 和 Q函数的定义,可以计算出Q(s, a)值:从上面的例子中,我们发现,计算出每个状态所有可能的Q值,挑选最大的Q值的动作a,则能获得最优策略。贝尔曼方程贝尔曼期望方程用于计算在给定策略π下,状态s采取动作a时的期望回报。

2024-09-01 07:00:00 846

原创 跑动Lunar Lander代码(含wsl + jupyternotebook的使用),个人学习记录

起因:为了完成吴恩达机器学习课程中,强化学习部分的课后任务——Lunar Lander,光是跑动代码就花了很多的功夫。因此希望把各处搜集到的资料汇总起来。可能有不全的地方,建议在过程中遇到任何Error提示多在社区查资料,基本上都有大佬给出了对应的解决方案。

2024-08-03 00:11:46 1579

原创 将TensorFlow嵌入到Jupyter Notebook中,个人学习记录

起因是学习吴恩达机器学习过程中,在神经网络tensorflow的部分,需要在Jupyter Notebook中跑相关的代码,于是在网上找了很多资料,终于跑成功了。课程资料中需要跑的部分代码,可以看到提前安装NumPy、matplotlib、tensorflow。在未安装前,运行该代码出现“ModuleNotFoundError: No module named ‘matplotlib”错误。

2024-05-05 23:11:38 1537

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除