自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(36)
  • 资源 (3)
  • 收藏
  • 关注

原创 量化分析:股票的筹码分布和获利比例(进化版本,全部免费接口)

本文使用全部免费的akshare的接口来计算每一个k线的筹码分布的,用于分析当前的价格获利比例。

2025-03-02 16:49:55 655

原创 WiseFlow本地搭建实录---保姆教程

本文介绍了如何从0开始搭建wiseflow的个人情报官的方法,目前所有的API全部都是免费的,对机器没有要求,大家可以放心搭建

2025-02-27 21:19:49 996 8

原创 深度强化学习实践 Maxim Lapan 章节13:A3C方法

上一章节我们就提到了,A2C有几个问题,第一必须在线,第二数据有太大的相关性,所以会导致我们的学习可能向不是我们想要的地方去发展了。

2025-02-21 18:36:06 391

原创 深度强化学习实践 Maxim Lapan 章节12:actor-critic方法

A2C,使用基准值来平衡策略的价值函数,从而更好的学习到更大的动作优势的操作。A2C原文中可以收敛A2C,但是DQN的收敛速度更快,我觉得还有很多要学习的东东

2025-02-21 15:23:27 916

原创 深度强化学习实践 Maxim Lapan 章节11:策略梯度: 一种替代方法

使用强化学习的策略梯度的方法来直接学习action的方法,更快的迭代方法,但是在应用到大型的环境依然存在很多波动的问题,学习KL散度,学习即熵来增加探索

2025-02-21 11:30:51 572

原创 深度强化学习实践 Maxim Lapan 章节9:加速强化学习的方法

这一章通过各种各样的方式来加速强化学习的方法。

2025-02-17 16:10:10 243

原创 深度强化学习实践 Maxim Lapan 章节8:DQN的扩展

这一章节是DQN的优化的场景,里面介绍了关于DQN的方法的一些优化的方法,例如优先级的缓冲,Double DQN,Dueling DQN,Noisy DQN等等,以及n步DQN,都是可以提升我们的学习的效果,我觉得非常好用

2025-02-15 02:59:26 594 1

原创 深度强化学习实践 Maxim Lapan 章节7:高级强化学习库

这一章介绍ptan类,可以封装我们绝大部分的强化学习的接口

2025-02-11 22:35:11 572

原创 深度强化学习实践 Maxim Lapan 章节6:深度Q-Network

这一章我们自己在原本的代码上做了修改适应了最新的Pong-v5的环境,并且完成了学习,输出了一个相对OK的结果,提出了我们中间遇到的很多的问题,并不是都解决了但是提出来也是一个记录。

2025-02-08 16:26:20 382

原创 Pytorch深度学习指南 卷I --编程基础(A Beginner‘s Guide) 第3章: 一个简单的分类

sigmoid, pytorch,BCE

2025-02-07 16:49:24 604

原创 Pytorch深度学习指南 卷I --编程基础(A Beginner‘s Guide) 第2章 重新思考循环训练

已经是torch的正式使用了,可以直接运行的数据和结果

2025-01-23 00:58:33 751

原创 Pytorch深度学习指南 卷I --编程基础(A Beginner‘s Guide) 第1章 一个简单的回归

numpy线性回归到pytorch的实现,简单的介绍pytorch的接口和取代numpy学习的步骤和方法

2025-01-22 21:44:26 854

原创 Pytorch深度学习指南 卷I --编程基础(A Beginner‘s Guide) 第0章

书接上回,为了使用好的深度学习的框架,我们需要使用pytorch的工具,那么必然要使用到我们的各种各样的关于pytorch的函数的用法,所以我们阅读了Pytorch深度学习指南,将里面的核心的关键的内容进行归纳和整理,当然这里的假设你有一定的numpy和简单的机器学习的基础。当然没有话也无所谓,你就当成pytorch的工具书也是一样,本书为第一卷,总共只有3章,包含了一章0,用于打一点简单的基础(简单的介绍,数据,梯度,学习率,标准化等)

2025-01-19 23:51:14 1023

原创 量化分析:股票的筹码分布和获利比例

用自己的方式计算了筹码的分布,可以量化的获取所有的筹码的分布的情况

2024-12-13 11:04:13 1346 3

原创 深度强化学习:强化学习部分已经完结

只是一个里程碑的总结,不为谁而唱的歌

2024-12-05 22:54:36 191

原创 强化学习导论 -章13策略梯度算法

本文是策略梯度算法,尤其是因为了A2C的算法,用于计算和评估我们的策略梯度和价值函数同时执行

2024-12-05 22:16:38 1022

原创 强化学习导论 -章12 资格迹

本章介绍了资格迹相关的内容,如何在尽可能保证精度的情况下,我们可以减少计算量来满足动态的在线的学习,我们使用了一种数学上优雅的方法。同时找到了论文证明了相关的定理的来源,提供了伪代码,后续应该会补充实际的案例

2024-12-02 16:31:52 812

原创 LeeCode 解题报告:2097. Valid Arrangement of Pairs

leecode里面关于欧拉通路的判断和查询的算法,核心Hierholzer算法的一点自我理解

2024-12-01 01:40:46 911

原创 强化学习导论 -章10 基于函数逼近的同归控制策略

本文在上一章的接触上解释了为什么有基于函数逼近的同轨策略的控制过程,包括了sarsa和n步sarsa以及平均收益的计算方法,给了一个实际的解决高山行车的问题的学习的代码用于展示这一章节的核心内容

2024-11-29 15:43:31 771

原创 强化学习导论 -章9 基于函数逼近的同轨策略预测

强化学习的函数逼近入门,介绍了线性逼近,深度学习,核函数等介绍方法,必须得说,我自己看书的时候有很多地方感觉很泛泛而谈,必须要自己写下这个blog才能更好的理解很多内容的实现.

2024-11-26 21:00:07 816

原创 强化学习导论 -章8 基于表格型的规划和学习

本文强调了规划的重要性,在学习的过程中,使用DP等算法不停的对策略进行改进,可以在较少的样本数量得到很好的学习的效果同时我们强调了前向更新和优先级清扫的重要性,使用了决策时规划和启发式算法的原理来进行偏向于实时的算法的更新能力。

2024-11-20 18:36:50 750

原创 强化学习导论 -章7 n步自举法

n步TD,在MC和TD(0)之间的一个算法,主要是通过n步的方法来快速的回溯到更远的步骤,从而更好的学习

2024-11-19 11:56:40 1071

原创 强化学习导论 -章6 时序差分

这一章节讲解了开始逐步学习的方法,时间差分,同时学习了sarsa, Q-learning, 期望sarsa等内容

2024-11-17 10:34:05 982

原创 强化学习导论 -章5 蒙特卡洛

蒙特卡洛 ,重要度采样,21点的蒙特卡洛方法

2024-11-15 21:51:37 1057

原创 蒙特卡洛--首次/每次访问型MC算法的收敛性证明

关于蒙特卡洛方法的收敛性证明

2024-11-14 21:12:06 713

原创 强化学习导论 -章4 动态规划

动态规划的策略更新,策略迭代,价值迭代函数,以及异步dp

2024-11-14 16:00:59 727

原创 强化学习导论 -章节3,4 马尔可夫决策过程与动态规划

这是对MDP,什么是马尔科夫决策链,以及什么事价值函数,什么是动作函数,他们的定理证明,以及互相的关系是什么

2024-11-13 20:08:48 1111 1

原创 强化学习导论 -章节2 多臂赌博机

强化学习的多臂赌博机章节的介绍

2024-11-13 14:35:16 1068

原创 管理类论文阅读之:BIFPET

BIFPET的中文阅读

2023-07-27 00:22:14 147 1

原创 深入理解linux内核系列--第⑦章:进程调度

CFS和进程调度相关核心功能介绍

2023-02-07 17:18:56 267

原创 深入理解linux内核系列--第三章:进程

《深入理解Linux内核》 进程

2023-02-03 13:12:31 237

原创 Dynamic Debug [dyndbg] 概述

对kernel的dynamic debug(dyndbg)功能的一个用法概述

2022-08-26 14:25:02 1329 1

原创 networkx绘制任务关系图

使用networkx绘制任务关系图想要绘制管理学上,任务与任务之间的指向(前置)关系,发现并没有现成的库可以用来解决相关问题。后来发现networkx可以用来指定Node和edge之间的关系,具体的networkx的教程,可以参考各个博主的文章。networkx可以方便的添加node和edge,但是networkx现有的layout对于流程图式的从左推到右的图形并不支持。已有的例如,随机布局,星状布局,圆形布局等,都不满足流程图布局,为了实现,流程图的最终调用关系(见下图),我们需要自己来指定各个节点在

2021-06-09 09:23:18 1457 2

原创 使用plt保存图片的问题

保存图片失败,坐标轴覆盖在python项目中,想要使用plt来保存图片,但是横坐标过长,保存图片出现了坐标轴覆盖的问题。但是对图片进行最大化设置后,图片就可以正常显示。检查保存下来的图片,依然为非最大化的图片。解决方案需要在保存前,设置图片的大小,从而保存的是设置后的图片内容,具体代码如下 plt.gcf().set_size_inches(20, 12) # get current figure保存图片可能会存在图片模糊问题,需要指定图片的dpi大小 plt.savefig("taskR

2021-06-08 19:58:35 21221 1

原创 RTK switch的SDK 初始化启动流程分析

最初接口rtk_init:hal_initdal_mgmt_initDevicehal初始化hal_init:/系统初始化,识别phy driver/| hal_init_sys| | osal_sem_mutex_create(Phy_sem,Miim_sem,Sds_sem,Tbl_sem)| | phy_identify_init| | | _phy_identify_phyctrl_register (supported_int_phys,sup

2021-03-04 20:10:49 1472 1

原创 管理经济学-使用Python和Z3求解本量利分析

使用Python和Z3库求解本量利分析此代码几乎可以完全解决本量利分析的各项参数,也可以适用于其他各种类似的分析题,只要满足z3的求解条件即可。python版本为python3,使用的z3库为4.8.6,下载和安装请直接查看网上的教程。Z3用于多项式的非线性分析,用于本量利分析不要太好,废话不多说,直接铺代码以下为本量利分析的基本公式及变量值,如有需求可自行添加。基本不需要再做改动,但是要理...

2019-10-17 18:45:38 997 7

the goal Goldratt

管理学必看

2021-03-22

Mathematics of Poker - Basic Equity Calculations and Estimates.pdf

德州基本的数学描述

2021-03-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除