- 博客(18)
- 收藏
- 关注
原创 从零开始量化分析 4:连接并使用欧易API
代码都上传github了,觉得有用的话,点个star关注一下,和我一起学习!有了基础之后,就可以开始考虑连接使用欧易API了,主打一个迅速直接,先跑通再优化。
2025-08-22 10:33:46
113
原创 从零开始量化分析 3:项目1-股票历史数据获取与均线可视化
data["Strategy_Return"] = data["Signal"].shift(1) * data["Daily_Return"] # 用前一天信号决定今天仓位。data.loc[data["MA5"] > data["MA20"], "Signal"] = 1 # 短期均线在上 → 买入。data.loc[data["MA5"] < data["MA20"], "Signal"] = -1 # 短期均线在下 → 卖出。(这里是均线,后续可扩展到 RSI、MACD)
2025-08-20 21:59:00
436
原创 从零开始量化分析 2:量化分析师的条件和路径
摘要:成为一名顶尖量化分析师需要掌握金融、数学和计算机科学的复合知识体系,包括微积分、概率统计、编程语言(Python/C++)、机器学习等核心技能。关键特长包括逻辑思维、数据敏感性和抗压能力。常用工具涵盖Python科学计算库(NumPy、Pandas)、回测框架(Zipline)以及彭博终端等数据源。该领域要求从业者持续学习并适应快速变化的市场环境。
2025-08-20 21:21:56
356
原创 从零开始量化分析 1:了解历史-对冲基金
这家由华尔街精英和诺贝尔经济学奖得主管理的基金,因过度依赖高杠杆和复杂的数学模型,在俄罗斯债务违约后濒临破产,最终由美联储出面组织华尔街各大银行进行救助,凸显了对冲基金可能引发的系统性风险。这是最经典的对冲基金策略,即同时买入(做多)被认为价值低估的股票,并卖空(做空)被认为价值高估的股票,从而对冲市场风险,专注于个股选择的收益。是对冲基金实现高收益的重要手段。] 他通过同时买入被看好的股票和卖空被看空的股票,来对冲市场整体波动的风险,这一创举标志着对冲基金的诞生。全球最大的对冲基金——桥水基金的创始人。
2025-08-20 21:17:17
268
原创 个人常用优质科技微信公众号总结
- 数字生命卡兹克。偶尔还会有两句真情流露击中读者的心巴,关注之后一期内容都不漏。所有真正留下来的创作者,都是那个愿意不回信也写下去的人。推荐理由:内容详实、有趣,更新快,跟得上潮流。创作这件事,本身就不是一门稳赚不赔的生意。它像是在写情书,大概率是单相思。推荐时间:2025-06-30。内容方向:AI创作、评测。
2025-06-30 11:33:20
128
原创 pytorch BUG解决 nllloss expected long but int found
问题是,nllloss expected long but int found, #2 target should be long type当进行分类时,若使用cross_entropy,它会要求labels是long的类型。所以上网查了很多,解决方案大多是两种:假设输入是a = torch.tensor([1., 2, 3])此时,a是torch.float类型。1. 使用a.to(torch.long)2. 使用a.long()这两种方法的确可以转换类型为long(或者.
2022-08-03 12:44:47
220
原创 问题解决-pytorch: nllloss expected long but int found, #2 target
问题是,nllloss expected long but int found, #2 target should be long type当进行分类时,若使用cross_entropy,它会要求labels是long的类型。所以上网查了很多,解决方案大多是两种:假设输入是a = torch.tensor([1., 2, 3])此时,a是torch.float类型。1. 使用a.to(torch.long)2. 使用a.long()这两种方法的确可以转换类型为long(或..
2022-01-18 14:20:05
953
转载 [Distributed Training]强化学习并行训练论文合集
仅供自己参考学习使用。原文地址:https://zhuanlan.zhihu.com/p/77976582github:https://github.com/PaddlePaddle/PARL/blob/develop/papers/archive.md#distributed-training整体介绍强化学习需要的数据量其实是相当大的,在15年DQN发布的时候,要复现论文指标得和游戏交互10000000步。这个数量级在持续增长,deepmind 在训练AlphaGo的时候也是使用了上百块G
2020-09-05 11:28:48
714
转载 [model-free] 经典强化学习论文合集
仅供自己参考学习使用,如果有问题或者觉得内容不错,请去原文作者处点赞和讨论,谢谢。原文地址:https://zhuanlan.zhihu.com/p/89058164github:https://github.com/PaddlePaddle/PARL/blob/develop/papers/archive.md整体介绍这篇文章主要介绍经典的model-free 算法。对刚接触强化学习,然后又想深入了解RL的同学来说,是一个很好的论文合集。文章涵盖了首次用神经网络结合强化学习的D..
2020-09-05 11:26:29
491
转载 [Model-based]基于模型的强化学习论文合集
原文地址:https://zhuanlan.zhihu.com/p/72642285github:https://github.com/PaddlePaddle/PARL/blob/develop/papers/archive.md#model-based-rl仅供自己参考学习使用,如果有问题或者觉得内容不错,请去原文作者处点赞和讨论,谢谢。[背景]阻碍强化学习落地的致命缺点强化学习近些年在控制领域取得了相当大的突破,比如超越人类玩家平均水平的DQN算法,以及碾压所有人类选手的Alp..
2020-09-05 11:25:00
875
转载 RL算法改进汇总(会议)-2020
原文作者:https://www.zhihu.com/people/zhou-bo-54-20/postsgithub:https://github.com/PaddlePaddle/PARL/tree/develop/papers一、AAAI1. Proximal Distilled Evolutionary Reinforcement LearningCristian Bodnar, Ben Day, Pietro Lio ́简述:近期比较关注进化学习在强化学习问题上的应..
2020-09-05 11:06:35
1060
原创 2020-09-05 部分会议
16 ICML: International Conference on Machine Learning 领域顶级国际会议,录取率25%左右,2年一次,目前完全国内论文很少 机器学习,模式识别 17 NIPS: Neural Information Processing Systems 领域顶级国际会议,录取率20%左右,每年一次,目前完全国内论文极少(不超过5篇) ...
2020-09-05 10:26:26
374
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人