上篇内容,我们对决策树进行了介绍,探讨了决策树的回归和分类方法,并列出了一些关键参数的说明,构建了超参数学习曲线,本篇内容,我们将基于决策树进行分组回测,对结果进行展示。
开始之前,我们在来回顾一下决策树,决策树学习能根据数据的属性采用树状结构建立决策模型,能够用来解决分类和回归问题,决策树方法简单自然,符合人脑的思维逻辑,除了构建单棵决策树,我们还可以建立多棵决策树并通过某种方式将它们结合在一起,综合投票产生最后的预测值,也就是随机森林。
本篇报告中我们将基于决策树进行预测,并将这个模型应用于多因子选股。
关于模型的思路
在用决策树构建模型的时候,我们先来考虑这个问题,树模型与传统的线性模型相比,优势和缺点在哪里?
首先,它可以处理非数值类特征,如不同板块风格股票涨跌分类问题,也就是说,我们可以将行业标签、甚至地域标签、这样的非数值特征放入特征数据中。
其次,对于连续数值的非线性问题,就比如不做倒数处理的估值因子PE、PB。理论上拿这些数据应用在决策树中时,可以不必考虑数据在0轴上下的不同处理方式。
树模型同样有其缺陷,单独决策树使用时,对特征是带有一定随机性的,并且,在对训练样本敏感,训练过程如不加适当的限制,则结果基本上就会过拟合。
参数寻优的问题与方法
模型的参数优化部分可以参考上篇介绍决策树文章内容,进行学习曲线或者网格搜索,进行剪枝处理。
模型构建过程
参考《人工智能选股之随机森林模型》中模型构建过程,我们按下面步骤进行预测模型搭建
1.数据获取:我们选择股票池为中证500,并剔除ST股票,剔除上市3个月内新股,获取的数据区间为20090101到20190101,回测区间为20140101到20190101。 2.特征和标签提取:每个自然月的第一个交易日,计算统计期的 39个因子暴露 度,作为样本的原始特征;计算下一整个自然月的个股超额收益(以中证500 指数为基准),作为样本的标签。 3.特征预处理:进行去极值、标准化、中性化操作。 a) 中位数去极值

本文深入探讨了决策树在量化投资中的应用,通过构建模型进行分组回测,分析了决策树的优势和局限性,如处理非数值特征、非线性问题的能力,以及对特征的随机性和训练样本敏感性。通过回测结果,展示了模型的预测效果,发现决策树在分层回测中的表现并不理想。同时,文中强调了模型因子特征重要性,揭示了波动率、动量、Beta因子对股价预测的影响。最后,提出了随机森林等集成算法可能带来的改进。
最低0.47元/天 解锁文章
1304

被折叠的 条评论
为什么被折叠?



