22、时间序列的强化学习:从理论到实践

时间序列的强化学习:从理论到实践

1. 强化学习的应用领域

强化学习在众多领域都有广泛的应用:
- 股票市场交易 :股票市场充满不确定性和风险,强化学习可用于优化交易策略,推动业务增长。
- 定价领域 :在保险或零售行业,强化学习有助于探索能带来高销量的客户价值主张空间,同时优化利润率。
- 拍卖机制 :例如在线广告竞价,强化学习智能体需要在其他参与者存在的情况下做出响应。

2. 多臂老虎机(MAB)算法

2.1 多臂老虎机问题

多臂老虎机(MAB)是经典的强化学习问题,玩家面对一台有 $k$ 个拉杆(臂)的老虎机,每个拉杆有不同的奖励分布。智能体的目标是在每次试验中最大化累积奖励。

2.2 老虎机学习算法

老虎机学习算法旨在优化单个未知的固定目标函数。智能体从一组动作 $a \in A$ 中选择一个动作,环境在时间 $t$ 揭示所选动作的奖励 $r_t(a)$。随着多轮信息的积累,智能体可以构建每个臂的价值(或奖励)分布 $Q(a)$。

2.3 UCB1 策略

UCB1 策略根据以下标准选择动作:
[
\underset{a \in A}{\text{argmax}} \ Q(a) + \sqrt{\frac{2 \ln t}{N_t(a)}}
]
其中,$t$ 是到目前为止的迭代次数(时间步),$N_t(a)$ 是动作 $a$ 到目前为止执行的次数。

2.4 贝塔分布与采样

当可用奖励为二进制(赢或输、是或否、收费或不收费)时,可以用贝塔分布描述。贝塔分布有两个参数 $\alpha$ 和 $\beta$,分别表示赢和输的次数,其均值为 $\frac{\alpha}{\alpha + \beta}$。
- 汤普森采样 :从每个动作(臂)的贝塔分布中采样,并选择估计回报最高的动作。
- 狄利克雷采样 :从狄利克雷分布(也称为多元贝塔分布)中采样。

2.5 上下文老虎机

上下文老虎机结合环境信息来更新奖励期望。智能体选择一个臂,揭示奖励 $r_t(a)$,并根据上下文特征 $Q(a, x)$ 更新奖励期望,其中 $x$ 是编码环境的一组特征。

2.6 老虎机的应用

老虎机算法在信息检索模型中应用广泛,如搜索引擎或消费者网站上的推荐和排名系统。概率排名原则(PRP)是概率模型的理论基础,它指出文章应按相关概率降序排列。

3. Q 学习和深度 Q 学习

3.1 Q 学习

Q 学习由 Chris Watkins 在 1989 年提出,用于学习在特定状态下采取动作的价值。状态 - 动作组合的期望奖励由 Q 函数近似:
[
Q: S \times A \to \mathbb{R}
]
Q 函数通常初始化为一个固定值(通常是随机的)。在每个时间步 $t$,智能体选择一个动作 $a_t \in A$,观察环境的新状态 $s_{t + 1}$ 并接收奖励。Q 函数根据贝尔曼方程更新:
[
Q_{new}(s_t, a_t) \leftarrow (1 - \alpha)Q(s_t, a_t) + \alpha (r_t + \gamma \max_a {Q(s_{t + 1}, a)})
]
其中,$\alpha$ 是学习率,$\gamma$ 是折扣因子。

3.2 深度 Q 学习

2014 年,Google DeepMind 提出了深度 Q 学习算法。在深度 Q 学习中,使用神经网络作为非线性函数逼近器来表示 Q 函数。为了减少 Q 更新的学习不稳定性,引入了经验回放技术。

3.3 深度 Q 学习的实现

深度 Q 学习实现了 $\epsilon$-贪心策略,以概率 $\epsilon$ 进行随机(探索性)选择。以下是 Q 学习的伪代码示例:

import numpy as np
memory = []
for episode in range(N):
    for ts in range(T):
        if eps * np.random.random() > epsilon:
            a = A[np.argmax([Q(a) for a in A])]
        else:
            a = np.random.choice(A)
        r, s_next = env.execute(a)
        memory.append((s, a, r, s_next))
        learn(np.random.choice(memory, L))

4. Python 实践:基于 MAB 的笑话推荐

4.1 数据准备

我们使用 jester 数据集,该数据集包含用户对笑话的偏好。首先,下载数据集并进行预处理:

import pandas as pd
URL = 'https://raw.githubusercontent.com/PacktPublishing/Machine-Learning-for-Time-Series-with-Python/main/chapter11/jesterfinal151cols.csv'
jester_data = pd.read_csv(URL, header=None)
jester_data.index.name = "users"
for col in jester_data.columns:
    jester_data[col] = jester_data[col].apply(lambda x: 0.0 if x >= 99 or x < 7.0 else 1.0)
jester_data = jester_data[jester_data.sum(axis=1) > 0]

4.2 多臂老虎机设置

使用 mab-ranking 库设置独立老虎机:

from mab_ranking.bandits.rank_bandits import IndependentBandits
from mab_ranking.bandits.bandits import DirichletThompsonSampling
independent_bandits = IndependentBandits(
    num_arms=jester_data.shape[1],
    num_ranks=10,
    bandit_class=DirichletThompsonSampling
)

4.3 模拟推荐

模拟 7000 次迭代,根据更新的奖励期望改变推荐的笑话:

from tqdm import trange
num_steps = 7000
hit_rates = []
for _ in trange(1, num_steps + 1):
    selected_items = set(independent_bandits.choose())
    random_user = jester_data.sample().iloc[0, :]
    ground_truth = set(random_user[random_user == 1].index)
    hit_rate = len(ground_truth.intersection(selected_items)) / len(ground_truth)
    feedback_list = [1.0 if item in ground_truth else 0.0 for item in selected_items]
    independent_bandits.update(selected_items, feedback_list)
    hit_rates.append(hit_rate)

4.4 可视化命中率

import matplotlib.pyplot as plt
stats = pd.Series(hit_rates)
plt.figure(figsize=(12, 6))
plt.plot(stats.index, stats.rolling(200).mean(), "--")
plt.xlabel('Iteration')
plt.ylabel('Hit rate')
plt.show()

4.5 加入上下文信息

使用 KMeans 聚类将用户分为 5 个组,并将这些组作为上下文信息:

from sklearn.cluster import KMeans
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler().fit(jester_data)
kmeans = KMeans(n_clusters=5, random_state=0).fit(scaler.transform(jester_data))
contexts = pd.Series(kmeans.labels_, index=jester_data.index)

重置老虎机并重新进行模拟,加入上下文信息:

independent_bandits = IndependentBandits(
    num_arms=jester_data.shape[1],
    num_ranks=10,
    bandit_class=DirichletThompsonSampling
)
hit_rates = []
for _ in trange(1, num_steps + 1):
    random_user = jester_data.sample().iloc[0, :]
    context = {"previous_action": contexts.loc[random_user.name]}
    selected_items = set(independent_bandits.choose(context=context))
    ground_truth = set(random_user[random_user == 1].index)
    hit_rate = len(ground_truth.intersection(selected_items)) / len(ground_truth)
    feedback_list = [1.0 if item in ground_truth else 0.0 for item in selected_items]
    independent_bandits.update(selected_items, feedback_list, context=context)
    hit_rates.append(hit_rate)

5. 深度 Q 学习在加密货币交易中的应用

5.1 安装 TensorTrade 库

pip install git+https://github.com/tensortrade-org/tensortrade.git

5.2 数据加载

使用 CryptoDataDownload 加载比特币的历史价格数据:

import pandas as pd
import tensortrade.env.default as default
from tensortrade.data.cdd import CryptoDataDownload
from tensortrade.feed.core import Stream, DataFeed
from tensortrade.oms.exchanges import Exchange
from tensortrade.oms.services.execution.simulated import execute_order
from tensortrade.oms.instruments import USD, BTC, ETH
from tensortrade.oms.wallets import Wallet, Portfolio
from tensortrade.agents import DQNAgent
%matplotlib inline

cdd = CryptoDataDownload()
data = cdd.fetch("Bitstamp", "USD", "BTC", "1h")

5.3 技术指标计算

添加相对强弱指数(RSI)和移动平均收敛/发散(MACD)指标:

def rsi(price: Stream[float], period: float) -> Stream[float]:
    r = price.diff()
    upside = r.clamp_min(0).abs()
    downside = r.clamp_max(0).abs()
    rs = upside.ewm(alpha=1 / period).mean() / downside.ewm(alpha=1 / period).mean()
    return 100 * (1 - (1 + rs) ** -1)

def macd(price: Stream[float], fast: float, slow: float, signal: float) -> Stream[float]:
    fm = price.ewm(span=fast, adjust=False).mean()
    sm = price.ewm(span=slow, adjust=False).mean()
    md = fm - sm
    signal = md - md.ewm(span=signal, adjust=False).mean()
    return signal

features = []
for c in data.columns[1:]:
    s = Stream.source(list(data[c]), dtype="float").rename(data[c].name)
    features += [s]
cp = Stream.select(features, lambda s: s.name == "close")
features = [
    cp.log().diff().rename("lr"),
    rsi(cp, period=20).rename("rsi"),
    macd(cp, fast=10, slow=50, signal=5).rename("macd")
]
feed = DataFeed(features)
feed.compile()

5.4 交易环境设置

设置交易环境,包括交易所、投资组合和渲染器:

bitstamp = Exchange("bitstamp", service=execute_order)(
    Stream.source(list(data["close"]), dtype="float").rename("USD-BTC")
)
portfolio = Portfolio(USD, [
    Wallet(bitstamp, 10000 * USD),
    Wallet(bitstamp, 10 * BTC)
])
renderer_feed = DataFeed([
    Stream.source(list(data["date"])).rename("date"),
    Stream.source(list(data["open"]), dtype="float").rename("open"),
    Stream.source(list(data["high"]), dtype="float").rename("high"),
    Stream.source(list(data["low"]), dtype="float").rename("low"),
    Stream.source(list(data["close"]), dtype="float").rename("close"),
    Stream.source(list(data["volume"]), dtype="float").rename("volume")
])
env = default.create(
    portfolio=portfolio,
    action_scheme="managed-risk",
    reward_scheme="risk-adjusted",
    feed=feed,
    renderer_feed=renderer_feed,
    renderer=default.renderers.PlotlyTradingChart(),
    window_size=20
)

5.5 训练 DQN 交易智能体

agent = DQNAgent(env)
agent.train(n_steps=200, n_episodes=2, save_path="agents/")

5.6 可视化结果

训练过程中,渲染器会输出交易可视化结果,你可以查看价格走势、投资组合股票数量和投资组合净值等信息。如果想查看净值随时间的变化,可以使用以下代码:

performance["net_worth"].plot()

通过以上步骤,我们从理论上介绍了强化学习的多臂老虎机算法和深度 Q 学习算法,并通过 Python 实践展示了如何将这些算法应用于笑话推荐和加密货币交易中。希望这些内容能帮助你更好地理解和应用强化学习。

6. 强化学习算法总结

6.1 算法对比

算法名称 特点 应用场景
多臂老虎机(MAB) 简单但强大,用于在不确定情况下随时间做出决策,通过积累信息优化选择 推荐系统、广告投放等
Q 学习 学习在特定状态下采取动作的价值,基于贝尔曼方程更新价值函数 游戏、机器人控制等
深度 Q 学习 使用神经网络作为非线性函数逼近器,引入经验回放减少学习不稳定性 复杂环境下的决策问题,如游戏、自动驾驶等

6.2 算法选择建议

  • 如果问题相对简单,且主要关注在多个选项中进行选择以最大化奖励,多臂老虎机算法是一个不错的选择。
  • 对于具有明确状态和动作空间的问题,Q 学习可以有效地学习最优策略。
  • 当面对复杂的高维状态空间时,深度 Q 学习能够通过神经网络的强大表达能力来处理。

7. 强化学习实践中的注意事项

7.1 数据质量

在实践中,数据的质量对强化学习的效果至关重要。例如,在加密货币交易中,历史价格数据的准确性和完整性会直接影响技术指标的计算和交易策略的制定。因此,在使用数据之前,需要进行充分的清洗和预处理。

7.2 超参数调整

强化学习算法中有许多超参数需要调整,如学习率、折扣因子等。不同的超参数设置会对算法的性能产生显著影响。通常需要通过实验和调优来找到最优的超参数组合。

7.3 探索与利用平衡

在强化学习中,智能体需要在探索新的动作和利用已知的最优动作之间找到平衡。例如,在多臂老虎机问题中,汤普森采样和 $\epsilon$-贪心策略都是为了实现这种平衡。

8. 强化学习的未来发展趋势

8.1 结合其他技术

强化学习与深度学习、迁移学习等技术的结合将是未来的一个重要发展方向。例如,将深度学习的特征提取能力与强化学习的决策能力相结合,可以提高智能体在复杂环境中的表现。

8.2 应用拓展

强化学习在金融、医疗、交通等领域的应用将不断拓展。例如,在医疗领域,强化学习可以用于优化治疗方案;在交通领域,可以用于智能交通系统的控制。

8.3 理论研究深入

随着强化学习的广泛应用,对其理论基础的研究也将不断深入。例如,如何保证强化学习算法的收敛性和稳定性,如何处理不确定性等问题将得到更多的关注。

9. 总结与展望

通过本文的介绍,我们了解了强化学习的多臂老虎机算法、Q 学习和深度 Q 学习算法,并通过 Python 实践展示了这些算法在笑话推荐和加密货币交易中的应用。强化学习作为一种强大的机器学习方法,在许多领域都有着广泛的应用前景。

未来,我们可以进一步探索强化学习的更多应用场景,不断优化算法和模型,提高智能体的决策能力和性能。同时,也需要关注强化学习在实践中可能遇到的问题,如数据隐私、算法安全等,以确保其健康、可持续的发展。

9.1 实践流程回顾

下面是一个 mermaid 格式的流程图,总结了我们在加密货币交易中使用深度 Q 学习的实践流程:

graph LR
    A[安装 TensorTrade 库] --> B[数据加载]
    B --> C[技术指标计算]
    C --> D[交易环境设置]
    D --> E[训练 DQN 交易智能体]
    E --> F[可视化结果]

9.2 下一步行动建议

  • 尝试不同的强化学习算法和超参数设置,比较它们在不同应用场景中的性能。
  • 探索强化学习与其他技术的结合,如深度学习、迁移学习等,以提高模型的性能。
  • 关注强化学习在新兴领域的应用,如医疗、交通等,为解决实际问题提供新的思路和方法。

希望本文能够帮助你更好地理解和应用强化学习,让我们一起在这个充满挑战和机遇的领域中不断探索和前进!

源码地址: https://pan.quark.cn/s/d1f41682e390 miyoubiAuto 米游社每日米游币自动化Python脚本(务必使用Python3) 8更新:更换cookie的获取地址 注意:禁止在B站、贴吧、或各大论坛大肆传播! 作者已退游,项目不维护了。 如果有能力的可以pr修复。 小引一波 推荐关注几个非常可爱有趣的女孩! 欢迎B站搜索: @嘉然今天吃什么 @向晚大魔王 @乃琳Queen @贝拉kira 第三方库 食用方法 下载源码 在Global.py中设置米游社Cookie 运行myb.py 本地第一次运行时会自动生产一个文件储存cookie,请勿删除 当前仅支持单个账号! 获取Cookie方法 浏览器无痕模式打开 http://user.mihoyo.com/ ,登录账号 按,打开,找到并点击 按刷新页面,按下图复制 Cookie: How to get mys cookie 当触发时,可尝试按关闭,然后再次刷新页面,最后复制 Cookie。 也可以使用另一种方法: 复制代码 浏览器无痕模式打开 http://user.mihoyo.com/ ,登录账号 按,打开,找到并点击 控制台粘贴代码并运行,获得类似的输出信息 部分即为所需复制的 Cookie,点击确定复制 部署方法--腾讯云函数版(推荐! ) 下载项目源码和压缩包 进入项目文件夹打开命令行执行以下命令 xxxxxxx为通过上面方式或取得米游社cookie 一定要用双引号包裹!! 例如: png 复制返回内容(包括括号) 例如: QQ截图20210505031552.png 登录腾讯云函数官网 选择函数服务-新建-自定义创建 函数名称随意-地区随意-运行环境Python3....
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值