量子博弈中的记忆与Werner态研究
1. 带记忆的空间化量子囚徒困境
1.1 不公平量子PD模拟
在对不公平量子PD(5, 3, 2, 1)CA进行的模拟中,考虑了不同记忆因子(η = 0.0、0.5、1.0)和噪声强度(μ = 0.5)的情况。模拟在T = 200时进行了五次,展示了平均收益和量子参数值。从结果来看,玩家A采用(θ, α)策略,玩家B采用(α)策略,纠缠因子γ可变。
1.2 三参数策略模拟
1.2.1 策略特征
在三参数策略模拟中,涉及SU(2)策略的全空间。图9.6展示了μ = 0.5在三种特征记忆场景(η = 0.0、0.5、1.0)下的3P QPD(5, 3, 2, 1)-CA模拟结果。参数快照呈现出两个主要特征:
- 两个玩家的θ参数都向π漂移(特别是在低γ时),这使得α参数的值变得无关紧要。
- β参数在π/4附近振荡。
在平均场方法中,两个玩家都会采用策略 ˆ∇ = ˆU(π, α, π/4) = $\frac{1}{\sqrt{2}} \begin{bmatrix} 0 & 1 + i \ 1 - i & 0 \end{bmatrix}$。
1.2.2 收益分析
- 对于γ超过γ ⋆地标后,θ的平均值变得不稳定,这反映在左图的平均场收益的剧烈波动上。不过,强大的空间效应补偿了这些θ的波动,使得实际平均收益在整个γ范围内都有所增加。
- 证明了在γ ⋆μ,η地标之前,{ ˆ∇, ˆ∇}对处于纳什均衡(NE)。在无噪声场景中,γ ⋆0,0 = arcsin$\sqrt{\