AT_DP_J Sushi 题解

题目传送门

题面


AT_dp_j Sushi

题目描述

N N N 个盘子。每个盘子编号为 1 , 2 , … , N 1, 2, \ldots, N 1,2,,N。最初,对于每个 i i i 1 ≤ i ≤ N 1 \leq i \leq N 1iN),第 i i i 个盘子上有 a i a_i ai 1 ≤ a i ≤ 3 1 \leq a_i \leq 3 1ai3)个寿司。

太郎君会不断重复以下操作,直到所有寿司都被吃完:

  • 掷一个等概率出现 1 , 2 , … , N 1, 2, \ldots, N 1,2,,N 的骰子,掷出的点数为 i i i。如果第 i i i 个盘子上还有寿司,则吃掉一个寿司;如果没有寿司,则什么也不做。

请你求出吃完所有寿司所需操作次数的期望值。

输入格式

输入从标准输入按以下格式给出。

N N N a 1 a_1 a1 a 2 a_2 a2 … \ldots a N a_N aN

输出格式

输出吃完所有寿司所需操作次数的期望值。如果相对误差不超过 1 0 − 9 10^{-9} 109,则视为正确。

输入输出样例 #1

输入 #1

3
1 1 1

输出 #1

5.5

输入输出样例 #2

输入 #2

1
3

输出 #2

3

输入输出样例 #3

输入 #3

2
1 2

输出 #3

4.5

输入输出样例 #4

输入 #4

10
1 3 2 3 3 2 3 2 1 3

输出 #4

54.48064457488221

说明/提示

限制条件

  • 输入均为整数。
  • 1 ≤ N ≤ 300 1 \leq N \leq 300 1N300
  • 1 ≤ a i ≤ 3 1 \leq a_i \leq 3 1ai3

样例解释 1

吃掉第一个寿司所需操作次数的期望为 1 1 1。之后,吃掉第二个寿司所需操作次数的期望为 1.5 1.5 1.5。再之后,吃掉第三个寿司所需操作次数的期望为 3 3 3。因此,总的操作次数期望为 1 + 1.5 + 3 = 5.5 1 + 1.5 + 3 = 5.5 1+1.5+3=5.5

样例解释 2

例如,输出 3.003.0000000032.999999997 等也可以被判定为正确。

由 ChatGPT 4.1 翻译

题面解析


给你一些数,每次操作使其中随机一个数减少 1 1 1 并与 0 0 0 max ⁡ \max max ,求把所有数变为 0 0 0 的期望操作次数。

满绿期望DP,建议升蓝。

思路


考虑期望DP,第一个想到的就是把每个盘子里的数量都记录下来,然后暴力求期望值,但这种做法显然无法通过。

我们发现,题目中 1 ≤ a i ≤ 3 1 \le a_i \le 3 1ai3 ,并且结果和 a a a 数组的排序无关,那么我们就可以记录有多少个盘子的寿司数为 a i a_i ai 进行DP。

我们假设 d p i , j , k , l dp_{i,j,k,l} dpi,j,k,l 代表当前已经吃掉 i i i 个没有寿司的盘子, j j j 个有一个寿司的盘子, k k k 个有两个寿司的盘子和 l l l 个有三个寿司的盘子。容易知道 d p i , j , k , l dp_{i,j,k,l} dpi,j,k,l 可以由 d p i + 1 , j − 1 , k , l dp_{i+1,j-1,k,l} dpi+1,j1,k,l d p i , j + 1 , k − 1 , l dp_{i,j+1,k-1,l} dpi,j+1,k1,l d p i , j , k + 1 , l − 1 dp_{i,j,k+1,l-1} dpi,j,k+1,l1 三个状态转移过来。吃到的盘子中没有寿司的概率为 i n \frac{i}{n} ni ,有一个寿司的概率为 j n \frac{j}{n} nj,有两个寿司的概率为 k n \frac{k}{n} nk,有三个寿司的概率为 l n \frac{l}{n} nl,列出转移方程 。

d p i , j , k , l = 1 + i n × d p i , j , k , l + j n × d p i + 1 , j − 1 , k , l + k n × d p i , j + 1 , k − 1 , l + l n × d p i , j , k + 1 , l − 1 dp_{i,j,k,l} =1+\frac{i}{n}\times dp_{i,j,k,l}+\frac{j}{n}\times dp_{i+1,j-1,k,l}+\frac{k}{n}\times dp_{i,j+1,k-1,l}+\frac{l}{n}\times dp_{i,j,k+1,l-1} dpi,j,k,l=1+ni×dpi,j,k,l+nj×dpi+1,j1,k,l+nk×dpi,j+1,k1,l+nl×dpi,j,k+1,l1

然后看出 i = n − j − k − l i=n-j-k-l i=njkl ,那么简化状态为 d p i , j , k dp_{i,j,k} dpi,j,k ,省去没有寿司的状态。方程变为
d p i , j , k = n i + j + k + i × d p i − 1 , j , k i + j + k + j × d p i + 1 , j − 1 , k i + j + k + i × d p i , j + 1 , k − 1 i + j + k dp_{i,j,k}=\frac{n}{i+j+k}+\frac{i\times dp_{i-1,j,k}}{i+j+k}+\frac{j\times dp_{i+1,j-1,k}}{i+j+k}+\frac{i\times dp_{i,j+1,k-1}}{i+j+k} dpi,j,k=i+j+kn+i+j+ki×dpi1,j,k+i+j+kj×dpi+1,j1,k+i+j+ki×dpi,j+1,k1

得解,时间复杂度 O ( n 3 ) O(n^3) O(n3)

代码


#include<iostream>
using namespace std;
int n,shoes[5],x;
double dp[302][302][302];
int main()
{
    cin >> n;
    for(int i = 1;i <= n;i++)
    {
        int x;
        cin >> x;
        shoes[x]++;
    }
    for(int k = 0;k <= n;k++)
    {
        for(int j = 0;j <= n;j++)
        {
            for(int i = 0;i <= n;i++)
            {
                if(!i && !j && !k) continue;
                if(i) dp[i][j][k] += dp[i - 1][j][k] * i / (i + j + k);
                if(j) dp[i][j][k] += dp[i + 1][j - 1][k] * j / (i + j + k);
                if(k) dp[i][j][k] += dp[i][j + 1][k - 1] * k / (i + j + k);
                dp[i][j][k] += (double)n / (i + j + k);
            }
        }
    }
    printf("%.20lf",dp[shoes[1]][shoes[2]][shoes[3]]);
}
【电动汽车充电站有序充电调度的分散式优化】基于蒙特卡诺和拉格朗日的电动汽车优化调度(分时电价调度)(Matlab代码实现)内容概要:本文介绍了基于蒙特卡洛和拉格朗日方法的电动汽车充电站有序充电调度优化方案,重点在于采用分散式优化策略应对分时电价机制下的充电需求管理。通过构建数学模型,结合不确定性因素如用户充电行为和电网负荷波动,利用蒙特卡洛模拟生成大量场景,并运用拉格朗日松弛法对复杂问题进行分解求解,从而实现全局最优或近似最优的充电调度计划。该方法有效降低了电网峰值负荷压力,提升了充电站运营效率与经济效益,同时兼顾用户充电便利性。 适合人群:具备一定电力系统、优化算法和Matlab编程基础的高校研究生、科研人员及从事智能电网、电动汽车相关领域的工程技术人员。 使用场景及目标:①应用于电动汽车充电站的日常运营管理,优化充电负荷分布;②服务于城市智能交通系统规划,提升电网与交通系统的协同水平;③作为学术研究案例,用于验证分散式优化算法在复杂能源系统中的有效性。 阅读建议:建议读者结合Matlab代码实现部分,深入理解蒙特卡洛模拟与拉格朗日松弛法的具体实施步骤,重点关注场景生成、约束处理与迭代收敛过程,以便在实际项目中灵活应用与改进。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值