bzoj2676

本文介绍了一种结合二分概率、矩阵乘法及动态规划的方法解决特定问题的实现细节,并通过代码示例展示了算法的具体应用。文章讨论了作者自己实现的版本与参考他人代码之间的差异,提出了疑问并寻求解答。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

二分概率+矩乘+dp

也是二分概率,然后dp[i][j][k]表示当前到了i,有j条命,下一次的收益是k,然后矩乘转移,但是我自己的似乎wa了,抄了liu_runda的才行,具体不知道为什么

注释的是我自己写的,谁能告诉我哪里错了?

#include<bits/stdc++.h>
using namespace std;
const int N = 122;
int n, r, q, tot;
int id[N][N];
double S;
struct matrix {
    double a[N][N];
    matrix() { for(int i = 0; i <= tot; ++i) for(int j = 0; j <= tot; ++j) a[i][j] = 0.0; }
    matrix friend operator * (const matrix &a, const matrix &b) {
        matrix ret;
        for(int k = 0; k <= tot; ++k)
            for(int i = 0; i <= tot; ++i) if(a.a[i][k] >= 1e-15)
                for(int j = 0; j <= tot; ++j) 
                    ret.a[i][j] += a.a[i][k] * b.a[k][j];
        return ret;     
    }
    void set() {
        for(int i = 0; i <= tot; ++i) a[i][i] = 1.0;
    }
};
double calc(double p)
{
    matrix A, B;
    A.set();
    /*
    第i轮j条命这一次得k分 
    dp[i][j][k]=(dp[i+1][j + 1][k + 1] + k) * p
    dp[i][j][k] += dp[i + 1][j - 1][1] * (1.0 - p)
    矩阵乘法 
    */
    B.a[tot][tot] = 1.0;
    for(int i = 1; i <= q; ++i)
        for(int j = 1; j <= r; ++j)
        {
            if(i > 1) B.a[id[i - 1][1]][id[i][j]] = 1.0 - p;
            B.a[tot][id[i][j]] = p * (double)j;
            if(i < q && j < r) B.a[id[i + 1][j + 1]][id[i][j]] = p;
            else if(i < q) B.a[id[i + 1][j]][id[i][j]] = p;
            else if(j < r) B.a[id[i][j + 1]][id[i][j]] = p;
            else B.a[id[i][j]][id[i][j]] = p;
        } 
//  for(int j = 0; j <= q; ++j) 
//      for(int k = 1; k <= r; ++k) B.a[tot][id[j][k]] = p * (double)k;
//  for(int j = 0; j <= q; ++j)
//      for(int k = 1; k <= r; ++k) B.a[id[min(j + 1, q)][min(k + 1, r)]][id[j][k]] = p;
//  for(int j = 2; j <= q; ++j)
//      for(int k = 1; k <= r; ++k) B.a[id[j - 1][1]][id[j][k]] = 1.0 - p;           
    for(int i = n; i; i >>= 1, B = B * B) if(i & 1) A = A * B;
//  double ret = 0.0;
//  for(int i = 0; i <= tot; ++i)
//  {
//      for(int j = 0; j <= tot; ++j) printf("%.6f ", A.a[i][j]);        
//      puts("");   
//  } 
//  for(int i = 0; i < tot; ++i) ret += A.a[tot][i];
//  printf("p = %.6f ret = %.6f\n", p, ret);
    return A.a[tot][id[q][1]];   
}
int main()
{
    scanf("%d%d%d%lf", &n, &r, &q, &S);
    for(int i = 1; i <= q; ++i)
        for(int j = 1; j <= r; ++j) id[i][j] = tot++;
//  printf("tot = %d\n", tot);
    double l = 0.0, r = 1.0, ans = -1.0;
    while(r - l > 1e-10) 
    {
        double mid = (l + r) / 2.0;
        if(calc(mid) > S) r = ans = mid;
        else l = mid;
    }
    if(ans == -1.0) puts("Impossible.");
    else printf("%.6f\n", ans);
    return 0;
}
View Code

 

转载于:https://www.cnblogs.com/19992147orz/p/7745135.html

内容概要:本文介绍了基于SMA-BP黏菌优化算法优化反向传播神经网络(BP)进行多变量回归预测的项目实例。项目旨在通过SMA优化BP神经网络的权重和阈值,解决BP神经网络易陷入局部最优、收敛速度慢及参数调优困难等问题。SMA算法模拟黏菌寻找食物的行为,具备优秀的全局搜索能力,能有效提高模型的预测准确性和训练效率。项目涵盖了数据预处理、模型设计、算法实现、性能验证等环节,适用于多变量非线性数据的建模和预测。; 适合人群:具备一定机器学习基础,特别是对神经网络和优化算法有一定了解的研发人员、数据科学家和研究人员。; 使用场景及目标:① 提升多变量回归模型的预测准确性,特别是在工业过程控制、金融风险管理等领域;② 加速神经网络训练过程,减少迭代次数和训练时间;③ 提高模型的稳定性和泛化能力,确保模型在不同数据集上均能保持良好表现;④ 推动智能优化算法与深度学习的融合创新,促进多领域复杂数据分析能力的提升。; 其他说明:项目采用Python实现,包含详细的代码示例和注释,便于理解和二次开发。模型架构由数据预处理模块、基于SMA优化的BP神经网络训练模块以及模型预测与评估模块组成,各模块接口清晰,便于扩展和维护。此外,项目还提供了多种评价指标和可视化分析方法,确保实验结果科学可信。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值