uva_607 - Scheduling Lectures( 贪心+DP )

本文介绍了一个关于讲座安排的算法问题,采用贪心策略结合动态规划的方法来解决如何在满足特定顺序约束下,用最少的讲座次数完成所有主题讲解,并计算总的不满指数。通过状态转移方程实现了最优解的求解。
这个题目有一个限制条件就是第i个topic必须在第i+1个topic讲完,所以首先使用贪心策略求出最少需要的lecture
状态: dp[i][j] 表示前i个topic使用j个lecture讲完
状态转移: dp[i][j] = min(dp[k][j-1] + cost(k+1, i))

#include <cstdio>
#include <cstring>
#include <algorithm>
using namespace std;

#define MAXN    1001
#define INF     0x3f3f3f3f

int dp[MAXN][MAXN], sum[MAXN][MAXN], t[MAXN], class_time, base_cost, n;

inline int cost(int time)
{
        if( !time ) {
                return 0;
        }
        if( time >= 1 && time <= 10 ) {
                return -1*base_cost;
        }
        return (time-10)*(time-10);
}

int dfs(const int &idx, const int &day)
{
        if( -1 != dp[idx][day] ) {
                return dp[idx][day];
        }
        if( 1 == day ) {
                return dp[idx][day] = (sum[1][idx] > class_time)? INF : cost(class_time-sum[1][idx]);
        }
        int rst(INF);
        for(int k = idx-1; sum[k+1][idx] <= class_time; k --) {
                rst = min(rst, dfs(k, day-1)+cost(class_time-sum[k+1][idx]));
        }
        return dp[idx][day] = rst;
}

int main(int argc, char const *argv[])
{
#ifndef ONLINE_JUDGE
        freopen("test.in", "r", stdin);
#endif
        int residual, need_cnt, cas(1);
        while( scanf("%d", &n) && n ) {
                scanf("%d %d", &class_time, &base_cost);
                residual = class_time; need_cnt = 1;
                for(int i = 1; i <= n; i ++) {
                        scanf("%d", &t[i]); 
                        if( residual >= t[i] ) {
                                residual -= t[i];
                        }
                        else {
                                residual = class_time-t[i]; need_cnt ++;
                        }
                }
                memset(sum, 0, sizeof(sum));
                for(int i = 1; i <= n; i ++) {
                        for(int j = i, tmp = 0; j <= n; j ++) {
                                tmp += t[j]; sum[i][j] = tmp;
                        }
                }
                if( 1 != cas ) {
                        printf("\n");
                }
                memset(dp, -1, sizeof(dp)); printf("Case %d:\n", cas ++);
                printf("Minimum number of lectures: %d\n", need_cnt);
                printf("Total dissatisfaction index: %d\n", dfs(n, need_cnt));
        }
        return 0;
}

基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的Koopman算子的递归神经网络模型线性化”展开,旨在研究纳米定位系统的预测控制方法。通过结合数据驱动技术与Koopman算子理论,将非线性系统动态近似为高维线性系统,进而利用递归神经网络(RNN)建模并实现系统行为的精确预测。文中详细阐述了模型构建流程、线性化策略及在预测控制中的集成应用,并提供了完整的Matlab代码实现,便于科研人员复现实验、优化算法并拓展至其他精密控制系统。该方法有效提升了纳米级定位系统的控制精度与动态响应性能。; 适合人群:具备自动控制、机器学习或信号处理背景,熟悉Matlab编程,从事精密仪器控制、智能制造或先进控制算法研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①实现非线性动态系统的数据驱动线性化建模;②提升纳米定位平台的轨迹跟踪与预测控制性能;③为高精度控制系统提供可复现的Koopman-RNN融合解决方案; 阅读建议:建议结合Matlab代码逐段理解算法实现细节,重点关注Koopman观测矩阵构造、RNN训练流程与模型预测控制器(MPC)的集成方式,鼓励在实际硬件平台上验证并调整参数以适应具体应用场景。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值