hdu1080 Human Gene Functions(带权值最长公共子序列)

本文探讨了如何解决带权值的最长公共子序列问题,详细介绍了在原有算法基础上结合权值的更新方式,包括s1[i]等于或不等于s2[j]的情况,并强调了初始化阶段权重的处理以及避免将字母转换为数字的优化技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

带权值的最长公共子序列。

原本s1[i] == s2[j]时dp[i][j] = dp[i - 1][j - 1] + 1,现在变为dp[i][j] = dp[i - 1][j - 1] + Map[s1[i]][s2[j]]。

原本s1[i] != s2[j]时dp[i][j] = max(dp[i][j - 1],dp[i - 1][j] ),现在变为dp[i][j] = max(dp[i][j - 1] + Map['-'][s2[j]],dp[i - 1][j] + Map[s1[i]]['-'])。

而且既然都加上权值,就可以放在一起比较。同样初始化也要加权值。

还有打表注意的技巧,何必将字母变为数字?多麻烦。直接用字母表示下标就好了~

#include <stdio.h>
#include <cstring>
#include <algorithm>

using namespace std;

const int N = 105;
const int INF = 1<<27;

int Map[6][6];

void init()
{
    Map['A']['A'] = Map['T']['T'] = Map['G']['G'] = Map['C']['C'] = 5;
    Map['A']['C'] = Map['C']['A'] = Map['A']['T'] = Map['T']['A'] = Map['T']['-'] = Map['-']['T'] = -1;
    Map['G']['A'] = Map['A']['G'] = Map['T']['C'] = Map['C']['T'] = Map['T']['G'] = Map['G']['T'] = Map['G']['-'] = Map['-']['G'] = -2;
    Map['C']['G'] = Map['G']['C'] = Map['A']['-'] = Map['-']['A'] = -3;
    Map['C']['-'] = Map['-']['C'] = -4;
}
int main()
{
  //  freopen("in.txt", "r", stdin);
    init();
    int dp[N][N];
    int T, j, i, n, l1, l2;
    char s1[N], s2[N];
    scanf("%d", &T);
    while(T --)
    {
        scanf("%d %s", &l1, s1 + 1);
        scanf("%d %s", &l2, s2 + 1);
        for(i = 0; i <= l1; i ++)
            for(j = 0; j <= l2; j ++)
                dp[i][j] = -INF;
        dp[0][0] = 0;
        for(i = 1; i <= l1; i ++) dp[i][0] = dp[i - 1][0] + Map[s1[i]]['-'];
        for(i = 1; i <= l2; i ++) dp[0][i] = dp[0][i - 1] + Map[s2[i]]['-'];
        for(i = 1; i <= l1; i ++)
            for(j = 1; j <= l2; j ++)
                dp[i][j] = max(dp[i - 1][j - 1] + Map[s1[i]][s2[j]], max(dp[i - 1][j] + Map[s1[i]]['-'], dp[i][j - 1] + Map['-'][s2[j]]));
        printf("%d\n", dp[l1][l2]);
    }
    return 0;
}


内容概要:本文介绍了基于SMA-BP黏菌优化算法优化反向传播神经网络(BP)进行多变量回归预测的项目实例。项目旨在通过SMA优化BP神经网络的重和阈值,解决BP神经网络易陷入局部最优、收敛速度慢及参数调优困难等问题。SMA算法模拟黏菌寻找食物的行为,具备优秀的全局搜索能力,能有效提高模型的预测准确性和训练效率。项目涵盖了数据预处理、模型设计、算法实现、性能验证等环节,适用于多变量非线性数据的建模和预测。; 适合人群:具备一定机器学习基础,特别是对神经网络和优化算法有一定了解的研发人员、数据科学家和研究人员。; 使用场景及目标:① 提升多变量回归模型的预测准确性,特别是在工业过程控制、金融风险管理等领域;② 加速神经网络训练过程,减少迭代次数和训练时间;③ 提高模型的稳定性和泛化能力,确保模型在不同数据集上均能保持良好表现;④ 推动智能优化算法与深度学习的融合创新,促进多领域复杂数据分析能力的提升。; 其他说明:项目采用Python实现,包含详细的代码示例和注释,便于理解和二次开发。模型架构由数据预处理模块、基于SMA优化的BP神经网络训练模块以及模型预测与评估模块组成,各模块接口清晰,便于扩展和维护。此外,项目还提供了多种评价指标和可视化分析方法,确保实验结果科学可信。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值