sdut 1730 数字三角形问题

本文介绍了一种解决数字三角形路径求和问题的方法,通过动态规划算法从顶点到底部寻找路径,使得路径上数字之和最大。包括两种实现方式:一种是从上到下进行动态规划,另一种是从下向上进行动态规划。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

数字三角形问题

Time Limit: 1000MS Memory limit: 65536K

题目描述

给定一个由n行数字组成的数字三角形如下图所示。试设计一个算法,计算出从三角形的顶至底的一条路径,使该路径经过的数字总和最大。
 
对于给定的由n行数字组成的数字三角形,计算从三角形的顶至底的路径经过的数字和的最大值。

输入

输入数据的第1行是数字三角形的行数n,1≤n≤100。接下来n行是数字三角形各行中的数字。所有数字在0..99之间。

输出

输出数据只有一个整数,表示计算出的最大值。

示例输入

5
7
3 8
8 1 0
2 7 4 4
4 5 2 6 5

示例输出

30
水题,动态规划
下面贴俩代码 第一个是从上到下的dp,第二个是从下到上的dp
#include<stdio.h>
#include<string.h>
int a[103][103],dp[103][103];
int main()
{
    int i,j,n,m;
    scanf("%d",&n);
    for(i=0;i<=n;i++)
    {
        dp[i][0]=0;
    }
    for(i=1;i<=n;i++)
        for(j=1;j<=i;j++)
            scanf("%d",&a[i][j]);
    dp[1][1]=a[1][1];
    for(i=2;i<=n;i++)
    {
        for(j=1;j<=i;j++)
        {
            if(dp[i-1][j-1]>=dp[i-1][j])
                 dp[i][j]=dp[i-1][j-1]+a[i][j];
            else dp[i][j]=dp[i-1][j]+a[i][j];
        }
    }
    m=0;
    for(i=0;i<=n;i++)
    {
        if(dp[n][i]>m)
            m=dp[n][i];
    }
    printf("%d\n",m);
    return 0;
}
     
2)
#include<stdio.h>
#include<string.h>
int dp[110][110],a[110][110];
int main()
{
    int i,j,n;
    scanf("%d",&n);
    for(i=1;i<=n;i++)
    for(j=1;j<=i;j++)
    {
        scanf("%d",&dp[i][j]);
    }
    for(j=1;j<=n;j++)
    a[n][j]=dp[n][j];
    for(i=n;i>=1;i--)
    for(j=1;j<=i;j++)
    {
        if(a[i][j]>a[i][j+1])
        {
            a[i-1][j]=a[i][j]+dp[i-1][j];
        }
        else
        {
            a[i-1][j]=a[i][j+1]+dp[i-1][j];
        }
    }
    printf("%d\n",a[1][1]);
    return 0;
}


 
### 手写数字识别实验:MNIST 数据集与 Python 代码示例 手写数字识别是一个经典的机器学习问题,通常使用 MNIST 数据集进行训练和测试。MNIST 数据集包含 60,000 张训练像和 10,000 张测试像,每张像是 28x28 像素的灰度像,表示从 0 到 9 的手写数字[^5]。 以下是基于 MNIST 数据集的手写数字识别实验的 Python 代码示例,使用 TensorFlow 和 Keras 框架实现: ```python import tensorflow as tf from tensorflow.keras import layers, models import matplotlib.pyplot as plt # 加载 MNIST 数据集 mnist = tf.keras.datasets.mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() # 数据归一化处理 x_train, x_test = x_train / 255.0, x_test / 255.0 # 构建神经网络模型 model = models.Sequential([ layers.Flatten(input_shape=(28, 28)), # 将输入像展平为一维向量 layers.Dense(128, activation='relu'), # 全连接层,激活函数为 ReLU layers.Dropout(0.2), # Dropout 层,防止过拟合 layers.Dense(10, activation='softmax') # 输出层,激活函数为 Softmax ]) # 编译模型 model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # 训练模型 history = model.fit(x_train, y_train, epochs=5, validation_data=(x_test, y_test)) # 评估模型 test_loss, test_acc = model.evaluate(x_test, y_test, verbose=2) print(f'\nTest accuracy: {test_acc}') # 可视化训练过程 plt.plot(history.history['accuracy'], label='accuracy') plt.plot(history.history['val_accuracy'], label='val_accuracy') plt.xlabel('Epoch') plt.ylabel('Accuracy') plt.ylim([0, 1]) plt.legend(loc='lower right') plt.show() ``` 此代码实现了以下功能: 1. **加载数据**:通过 `tf.keras.datasets.mnist` 加载 MNIST 数据集,并对数据进行归一化处理。 2. **构建模型**:使用 Keras 构建一个简单的全连接神经网络,包含一个隐藏层(128 个神经元)和一个输出层(10 个类别)。 3. **编译模型**:选择优化器、损失函数和评估指标。 4. **训练模型**:在训练数据上训练模型,并记录训练过程中的准确率和验证准确率。 5. **评估模型**:在测试数据上评估模型性能,并绘制准确率变化曲线。 ### 实验报告建议内容 - **实验目的**:明确实验目标,例如熟悉深度学习框架 TensorFlow/Keras,了解 MNIST 数据集及其用途。 - **实验环境**:列出实验所需的软件环境,如 Python 版本、TensorFlow 版本等。 - **实验步骤**:详细描述代码实现的每个部分,包括数据预处理、模型构建、训练和评估。 - **实验结果**:展示模型的训练和测试结果,分析模型性能。 - **总结与改进**:总结实验中遇到的问题及解决方,提出可能的改进方向,如尝试卷积神经网络(CNN)以提高识别准确率。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值