有兴趣的来康康背包问题

文章介绍了背包问题的基本思路,并提供了两种C++实现方式,一种使用二维数组,另一种采用一维数组,通过动态规划求解最大价值。代码示例详细解释了如何遍历物品和背包容量来优化解决方案。

我认为背包问题简短的核心思路就分为两种

二维数组

#include<iostream>

#include<vector>

#include<algorithm>

Using namespace std;

Int main(){

vector<int> weight ={1,2,3,4};

vector<int> value ={2,4,4,5};

int bagWeight = 5;

vector<vector<int>>dp(weight.size(0,vector<int>(bagWeight + 0));

for(int j =bagWeight;j>=weight[0];j--){

dp[0][j] = dp[0][j-weight[0]]+ value[0];

for(int I =1;i<weight.size();i++){//遍历物品

for(int j =1;j<=bagweight;j++){//遍历背包容量

if(j<weight[i])

else

dp[i][j] = max(dp[i-1][j],dp[i-1][j-weight[i]]+value[i]);

}

}

cout<<dp[weight.size()-1][bagWeight]<<endl;

Return 0;

}

一维数组

Int main(){

vector<int> weight ={1,2,3,4};

vector<int> value ={2,4,4,5};

int bagWeight = 5;

vector<int> dp(bagWeight+1,0);

for(int I =0;i<weight.size();i++){

for(int j =bagWeight;j>=weight[i];j--){

dp[j] =max(dp[j],dp[j-weight[i]] + value[i]);

}

}

cout<<dp[bagWeight]<<endl;

return 0;

}

至于什么叫做背包问题 和具体的构思思路 我强烈推荐大家看一下这个链接

(15条消息) C++ 背包问题_c++背包问题_大庆指针的博客-优快云博客

向Hudi写入一条数据可以通过多种方式实现,以下分别介绍使用Java API和Flink SQL的方法。 ### 使用Java API写入 以下是一个使用Java API向Hudi写入一条数据的简单示例: ```java import org.apache.hudi.QuickstartUtils; import org.apache.hudi.common.model.HoodieRecord; import org.apache.hudi.common.model.HoodieTableType; import org.apache.hudi.config.HoodieWriteConfig; import org.apache.hudi.index.HoodieIndex; import org.apache.hudi.table.HoodieTable; import org.apache.hudi.table.HoodieTableFactory; import org.apache.hudi.table.action.commit.SparkUpsertCommitActionExecutor; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql.SparkSession; import java.util.Collections; public class HudiWriteExample { public static void main(String[] args) { // 创建SparkSession SparkSession spark = SparkSession.builder() .appName("HudiWriteExample") .master("local[2]") .getOrCreate(); JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext()); // 配置Hudi String basePath = "/tmp/hudi_table"; HoodieWriteConfig cfg = HoodieWriteConfig.newBuilder() .withPath(basePath) .withSchema(QuickstartUtils.ORDERS_SCHEMA) .withTableType(HoodieTableType.COPY_ON_WRITE) .withIndexType(HoodieIndex.IndexType.INMEMORY) .build(); // 创建HoodieTable HoodieTable hoodieTable = HoodieTableFactory.create(cfg, jsc); // 准备一条数据 String recordStr = "{\"_row_key\":\"1\",\"partition_path\":\"2024/01/01\",\"order_time\":\"2024-01-01T12:00:00\",\"total_price\":100.0}"; HoodieRecord record = QuickstartUtils.createRecord(recordStr); // 执行写入操作 SparkUpsertCommitActionExecutor executor = new SparkUpsertCommitActionExecutor( jsc, cfg, hoodieTable, Collections.singletonList(record), "commit_1"); executor.execute(); // 关闭SparkSession spark.stop(); } } ``` ### 使用Flink SQL写入 Hudi支持Flink写入的方式有CDC Ingestion、Bulk Insert、Index Bootstrap、Changelog Mode和Append Mode等。以下是一个使用Flink SQL向Hudi写入一条数据的简单示例: ```sql -- 创建Hudi表 CREATE TABLE hudi_table ( _row_key STRING, partition_path STRING, order_time TIMESTAMP(3), total_price DOUBLE ) PARTITIONED BY (partition_path) WITH ( 'connector' = 'hudi', 'path' = '/tmp/hudi_table', 'table.type' = 'COPY_ON_WRITE' ); -- 插入一条数据 INSERT INTO hudi_table VALUES ('1', '2024/01/01', TIMESTAMP '2024-01-01 12:00:00', 100.0); ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值