A.Alyona and copybooks

本文探讨了通过三种不同的算法解决余数问题的方法。首先介绍了如何利用数学公式进行分类讨论来解决问题,接着给出了两种AC代码实现方案:一种是基于分类讨论的思路;另一种则是采用三层循环遍历所有可能的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  这题考查思维的全面性。

 一开始我直接分类推公式,余数不同分类讨论。

AC代码:

#include<cstdio>
#include<algorithm>
using namespace std;
typedef long long LL;
const LL inf=1e12;
int main(){
	LL ans=inf;
	LL n,a,b,c;
	scanf("%lld%lld%lld%lld",&n,&a,&b,&c);
	int k=(int)(n%4);
	if(k==0) ans=0;
	else if(k==1){
		ans=min(ans,3*a);
		ans=min(ans,c);
		ans=min(ans,a+b);
	}
	else if(k==2){
		ans=min(ans,2*a);
		ans=min(ans,b);
		ans=min(ans,2*c); 
	}
	else if(k==3){
		ans=min(ans,a);
		ans=min(ans,b+c);
		ans=min(ans,3*c);
	}
	printf("%lld\n",ans);
	return 0;
}
在推完公式,我发现每类书最多买不超过4包,直接三个for循环枚举所有情况。后面想了一下,确实很有道理。

AC代码:

#include<iostream>
#include<algorithm>
#include<cstdio>
using namespace std;
typedef long long LL;
const LL inf=1e12;
int main(){
	LL n,a,b,c;
	while(scanf("%lld%lld%lld%lld",&n,&a,&b,&c)!=EOF){
		LL ans=inf;
		for(int i=0;i<5;++i)
		for(int j=0;j<5;++j)
		for(int k=0;k<5;++k){
			if((n+i+2*j+3*k)%4==0)
				ans=min(ans,i*a+j*b+k*c);
		}
		cout<<ans<<endl;
	}
	return 0;
} 

如有不当指出欢迎指出!

### 大模型中关键词提取的方法和工具 在大模型中进行关键词提取,通常结合传统方法与大模型的优势来实现。以下是一些主流方法和工具的介绍: #### 1. 结合传统方法与大模型 一种常见的方法是将传统的关键词提取算法(如TF-IDF、RAKE等)与大模型相结合[^4]。例如,jionlp工具在使用TF-IDF方法提取关键词后,通过分词工具(如pkuseg)对关键词进行优化,并利用LDA模型进一步增强关键词的权重调整[^1]。这种方法能够有效减少关键词的碎片化问题,并提升结果的相关性。 #### 2. 使用大模型直接提取 大模型本身具有强大的文本理解能力,可以直接用于关键词提取。例如,在用户反馈概要提取中,可以通过定义一批预设关键词列表,让大模型根据输入文本从这些列表中选择最相关的关键词[^2]。如果预设列表无法覆盖所有情况,大模型还可以动态生成新的关键词并将其加入到列表中,从而不断优化提取效果。 #### 3. 提升提取准确率的策略 为了降低大模型在关键词提取中的错误识别风险,可以采用特定策略来增强模型的表现。例如,选择文本中特别显眼或特殊的部分(如中文大写数字)作为关键词候选,这样可以显著提高大模型对这些信息的权重分配,进而提升提取准确率[^3]。 #### 4. 工具推荐 - **jionlp**:该工具结合了TF-IDF、分词工具以及LDA模型,适合处理中文文本的关键词提取任务。 - **RAKE**:一种快速自动关键词提取算法,适用于英文文本。其更新版本由Alyona Medelyan完成,GitHub上提供了相关项目资源。 - **Hugging Face Transformers**:基于Transformer架构的大模型库,支持多种自然语言处理任务,包括关键词提取。 #### 示例代码 以下是一个使用Hugging Face Transformers库进行关键词提取的示例代码: ```python from transformers import pipeline # 加载预训练模型 nlp = pipeline("feature-extraction", model="bert-base-uncased") # 输入文本 text = "Natural language processing is a field of artificial intelligence." # 提取特征 features = nlp(text) # 打印结果 print(features) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值