A - Bi-shoe and Phi-shoe

本文介绍了一个有趣的算法问题:如何为每位学生选购一根竹竿,使得竹竿的长度对应欧拉函数值大于等于学生的幸运数字,并且总花费最小。通过预先计算素数表并查找满足条件的最小素数来解决此问题。

Bamboo Pole-vault is a massively popular sport in Xzhiland. And Master Phi-shoe is a very popular coach for his success. He needs some bamboos for his students, so he asked his assistant Bi-Shoe to go to the market and buy them. Plenty of Bamboos of all possible integer lengths (yes!) are available in the market. According to Xzhila tradition,

Score of a bamboo = Φ (bamboo's length)

(Xzhilans are really fond of number theory). For your information, Φ (n) = numbers less than n which are relatively prime (having no common divisor other than 1) to n. So, score of a bamboo of length 9 is 6 as 1, 2, 4, 5, 7, 8 are relatively prime to 9.

The assistant Bi-shoe has to buy one bamboo for each student. As a twist, each pole-vault student of Phi-shoe has a lucky number. Bi-shoe wants to buy bamboos such that each of them gets a bamboo with a score greater than or equal to his/her lucky number. Bi-shoe wants to minimize the total amount of money spent for buying the bamboos. One unit of bamboo costs 1 Xukha. Help him.

Input

Input starts with an integer T (≤ 100), denoting the number of test cases.

Each case starts with a line containing an integer n (1 ≤ n ≤ 10000) denoting the number of students of Phi-shoe. The next line contains n space separated integers denoting the lucky numbers for the students. Each lucky number will lie in the range [1, 106].

Output

For each case, print the case number and the minimum possible money spent for buying the bamboos. See the samples for details.


Sample Input

3

5

1 2 3 4 5

6

10 11 12 13 14 15

2

1 1

Sample Output

Case 1: 22 Xukha

Case 2: 88 Xukha

Case 3: 4 Xukha

题意:给出n个幸运数字,找到欧拉函数值大于等于这些幸运数字的x,使x的值最小。

思路:因为素数的欧拉函数值就是其减1,这个题就是求最小的大于该幸运数字的素数,然后加起来即可。先进行一个素数打表,然后找到最小的大于幸运数字的素数,相加,最后得出答案。代码如下:

#include<stdio.h>
#include<string.h>
int a[1000010];
int b[1000010];
int main()
{
    int T,n,i,j,t,k=1;
    memset(a,0,sizeof(a));
    for (i = 2; i<=1000010; i++)
    {
        if (a[i]==0)  //0是素数
        {
            for (j=i+i; j<=1000010; j+=i)
                a[j]=1;
        }
    }
    a[1]=1;
    scanf("%d",&T);
    while(T--)
    {
        long long int sum=0;
        scanf("%d",&n);
        for(i=0;i<n;i++)
        {
             scanf("%d",&b[i]);
             for(j=b[i]+1;;j++) //此处要加1,不然t-1可能小于b[i];
             {
                 if(a[j]==0)
                 {
                     t=j;
                    break;
                 }
             }
             sum=sum+t;
        }
        printf("Case %d: %lld Xukha\n",k++,sum);
    }
    return 0;
}

 

Phi-3-28B 是微软开发的 Phi 系列模型之一,属于小型语言模型(Small Language Model, SLM),旨在提供高性能的同时保持较小的参数规模,适合资源受限的设备和应用场景。该模型拥有 280 亿参数,相较于大型模型,它在计算资源消耗和推理速度上具有显著优势[^1]。 ### 模型规格 - **参数规模**:Phi-3-28B 包含 280 亿个参数,这使其在小型语言模型中具备较强的表达能力。 - **训练数据**:Phi-3-28B 在多个公开数据集上进行了训练,包括 WebInstructSub 和 StarCoder2-Self-OSS-Instruct。这些数据集涵盖了广泛的文本和指令任务,有助于模型在多种任务中表现出色。 - **训练方法**:在训练过程中,模型采用了指令微调(Supervised Fine-Tuning, SFT)和偏好优化(如 DPO,Differential Privacy Optimization),以提升其在实际应用中的表现。SFT 的学习率被设置为 3e-4,这一设置有助于模型更好地适应特定任务[^1]。 - **推理能力**:尽管参数规模较小,Phi-3-28B 在多个基准测试中表现出与更大模型相当的能力,特别是在代码生成、自然语言理解和生成等任务中。 ### 应用场景 Phi-3-28B 的设计目标是兼顾性能与效率,因此它在以下场景中具有广泛的应用潜力: - **边缘计算设备**:由于其较小的参数规模,Phi-3-28B 可以在边缘设备上运行,如智能手机、IoT 设备等,适用于需要低延迟和低功耗的场景。 - **代码生成与理解**:Phi-3-28B 在代码生成和理解方面表现出色,能够帮助开发者快速生成代码片段、调试代码或提供代码建议。 - **自然语言处理**:在自然语言处理任务中,如文本摘要、问答系统、情感分析等,Phi-3-28B 能够提供高质量的结果,适用于需要快速响应的应用场景。 - **个性化助手**:Phi-3-28B 可以用于构建个性化助手,提供定制化的服务和建议,例如智能客服、虚拟助手等。 ### 示例代码 以下是一个简单的 Python 示例,展示如何使用 Phi-3-28B 模型进行文本生成: ```python from transformers import AutoTokenizer, AutoModelForCausalLM # 加载预训练的 Phi-3-28B 模型和分词器 model_name = "microsoft/Phi-3-28B" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # 输入文本 input_text = "请生成一段关于人工智能的介绍。" # 编码输入文本 input_ids = tokenizer.encode(input_text, return_tensors="pt") # 生成文本 output = model.generate(input_ids, max_length=100, num_return_sequences=1) # 解码并输出生成的文本 generated_text = tokenizer.decode(output[0], skip_special_tokens=True) print(generated_text) ``` ### 总结 Phi-3-28B 是一款高效的小型语言模型,适合在资源受限的环境中使用。它在多个任务中表现出色,尤其是在代码生成和自然语言处理方面。通过合理的训练和优化,Phi-3-28B 能够在各种应用场景中提供高质量的服务。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值