hdu5952 Counting Cliques 2016 沈阳 1005 vector还是慢

ac代码,就是搜索,好像姿势和别人有点不一样,下面那个vector的原因超时了。差点郁闷死~

#include<iostream>
#include<bitset>
#include<cstdio>
#include<vector>
#include<cstring>
using namespace std;
const int N=105;
int mp[N][N];
int du[N];
int n,m,s;
int  R[N],RR[N];
int r1,r2;
int result;

void dfs(int u,int t,int ss){
    if(ss==s){
        result++;
        return ;
    }
    if(t==r1)return ;
    //if((s-ss)<(R.size()-t))return;
    for(int i=t;i<r1;++i){
        //
        int w=R[i];
        int j;
        for(j=0;j<r2;++j){
            int v=RR[j];
            if(!mp[w][v])break;
        }
        if(j==r2){//w yu ji he RR lian tong
            RR[r2++]=R[i];
            dfs(u,i+1,ss+1);
            r2--;
        }
    }
}
void work(int u){

    R[r1++]=u;
    RR[r2++]=u;
    for(int i=u+1;i<=n;++i){
        if(mp[u][i])R[r1++]=i;
    }
    dfs(u,1,1);
}

int main(){
    int T;
    int u,v;
    scanf("%d",&T);
    while(T--){
        scanf("%d%d%d",&n,&m,&s);
        // cout<<n<<m<<s<<endl;
        result=0;
        memset(mp,0,sizeof mp);
        memset(du,0,sizeof du);
        for(int i=0;i<m;++i){
            scanf("%d%d",&u,&v);
            du[u]++;
            du[v]++;
            mp[u][v]=1;
            mp[v][u]=1;
        }
        /*
        if(s==2){
            cout<<m<<endl;
            continue;
        }
        */
        int k=s-1;
        for(int i=1;i<=n;++i){
            mp[i][i]=1;
            if(du[i]<k){
                du[i]=0;
                for(int j=1;j<=n;j++){
                    mp[i][j]=0;
                    mp[j][i]=0;
                }
            }
        }
        k=n-s+1;
        for(int i=1;i<=k;++i){
            r1=0;r2=0;
            if(du)work(i);
        }
        printf("%d\n",result);
    }
    return 0;
}
#include<iostream>
#include<bitset>
#include<cstdio>
#include<vector>
#include<cstring>
using namespace std;
const int N=105;
int mp[N][N];
int du[N];
int n,m,s;
vector<int> R,RR;
int result;

void dfs(int u,int t,int ss){
    if(ss==s){
        result++;
        return ;
    }
    if(t==R.size())return ;
    //if((s-ss)<(R.size()-t))return;
    for(int i=t;i<R.size();++i){
        //
        int w=R[i];
        int j;
        for(j=0;j<RR.size();++j){
            int v=RR[j];
            if(!mp[w][v])break;
        }
        if(j==RR.size()){//w yu ji he RR lian tong
            RR.push_back(R[i]);
            dfs(u,i+1,ss+1);
        }
    }
}
void work(int u){
    R.clear();
    RR.clear();
    R.push_back(u);
    RR.push_back(u);
    for(int i=u+1;i<=n;++i){
        if(mp[u][i])R.push_back(i);
    }
    dfs(u,1,1);
}

int main(){
    int T;
    int u,v;
    scanf("%d",&T);
    while(T--){
        scanf("%d%d%d",&n,&m,&s);
       // cout<<n<<m<<s<<endl;
        result=0;
        memset(mp,0,sizeof mp);
        memset(du,0,sizeof du);
        for(int i=0;i<m;++i){
            scanf("%d%d",&u,&v);
            du[u]++;
            du[v]++;
            mp[u][v]=1;
            mp[v][u]=1;
        }
        //
            if(s==2){
            cout<<m<<endl;
            continue;
        }
        //
        int k=s-1;
        for(int i=1;i<=n;++i){
            mp[i][i]=1;
            if(du[i]<k){
                du[i]=0;
                for(int j=1;j<=n;j++){
                    mp[i][j]=0;
                    mp[j][i]=0;
                }
            }
        }
        k=n-s+1;
        for(int i=1;i<=k;++i){
            if(du)work(i);
        }
        printf("%d\n",result);
    }
    return 0;
}

我只是先保存代码,还没提交~

### 使用 AutoGPTQ 库量化 Transformer 模型 为了使用 `AutoGPTQ` 对 Transformer 模型进行量化,可以遵循如下方法: 安装所需的依赖包是必要的操作。通过 pip 安装 `auto-gptq` 可以获取最新版本的库。 ```bash pip install auto-gptq ``` 加载预训练模型并应用 GPTQ (General-Purpose Tensor Quantization) 技术来减少模型大小加速推理过程是一个常见的流程。下面展示了如何利用 `AutoGPTQForCausalLM` 类来进行这一工作[^1]。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from auto_gptq import AutoGPTQForCausalLM model_name_or_path = "facebook/opt-350m" quantized_model_dir = "./quantized_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) # 加载已经量化的模型或者创建一个新的量化器对象用于量化未压缩过的模型 gptq_model = AutoGPTQForCausalLM.from_pretrained(quantized_model_dir, model=model, tokenizer=tokenizer) ``` 对于那些希望进一步优化其部署环境中的模型性能的人来说,`AutoGPTQ` 提供了多种配置选项来自定义量化参数,比如位宽(bit-width),这有助于平衡精度损失与运行效率之间的关系。 #### 注意事项 当处理特定硬件平台上的部署时,建议查阅官方文档以获得最佳实践指导支持信息。此外,在实际应用场景之前应该充分测试经过量化的模型以确保满足预期的质量标准。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值