UVA 10375 - Choose and divide(唯一分解定理)

本文介绍了一种计算组合数比值的有效方法,通过预处理素数并利用唯一分解式计算C(p,q)/C(r,s),避免了直接计算带来的溢出问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题目链接 https://cn.vjudge.net/problem/UVA-10375

【题意】
组合数的定义为C(n,m)=n!/(m!(n-m)!),输入整数p,q,r,s(p>=q,r>=s, 0<=p,q,r,s<=10000)计算C(p,q)/C(r,s),输出保证在1e8范围内,保留5位小数

【思路】
直接乘起来肯定不现实,可以把1~10000的素数先打出来,然后再配合一个数组cnt来记录一个数字的唯一分解式中每个素数的指数,依次计算即可.

#include<cmath>
#include<cstdio>
#include<vector>
#include<cstring>
#include<iostream>
#include<algorithm>
using namespace std;

const int maxn=10005;

bool notprime[maxn];
vector<int> prime;
int cnt[maxn];
int p,q,r,s;

void init(){
    for(int i=2;i<maxn;++i){
        if(!notprime[i]){
            prime.push_back(i);
            for(int j=2*i;j<maxn;j+=i) notprime[i]=false;
        }
    }
}

void add(int x,int tp){
    for(int i=1;i<=x;++i){
        int tmp=i;
        for(int j=0;j<prime.size();++j){
            while(tmp%prime[j]==0){
                cnt[j]+=tp;
                tmp/=prime[j];
            }
            if(tmp==1) break;
        }
    }
}

int main(){
    init();
    while(scanf("%d%d%d%d",&p,&q,&r,&s)==4){
        memset(cnt,0,sizeof(cnt));
        add(p,1);
        add(q,-1);
        add(p-q,-1);
        add(r,-1);
        add(s,1);
        add(r-s,1);
        double ans=1;
        for(int i=0;i<prime.size();++i){
            ans*=pow(prime[i],cnt[i]);
        }
        printf("%.5lf\n",ans);
    }
    return 0;
}
### K-Means聚类算法中的分治法实现与优化 #### 分治策略概述 分治法是一种通过将一个问题分解成若干个小规模子问题来求解的技术。对于K-Means聚类算法而言,可以采用分治策略减少计算量并提高效率。 #### 数据分割 数据集可以根据空间分布特性被划分为多个互不相交的小区域[^1]。这种划分可以通过预先设定边界框或其他几何形状完成。每个子区域内独立运行标准的K-Means过程: ```python import numpy as np from sklearn.cluster import MiniBatchKMeans def divide_data(X, num_partitions=4): """ 将输入的数据X按照指定数量分区 """ n_samples = X.shape[0] indices = np.random.permutation(n_samples) partition_size = int(np.ceil(n_samples / num_partitions)) partitions = [] for i in range(num_partitions): start_idx = i * partition_size end_idx = min((i + 1) * partition_size, n_samples) partitions.append(X[indices[start_idx:end_idx]]) return partitions partitions = divide_data(data_matrix, num_partitions=8) local_clusters = {} for idx, part in enumerate(partitions): mbkmeans = MiniBatchKMeans(n_clusters=k).fit(part) local_clusters[idx] = (mbkmeans.cluster_centers_, mbkmeans.labels_) ``` #### 局部中心点聚合 各个子区间的局部质心会被收集起来作为全局范围内的初始簇中心候选集合。接着利用这些新的种子再次执行完整的K-Means迭代直到收敛: ```python global_centroids = np.vstack([centers for centers,_ in local_clusters.values()]) final_kmeans = MiniBatchKMeans(n_clusters=k).fit(global_centroids) final_labels = final_kmeans.predict(data_matrix) ``` 这种方法不仅能够加速训练速度而且有助于克服大规模数据集中存在的内存瓶颈问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值