UVa 11997 - K Smallest Sums

本文介绍了一种高效的算法来解决从多个数组中选取元素组合并求得最小的k个数值的问题。通过使用优先队列及逐步合并的方法,避免了全排列所带来的巨大计算量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

时间限制:3.000秒

题目链接:http://uva.onlinejudge.org/index.php?option=com_onlinejudge&Itemid=8&category=24&page=show_problem&problem=3148


  有k个整数数组,每个数组中各取一个元素加起来,一共可以得到k的k次方种结果(不考虑相同的数)。求这些数中最小的k个数。k最大为750。

  一个一个去算然后排序肯定是要超时的。

  引用刘汝佳《算法竞赛入门经典:训练指南》中提供的算法:

  只考虑两个有序表的情况,每次各取一个,把n^2个和组织成n个有序表:

表1:A[0] + B[0] <span style="font-family: Arial;">≤</span> A[0] + B[1] <span style="font-family: Arial;">≤ … </span><span style="font-family: Arial;">≤ A[0] + B[n - 1]</span><span style="font-family: Arial;">
</span><pre name="code" class="plain" style="color: rgb(51, 51, 51); font-size: 14px; line-height: 26px;">表2:A[1] + B[0] <span style="font-family: Arial;">≤</span> A[1] + B[1] <span style="font-family: Arial;">≤ … </span><span style="font-family: Arial;">≤ A[1] + B[n - 1]</span>
<span style="font-family: Arial;">……</span>
<pre name="code" class="plain" style="color: rgb(51, 51, 51); font-size: 14px; line-height: 26px;">表n:A[n-1] + B[0] <span style="font-family: Arial;">≤</span> A[n-1] + B[1] <span style="font-family: Arial;">≤ … </span><span style="font-family: Arial;">≤ A[n-1] + B[n - 1]</span>

 
   用二元组(s, b)表示,其中s = A[a] + B[b],s所在的表的的下一个值为s - B[b] + B[b + 1],其中a的值并不需要。 

  因此就可以用优先队列计算,事先将每个表的第一个元素都放进去,然后每次取最小值,计算下一个值再放回队列即可。

  而对于k个表,我们可以实现边读边算,每次将两个表计算出的结果合并到第一个表,将新的数据读入第二个表重复计算即可。假设计算到第i个数组,那么第一个表里就是前i-1个数组每次各取一个的数中最小的k个数,已经是最优的了,那么和第i个数组进行合并后得到的就是前i个数组各取一个的数中最小的k个数,这样算到最后即为所求。


#include 
   
   
    
    
#include 
    
    
     
     
#include 
     
     
      
      

using namespace std;

struct Item {
    int s, b; // s = A[a] + B[b]
    Item(const int &s, const int &b) : s(s), b(b) {}

    bool operator < (const Item &i) const { return s > i.s; }
};

int A[1024], B[1024];

inline void merge(int n) {
    priority_queue
      
      
       
        que;
    for(int i = 0; i != n; ++i) que.push(Item(A[i] + B[0], 0));
    for(int i = 0; i != n; ++i) {
        Item cur = que.top(); que.pop();
        A[i] = cur.s;
        if(cur.b + 1 < n) que.push(Item(cur.s - B[cur.b] + B[cur.b + 1], cur.b + 1));
    }
}

int main() {
    int n;
    while(~scanf("%d", &n)) {
        for(int i = 0; i != n; ++i) A[i] = 0;
        for(int j = 0; j != n; ++j) scanf("%d", &A[j]);
        for(int i = 1; i != n; ++i) {
            for(int j = 0; j != n; ++j) scanf("%d", &B[j]);
            sort(B, B + n);
            merge(n);
        }
        for(int i = 0; i != n; ++i) {
            if(i) printf(" ");
            printf("%d", A[i]);
        }
        printf("\n");
    }
    return 0;
}

      
      
     
     
    
    
   
   

### 如何选择 K-means 算法中的最佳聚类数量(k 值) 在实际应用中,确定 K-means 聚类算法的最佳 k 值是一个重要的问题。由于该算法需要提前设定簇的数量 k,并且其性能依赖于这一参数的选择,因此合理地估计 k 的值至关重要。 #### 1. Elbow 方法 Elbow 方法是一种常用的评估技术,用于通过观察误差平方和(SSE, Sum of Squared Errors)的变化来决定合适的 k 值。随着 k 的增加,SSE 将逐渐减小;然而,在某个特定的 k 值之后,减少的速度会显著放缓。这个转折点被称为“肘部”,通常被认为是最佳的 k 倴[^3]。 计算 SSE 的公式如下: ```python from sklearn.cluster import KMeans def calculate_sse(data, max_k=10): sse = [] for k in range(1, max_k + 1): kmeans = KMeans(n_clusters=k, random_state=42).fit(data) sse.append(kmeans.inertia_) return sse ``` 绘制 SSE 曲线可以帮助直观识别“肘部”。 --- #### 2. Silhouette 分析 Silhouette 分析提供了一种衡量样本与其所属簇紧密程度以及与其他簇分离度的方法。Silhouette 系数范围为 [-1, 1],其中接近 1 表示良好的聚类效果,而负值则表示可能错误分配了样本。可以通过平均 Silhouette 系数找到使整体聚类质量最高的 k 值。 实现 Silhouette 分析的代码如下所示: ```python from sklearn.metrics import silhouette_score def find_best_k_with_silhouette(data, min_k=2, max_k=10): best_k = min_k highest_score = -1 scores = [] for k in range(min_k, max_k + 1): clusterer = KMeans(n_clusters=k, random_state=42) preds = clusterer.fit_predict(data) score = silhouette_score(data, preds) scores.append(score) if score > highest_score: highest_score = score best_k = k return best_k, scores ``` --- #### 3. Gap 统计量 Gap 统计量基于比较真实数据集与随机分布的数据之间的差异来进行分析。它利用对数似然函数的概念,帮助判断真实的 k 是否优于随机生成的结果。尽管这种方法较为复杂,但它可以有效避免因数据特性而导致的误判。 以下是 Gap 统计量的一个简化版本伪代码描述: ```plaintext for each candidate value of k do compute Wk (within-cluster dispersion) on real data; generate B reference datasets with uniform distribution; compute average log(Wkb); end choose the smallest k such that Gap(k) >= Gap(k+1) - SE(k+1), where SE is standard error. ``` --- #### 4. 领域知识驱动方法 除了上述统计学手段外,还可以借助领域专业知识或业务需求指导 k 值的选择。例如,在市场细分场景下,营销人员可以根据目标市场的规模、资源限制等因素预估合理的分组数目[^2]。 --- ### 总结 综合考虑以上几种方式能够更科学地选定适合具体应用场景下的 k 值。值得注意的是,不同方法可能会给出略有不同的建议值,最终决策应结合实际情况权衡利弊后再做定夺。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值