Minimum Sum LCM UVA - 10791

Minimum Sum LCM

  UVA - 10791 

题意:输入整数N,求至少两个正整数是他们的最小公倍数是N,且整数和最小,输出最小和。
题解:利用唯一分解定理求解,坑点有只有一个单因子的时候加一,n=1是输出2。一直wa了很多次的原因是题意的理解错了,对于16这种数我写成了2+2+2+2,但是相同的数最小公倍数并不是N,16应为2^4+1=17。还是太菜了吧。
AC代码:
#include<cstdio>
#include<cstring>

using namespace std;

long long n;
long long m;
int main()
{
    int hh=1;
    while(scanf("%lld",&n))
    {
        if(!n)break;
        m=0;
        long long k=0;
        long long g=n;
        long long ans;
        for(long long i=2;i*i<=n;i++)
        {
            ans = 1;
            if(n%i==0)
            {
                k++;
                while(n%i==0)
                {
                    n/=i;
                    ans*=i;
                }
                m+=ans;
            }
            if(n==1)break;
        }
        if(n!=1)m+=n;
        else if(k==1)m=m+1;
        if(k==0)m=g+1;
        printf("Case %d: %llu\n",hh++,m);

    }
    return 0;
}


平方和(Sum of Squares)在数学和编程中有广泛的应用,例如在统计学、机器学习、优化问题等领域。平方和通常用于衡量数据的离散程度、模型的误差或目标函数的优化指标。以下是几种常见的平方和计算方法及其算法实现。 ### 1. **基本平方和的数学定义** 平方和的基本形式是对一组数值 $ x_1, x_2, ..., x_n $,计算它们的平方之和: $$ SS = \sum_{i=1}^{n} x_i^2 $$ 该公式常用于计算向量的模长平方或误差平方和(如最小二乘法中的目标函数)[^2]。 ### 2. **误差平方和(SSE)** 在聚类分析中,误差平方和(Sum of Squared Errors, SSE)是衡量聚类质量的重要指标: $$ SSE = \sum_{i=1}^{k} \sum_{x \in C_i} \|x - \mu_i\|^2 $$ 其中 $ C_i $ 表示第 $ i $ 个簇,$ \mu_i $ 是该簇的中心。SSE 越小,聚类效果越好[^4]。 #### Python 实现 ```python import numpy as np def sum_of_squares(data): return np.sum(np.square(data)) # 示例数据 data = np.array([1, 2, 3, 4, 5]) print("Sum of Squares:", sum_of_squares(data)) ``` ### 3. **最小二乘法中的平方和** 在回归分析中,平方和用于衡量模型预测值与实际值之间的差异。目标是最小化误差平方和: $$ E = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 $$ 其中 $ y_i $ 是实际值,$ \hat{y}_i $ 是预测值。 #### Python 实现 ```python from sklearn.linear_model import LinearRegression # 示例数据 X = np.array([[1], [2], [3], [4], [5]]) y = np.array([2, 4, 6, 8, 10]) # 创建线性回归模型 model = LinearRegression() model.fit(X, y) # 预测值 y_pred = model.predict(X) # 计算误差平方和 sse = np.sum((y - y_pred) ** 2) print("Sum of Squared Errors (SSE):", sse) ``` ### 4. **动态规划中的平方和优化** 在某些优化问题中,平方和可能需要通过动态规划来最小化。例如,将一个数组划分为多个子数组,并使每个子数组的平方和最小化。 #### Python 实现 ```python def min_square_sum(arr, k): n = len(arr) dp = [float('inf')] * (n + 1) dp[0] = 0 prefix_sum = [0] * (n + 1) for i in range(n): prefix_sum[i + 1] = prefix_sum[i] + arr[i] for i in range(1, n + 1): for j in range(k): if i - j >= 0: dp[i] = min(dp[i], dp[i - j] + (prefix_sum[i] - prefix_sum[i - j]) ** 2) return dp[n] # 示例数据 arr = [1, 2, 3, 4, 5] k = 2 print("Minimum Square Sum:", min_square_sum(arr, k)) ``` ### 5. **矩阵运算中的平方和** 在深度学习或线性代数中,平方和可以通过矩阵运算实现。例如,计算两个向量之间的欧几里得距离平方: $$ d^2 = \|A - B\|^2 = \sum_{i=1}^{n} (A_i - B_i)^2 $$ #### Python 实现 ```python def euclidean_distance_squared(A, B): return np.sum((A - B) ** 2) # 示例数据 A = np.array([1, 2, 3]) B = np.array([4, 5, 6]) print("Euclidean Distance Squared:", euclidean_distance_squared(A, B)) ``` ### 6. **随机抽样一致性(RANSAC)中的平方和** 在计算机视觉中,RANSAC 算法使用平方和来评估几何一致性。例如,计算图像特征匹配的误差平方和以确定最优变换矩阵[^3]。 #### Python 实现 ```python from sklearn.linear_model import RANSACRegressor # 示例数据 X = np.array([[1, 2], [2, 4], [3, 6], [4, 8], [5, 10]]) y = np.array([3, 6, 9, 12, 15]) # 创建 RANSAC 模型 model = RANSACRegressor() model.fit(X, y) # 计算内点的误差平方和 inlier_mask = model.inlier_mask_ sse = np.sum((y[inlier_mask] - model.predict(X[inlier_mask])) ** 2) print("RANSAC Inlier Sum of Squares:", sse) ``` ### 7. **KMeans 聚类中的平方和** 在 KMeans 聚类中,平方和用于衡量簇内样本的紧凑性。KMeans 的目标是最小化簇内平方和(Inertia): $$ Inertia = \sum_{i=1}^{k} \sum_{x \in C_i} \|x - \mu_i\|^2 $$ #### Python 实现 ```python from sklearn.cluster import KMeans # 示例数据 X = np.array([[1, 2], [2, 4], [3, 6], [4, 8], [5, 10]]) # 创建 KMeans 模型 model = KMeans(n_clusters=2) model.fit(X) # 计算 Inertia(簇内平方和) print("Inertia (Sum of Squares):", model.inertia_) ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值