题目链接:点这里!!
题意:给你n个数A[1] , A[2] .... A[n],从中选m个数 A[B[1]] , A[B[2]] ... A[B[m]] ( 1 <= B[1] < B[2] .... B[m] <= n )
使得sum abs( A[B[i]]-A[B[j]] ) when 1 <= i < j <= m. 尽可能的小。求sum的最小值。
数据范围:1<=m<=n<=100000 0<=A[i]<=100000
题解:易知,我们先给n个数排个序,然后就等价于从这个n个数选m个连续的数使得sum值最小。
我们直接一个个枚举过去就可以了(想太多)。
我们看第二组数据(已经排好序):
5 3
1 3 6 8 10
我们枚举
1 3 6 得到的答案是10。
3 6 8 得到的答案是10。
6 8 10 得到的答案是8。
取最小值为8。
但是如果直接枚举过去的话,时间复杂度得到了O(n*n),直接TLE了。
但我们看看相邻两个情况的区别
Ai,Ai+1, Ai+2,...,Ai+k-1 (1)
Ai+1,Ai+2,Ai+3...Ai+k (2)
(1)的答案为 (1-k)*Ai+(3-k)*(Ai+1)+(5-k)*(Ai+2)+...+(k-1)*(Ai+k-1) = sum1
(2)的答案为 (1-k)*(Ai+1)+(3-k)*(Ai+2)+...+(k-1)(Ai+k) = sum2
设dis[i]=A[1]+A[2]+...+A[i]
可以得出sum2 = sum1-(1-k)*Ai+(k-1)*(Ai+k) -2*(dis[i+k-1]-dis[i])
从而直接可推出下一个状态的答案。时间复杂度为O(n)
代码:
#include<cstdio>
#include<cstring>
#include<iostream>
#include<sstream>
#include<algorithm>
#include<vector>
#include<bitset>
#include<set>
#include<queue>
#include<stack>
#include<map>
#include<cstdlib>
#include<cmath>
#define PI 2*asin(1.0)
#define LL long long
#define pb push_back
#define pa pair<int,int>
#define clr(a,b) memset(a,b,sizeof(a))
#define lson lr<<1,l,mid
#define rson lr<<1|1,mid+1,r
#define bug(x) printf("%d++++++++++++++++++++%d\n",x,x)
#define key_value ch[ch[root][1]][0]
const int MOD = 1000000007;
const int N = 1e5+1000;
const int maxn = 450;
const int letter = 130;
const int INF = 1e17;
const double pi=acos(-1.0);
const double eps=1e-8;
using namespace std;
inline int read()
{
int x=0,f=1;char ch=getchar();
while(ch<'0'||ch>'9'){if(ch=='-')f=-1;ch=getchar();}
while(ch>='0'&&ch<='9'){x=x*10+ch-'0';ch=getchar();}
return x*f;
}
int n,k;
LL a[N],dis[N];
int main(){
while(scanf("%d%d",&n,&k)!=EOF){
for(int i=0;i<n;i++) scanf("%lld",a+i);
sort(a,a+n);
dis[0]=a[0];
for(int i=1;i<n;i++) dis[i]=dis[i-1]+a[i];
LL min1,sum=0;
LL cnt=1ll*(1-k);
for(int i=0;i<k;i++){
sum += a[i]*cnt;
cnt+=2;
}
min1=sum;
int l=0;
cnt=1ll*(1-k);
for(int i=k;i<n;i++){
sum -= cnt*a[l];
sum += (-cnt)*a[i];
sum += -2ll*(dis[i-1]-dis[l]);
min1 =min(min1,sum);
l++;
}
printf("%lld\n",min1);
}
return 0;
}