1971 Parallelogram Counting 平面点集能组成多少个平行四边形 中点排序

平面点集与平行四边形计数:中点排序
这篇博客探讨了如何在给定一组平面点的情况下,通过中点排序算法来计算能够组成多少个不同的平行四边形。输入描述包括点的坐标,输出则展示了计算出的平行四边形数量。示例输入和输出提供了具体操作的实例。
Parallelogram Counting
Time Limit: 5000MS Memory Limit: 65536K
Total Submissions: 3709 Accepted: 1149

Description

There are n distinct points in the plane, given by their integer coordinates. Find the number of parallelograms whose vertices lie on these points. In other words, find the number of 4-element subsets of these points that can be written as {A, B, C, D} such that AB || CD, and BC || AD. No four points are in a straight line.

Input

The first line of the input contains a single integer t (1 <= t <= 10), the number of test cases. It is followed by the input data for each test case.
The first line of each test case contains an integer n (1 <= n <= 1000). Each of the next n lines, contains 2 space-separated integers x and y (the coordinates of a point) with magnitude (absolute value) of no more than 1000000000.

Output

Output should contain t lines.
Line i contains an integer showing the number of the parallelograms as described above for test case i.

Sample Input

2
6
0 0
2 0
4 0
1 1
3 1
5 1
7
-2 -1
8 9
5 7
1 1
4 8
2 0
9 8

Sample Output

5
6
#include<iostream>
#include<cstdio>
#include<cmath>
#include<algorithm>
using namespace std;
bool equal(double x,double y)
{
    return fabs(x-y)<1e-4;
}
struct _Point
{
    double x,y;
};
_Point p[1100];
_Point a[1100*1100];
bool cmp(_Point h,_Point k)
{
    if(h.x!=k.x) return h.x<k.x;
    return h.y<k.y;
}
int main()
{
    int ci;scanf("%d",&ci);
    while(ci--)
    {
        int n;scanf("%d",&n);
        for(int i=0;i<n;i++) scanf("%lf%lf",&p[i].x,&p[i].y);
        int pl=0;
        for(int i=0;i<n;i++) for(int j=i+1;j<n;j++) a[pl].x=(p[i].x+p[j].x)/2,a[pl++].y=(p[i].y+p[j].y)/2;
        //对于一个平行四边形,其两条对角线的的交点是其中点。因此可以计算每条线段的中点是否相等判断是否相等
        sort(a,a+pl,cmp);//中点排序
        long long cnt=0,t=0;
        for(int i=0;i<pl;i++)
        {
            if(i&&!(equal(a[i].x,a[i-1].x)&&equal(a[i].y,a[i-1].y)))
            {
                cnt+=t*(t-1)/2;
                t=1;
            }
            else t++;
        }
        cout<<cnt<<endl;
    }
    return 0;
}
深度学习作为人工智能的关键分支,依托多层神经网络架构对高维数据进行模式识别与函数逼近,广泛应用于连续变量预测任务。在Python编程环境中,得益于TensorFlow、PyTorch等框架的成熟生态,研究者能够高效构建面向回归分析的神经网络模型。本资源库聚焦于通过循环神经网络及其优化变体解决时序预测问题,特别针对传统RNN在长程依赖建模中的梯度异常现象,引入具有门控机制的长短期记忆网络(LSTM)以增强序列建模能力。 实践案例涵盖从数据预处理到模型评估的全流程:首先对原始时序数据进行标准化处理与滑动窗口分割,随后构建包含嵌入层、双向LSTM层及全连接层的网络结构。在模型训练阶段,采用自适应矩估计优化器配合早停策略,通过损失函数曲线监测过拟合现象。性能评估不仅关注均方根误差等量化指标,还通过预测值与真实值的轨迹可视化进行定性分析。 资源包内部分为三个核心模块:其一是经过清洗的金融时序数据,包含标准化后的股价波动记录;其二是模块化编程实现的模型构建、训练与验证流程;其三是基于Matplotlib实现的动态结果展示系统。所有代码均遵循面向对象设计原则,提供完整的类型注解与异常处理机制。 该实践项目揭示了深度神经网络在非线性回归任务中的优势:通过多层非线性变换,模型能够捕获数据中的高阶相互作用,而Dropout层与正则化技术的运用则保障了泛化能力。值得注意的是,当处理高频时序数据时,需特别注意序列平稳性检验与季节性分解等预处理步骤,这对预测精度具有决定性影响。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值