最小向量积


 题目详情

两个N维向量的点积定义为,对应维度上的数的乘积之和。

两个三维向量[1, 3, −5]和[4, −2, −1]的点积是1 * 4 + 3 * (-2) + (-5) * (-1) = 3

现在允许我们对两个向量里的维度重新排列,让点积尽可能小。

例如上述两个向量,我们可以调整维[3,1,-5]和[-2,-1,4],点积是-27。

输入格式:

多组数据,每组数据第一行是一个整数n,表示向量的维数。1<=n<=100000。

下面两行,每行是n个空格分隔的整数表示两个n维向量,每一维的范围都是[-1000000,+1000000]之间。

输出格式:

对于每组数据,输出一行,包含一个整数,代表可以调整到的最小的点积。

答题说明

输入样例

3

3 1 -5

-2 -1 4

输出样例:

-27

题目分析:

这题很水,主要是分别对两个向量进行非增排序和非减排序,然后相加。自己看代码。

代码如下:

#include<stdio.h>
#include<stdlib.h>
int arr1[100000],arr2[100000];
int cmp1(const void * a,const void * b)
{
    int *c=(int *)a;
    int *d=(int *)b;
    if(*c!=*d) return *c-*d;
    else return *d-*c;
}
int cmp2(const void * a,const void * b)
{
    int *c=(int *)a;
    int *d=(int *)b;
    if(*c!=*d) return *d-*c;
    else return *c-*d;
}
int main()
{
    int i,n;
    long long sum;
    while(scanf("%d",&n)!=EOF)
    {
        sum=0;
        for(i=0;i<n;i++)
        {
            scanf("%d",&arr1[i]);
        }
        for(i=0;i<n;i++)
        {
            scanf("%d",&arr2[i]);
        }
        qsort(arr1,n,sizeof(int),cmp1);
        qsort(arr2,n,sizeof(int),cmp2);
        for(i=0;i<n;i++)
        {
            sum=sum+(long long)arr1[i]*arr2[i];
        }
        printf("%lld\n",sum);
    }
    return 0;
}        

### 关于海森矩阵与海森向量 #### 定义与基本概念 海森矩阵(Hessian Matrix)是一种用于描述多元函数二阶偏导数的方块矩阵。对于一个具有多个输入变量的实值函数 \( f : \mathbb{R}^n \to \mathbb{R} \),其海森矩阵定义为: \[ H(f)(x) = \begin{bmatrix} \frac{\partial^2 f}{\partial x_1^2} & \cdots & \frac{\partial^2 f}{\partial x_1 \partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial^2 f}{\partial x_n \partial x_1} & \cdots & \frac{\partial^2 f}{\partial x_n^2} \end{bmatrix}. \] 该矩阵提供了关于目标函数曲率的信息,在优化算法中起着重要作用[^1]。 而海森向量(Hessian Vector Product, HVP),则是指给定某个方向向量 \( v \in \mathbb{R}^n \),计算海森矩阵作用在这个向量上的结果,即 \( Hv \) 或者更具体地说是 \( H(v) \)[^2]。这种操作通常不需要显式构建完整的海森矩阵即可完成。 #### 计算方法 一种有效的方法来获取海森向量而不需形成整个海森矩阵本身依赖于自动微分技术以及链法则的应用。这种方法利用梯度信息并通过两次反向传播过程实现高效求解: 第一次前向传递得到损失相对于参数的一阶梯度;第二次则基于这些一阶梯度再做一次类似的运算路径追踪从而获得最终的结果\( Hv \)[^4]。 以下是采用PyTorch框架的一个简单示例代码展示如何手动实现这一功能: ```python import torch def hvp(y, w, v): """Compute the product between the Hessian of `y` with respect to `w` and a vector `v`. Args: y (Tensor): Scalar output tensor. w (list[Tensor]): List of parameters over which gradients are computed. v (list[Tensor]): Direction vectors corresponding to each parameter. Returns: list[Tensor]: The resulting Hessian-vector products as tensors. """ # First gradient computation grad_y_w = torch.autograd.grad( outputs=y, inputs=w, create_graph=True, allow_unused=False ) # Second gradient computation along direction specified by 'v' hvps = [] for g_i, vi in zip(grad_y_w, v): if g_i is not None: hvi = torch.autograd.grad(g_i.sum(), w, retain_graph=True, only_inputs=True) hvps.append(hvi[0]) else: hvps.append(torch.zeros_like(wi)) return hvps ``` #### 应用场景 - **最优化领域**: 在许多机器学习模型训练过程中涉及到复杂的非线性目标函数最小化问题时,精确或者近似形式下的海森矩阵可以帮助加速收敛速度并改善数值稳定性。 - **神经网络架构设计**: 特别是在研究新型激活函数特性或是探索超参调节策略方面,理解层间相互影响关系变得尤为重要,此时借助HVP分析可以提供深刻见解[^3]. - **不确定性量化(Uncertainty Quantification)**: 当评估预测分布置信区间大小时也需要考虑局部几何结构特征,因此引入高阶统计量成为必然选择之一。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值