人工神经网络的最大弹性(Maximum Resilience of Artificial Neural Networks)

作者:Chih-Hong Cheng, Georg Nuhrenberg, and Harald Ruess

单位:慕尼黑工业大学

文献来源:Cheng, C.-H., Nuhrenberg, G., and Ruess, H. Maximum resilience of artificial neural networks. In International Symposium on Automated Technology for Verification and Analysis, pp. 251–268. Springer, 2017.

摘要

  本文将基于人工神经网络的分类器的弹性定义为可容忍的最大扰动输入量。计算神经网络最大扰动域的问题被简化为求解混合整数规划(Mixed Integer Progamming, MIP)问题。许多MIP启发式编码方法被提出,大大减少MIP求解器的运行时间,并且在我们的实验中,使用MIP求解器的并行化导致计算核心数量几乎线性增加(达到一定的限制)。我们通过计算大量人工神经网络基准集的最大弹性边界来证明我们方法的有效性和可扩展性,这些基准集从典型的图像识别场景到机器人的自主操纵。

背景知识

大M法:

在MIP简化过程中,本文使用大M法的一个变种来将许多非线性表达式线性化。

在约束条件中人为地加入非负的人工变量,以便使它们对应的系数列向量构成单位阵。由于M是充分大的正数,在极大化目标函数的过程中,就会迫使人工变量离基。

举例:
在这里插入图片描述
[ 1 1 1 1 0 0 0 − 2 1 − 1 0 − 1 1 0 0 3 1 0 0 0 1 ] \left[\begin{array}{cccc} 1 & 1 & 1 & 1 & 0 & 0 & 0 \\ -2 & 1 & -1 & 0 & -1 & 1 & 0\\ 0 & 3 & 1 & 0 & 0 & 0 & 1 \end{array}\right] 120113111100010010001

前馈神经网络:
在这里插入图片描述

一个四层的小型前馈网络结构,每一层都有不同类型的节点函数。

sofmax函数:

为了进行多类分类,输出层的输出通常通过softmax函数转换成概率分布,softmax函数可以把一些输入映射为0-1之间的实数,并且归一化保证和为1。
在这里插入图片描述
sofmax函数的形式,首先转化到指数函数上,这样保证了概率的非负性。将转化后的结果除以所有转化后结果之和,可以理解为转化后结果占总数的百分比。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值