- 博客(9)
- 资源 (10)
- 收藏
- 关注
转载 符号arg代表的意义
arg 是变元(即自变量argument)的英文缩写。arg min 就是使后面这个式子达到最小值时的变量的取值arg max 就是使后面这个式子达到最大值时的变量的取值例如 函数F(x,y):arg min F(x,y)就是指当F(x,y)取得最小值时,变量x,y的取值arg max F(x,y)就是指当F(x,y)取得最大值时,变量x,y的取值————————————————原文链接:https://blog.youkuaiyun.com/kele_imon/java/article/...
2020-07-01 22:45:56
5546
转载 从泛化性到Mode Collapse:关于GAN的一些思考
一、理论关于GAN的理论,可以把GAN模型按照正则化、非正则化模型分成两大类。非正则化包括经典GAN模型以及大部分变种,如f-GAN,Least Square GAN,EBGAN等等。这些模型的共同特点是不对要生成的样本的分布做任何先验假设,尝试去解决一般性的数据样本生成问题。然而,由于缺少正则化的先验条件,其模型的泛化性是存疑的。换句话来说,泛化性说的是:所有模型都是需要先用有限的训...
2019-02-20 22:26:53
2924
转载 马氏距离
马氏距离是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系(例如:一条关于身高的信息会带来一条关于体重的信息,因为两者是有关联的)并且是尺度无关的(scale-invariant),即独立于测量尺度。 对于一个均值为,协方差矩阵为Σ的多变量矢量,其马氏距离为...
2019-02-20 21:17:50
1445
转载 超详综述:GAN在图像生成上的应用
GAN 在图像生成上取得了巨大的成功,这无疑取决于 GAN 在博弈下不断提高建模能力,最终实现以假乱真的图像生成。 GAN 自 2014 年诞生至今也有 4 个多年头了,大量围绕 GAN 展开的文章被发表在各大期刊和会议,以改进和分析 GAN 的数学研究、提高 GAN 的生成质量研究、GAN 在图像生成上的应用(指定图像合成、文本到图像,图像到图像、视频)以及 GAN 在 NLP 和其它领...
2019-02-02 23:52:26
13905
转载 投稿sci杂志一般会经过什么过程
1、选择合适的SCI期刊。2、下载Introduction for submission。只要到每个杂志的首页,打开submit paper一栏,点击Introduction查看或下载即可。3、稿件及其相关材料准备-Preparation:Manuscript.doc、Tables.doc、Figures.tiff(jpg等)、 Cover letter,有时还有Title page、Copy...
2019-01-29 18:05:52
6928
转载 多目标优化问题中常见分解方法的理解
作为刚上研一提前来给老师当苦力的小菜鸟,第一次学习MOEAD算法的时候,对其中介绍的分解方法一脸懵*,上网查了不少资料,很难查到详细的解释(好吧,可能我查的姿势不对),完全不理解这些分割方法所给出的表达式的意义,索性搁置了小半个月。这里必须要感谢一下Chithon的http://blog.youkuaiyun.com/qithon/article/details/72885053#comments这篇博客...
2018-10-16 18:13:03
1688
转载 多目标进化优化的Tchebycheff分解方法
On Tchebycheff Decomposition Approaches for Multiobjective Evolutionary OptimizationDigital Object Identifier 10.1109/TEVC.2017.2704118摘要:Tchebycheff分解是一种极广泛使用的分解方法,其能将一个多目标优化问题转化为一组标量优化子问题。然而,...
2018-10-16 12:13:42
2967
转载 机器学习 -- 基本数学概念总结
特征向量对于一个给定的线性变换A,它的特征向量(eigenvector,也譯固有向量或本征向量)v 经过这个线性变换[1]之后,得到的新向量仍然与原来的v 保持在同一條直線上,但其长度或方向也许會改变。即Av=λv特征空间特征空间(eigenspace)是具有相同特征值的特征向量与一个同维数的零向量的集合。假设空间一组函数的集合,这组集合中的函数都能将输入空间映射到输出空间,但...
2018-10-16 12:10:40
368
转载 NSGA-II 概述
NSGA-II的选择算法。主要包含三个部分: 1. 快速非支配排序 要先讲一下支配的概念,对于解X1和X2,如果X1对应的所有目标函数都不比X2大(最小问题),且存在一个目标值比X2小,则X2被X1支配。 快速非支配排序是一个循环分级过程:首先找出群体中的非支配解集,记为第一非支配层,irank=1(irank是个体i的非支配值),将其从群体中除去,继续寻找群体中的非支配解集,然后irank=2。...
2018-07-15 17:14:14
7024
Methodology in the Social Sciences
2019-02-24
公司金融实证中的内生性问题
2019-02-24
Neural module networks
2019-01-29
Macroarray Analysis
2017-12-28
Machine Learning
2017-12-28
Reinforcement Learning or Evolutionary Strategies
2017-12-28
Failure of Skin-Deep Learning
2017-12-27
A Comparative Study on Leadership Mechanism
2017-12-27
Impact of empowering leadership behavior on communication satisfaction
2017-12-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人