
AI
孤舟听雨
这个作者很懒,什么都没留下…
展开
-
Fréchet Inception Distance(FID)
摘自:https://www.cnblogs.com/gaona666/p/12376796.htmlFréchet Inception Distance(FID)计算 IS 时只考虑了生成样本,没有考虑真实数据,即 IS 无法反映真实数据和样本之间的距离,IS 判断数据真实性的依据,源于 Inception V3 的训练集 ------ ImageNet,在 Inception V3 的“世界观”下,凡是不像 ImageNet 的数据,都是不真实的,都不能保证输出一个 sharp 的 prediti转载 2021-04-20 15:17:15 · 7898 阅读 · 0 评论 -
tensorflow 限制GPU显存的使用
tensorflow 1 里使用这部分限制显存gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.5)config=tf.ConfigProto(gpu_options=gpu_options)session = tf.Session(config=config)在tensorflow 2里使用这部分限制显存gpu_options = tf.compat.v1.GPUOptions(per_process_gpu_memor原创 2021-03-15 10:46:35 · 1148 阅读 · 0 评论 -
吴恩达 卷积神经网络原理图
吴恩达 卷积神经网络原理图原创 2021-01-20 13:46:57 · 265 阅读 · 0 评论 -
L1正则化和L2正则化
摘自:https://www.cnblogs.com/skyfsm/p/8456968.html【深度学习】L1正则化和L2正则化在机器学习中,我们非常关心模型的预测能力,即模型在新数据上的表现,而不希望过拟合现象的的发生,我们通常使用正则化(regularization)技术来防止过拟合情况。正则化是机器学习中通过显式的控制模型复杂度来避免模型过拟合、确保泛化能力的一种有效方式。如果将模型原始的假设空间比作“天空”,那么天空飞翔的“鸟”就是模型可能收敛到的一个个最优解。在施加了模型正则化后,就好比将转载 2021-01-10 00:32:38 · 621 阅读 · 0 评论 -
PCA学习笔记
PCA的意义机器学习中的主要问题:维度灾难 PCA:在力求数据信息丢失最少的原则下,对高纬度的变量空间降维 ,即研究指标体系的少数几个线性组合,并且这几个线性组合所构成的综合指标将尽可能多的保留信息。这些综合指标就称为主成分 。PCA推导该X的协方差矩阵 为由于此矩阵为非负定的对称阵,则有利用线性代数的知识可得,比存在正交矩阵U,使得 : 其中P个特征值,假设大小是降序。而U恰好是由特征根相对应的特征向量所组成的正交阵这里,由U的第一列元素所工程为原始变量的线性组合有最大的方差 。 (证原创 2020-08-08 10:01:15 · 244 阅读 · 0 评论 -
极大似然估计
摘自:七月在线课程,有任何版权问题请立即告知,我会立刻处理111111111111原创 2019-03-06 10:10:09 · 250 阅读 · 0 评论 -
机器学习的数学基础
转载自: https://blog.youkuaiyun.com/randy_01/article/details/80616681研究机器学习需要以下数学基础:《矩阵论》+《实变函数与泛函数分析》+《凸优化》+《统计学》,泛函数分析在AI中属于较高级的应用了。建议学习这些学科最好用国外的教材。...转载 2019-02-21 10:30:07 · 690 阅读 · 0 评论 -
Hessian Matrix(海森矩阵)
转载自:https://blog.youkuaiyun.com/guoyunfei20/article/details/78246699Hessian Matrix(海森矩阵)Hessian Matrix,译作黑塞矩阵、海森矩阵、海瑟矩阵、海塞矩阵等。是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率。Hessian Matrix最早于19世纪由德国数学家Ludwig Otto Hesse提出,...转载 2019-03-05 09:23:03 · 4061 阅读 · 0 评论 -
简单理解viterbi算法
转载自:https://blog.youkuaiyun.com/zhangduan8785/article/details/80443650简单理解viterbi算法简介:viterbi算法其实就是多步骤每步多选择模型的最优选择问题,其在每一步的所有选择都保存了前续所有步骤到当前步骤当前选择的最小总代价(或者最大价值)以及当前代价的情况下前继步骤的选择。依次计算完所有步骤后,通过回溯的方法找到最优选择...转载 2019-03-01 10:28:33 · 644 阅读 · 0 评论 -
小白给小白详解维特比算法(二)
转载自:https://blog.youkuaiyun.com/athemeroy/article/details/79342048本文致力于解释隐含马尔科夫模型和上一篇我们提到的篱笆网络的最短路径问题的相同点和不同点,尽量通俗易懂但是也有些必要的公式。如果你有数学恐惧症,请无视所有的“注”。我的概率论学的很烂,如果“注”里面有错误,请务必直接喷,不要留情,谢谢!隐马尔科夫模型(HMM)和篱笆网络(神马...转载 2019-03-01 10:23:34 · 2229 阅读 · 3 评论 -
小白给小白详解维特比算法(一)
转载自:https://blog.youkuaiyun.com/athemeroy/article/details/79339546篱笆网络Lattice的最短路径问题初见HMM求解状态序列用到的维特比算法时,其实内心真的是崩溃的:数不尽的假设和公式,让人头昏脑涨的同时也击溃了自信心。但是仔细研究一下会发现其实问题蛮简单的,本文就致力于尝试用更通俗的方式解释一下维特比算法和它是如何运用在HMM求解状态序...转载 2019-03-01 10:17:27 · 626 阅读 · 0 评论 -
python3中的rank函数
转载自:https://blog.youkuaiyun.com/qq_24753293/article/details/80694831网上存在这么一个例子obj = pd.Series([7,-5,7,4,2,0,4])obj.rank()输出为:0 6.51 1.02 6.53 4.54 3.05 2.06 4.5dtype: floa...转载 2019-02-22 14:26:05 · 1475 阅读 · 0 评论 -
Pandas 中map, applymap and apply的区别
Pandas 中map, applymap and apply的区别 转载自:https://blog.youkuaiyun.com/u010814042/article/details/764011331.apply()当想让方程作用在一维的向量上时,可以使用apply来完成,如下所示In [116]: frame = DataFrame(np.random.randn(4, 3), colum...转载 2019-02-22 14:09:50 · 142 阅读 · 0 评论