
mathematics
文章平均质量分 94
FesianXu
腾讯-微信事业群-高级算法工程师, 百度-搜索策略部-前高级算法工程师。 主要从事多模态检索、视频检索、信息检索,大模型落地应用等领域工作。
展开
-
理解多维高斯分布
理解多维高斯分布前言在数理统计和机器学习中,经常用到高斯分布,这里根据网上的资源和理解,对多维高斯分布做一个小总结。如有谬误,请联系指正。转载请注明出处。联系方式: e-mail: FesianXu@163.com QQ: 973926198 github: https://github.com/FesianXu一维高斯分布标准的一维高斯分布是0均值和单位...原创 2018-05-16 16:40:27 · 8320 阅读 · 0 评论 -
《SVM笔记系列之六》支持向量机中的核技巧那些事儿
《SVM笔记系列之六》支持向量机中的核技巧那些事儿前言我们在前文[1-5]中介绍了线性支持向量机的原理和推导,涉及到了软和硬的线性支持向量机,还有相关的广义拉格朗日乘数法和KKT条件等。然而,光靠着前面介绍的这些内容,只能够对近似于线性可分的数据进行分割,而不能对非线性的数据进行处理,这里我们简单介绍下支持向量机中使用的核技巧,使用了核技巧的支持向量机就具备了分割非线性数据的能力。本篇可能是我...原创 2018-10-16 20:38:16 · 931 阅读 · 0 评论 -
损失函数的可视化——浅论模型的参数空间与正则
前言:在深度学习中我们总是不可避免会碰到各种各样的损失函数,通常来说,损失函数都是高维的函数,难以可视化为人类可以分辨的二维或者三维形式,因此这里介绍一种通过在高维空间中切片的损失函数可视化手段,并且讨论下模型的参数空间。如有谬误请联系指出,转载请注明出处。联系方式:e-mail: FesianXu@163.comQQ: 973926198github: https://github.c...原创 2018-10-28 15:03:01 · 3131 阅读 · 1 评论 -
在深度学习中,对于特征融合方式的思考——论pointwise addition和concatenate的异同
前言在深度学习中,经常会存在需要特征融合的地方[1],而最基本的融合方法无非是:(1) 按点逐位相加(point-wise addition) 和 (2) 进行向量拼接(concatenate)。这两种方式有着异同,也有着关联,接下来进行简单讨论。∇\nabla∇联系方式:e-mail: FesianXu@163.comQQ: 973926198github: https://githu...原创 2019-03-09 11:24:21 · 13554 阅读 · 18 评论