
机器学习
Tristahong
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
聚类笔记一.(K-means)
聚类 类别 划分(分裂)算法 K-Means算法(K-平均) K-MFDOIDS算法(K-中心) CLARANS算法 层次分析方法 BIRCH算法(平衡迭代规约和聚类) CURE算法(点聚类) 基于密度的方法 DBSCAN算法(基于高密度连接区域) DENCLUE算法(密度分布函数) K—Means 简介 K-means算法是集简单和经典于一身的基于距离的聚类算法 采...原创 2018-12-18 16:19:51 · 555 阅读 · 0 评论 -
机器学习-贝叶斯
机器学习-贝叶斯 概率论基础知识 条件概率 一个事件发生后另一个事件发生的概率 一般的形式为 P(X|Y),表示 y 发生的条件下 x 发生的概率 有时为了区分一般意义上的条件概率,也称似然概率 先验概率 事件发生前的预判概率 可以是基于历史数据的统计,可以由背景常识得出,也可以是人的主观观点给出。 一般都是单独事件发生的概率,如 P(A)、P(B) 后验概率 事件发生后求的反向条件概率...原创 2019-04-02 16:18:28 · 306 阅读 · 0 评论 -
L1与L2正则化
L1与L2范数 L1范数: L1范数指向量中各个元素绝对值之和。 ∥ω∥1=∑i∣xi∣\left \| \omega \right \|_{1}=\sum_{i}\left | x_{i} \right |∥ω∥1=i∑∣xi∣ 也称叫 “稀疏规则算子” (Lasso Regularization)。为什么能稀疏呢?关键原因在于它能实现特征的自动选择。一般来说,训练集中的某些特征和输出...原创 2019-05-17 11:07:52 · 328 阅读 · 0 评论 -
算法工程师面试题整理1(待续)
adam的特点 em算法 lr为什么要使用sigmoid 从方差和偏差角度比较bagging和boosting svm如何实现多分类 a,b为[0,1]的独立均匀分布,求E(max(a,b))的值 python中的a is b和a = b的区别 python中的生成器、迭代器的区别 python中什么是装饰器 python中copy,deepcopy,赋值 的区别 tf如何读取数据 L1,L2正则...原创 2019-05-30 21:01:15 · 1497 阅读 · 0 评论 -
算法工程师面试题整理2(待续)
sobel算子知道吗 two stage RCNN—cascadeRcnn, one stage yolo—RFBnet,介绍一下去雾算法 分水岭算法 Densenet的缺点 手推LR 决策树 条件随机场 讲LR,面试官要求LR讲得特别仔细,就那种LR是什么假设,损失函数是怎么回事,怎样更新参数什么的 从方差和偏差角度比较bagging和boosting 离散化LR的好处 在特征工程中,如何判断特...原创 2019-06-01 14:43:50 · 621 阅读 · 0 评论 -
算法工程师面试题整理3(待续)
Kmean和GMM原理、区别、应用场景 网络初始化有哪些方式,他们的公式 初始化过程 优化方法 SGD、Adam算法过程 动量算法过程 Xception网络参数减少量 代码求一个数的平方根 仿射变换矩阵,透视变换矩阵,双线性二插值 TF中卷积是如何计算的 膨胀卷积感受野如何计算 交叉熵公式,为什么交叉熵可以用在分类中 Softmax函数 Deeplab进化历史 Deeplabv2和DeeplabV...原创 2019-06-12 09:44:44 · 793 阅读 · 0 评论