
机器学习
文章平均质量分 76
儒雅的晴天
从仪表控制工程师转行成为半导体行业的数据分析师。
展开
-
Focal Loss实现
Focal Loss实现原创 2022-10-12 10:20:31 · 678 阅读 · 2 评论 -
GRU时间序列数据分类预测
GRU实现原创 2022-10-12 10:13:21 · 5146 阅读 · 1 评论 -
回归和分类的一些知识
【从零开始学机器学习12】MSE、RMSE、R2_score_wade1203的博客-优快云博客R2可以用来评价模型,如果R2<0,你这模型就没用。。。。。原创 2022-04-06 15:52:57 · 1125 阅读 · 0 评论 -
非监督学习-Apriori(关联),PCA(降维), k-means(聚类)
Apriori算法原理总结 - 刘建平Pinard - 博客园Apriori算法是常用的用于挖掘出数据关联规则的算法,它用来找出数据值中频繁出现的数据集合,找出这些集合的模式有助于我们做一些决策。比如在常见的超市购物数据集,或者电商的网购数据集中,如果我们找到了https://www.cnblogs.com/pinard/p/6293298.html非监督学习(Unsupervised Learning,UL),这类算法的工作原理是从无标签的训练数据中学习数据的底层结构。进一步地,非监督学习又可细分为如原创 2021-10-14 11:57:52 · 2320 阅读 · 0 评论 -
贝叶斯分类器
贝叶斯一直很迷糊。。。百度百科:分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。什么是先验概率?什么是后验概率?(一直很懵)(x表示事件,w表示类别)朴素贝叶斯分类器:基于贝叶斯公式来估计后验概率的主要困难在于:类条件概率P(x | c)是所有属性上的联合概率,难以从有限的训练样本直接估计而得。为了避开这个障碍,朴素贝叶斯分类器采用了“属性条件独立性假设”:对已知类别,假设所有属性相互独立。换.原创 2021-10-07 17:49:40 · 174 阅读 · 0 评论 -
决策树与随机森林
一. 决策树决策树是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。根节点:包含样本的全集 内部节点:对应特征属性测试 叶节点:代表决策的结果比较常用的决策树有ID3,C4.5和CART(Classification And Regression Tree),CART的分类效果一般优于其他决策树。1. ID3(信息增益)信息熵:度量样本集合纯度常用的一种指标。信息熵的值越小,纯度越高。信息增益:信息增益越大,.原创 2021-10-06 23:25:02 · 2022 阅读 · 0 评论 -
各个机器学习算法的优缺点及对比
1. 逻辑回归和SVM对比1. 损失函数不同:逻辑回归使用对数损失函数,SVM使用0-1损失函数。2.SVM考虑局部(支持向量),而logistic回归考虑全局。SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重,两者的根本目的都是一样的。对数几率回归通过最大化样本输出到正确分类的概率来减少错误率3.逻辑回归常用于处理大数据,而SVM则正好相...原创 2021-10-06 15:44:57 · 3713 阅读 · 0 评论 -
SVM知识总结
参考链接:看了这篇文章你还不懂SVM你就来打我 - 知乎(从我的博客 看了这篇文章你还不懂SVM你来打我完整搬运过来的)支持向量机(Support Vector Machine, SVM)1. 概要1.1 简介自从大半年前接触到SVM以来,感觉一直没怎么把SVM整明白。直到最近上的《模式识别》课程才仿…https://zhuanlan.zhihu.com/p/49331510一句话介绍支持向量机:通过非线性映射将输入空间映射到高维空间,再构造一个最优的分类超平面,使得离分离器超平面最近的异类样本之间具有原创 2021-10-06 15:31:14 · 647 阅读 · 0 评论 -
逻辑回归知识总结
参考链接:【机器学习】逻辑回归(非常详细) - 知乎https://blog.youkuaiyun.com/bitcarmanlee/article/details/51165444逻辑回归的常见面试点总结 - ModifyBlog - 博客园1.简介 逻辑回归是面试当中非常喜欢问到的一个机器学习算法,因为表面上看逻辑回归形式上很简单,很好掌握,但是一问起来就容易懵逼。所以在面试的时候给大家的第一个建议不要说自己精通逻辑回归,非常容易被问倒https://www.cnblogs.com/modifyrong/.原创 2021-10-05 11:30:12 · 509 阅读 · 0 评论 -
迁移学习 Xception
迁移学习(transfer learning)通俗来讲,就是运用已有的知识来学习新的知识,核心是找到已有知识和新知识之间的相似性,用成语来说就是举一反三。由于直接对目标域从头开始学习成本太高,我们故而转向运用已有的相关知识来辅助尽快地学习新知识。比如,已经会下中国象棋,就可以类比着来学习国际象棋;已经会编写Java程序,就可以类比着来学习C#;已经学会英语,就可以类比着来学习法语;等等。世间万事万物皆有共性,如何合理地找寻它们之间的相似性,进而利用这个桥梁来帮助学习新知识,是迁移学习的核心问题。在迁移学原创 2021-10-02 16:49:29 · 444 阅读 · 0 评论 -
卷积神经网络模型 LeNet, AlexNet, VGG, GoogLeNet, ResNet
https://medium.com/analytics-vidhya/cnns-architectures-lenet-alexnet-vgg-googlenet-resnet-and-more-666091488df5LeNet-5 (1998)LeNet-5, a pioneering 7-level convolutional network by LeCun et al in 1998。32x32 pixel greyscale inputimages。AlexNet ...原创 2021-10-02 15:18:01 · 324 阅读 · 0 评论 -
专家系统笔记
参考了本网站一个作者的文章:https://blog.youkuaiyun.com/gongfs/article/details/557983故障诊断:鉴别机器设备的技术状态是否正常,确定故障的性质,发现故障的部位,寻找故障的起因,提出排除故障的相应措施。参考应用:1985年Regenie等人研制的飞行器控制系统监视器(EEFSM); 1987年Malin研制的汽车故障诊断系统(FIXER);美国宇航...原创 2020-03-20 16:57:03 · 204 阅读 · 0 评论 -
机器学习周志华笔记--聚类
聚类:无监督学习。性能度量:簇内相似度高且簇间相似度低。距离计算:闵可夫斯基距离:欧氏距离(p=2) or 曼哈顿距离(p=1)1. 原型聚类1)k均值聚类(k-means clustering):最小化平方误差。从样本集中随机选择k个样本作为初始均值向量——计算每个样本与各均值向量的距离,将样本划入距离最近的均值向量的簇内——求出新的均值向量,并更新——不断重复上述过程知道没...原创 2019-05-25 20:45:12 · 472 阅读 · 0 评论 -
【video analysis in deep learning】
图像数据集ImageNet视频数据集: UCF-101视频表示学习早期广泛使用的方法是手工特征的提取(Hand-Crafted feature)。这类方法有着四大明显缺点: 对于相机运动和光照变化较为敏感 不包含高层语义信息 特征维度太高 计算太耗时 早期基于深度学习的视频表示是基于2D卷积神经网络(2D-CNN)Paper1:Large-...原创 2020-02-05 11:25:45 · 425 阅读 · 0 评论 -
关于数据不平衡问题的解决方案
目前遇到的是一个图像数据集,共7个label,数量比例为:33:11:1:5:5:399:220,需要做图像分类。不仅数据量少,而且数据不平衡,且图像本身纹理不清晰机器不容易辨别。目前尝试的解决方法:1:CNN。1)使用数据增广。对于前五个label的数据做Flip/Rotate/Sharp操作。效果略有提升,但是依旧很不理想。2)给loss加权重。对前五个label的loss...原创 2020-02-03 11:09:58 · 1111 阅读 · 0 评论