- 博客(14)
- 收藏
- 关注
原创 从零开始制作数据集所需要的所有python脚本
最近一直在做图片数据集,积累了很多心得。我把我所使用的python脚本全部拿出来,当然这些脚本大部分网上都有,只不过比较分散。我已经把所有代码上传到github上,觉得写的好的话,请给我一个starPython-scripts-used-to-make-datasets由于我的数据集是在拍摄路面的一些物体。因此分为视频和图片两种。视频分辨率1920x1080,帧率为60fps,图片分辨率为1...
2019-06-12 09:50:30
516
原创 AdaBoost-基于错误提升分类器
能否使用弱分类器和多个实例来构建一个强分类器,当然可以!弱分类器:就是分类器的性能比随机猜要略好,但也不会好太多。AdaBoost:adaptive boosting(自适应boosting)的缩写。AdaBoost是一个二分类算法(和SVM一样)运行过程: 1. 训练数据中的每个样本,赋予其权重,这些权重构成向量D。一开始向量D都初始化成相等值 2. 首先在训练数据上训练一个弱分类器...
2018-11-23 22:13:45
435
原创 支持向量机-引入及原理
支持向量机(Support Vector Machines, SVM):是一种监督学习算法。处理二分类支持向量(Support Vector)就是离分隔超平面最近的那些点。机(Machine)就是表示一种算法,而不是表示机器。线性可分数据集:将数据集分隔开的直线称为分隔超平面。我们希望找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远,这里点到分隔面的距离被称为间隔(margin)。...
2018-11-10 21:23:56
206
原创 Logistic回归
Logistic回归:一种最优化算法。用于分类,其实就是对分类边界线建立回归公式。啥?啥叫回归?就是用一条直线对数据点进行拟合,拟合的过程称作回归。。。。。说白了就是找一条线把数据点分开最优化算法:梯度上升算法和改进的梯度上升算法。。。一听到改进,感觉肯定比原算法牛逼sigmoid函数σ(z)=11+e−z\sigma(z)=\frac{1}{1+e^{-z}}σ(z)=1+e−z1下图...
2018-11-10 14:59:41
264
原创 ID3算法下的决策树
网上的内容感觉又多又乱,自己写一篇决策树算法。希望对别人有所启发,对自己也是一种进步。决策树 须知概念决策树 须知概念熵: 熵(entropy)指的是体系的混乱的程度,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。信息熵(香农熵): 是一种信息的度量方式,表示信息的混乱程度,也就是说:信息越有序,信息熵越低。例如:火柴有序放在火柴盒里,熵值很低,相反,熵值很高。信息增...
2018-11-10 10:52:09
391
原创 Python深度学习案例2--新闻分类(多分类问题)
本节构建一个网络,将路透社新闻划分为46个互斥的主题,也就是46分类1. 加载数据集from keras.datasets import reuters(train_data, train_labels), (test_data, test_labels) = reuters.load_data(num_words=10000)将数据限定在10000个最常见出现的单词,8982个训练样...
2018-11-10 09:21:58
4833
1
原创 Python深度学习案例1--电影评论分类(二分类问题)
原本打算一直在博客园上写博客,但是还是觉得多方开源比较好。于是csdn也上传一篇(毕竟csdn确实比博客园名气要大)。我觉得把课本上的案例先自己抄一遍,然后将书看一遍。最后再写一篇博客记录自己所学过程的感悟。虽然与课本有很多相似之处。但自己写一遍感悟会更深本节使用的是IMDB数据集,使用Jupyter作为编译器。这是我刚开始使用Jupyter,不得不说它的自动补全真的不咋地(以前一直用pyCh...
2018-11-09 21:50:25
1699
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人