
机器和深度学习基础
一个小迷糊66
不念过去不畏将来
展开
-
支持向量机(SVM)
主要参考,也可以说是摘录自《机器学习》和《机器学习实战》相关章节。 基础知识以及更详细的讲解可看这里: 解密SVM系列 http://blog.youkuaiyun.com/on2way/article/details/47729827能将训练样本分开的划分超平面可能会有很多,直观上应该去找位于两类样本“正中间”的划分超平面。 划分超平面的线性方程组: wTx+b=0w^Tx+b=0 划分超平面就原创 2017-08-16 21:54:08 · 529 阅读 · 0 评论 -
梯度下降和反向传播
梯度下降和反向传播原创 2017-08-11 21:59:50 · 2703 阅读 · 0 评论 -
神经元信息处理方式
信息处理过程包括输入,处理,输出三个阶段。对应到神经元上就是树突,胞体,轴突(胞体也可以接受输入,树突也可以进行处理计算。) 神经元之间传输的信号是01这种数字信号,现在一般认为是靠频率编码。就是速度快慢代表的意义不同。 成千的树突以及胞体接受了其他神经元传来的信号,同时进行计算。一种说法是时空整合,因为一树突的位置不一样,二树突接受的信息的时间不一样,等各种信息奔跑到轴突的时候,会有个闸门,小转载 2017-09-25 16:26:10 · 6120 阅读 · 0 评论 -
先验概率,后验概率,最大似然估计和贝叶斯公式
先验概率是由因求果,比如感冒,发烧,脑残都有可能造成头疼,那么感冒造成头疼的概率P(头疼|感冒)的概率就是先验概率 后验概率是执果寻因,比如P(感冒|头疼)的概率是后验概率 最大似然估计是比如医生看病时,病人头疼,医生从感冒,发烧,脑残的后验概率中得到感冒的概率最高作出判断,用的就是最大似然估计 贝叶斯公式经常在求后验概率是用到,P(B|A)=P(B)P(A|B)/P(A)...原创 2018-02-26 11:21:27 · 493 阅读 · 0 评论 -
kaggle1-Google Analytics Customer Revenue Prediction-simple exploratin+baselin
原文kernel(https://www.kaggle.com/sudalairajkumar/simple-exploration-baseline-ga-customer-revenue#)一 、特征分析1.读取数据 pd.read_csv含有子集的特征json.loads,json_normalize函数每一子集处理成一列遇到的一个坑是,一些特征始终无法规则话,最终解决办法是将pan...原创 2018-11-02 17:30:49 · 753 阅读 · 0 评论 -
贝叶斯线性回归方法的解释和优点
在拥有有限的数据或者想要在模型中使用先验知识的问题中,贝叶斯线性回归方法可以同时引入先验信息并且显示不确定性。贝叶斯线性回归反映了贝叶斯学派处理问题的框架:我们先构造一个初始的估计,并且随着收集到更多的数据,不断改进估计。贝叶斯观点是一种直观的看待世界的方法,并且贝叶斯推断可以成为相应的频率推断的实用的替代方法。数据科学并不是选边站,而是要找出最适合这份工作的工具,并且掌握更多的技能只会让你更有效...转载 2019-04-17 22:12:19 · 1180 阅读 · 0 评论