- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 io模型
1.阻塞 2.非阻塞 3.多路复用 select:array poll:linklist epoll:mmap+hash 4.信号驱动 5.异步
2020-04-14 11:24:59
132
原创 机器学习的boosting思想
机器学习常用到booting思想,通过一步一步向目标迈进 两种用此思想的向前分别算法: 每次训练一棵树,用此棵数训练的结果调整下一棵树的输入 1.adaboost 加大错误case(input data)的权重进行下次训练 最终模型的权重也会根据总体效果调整每棵的权重 for m round for n trees 调整input 进行训练 ...
2019-08-16 10:58:55
771
原创 服务架构之redis缓存
redis kv缓存 1.支持string list set zset hash 2.ms 3.序列化 4.分布式锁setnx 5.新特性stream 6.push/pop 7.存储格式 redisObject string:int、raw或者embstr list:ziplist或者linkedlist hash:ziplist或者hashtable set:intset...
2018-09-13 16:23:21
206
原创 温故而知新-3.svm
最大化1/||w2||,s.t.y(wx+b)>=1,i=0...n最小化||w2||1.拉格朗日乘子l(w,b,a)=1/2*||w2||-sum(ai*(yi*(wx+b)-1))2.kkt对各个变量求导,偏导为0的点w=sum(aiyixi)sum(aiyi)=0约束ai>=01-y(wx+b)<=0对偶问题max w(a)=sum(ai)-1/2*sum(aiajyiyj...
2018-03-08 15:38:31
216
原创 温故而知新-2.lr,神经网络,bgd,sgd
线性回归、逻辑回归、神经网络一般用梯度下降更新权值,原理基本一样,所以放到一起分类加上sign函数即可线性回归loss=1/2*pow(y-fx,2) ,如果数据正态发布,符合最大似然估计概率bgd:zetaj=zetaj+a/m*sum(y-h(x))*xj 收敛慢最小二乘:zeta=(xT*x)-1*xT*y x需要列满秩,矩阵逆难求逻辑回归牛顿法:?? bgd: fx=1/(1+exp(-...
2018-03-04 17:50:51
469
原创 温故而知新-1.决策树,剪枝,RF,adaboost,GBDT,XGBOOST
4年前开始学习机器学习,选择了最简单的决策树入门,在面试中却常常回答不好,还是太轻视它了。此次再此总结一下。 本文是关键点笔记,不涉及推导 决策树构建原理:1.选择划分属性值2.构建,并停止3.剪枝 1.划分 delta=I(present)-sum(Nvj/N*I(vj)) 如果信息保留最多,划分最好 选择基本公式: gini=1-sum(pi的平方) Entropy...
2018-03-03 18:20:09
809
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅