
算法
qq_39643868
不懂坚持是什么
展开
-
调参
范围核心调参1:提高准确率":num_leaves, max_depth, learning_rate调参2:降低过拟合 max_bin min_data_in_leaf调参3:降低过拟合 正则化L1, L2调参4:降低过拟合 数据抽样 列抽样调参方向:处理过拟合(过拟合和准确率往往相反)使用较小的 max_bin使用较小的 num_leaves使用 min_data_in...转载 2019-04-04 10:40:54 · 273 阅读 · 0 评论 -
Searching
原文:https://mp.weixin.qq.com/s?src=11×tamp=1553758315&ver=1511&signature=mG08QxOefQs7L4AN3Aa0XzFPYkoNUjT15DWapgzfG4vF4krarQX8qb7YNOOxNO9zTVFWo7*FAMzhkyVdVIl6opLqadT4gaph0u466-7dDTAM8nT...翻译 2019-03-28 16:40:27 · 295 阅读 · 0 评论 -
dnn总结
Backpropagation求解损失函数通过链式法则对参数进行一层一层的求导前向传播计算出所有节点的激活值和输出值z(l+1)=W(l)a(l)+b(l)a(l+1)=f(z(l+1))z^{(l+1)}=W^{(l)}a^{(l)}+b^{(l)}\\a^{(l+1)}=f(z^{(l+1)})z(l+1)=W(l)a(l)+b(l)a(l+1)=f(z(l+1))计算整体损...转载 2019-04-03 10:55:53 · 311 阅读 · 0 评论 -
LSTM情感分析实战
https://blog.youkuaiyun.com/LIUSHAO123456789/article/details/78991581转载 2019-04-03 10:56:44 · 788 阅读 · 0 评论 -
bp算法
神经网络结构隐藏层大于三可以称为深度学习输入层:接收原始输入输出层:决策输出隐藏层:相当于对数据做一次特征提取把前一层向量变成新的向量(平移、旋转、伸缩)神经网络换着坐标空间玩数据,根据需要,可降维,可升维,可大,可小,可圆可扁,就是这么“无敌”激励传播正向传播:将训练输入送入网络以获得激励响应反向传播将激励响应同训练输入对应的目标输出求差,从而获得...转载 2019-04-03 18:33:41 · 240 阅读 · 0 评论 -
排序算法
冒泡def bubbleSort(lists): #外层循环:重复走访数据次数 for i in range(len(lists)-1): flag=False #内层循环:每次走访数据时,相邻数据对比次数 for j in range(len(lists)-i-1): if value[j]>value[j+1]: value[j],value[j+1]=val...转载 2019-04-25 18:12:16 · 110 阅读 · 0 评论