
深度学习
文章平均质量分 75
Daisy和她的单程车票
无需言,做自己
展开
-
推荐召回阶段-正负样本选取准则
粗排-正负样本选取准则精排目的是在优中(用户感兴趣的商品中)择优(挑选用户最感兴趣的商品)、粗排从商品池子中挑选出用户感兴趣的商品,了解这一区分性后,对精排和粗排正负样本的选取便会采取不同方式【结论】文中指出:i 采用曝光未点击的样本直接作为负样本,比随机采样效果差;ii 仅仅采用hard negative策略(不加入easy negative),也比随机采样效果差(easy negative很有必要,easy :hard negative=100:1),且采用上一轮模型结果101-500的样本进原创 2020-09-23 10:03:45 · 2554 阅读 · 0 评论 -
关于调节学习率(learning rate)的几点建议
关于调节学习率的几点建议1.对于不同大小的数据集,调节不同的学习率根据我们选择的成本函数F(x)不同,问题会有区别。当平方误差和(Sum of Squared Errors)作为成本函数时, ∂F(ωj)∂ωj\frac{∂F(ω_j)} { ∂ω_j} 会随着训练集数据的增多变得越来越大,因此学习率需要被设定在相应更小的值上。 解决此类问题的一个方法是将学习率λ 乘上1/N,N是训练集中数据量。原创 2017-11-06 09:49:08 · 31019 阅读 · 2 评论 -
Dropout简介( 过拟合解决方案之一)
Dropout很形象的Dropout如图所示: 关于Dropout,文章中没有给出任何数学解释,Hintion的直观解释和理由如下: 1. 由于每次用输入网络的样本进行权值更新时,隐含节点都是以一定概率随机出现,因此不能保证每2个隐含节点每次都同时出现,这样权值的更新不再依赖于有固定关系隐含节点的共同作用,阻止了某些特征仅仅在其它特定特征下才有效果的情况。 2. 可以将dropout看原创 2017-11-06 10:12:18 · 928 阅读 · 0 评论 -
L1、L2正则化介绍
正则化(1) 正则化Regularization1) 正则化(Regularization)对参数w的影响 为了使LOSS’最小,w2部分要求w的值尽量平衡(why),和LOSS共同影响w变化。 正则化中将保留所有的特征变量,但是会减小特征变量的数量级(参数数值的大小) 控制在两个不同的目标中的平衡关系。使得权重衰减!【说明】:LOSS’代表原始的代价函数,后面那一项就是L2正则化项,原创 2017-11-06 10:06:48 · 531 阅读 · 0 评论 -
安装ubuntu系统和Nvidia显卡驱动
【安装unbuntu16.04系统】 参考网址:http://wenku.baidu.com/link?url=cBpZc_AJ9ycwQeGnJrkwoy2TnrZmPqDyYP1sPFcoKGhqXHXFtbYBoGJy6bJ6_YKtaeJuCB52XnpBjG75y4ebdE2utgWUCt3zlODeZNHTQC_1.用老毛桃进入待装系统的电脑里面,将原来的分区删掉并【保存】!!!!然后原创 2017-11-03 08:44:27 · 1135 阅读 · 0 评论 -
pycharm 远程调试
pycharm 远程调试[1] sudo su//进入根目录[2]pwd//看一下是否在根目录[3]docker ps //查看当前正在运行的docker, ps -a 所有的docker 无论是正在运行还是不在运行的//选择要启动的docker[4]docker start yu//启动名为yu的docker docker exec -it yu bash //进入名为yu的doc原创 2017-11-03 08:51:25 · 407 阅读 · 0 评论 -
Pycharm远程访问ssh,远程访问服务器(xshell访问服务器)
Pycharm远程访问ssh【1】 打开pycharm的File 找到 setting 点击进入 在搜索框中搜索 project 然后找到project interpreter 进入 如图: 【2】点开形如设置图样的图标,然后选中add remote 点击进入,如下图所示: 【3】进入如下界面:选择 SSH Credentials、然后在HOST处输入需要访问的服务器的ip地址,用户名和原创 2017-11-03 08:53:18 · 7902 阅读 · 3 评论 -
非线性激活函数
几种非线性激活函数介绍几种非线性激励函数(Activation Function)神经网络中,正向计算时,激励函数对输入数据进行调整,反向梯度损失。梯度消失需要很多方式去进行规避。1.1 Sigmoid函数表达式为: y(x)=sigmoid(x)=11+e−x,y(x)in(0,1)y(x) = sigmoid(x) = \frac{1}{{1 + {e^{ - x}}}},y(x) in原创 2017-10-20 20:23:27 · 7383 阅读 · 0 评论 -
XGBoost 函数说明
XGBoost ParametersGeneral Parameters1 booster defaultgbtree2 silent default03 nthread default to maximum number of threads available if not set4 num_pbuffer set automatically by xgboost no need to原创 2017-11-03 10:14:14 · 1648 阅读 · 0 评论