- 博客(51)
- 资源 (1)
- 收藏
- 关注
原创 强化学习:Q-learning与DQN(Deep Q Network)
文章目录Q-learningDQNexperience replayfix Q type Q-learning是一种很常用的强化学习方法,DQN则是Q-learning和神经网络的结合。Q-learning 首先要设计状态空间s,动作空间a,以及reward。一次transition就是(s,a,w,s_)一次episode就是DQNQ-learning如果状态很多,动作很多时,需要建立的q表也会十分的庞大,因此神经网络就是用来算动作的q-value的为了帮助收敛experience
2020-06-05 11:26:23
9060
1
原创 多任务学习(Multi-Task Learning,MTL):SB,MMOE,SNR
文章目录多任务学习通常通过隐藏层的 Hard 或 Soft 参数共享来完成。共享 Hard 参数是神经网络 MTL 最常用的方法,可以追溯1993年Caruana所发表的论文。在实际应用中,通常通过在所有任务之间共享隐藏层,同时保留几个特定任务的输出层来实现。共享 Hard 参数大大降低了过拟合的风险。1997年Jonathan Baxter在他的论文中证明过拟合共享参数的风险为 O(N)——...
2020-04-18 17:51:26
6603
原创 GradNorm:Gradient Normalization for Adaptive Loss Balancing in Deep Multitask Networks,梯度归一化
文章目录引言gradnorm gradnorm论文地址:https://arxiv.org/abs/1711.02257 gradnorm是一种优化方法,在多任务学习(Multi-Task Learning)中,解决 1. 不同任务loss梯度的量级(magnitude)不同,造成有的task在梯度反向传播中占主导地位,模型过分学习该任务而忽视其它任务;2. 不同任务收敛速度不一致;这两个...
2020-03-21 22:39:12
25341
19
原创 PSO搜参
文章目录算法思想pso算法参数粒子更新公式:伪代码总结参考文献论文地址:https://www.semanticscholar.org/paper/A-new-optimizer-using-particle-swarm-theory-Eberhart-Kennedy/8263efcbc5e6b3c7c022b1131038b888babc8548算法思想 PSO算法的思想来源于对鸟群的捕...
2020-03-16 20:06:51
2008
原创 AUC:直观理解AUC为何会对正负样本数分布不均匀情况鲁棒
文章目录随便造一组数据12正,12负,离开这个例子也可以,1表示实际的正例,0表示实际的负例子。假设我们的模型预测的分数从左到右逐渐下降,1,1,1,1,0,1,1,1,0,1,1,0,1,0,0,1,0,0,0,1,0,0,0,0...
2020-03-08 21:29:15
11683
4
原创 NLP:TextRank 与 TF-IDF,原理与库使用,关键词提取
文章目录关键词抽取的任务就是从一段给定的文本中自动抽取出若干有意义的词语或词组。TextRank算法是利用局部词汇之间关系(共现窗口)对后续关键词进行排序,直接从文本本身抽取。其主要步骤如下:(1)把给定的文本T按照完整句子进行分割,即(2)对于每个句子,进行分词和词性标注处理,并过滤掉停用词,只保留指定词性的单词,如名词、动词、形容词,即,其中是保留后的候选关键词。(3)构建候选关键词图...
2019-12-20 10:49:04
1514
原创 NLP词向量表示:CBOW、Skip-gram、hierarchical softmax、negative sampling
文章目录Skip-gramCBOWhierarchical softmaxnegative samplingSkip-gramskip-gram,即规定了中间词及其上下文窗口大小,会在这个窗口内随机选skip个。CBOWhierarchical softmax设词库大小为V,层次softmax不再计算V个softmax,而是只计算logV个,具体如下:negative sampli...
2019-12-12 21:18:25
1188
原创 NLP:语言模型、中文自然语言处理流程、自然语言处理的任务
NLP任务可以拆分成两个串行任务,词表示和下游具体NLP任务。词表示传统的右word2vec,ELMo,BERT等,word2vec包括有名的skip-gram模型和CWOB模型,下游具体NLP任务有机器翻译,对话系统,自然语言理解(NLU),自然语言生成(NLG),命名实体识别等。处理流程:预处理:分词(token),steming,滤词词向量ED:主要获取context(上下文语义)...
2019-12-11 20:15:22
1234
原创 NLP:FastText
文章目录FastTextFastText同CBOW的结果很像,但是FastText可以和输出是对一个文本或句子的分类,而不再是中间词根。参考问下:论文地址:https://arxiv.org/pdf/1607.01759.pdffastText原理和文本分类实战,看这一篇就够了:https://blog.youkuaiyun.com/feilong_csdn/article/details/886...
2019-11-30 23:00:35
403
原创 attention机制、self-attention、channel attention、spatial attention、multi-head attention、transformer
attention机制觉得是通过连接实现的
2019-10-23 20:47:41
15128
1
原创 卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)
文章目录卷积(Convolution)反卷积(Transponsed Convolution)上采样(UpSample, Interpolation)卷积(Convolution) 反卷积(Transponsed Convolution) 上采样(UpSample, Interpolation) 上采样(UpSample)操作其实是一个很大的范畴,反卷积也可以属于上采样操作,但这...
2019-09-21 10:49:29
1686
原创 时间卷积网络(TCN):结构+pytorch代码
文章目录TCNTCN结构1-D FCN的结构因果卷积(Causal Convolutions)膨胀因果卷积(Dilated Causal Convolutions)膨胀非因果卷积(Dilated Non-Causal Convolutions)残差块结构pytorch代码讲解TCN TCN(Temporal Convolutional Network)是由Shaojie Bai et al....
2019-08-29 10:40:44
107573
24
原创 动态规划(Dynamic Programming)与贪心算法(Greedy Algorithm)
动态规划算法俩性质,贪婪算法三个性质,加上一个局部最优解时全局最优解,即存在最优子结构最小生成树算法的生成树使用了所有结点,最短路径算法不需要使用所有的结点。最小生成树算法的无向图最短路径算法的有向图目前已经知道最小生成树算法可以用贪婪算法...
2019-08-20 11:06:24
1072
原创 集成学习(Ensemble Learning):Boosting、Bagging、Random Forest、Stacking
baggingboostingstacking
2019-08-11 16:38:09
736
原创 pytorch笔记:构建LSTM网络,实现训练验证和测试过程
文章目录LSTMmany to one型many to many型 关于LSTM和RNN,可以看我的blog,这里总结一下如何用pytorch构建LSTM网络。LSTMmany to one型many to many型
2019-07-15 21:45:39
37159
36
原创 二分查找(BinarySearch)和快速排序(QuickSort)
文章目录二分查找二分查找 二分查找用于在一个有序数组中,查找是否存在目标值,是分治法思维的体现,把大问题对半平分成两个小问题。 下面是尾递归形式的二分查找的伪代码,如果找到,则返回在array中的索引,如果没有找到,就返回-1。Int BinarySearch(int[] array, int key, int lo, int hi) if (hi<lo) return ...
2019-07-07 10:08:48
1684
原创 pytorch笔记:一些常见操作,构建全连接神经网络,验证操作,评估模式
为何叫pytorch按照官网安装,一般是两行命令,第一行装的是pytorch的主模块,第二行安装的torchvision,会包含一些数据库,例如图片数据库,还有一些预先训练好的模型,例如VGG,ResNet。torch自称是神经网络届的numpy,numpy会把array放到CPU中加速计算,torch会把tensor放到GPU中加速计算。torch和numpy有很多用法是一样的,只不过num...
2019-06-17 11:45:53
3322
原创 线性代数及其应用:第六章 正定矩阵与奇异值分解
前言:这篇blog是《Linear Algebra and Its Applications》第六章的一些学习笔记
2019-05-22 22:09:56
6241
1
原创 线性代数及其应用:第五章 特征值与特征向量
前言:这篇blog是《Linear Algebra and Its Applications》第五章的一些学习笔记
2019-05-21 17:33:51
1301
原创 python:pandas dataframe数据处理总结,读写文件,增删改查,缺失处理,连接合并,去重
文章目录1. 生成dataframe2. 读取数据3. 增加:增加一列:增加一行:4. 删除:5. 更新:6. 显示:7. 筛选:7. 数据空处理:8. 数据连接:9. 其它: 总结一些python数据处理过程中常用的方法,我一般喜欢用dataframe做数据处理,所以一般会尽量转成pandas的dataframe格式。1. 生成dataframepd.dataframe(list, c...
2019-05-13 09:40:26
3806
1
原创 C++:map容器的插入方法比较
在C++的STL中引入了容器的概念,常见的有vector,set,map等,关于这三种容器的操作可以参考教程。这篇blog比较map容器常见的两种插入方法,如下:方法一:利用insert命令。 for(i = 0; i<nums.size();i++){ a.insert(map<int,int>::value_type(nums[i...
2019-05-11 09:51:08
2052
2
原创 梯度提升决策树(GBDT)与极端梯度提升(xgboost)算法
文章目录梯度提升决策树(GBDT)算法流程xgboost算法梯度提升决策树(GBDT) 梯度提升决策树(GBDT)算法是梯度提升(GB)算法限定基学习器是回归决策树时的模型,尤其是CART回归树,关于梯度提升(GB)可以看我的blog中对应的部分。 这里根据GB算法,改写成使用CART回归树的GBDT算法。算法流程输入:训练集T={(x1,y1),(x2,y2)…(xN,yN)}T=...
2019-05-06 09:37:57
7151
原创 leetcode-最大子序和
题目描述: 给定一个整数数组 numsnumsnums ,找到一个具有最大和的连续子数组(子数组最少包含一个元素),返回其最大和。示例: 输入: [−2,1,−3,4,−1,2,1,−5,4][-2,1,-3,4,-1,2,1,-5,4][−2,1,−3,4,−1,2,1,−5,4], 输出: 666 解释: 连续子数组 [4,−1,2,1][4,-1,2,1][4,−1,2,1...
2019-04-18 10:58:53
339
原创 批标准化(Batch Normalization, BN)
批标准化(Batch Normalization, BN) 在BP算法中,根据公式(3)(4),我们知道偏导数中存在激活函数发f(⋅)f(·)f(⋅)的导数,如果激活函数是logistic-sigmoid或者tanh函数,它们的导数值域均在[0,1]之间,所以随着层数的增多,反向传播会持续缩小残差δ\deltaδ的值,造成远离输出层的权值与偏差的梯度不断的缩小(根据公式(1)(2)),所以这些...
2019-04-16 10:29:00
3726
1
原创 人工神经网络(ANN)
Deep Learning强大的地方就是可以利用网络中间某一层的输出当做是数据的另一种表达,从而可以将其认为是经过网络学习到的特征。基于该特征,可以进行进一步的相似度比较等。...
2019-03-27 20:56:59
2288
1
原创 极大似然估计(MLE)、最大后验概率估计(MAP)、贝叶斯估计(BE)
文章目录似然函数极大似然估计实际应用最大似然估计与极大似然估计(MLE)常见的概率分布模型直观理解似然函数 在概率论中,设f(x,θ)f(x,\theta)f(x,θ)为总体分布,其中θ\thetaθ为概率分布模型的参数且在这里是未知的,x_{1},x_{2},x_{3} \dots x_{n}$为对该总体采样得到的样本,因为这些样本独立同分布,所以它们的联合概率密度为L(x1,x2…xn...
2019-03-22 23:17:36
2666
2
原创 python2 与 3:一般除法、除法取整、除法取余、精确减法与精确除法
文章目录python2python2除法python2除法取整python2除法取余python2精确除法python3python3除法python3除法取整python3除法取余python3精确除法python2python2除法 python2的除法,与c语言除法类似,两个整数相除结果一定是整数,除数与被除数有一个是浮点数,结果就是浮点数。因此有一种除法情况会出问题,就是两个整数相...
2019-03-18 21:08:22
17275
1
原创 python3:函数注释用法
python3提供了一种为函数提供注释的方法,可以注释函数的参数,以及返回值,一个及其简单的例子如下:def text(a:int, b: 'int > 0', c:'一头猪', d:'int > 0' = 1) -> 'str': passprint(text.__annotations__)# __annotations__前后均是两个下划线# 输出为字...
2019-02-26 11:15:28
3190
原创 python:可变对象与不可变对象、对象地址共享、函数传参
文章目录可变对象与不可变对象对象地址共享函数传参可变对象与不可变对象 在python中,对象可分为可变对象和不可变对象,可变对象包括字典、列表、集合、手动声明的类对象等等,而不可变对象包括数字、字符、None、元祖等等,两者的区别就是内存地址中存的对象是否可变。这样的设定,就会影响python的对象地址以及函数传参。对象地址共享 对于不可变对象(比如数字、字符或者None,不包括元组...
2019-02-21 09:30:50
810
原创 提升方法(boost)
文章目录提升方法adaboost前向分布算法adaboost与前向分布算法提升树提升方法 提升方法(boost)是什么adaboost adaboost(adaptive boost,适应提升方法)是一种十分有代表性的提升方法,它能适应弱分类器各自的训练误差率。前向分布算法 adaboost与前向分布算法 提升树 参考书籍:《统计学习方法》...
2019-02-17 23:07:29
1644
1
原创 线性代数及其应用:第四章 行列式
文章目录第三章 行列式1. 行列式的几何意义2. 行列式的性质2.1. 性质2.1. Binet-Cauchy公式3. 行列式的求解3.1. 利用高斯消去法3.2. 行列式大公式(big formula)3.3. 利用代数余子式展开4. 行列式的应用4.1. 求逆(神经病这么求)4.2. 求Ax=b的解(Cramer's)(神经病这么求)4.3. 求盒子的体积(最精彩的应用)4.4. 求pivot...
2019-02-17 10:33:57
1567
原创 线性代数及其应用:第三章 正交
文章目录第三章 正交1. 正交向量与子空间1.1. 内积1.2. 矩阵四大子空间的正交关系1.3. 矩阵的真正作用2. 向量投影到向量3. 向量投影到列空间与最小二乘法3.1. 向量投影到列空间3.2. 最小平方和问题3.2.1. 代数法3.2.2. 矩阵法4. 正交基,Gram-Schmidt正交化法4.1. 正交基4.1.1. 正交矩阵4.1.2. 正交变换4.1.3. 正交基4.2. Sch...
2019-02-14 17:58:37
1249
原创 线性代数及其应用:第二章 向量空间
文章目录第二章 向量空间1. 向量空间与子空间1.1. 向量空间的定义1.2. 子空间定义2. 求解Ax=0与Ax=b2.1. 主元变量与自由变量2.2. 求Ax=b2.3. 矩阵的秩3. 线性无关,基与维度3.1. 线性无关3.2. 向量空间的基3.3. 向量空间的维度4. 矩阵的四个子空间4.1. 列空间4.2. 零空间4.3. 行空间4.4. 左零空间5. 左逆与右逆6. 线性变换线性变换与...
2019-02-13 22:17:58
1818
原创 决策树(decision tree):ID3、C4.5、CART
文章目录决策树(decision tree)决策树模型特征选择信息增益信息增益比ID3决策树生成决策树修建C4.5决策树生成决策树修建CART决策树生成决策树修建决策树(decision tree) 决策树模型是一个分类与回归方法,属于监督学习模型,是一个概率模型和判别模型。决策树模型 决策树模型包括特征选择,决策树生成和决策树剪枝。特征选择 特征选择在于选取对分类有帮助的特征...
2019-02-06 21:22:54
2339
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人