
算法
文章平均质量分 74
leetcode 算法学习
胖头猫
这个作者很懒,什么都没留下…
展开
-
BM3D 图像去噪
BM3D图像去噪论文:Image denoising by sparse 3-D transform-domain collaborative filtering代码:python 代码介绍:图像去噪算法:BM3D 加性噪声方程,其中噪声 η\etaη 常常用均值为 0 的高斯噪声近似表示: BM3D去噪算法结合了空间算法非局部去噪方法 Non-local method,和转换算法 transform method。算法主要分两步,每一步又分为三小步:相似块分组、协同滤波和聚合。.原创 2021-11-30 14:45:46 · 3263 阅读 · 0 评论 -
深度学习推荐系统——结构探索
AFM Attentional Factorization Machines,在 NFM 模型中加入注意力机制,通过加入注意力网络,对不同特征交叉的关注度不同,即在元素积操作中加入注意力得分 aija_{ij}aij,再进行池化。fAtt=∑(i,j)∈Rxaij(vi⊙vj)xixjf_{Att}=\sum_{(i,j) \in R_{x}}a_{ij}(v_{i}\odot v_{j})x_{i}x_{j}fAtt=(i,j)∈Rx∑aij(vi⊙vj)xixjDIN原创 2021-09-28 15:33:38 · 168 阅读 · 0 评论 -
深度学习推荐系统——特征工程
深度学习推荐模型演化方向:1)增加神经网络复杂程度:从最简单的单层神经网络模型 AutoRec,到经典的深度神经网络结构 Deep Crossing,主要的进化方式在于增加了深度神经网络的层数和结构复杂度。2)丰富特征交叉方式:例如改变了用户向量和物品向量互操作方式的 NeuralCF,定义了多种特生向量交叉操作的 PNN 模型。3)组合模型:主要是指 Wide&Deep 模型及其后续变种等,其思路是通过组合两种不同特点、优势互补的深度学习网络,提升模型的综合能力。4)FM 模型的深度学习.原创 2021-09-22 15:25:54 · 1005 阅读 · 0 评论 -
传统推荐模型
协同过滤算法 从物品相似度和用户相似度角度出发,衍生出物品协同过滤(ItemCF)和用户协同过滤(UserCF),又衍生出矩阵分解模型(Matrix Factorization,MF)。 亚马逊协同过滤论文:Amazon.com recommendations: item-to-item collaborative filteringUserCF1)基于用户对其它商品的历史评价数据,和其他用户对这些商品的历史评价数据,组成共现矩阵(用户为行,商品为列,值为1、0、-1);2)找到与用户兴趣最相原创 2021-09-14 12:54:48 · 262 阅读 · 0 评论 -
决策树总结
决策树的生成主要分两步,节点的分裂和阈值的确定。ID3 由增熵来决定哪个节点需要分裂。C4.5CART原创 2021-09-10 12:18:43 · 145 阅读 · 0 评论 -
NLP-BERT
Input EmbeddingBert采用两阶段模型,首先是语言模型预训练,其次是使用 Fine-Tuning 模式解决下游任务。BERT 预训练模型分为以下三个步骤:Embedding、Masked LM、Next Sentence Prediction。Embedding 由三种 Embedding 求和而成:Token Embeddings 是词向量,第一个单词是 CLS 标志,可以用于之后的分类任务;Segment Embeddings 用来区别两种句子,因为预训练不光做 LM 还要做以两个原创 2021-08-10 11:29:35 · 248 阅读 · 0 评论 -
深度学习基础
Deeplab 系列 感受野计算RNN、LSTM 和 GRU梯度消失和梯度爆炸常用 Norm 方法tensorflow 基础pytorch 基础原创 2021-07-29 10:41:23 · 707 阅读 · 0 评论 -
机器学习基础
偏差-方差分解 偏差-方差分解试图堆学习算法的期望泛化错误率进行拆解,把一种学习算法的期望误差分解为三个非负项的和,即样本 noise、bias 和 variance。 对于训练集 D,测试样本 x,y 为其真实标签,yDy_{D}yD 为数据集中的标签,f(x;D)f(x;D)f(x;D) 为学习的 x 的输出。学习算法的期望预测为 ED[f(x;D)]E_{D}[f(x;D)]ED[f(x;D)]。 noise:数据集中的标签和真实标记的差别,是期望误差的下界。ε2=ED[(yD−y)2原创 2021-07-25 22:07:14 · 500 阅读 · 0 评论 -
排序算法总结
内部/外部排序:内部排序是数据记录在内存中进行排序,而外部排序是因排序的数据很大,一次不能容纳全部的排序记录,在排序过程中需要访问外存。算法的稳定性:假定在待排序的记录序列中,存在多个具有相同的关键字的记录,若经过排序,这些记录的相对次序保持不变,则称这种排序算法是稳定的,否则称为不稳定的。冒泡排序思想:每次遍历不断交换最大值,排在最后一个。void bubble_sort(vector<int> &nums){ for (int i = nums.size()-1..原创 2021-07-24 16:21:34 · 122 阅读 · 0 评论 -
常用评价指标
FP、FN、TP、TNTP: true positive, 预测是阳性,实际也是正例。TN: true negative, 预测是阴性,实际也是负例。FP: false positive, 预测是阳性,实际是负例。FN: false negative, 预测是阴性,实际是正例。准确率准确率(Accuracy): 模型判断正确的数据 (TP+TN) 占总数据的比例。 Accuracy = (TP+TN)/ALL精确率(Precision) 又称查准率,针对模型判断出的所有正例 (T原创 2021-07-23 23:18:13 · 745 阅读 · 0 评论 -
NLP-Word2vec
Word2vec 是 Word Embedding 方式之一,将词转化为“可计算”“结构化”的向量, 本质上是一种降维操作。主要包含:CBOW(continuous bag-of-word)模型和 SG(skip-gram)模型,以及hierarchical softmax 和 negative sampling 两种参数优化技术。One-word context通过一个上下文单词(one context word)来预测一个目标单词(one target word)。将单词用 one-hot enc原创 2021-07-23 09:18:11 · 241 阅读 · 0 评论 -
总结帖列表
旋转数组问题排序算法总结原创 2021-07-20 19:11:55 · 217 阅读 · 0 评论 -
并查集-Union-find Sets
用于解决一些元素分组的问题,管理一系列不相交的集合,并支持两种操作:合并(Union):把两个不相交的集合合并为一个集合。查询(Find):查询两个元素是否在同一个集合中。思想:用集合中的一个元素代表集合。最开始,对于只有一个元素的集合,代表元素是唯一的那个元素;通过合并操作,得到一个树状的结构,代表元素在根节点上,其它元素指向代表元素;要寻找集合的代表元素,只需要一层一层往上访问父节点,直达树的根节点。路径压缩:尽量使集合中的每个节点的父节点都为根节点,以避免查找时并查集效率低。查找过程会把整个查原创 2021-07-18 10:02:43 · 173 阅读 · 0 评论 -
背包问题-DP
分类例题1. 面试题 08.11. 硬币原创 2021-07-17 18:08:21 · 98 阅读 · 0 评论