
机器学习
文章平均质量分 95
机器发出了不学习的声音
卖行家的小报纸
摸鱼选手
展开
-
[论文解读 IJCAI 19] LogAnomaly Unsupervised Detection of Sequential and Quantitative Anomalies
论文题目:LogAnomaly Unsupervised Detection of Sequential and Quantitative Anomalies in Unstructured Logs论文来源:IJCAI 2019论文链接:https://doi.org/10.24963/ijcai.2019/658摘要通过日志记录运行时状态对几乎所有的计算机系统而言都很常见,检测出日志中的异常对于及时定位系统的故障至关重要。然而,手动从日志中检测异常十分费时、易出错且不可行。现存的自动日志异常.原创 2021-01-13 16:32:21 · 2048 阅读 · 2 评论 -
[论文解读 CCS 17] DeepLog Anamaly Detection and Diagnosis from System Logs through Deep Learning
论文题目:DeepLog Anamaly Detection and Diagnosis from System Logs through Deep Learning论文来源:CCS 2017 (Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communication Security)论文链接:https://doi.org/10.1145/3133956.3134015关键词:异常检测;深度学习;日志分析0 摘要系.原创 2021-01-12 11:43:00 · 2887 阅读 · 1 评论 -
理解胶囊网络
Internal data representation of a convolutional neural network does not take into account important spatial hierachies between simple and complex objects.(Hinton)For a CNN, a mere presence of these objects can be a very strong indicator to consider tha.原创 2020-06-06 15:59:42 · 352 阅读 · 0 评论 -
深度学习模型VGG
背景介绍这篇文章是以比赛为目的——解决ImageNet中的1000类图像分类和定位问题。在此过程中,作者做了六组实验,对应6个不同的网络模型,这六个网络深度逐渐递增的同时,也有各自的特点。实验表明最后两组,即深度最深的两组16和19层的VGGNet网络模型在分类和定位任务上的效果最好。作者因此斩获2014年分类第二(第一是GoogLeNet),定位任务第一。其中,模型的名称——“VGG”代表了牛津大学的Oxford Visual Geometry Group,该小组隶属于1985年成立的Robotics原创 2020-05-18 19:32:40 · 1392 阅读 · 1 评论 -
手把手实现CNN的卷积层及池化层
参考《深度学习入门》卷积层在二维图像上,卷积操作一方面可以高效地按照我们的需求提取图像的领域信息,在全局上又有着非常好的平移特性。接下来我们看卷积层的实现,im2col实现参见论文High Performance Convolutional Neural Networks for Document Processing,这里还有一篇讲的比较通俗的文章,可供参考:im2col方法实现卷积算法。下面我们来看如何使用纯python代码来实现卷积操作,这里我们使用im2col来进行优化,下面是im2c.原创 2020-05-15 23:40:28 · 1264 阅读 · 1 评论 -
机器学习系列笔记(3)——有监督学习方法
声明:该笔记参考国科大《模式识别与机器学习》课程及讲义,侵删。这篇文章包含回归、分类的有监督学习方法。回归问题中标签是连续值,任务就是找到一个函数fff能够拟合给定的数据及其标签,损失函数是平方损失,优化的目标是使得期望风险最小化。一、线性回归部分线性回归中什么是线性?即fff是关于参数向量www的线性函数(将xxx视作常数,对其次数不做约束,可以是1次、2次、3次)线性回归的目标...原创 2019-12-20 17:16:20 · 1483 阅读 · 0 评论 -
机器学习系列笔记(2)——多项式回归与过拟合
多项式回归与过拟合import numpy as npimport matplotlib.pyplot as pltX_simple = np.arange(1,11).reshape(-1,2)X_simplearray([[ 1, 2], [ 3, 4], [ 5, 6], [ 7, 8], [ 9, 10]])...原创 2019-12-17 19:29:39 · 438 阅读 · 0 评论 -
机器学习系列笔记(1)——统计机器学习基础
统计学习概论损失函数是指:针对单个具体样本,表示模型预测值与真实样本值之间的差距。损失函数越小,说明模型对于给样本预测越准确。常见损失函数有0-1损失函数、平方损失函数、绝对损失函数以及对数损失函数。经验风险:对所有训练样本都求一次损失函数,再累加求平均。即,模型f(x)f(x)f(x)对训练样本中所有样本的预测能力。Remp(f)=1N∑i=1NL(yi,f(xi))R_{emp}(f)...原创 2019-12-11 20:34:56 · 439 阅读 · 0 评论 -
基于概率的矩阵分解
基于概率的矩阵分解知乎链接频率学派: 他们认为世界是确定的, 他们直接为事件本身建模,也就是说事件在多次重复实验中趋于一个稳定的p值,那么这个p值就是该事件的概率. 他们认为模型参数是一个定值,希望通过类似解方程组的方式从数据中求得该未知数.这就是频率学派使用的参数估计方法—极大似然估计.这种方法往往在大数据量的情况下可以很好的还原模型的真实情况.贝叶斯派:他们认为世界是不确定...原创 2019-11-24 11:15:29 · 770 阅读 · 0 评论