
机器学习
IT_NEU_Lee
大数据开发 深度学习 机器学习 数据挖掘 Java开发 Python程序设计 软件测试开发
展开
-
损失函数
最近正在看数据流算法 里面用到损失函数 竟然还有各种不同类型的损失函数 上网一查还真有然后觉得这篇写的不错 记下来作为自己的记录 以后方便查看 https://blog.youkuaiyun.com/u010976453/article/details/78488279以上链接仅作为学习用途 如有侵权还是什么的 请及时联系...转载 2018-07-16 21:46:48 · 274 阅读 · 0 评论 -
深度学习正则化
以前总是不了解什么是正则化 今天看书 算是有点体会 根据阿卡姆剃刀原理,如果一件事情有两种解释,那么相对简单的那个解释更可能是正确的解释,即假设更少的那个。这个原理用在神经网络中,给定一些训练数据和一种网络架构,很多组权重值(即很多种模型)都可以解释这些数据,简单的模型比复的模型更不容易过拟合。 这里简单模型指的是参数值分布的熵更小的模型,或者参数更少的模型。如果强制让模型权...原创 2018-11-27 23:02:41 · 269 阅读 · 0 评论 -
深度学习用于文本和序列
文本可以理解为单词序列或字符序列 处理序列数据大的两种深度学习算法 1 循环神经网络 (recurrent neural network)2 一维卷积神经网络算法的应用:神经网络不接受原始文本,和接受处理的数值张量,即文本向量化:1 文本分割为单词 2 文本分割为字符 3 提取单词或者字符的n-gram(多个连续的单词或字符的集合),然后将每个n-gram转换为一个向...原创 2018-11-29 17:02:22 · 676 阅读 · 2 评论 -
深度学习用于计算机视觉
密集连接层(精度97.8%)------>卷积神经网络(99.3%) 两者的区别在于:Dense层从特征空间学到的是全局模式,而卷积层学到时是局部模式1 卷积神经网络学到的模式具有平移不变性(视觉世界根本上来说就具有平移不变性),即在图像右下角学到某个模式后可以在任何地方识别这个模式。对于密集连接网络来说如果出现在新的位置,它只能重新学习这个模式。2 卷积神经网络可以学到模式...原创 2018-11-29 10:30:31 · 456 阅读 · 0 评论 -
偏差方差平衡理论(bias-variance trade-off theory)
在训练与测试一个模型时,我们通常使用三个数据集,即训练集、开发集、测试集。模型对应这三个数据集有三个误差,训练集误差、开发集误差、与测试集误差,另外还有一个人类梳理这类问题的误差值—人类水平误差。基于此的著名的偏差-方差权衡理论是指导我们调参的准则:人类误差与训练集误差之间的差距称为可避免的偏差,这部分误差可以通过进一步学习及模型调优来避免。而训练集和开发集之间的差距称为方差,它是训练集与开发...转载 2018-11-02 15:36:48 · 1119 阅读 · 0 评论 -
构造自己的异常数据集合
在看论文的时候发现有的人工合成数据集合并没有提供出来 并且不知道如何用工具构造自己的数据集,于是就手动用Python自己实现一个数据集 其中共有263个数据 二维数组构成 便于二维平面画图 其中 异常数据13个 正常数据250个但正常数据又分为3个聚集的堆 第一个堆70 个 第二个 和第三个都是90个import numpy as nparray1...原创 2019-11-30 15:44:45 · 898 阅读 · 0 评论 -
归一化和标准化
https://blog.youkuaiyun.com/starter_____/article/details/79215684转载 2018-09-12 17:34:03 · 276 阅读 · 0 评论 -
电商用户评论情感分析
文本主题模型之:LDA: https://www.cnblogs.com/pinard/p/6831308.html转载 2018-08-28 15:09:22 · 4325 阅读 · 0 评论 -
估计误差和近似误差
https://blog.youkuaiyun.com/qq_35664774/article/details/79448076转载 2018-10-12 16:24:40 · 734 阅读 · 0 评论 -
机器学习通用流程
1定义问题,收集数据2选择衡量成功的指标 精度?召回率?3确定评估方法(留出验证集,K折,重复K折)4准备数据(数据处理,特征工程)5开发比基准更好而模型6扩大模型规模:开发过拟合的模型(理想的模型是刚好在欠拟合和过拟合的边界上,为了找到这个边界,你必须穿过它----添加更多的层,让每一层变得更大,训练更多的轮次都可以加速过拟合)7模型正则化与调节超参数 ...原创 2018-11-28 17:10:45 · 297 阅读 · 0 评论