
机器学习
文章平均质量分 63
Taosolo
学习者
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
torch.utils.data.DataLoader
pytorch DataLoader(),在win上多进程加载数据报错Producer process has been terminated before all shared CUDA tensors released. See Note [Sharing CUDA tensors]原创 2022-10-02 20:16:19 · 4212 阅读 · 2 评论 -
3.2 线性回归的从零开始实现
线性回归的从零开始实现3.2 线性回归的从零开始实现3.2.1 生成数据集3.2.2 读取数据3.2.3 初始化模型参数3.2.4 定义模型3.2.5 定义损失函数3.2.6 定义优化算法3.2.7 训练模型小结3.2 线性回归的从零开始实现在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,会导致我们很难深入理解深...原创 2020-04-07 03:10:56 · 758 阅读 · 0 评论 -
3.1 线性回归
线性回归3.1 线性回归3.1.1 线性回归的基本要素3.1.1.1 模型定义3.1.1.2 模型训练(1) 训练数据(2) 损失函数(3) 优化算法3.1.1.3 模型预测3.1.2 线性回归的表示方法3.1.2.1 神经网络图3.1.2.2 矢量计算表达式小结3.1 线性回归线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与...原创 2020-04-07 02:36:58 · 611 阅读 · 0 评论 -
K-近邻算法(kNN)
k-近邻算法是通过测量不同特征值之间的距离来进行分类的方法优点:精度高 对异常值不敏感 无数据输入设定缺点:计算复杂度高 空间复杂度高使用范围:数值型和标称型算法原理:存在一个样本数 据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据原创 2017-10-01 20:09:44 · 377 阅读 · 0 评论 -
K-近邻算法(kNN)
k-近邻算法是通过测量不同特征值之间的距离来进行分类的方法优点:精度高 对异常值不敏感 无数据输入设定缺点:计算复杂度高 空间复杂度高使用范围:数值型和标称型算法原理: 存在一个样本数 据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较,然后算法提取样本集中特征最相原创 2017-10-10 19:26:19 · 284 阅读 · 0 评论 -
1.1 初识人工智能
1.1初识人工智能1.1.0 abstract1.1.1 人工智能与机器学习的关系1.1.1.1 什么是人工智能1.1.1.2 限制领域AI和通用领域AI1.1.1.3 什么是机器学习1.1.1.4 从数据中学出规律1.1.1.5 什么是深度学习1.1.1.6 人工智能、机器学习和深度学习之间的关系1.1.2 监督学习和无监督学习1.1.3 常见的机器学习算法1.1.4 回归问题与分类问题1.1...原创 2019-09-23 11:40:35 · 347 阅读 · 0 评论 -
2.2 简单一元线性回归
2.2 .0 abstract声明:本文只为我闲暇时候学习所做笔记,仅供我无聊时复习所用,若文中有错,误导了读者,敬请谅解!!!2.2.1 问题描述在表格里我们给出了正常男生20岁时标准体重。第一列表示的是身高,第二列代表的是体重。我们希望通过这个数据来搭建回归模型(也就是要通过表格中已知的数据集,去构造(专业叫法:拟合)一个函数_f,_使得_f_能很好的把X【这里的X是特征,因为...原创 2019-09-23 11:46:58 · 1236 阅读 · 1 评论 -
Long Short Term Memory networks (LSTM)
Long Short Term Memory networksAbstract**循环神经网络(Recurrent Neural Networks)****长期依赖性问题(The Problem of Long-Term Dependencies)****LSTM 网络(LSTM Networks)****LSTM 背后的核心理念(The Core Idea Behind LSTMs)****分步...原创 2019-09-25 12:36:51 · 2968 阅读 · 0 评论