
PyTorch
文章平均质量分 96
misite_J
One, like a robot; or, be a human.
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
win10下CUDA、cudnn以及pytorch的安装更新
文章目录查看自己电脑支持的cuda信息cuda toolkits与cuda drivernvidia-smi与nvcc -Vdriver API与runtime API下载CUDA和cuDNNpytorch与cuda版本对应cuda与cudnn版本对应安装CUDA和cudnnCUDAcudnn环境变量配置安装完成后的验证CUDA多版本切换下载并安装Pytorchpytorch1.8.2 GPU版安装检查PyTorch GPU版本是否安装成功参考前言:“升级至cuda不需要将老的cuda版本手动卸载”,在安原创 2021-08-27 23:22:09 · 5532 阅读 · 0 评论 -
transformers库学习笔记(一):安装与测试
印象中觉得transformers是一个庞然大物,但实际接触后,却是极其友好,感谢huggingface大神。原文见tmylla.github.io。安装我的版本号:python 3.6.9;pytorch 1.0;CUDA 10.0。pip install transformerspip之前确保安装1.1.0+。测试验证代码与结果python -c "from transformers import pipeline; print(pipeline('sentiment-an.原创 2020-06-21 11:57:17 · 6886 阅读 · 7 评论 -
Visdom可视化Pytorch训练过程
使用visdom可视化pytorch训练过程。visdomVisdom是支持torch和Numpy实时数据可视化工具。Support by feakbooksearch 。可视化界面如下:Preparation安装:pip install visdom启动:python -m visdom.server浏览器进入http://localhost:8097Practiceutils.pyimport numpy as npfrom visdom impor.原创 2020-06-12 22:38:44 · 958 阅读 · 0 评论 -
pytorch实现CNN手写数字识别(MNIST)
导入依赖包import torch import numpy as npfrom torch.utils.data import DataLoaderfrom torchvision.datasets import mnistfrom torch import nnfrom torch.autograd import Variablefrom torch import optimf...转载 2019-04-18 21:54:15 · 2903 阅读 · 2 评论 -
PyTorch实现L1,L2正则化以及Dropout
正则化(Regularization)机器学习中,许多策略被显式的设计来减少测试误差(可能会以增大训练误差为代价),这些策略统称为正则化。正则化的目的是限制参数过多或者过大,避免模型更加复杂。L1正则化和L2正则化是在损失函数后面会添加一个额外项,可以看做是损失函数的惩罚项。所谓“惩罚”是指对损失函数中的某些参数做一些限制。L1正则化和L2正则化的作用:L1正则化可以产生稀疏权值矩阵...转载 2019-04-14 21:43:41 · 2078 阅读 · 0 评论 -
深度学习优化器
优化器优化器种类SGD: 随机梯度下降,每次迭代只训练一个样本,不能利用 CPU 或 GPU 并行计算 speed up,且每个样本都进行gradient descent,这无疑增加了样本中的概率,所以学习速度较慢。torch.optim.SGD(params, lr=, momentum=0, dampening=0, weight_decay=0, nesterov=False)AS...原创 2019-04-16 20:19:29 · 736 阅读 · 0 评论 -
用PyTorch实现多层网络:从感知机到多层神经网络
概念理解感知机感知机(perceptron)是二分类的线性分类模型,输入为实例的特征向量,输出为实例的类别(取+1和-1)。感知机对应于输入空间中将实例划分为两类的分离超平面。感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用梯度下降法 对损失函数进行最优化(最优化)。从神经网络模型的角度看,感知机是最简单的分类模型。多层感知机多层感知器(Multilayer P...原创 2019-04-13 09:20:17 · 3965 阅读 · 0 评论 -
pytorch(二)
numpy实现梯度下降import numpy as np def func(x,y): return (1-x)**2+100*(y-x**2)**2#函数对x求导def dz_dx(x,y): return 2*x-400*(y-x**2)*x-2#函数对y求导def dz_dy(x,y): return 200*(y-x**2) value = n...转载 2019-04-08 17:42:27 · 239 阅读 · 0 评论 -
PyTorch安装与基础概念
Pytorch是Facebook 的 AI 研究团队发布了一个 Python 工具包,是Python优先的深度学习框架改进现有的神经网络。Pytorch提供了更快速的方法——不需要从头重新构建整个网络,这是由于 PyTorch 采用了动态计算图(dynamic computational graph)结构,而不是大多数开源框架(TensorFlow、Caffe、CNTK、Theano 等)采用...原创 2019-04-06 21:22:33 · 392 阅读 · 0 评论 -
PyTorch实现Logistic regression
逻辑回归(Logistic regression)回归方法是对数值型连续随机变量进行预测和建模的监督学习算法。其特点是标注的数据集具有数值型的目标变量。回归的目的是预测数值型的目标值。逻辑回归对应线性回归,旨在解决分类问题,即将模型的输出转换为0/1值。逻辑回归直接对分类的可能性进行建模,无需事先假设数据的分布。最理想的转换函数是单位阶跃函数(也称Heaviside函数),但单位阶跃函数...转载 2019-04-10 15:06:34 · 2540 阅读 · 0 评论