
pytorch学习biji
聆听我的召唤,菜鸟进化
这个作者很懒,什么都没留下…
展开
-
处理多维特征
import numpy as npimport pandas as pdfrom sklearn.preprocessing import StandardScaler,MinMaxScalerimport torchdata=pd.read_csv("a.txt",sep=',',names=['Number of times pregnant','Plasma glucose concentration a 2 hours in an oral glucose tolerance test',原创 2021-08-30 23:10:39 · 293 阅读 · 0 评论 -
逻辑斯蒂回归
#Logistic Regression分类问题,按概率取值,sigmoid(0-1)激活import torchimport numpy as npimport matplotlib.pyplot as pltimport torchvisionimport torch.nn.functional as Fx_data=torch.Tensor([[1.0],[2.0],[3.0]])y_data=torch.Tensor([[0],[0],[1]])class LogisticRegr原创 2021-08-28 20:41:24 · 101 阅读 · 0 评论 -
线性回归(pytorch)
import torch#准备训练集x_data=torch.Tensor([[1.0],[2.0],[3.0]])y_data=torch.Tensor([[2.0],[4.0],[6.0]])#设计模型class LinearModel(torch.nn.Module):#nn.Module以下大部分继承于这个 def __init__(self): super(LinearModel,self).__init__()#guding self.line原创 2021-08-27 20:51:37 · 140 阅读 · 0 评论 -
反向传播算法
反向传播算法,简称BP算法,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。这是BP算法得以应用的基础。# Back Propagationimport torchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]原创 2021-08-23 21:41:48 · 151 阅读 · 0 评论 -
梯度下降算法
mini_batch,综合使用import numpy as npimport matplotlib.pyplot as pltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]#梯度下降w=1.0def forward(x): return x*wdef cost(xs,ys): cost=0 for x,y in zip(xs,ys): y_pred=forward(x) cost+=(y_pred原创 2021-08-23 19:49:06 · 117 阅读 · 0 评论 -
pytorch初学入门(一)
线性模型(基本知识1)需要能力:线性代数,概率论和梳理统计,和一定的python基础在先进入正题之前我们需要明白冰箱牢记两件事情和一个流程1,通过pytorch实现学习系统2,理解基本神经网络/深度学习(以上内容以后博客会有)学习流程:Dataset——>Model——>Training——>inferring1,Dataset数据集,简单理解就是我们收集的数据组成的集合。2,Model模型,就像这篇文章的模型一样,这是其一,模型很多,不过重点是通过这些模型构造属于自己的原创 2021-01-29 18:26:50 · 284 阅读 · 1 评论