
人工神经网络
文章平均质量分 75
hustlei
keep coding just for i like it
展开
-
pytoch人工神经网络基础:最简单的分类(softmax回归+交叉熵分类)
softmax回归分类原理 对于回归问题,可以用模型预测值与真实值比较,用均方误差这样的损失函数表示误差,迭代使误差最小训练模型。 那么分类问题是否可以用线性回归模型预测呢。最简单的方法就是用softmax方法,softmax的原理: 以in_features个特征,out_features个类别为例。比如用花瓣大小、生长位置、花瓣形状三个因素,判断荷花和梅花,则in_features为3,out_feautures为2。 模型为 y1=x11w11+x12w12+x13w13+b1y2=x21w2原创 2022-03-21 15:38:43 · 2136 阅读 · 0 评论 -
pytorch人工神经网络基础:线性回归神经网络(nn.Module+nn.Sequential+nn.Linear+nn.init+optim.SGD)
线性回归是人工神经网络的基础,感知机都就是单层或少数层的线性回归。线性回归属于有监督的学习,即根据有标签(已知结果的数据)拟合线性方程权重,然后根据拟合的方程预测未知数据。 通常步骤为: 准备数据:获取有标签的数据(有结果的数据)。 建立模型:根据线性方程设计模型。 配置模型:确定损失函数、优化方法、初始化参数。 训练模型:根据有标签的数据进行回归学习。 测试:根据训练好的(回归结果)线性方程模型计算,评估模型是否准确。 1 准备工作 导入必要的库。 import torch from torch im原创 2022-03-19 17:45:15 · 2887 阅读 · 1 评论 -
人工神经网络基础:最小二乘法线性回归
先放上代码和注释吧,有空再写 #!/usr/bin/env python # -*- coding: utf-8 -*- '''最小二乘法回归y=wx+b。 by lei<hustlei@sina.cn> ''' import numpy as np import matplotlib.pyplot as plt #回归数据集 ##生成数据集 '''在线性方程y=2x+3上,随机取N个点,加上随机噪声,作为回归对象''' N=200 #回归数据点个数。 np.random.seed(2原创 2022-03-10 23:20:25 · 3008 阅读 · 0 评论