homework3——梯度下降和反向传播

部署运行你感兴趣的模型镜像

使用python实现梯度下降和反向传播

import torch
import numpy as np

x_data = np.random.randint(1, 6, size=(3))
y_data = (x_data*x_data)*3.0 + x_data*2 + 2.0
print("x_data:", x_data, "y_data:", y_data)

w1 = torch.tensor([1.0], requires_grad=True)  # 设置初值
w2 = torch.tensor([1.0], requires_grad=True)
bias = torch.tensor([1.0], requires_grad=True)


def forward(x):
    return (x*x)*w1 + x*w2 + bias

def loss(x, y):    # MSE
    y_pred = forward(x)
    return ((y_pred - y) ** 2).mean()

for epoch in range(100):
    for x, y in zip(x_data, y_data):
        l = loss(x, y)  # 构建计算图
        l.backward()    # 反向计算梯度并保存
        print("grad: ", x, y, w1.grad.item(), w2.grad.item(), bias.grad.item())  # 打印梯度

        # 更新weights和bias
        w1.data = w1.data - 0.001 * w1.grad.data
        w2.data = w2.data - 0.001 * w2.grad.data
        bias.data = bias.data - 0.001 * bias.grad.data

        # 梯度清零
        w1.grad.data.zero_()
        w2.grad.data.zero_()
        bias.grad.data.zero_()

    print("epoch: {}\tl: {}\tw1: {}\tw2: {}\tbias: {}\t".format(epoch, l.item(), w1.item(), w2.item(), bias.item()))

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值