- 博客(1)
- 收藏
- 关注
原创 深度学习第一课
w_0 = torch.normal(0, 0.01, true_w.shape, requires_grad=True) #requires_grad=True表示这里w_0需要计算梯度(w_0创建一个需要梯度计算的张量,b_0同理。与true_w的形状相同)x = torch.normal(0, 1, (data_num,len(w))) #生成正态分布的随机数,len(w)表示w的长度。loss = torch.sum(abs(pred_y - y))/len(y) #loss的均值。
2025-03-06 02:34:09
283
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅