
动手学深度学习
文章平均质量分 63
小白抗小枪
这个作者很懒,什么都没留下…
展开
-
转载帖 self-attention
无原创 2022-10-06 20:00:14 · 279 阅读 · 1 评论 -
从头开始训练神经网络(Unet)
如何自己从头写一个训练框架原创 2022-09-30 17:05:03 · 3129 阅读 · 3 评论 -
微调+代码实现+Q&A
沐神动手学深度学习原创 2022-07-11 20:14:34 · 1033 阅读 · 0 评论 -
数据增广+代码实现+Q&A
图像增广原创 2022-07-11 15:03:29 · 507 阅读 · 0 评论 -
ResNet+代码练习+Q&A
resnet 动手学深度学习原创 2022-07-07 21:46:21 · 417 阅读 · 0 评论 -
批量规范化+代码+Q&A
在作者的论文中,还解释了其原理:通过减少内部协变量偏移(internal covariate shift)。 据推测,作者所说的“内部协变量转移”类似于上述的投机直觉,即变量值的分布在训练过程中会发生变化。 然而,这种解释有两个问题: 1、这种偏移与严格定义的协变量偏移(covariate shift)非常不同,所以这个名字用词不当。 2、这种解释只提供了一种不明确的直觉,但留下了一个有待后续挖掘的问题:为什么这项技术如此有效?但事实上我们不需要纠结这么多,因为学术界现在没有得出到底他为什么这么有效。事实上原创 2022-07-04 21:20:25 · 728 阅读 · 0 评论 -
GoogLeNet + 代码实现 + 课后习题 + 快问快答
GoogleNet-动手学深度学习-李沐原创 2022-06-21 21:13:00 · 1018 阅读 · 0 评论 -
NiN + 代码 + 快问快答
NiN现在这个网络没人用,但是是有很多新的概念提出原创 2022-06-20 21:16:58 · 480 阅读 · 0 评论 -
LeNet +课后练习 + 快问快答
原网络精度损失之和测试精度 (下面的更改都是更改单个参数)将平均汇聚层替换为最大汇聚层,会发生什么? 将net中的avgpool改成Maxpool就好 测试精度差了尝试构建一个基于LeNet的更复杂的网络,以提高其准确性。调整卷积窗口大小。 这个调太麻烦了 还要计算。调整输出通道的数量。 将输出通道数调小后(第二层卷积输出通道数维为10) 将输出通道数调大后(第二层卷积输出通道数维24) 好像不如原来的调整激活函数(如ReLU)。 当使用relu做激活函数测试精度有所提高 因为relu函数对原创 2022-06-13 21:07:22 · 1893 阅读 · 0 评论 -
实战Kaggle比赛:预测房价
实战Kaggle比赛:预测房价原创 2022-06-07 17:38:31 · 754 阅读 · 0 评论 -
dropout与快问快答
dropout李沐原创 2022-06-01 20:58:19 · 653 阅读 · 0 评论 -
模型选择+过拟合欠拟合 快问快答
这部分的代码没有什么实际的含量和解读。所以接下来的内容我会一些练习和我认为有必要的问答写下去。 你能准确地解出这个多项式回归问题吗?提示:使用线性代数。 这个用矩阵哈自己算 考虑多项式的模型选择: 绘制训练损失与模型复杂度(多项式的阶数)的关系图。你观察到了什么?需要多少阶的多项式才能将训练损失减少到0? 在这种情况下绘制测试的损失图。 生成同样的图,作为数据量的函数。 如果你不对多项式特征\(x^i\)进行标准化(\(1..原创 2022-05-31 15:38:54 · 448 阅读 · 0 评论 -
多层感知机+快问快答
import torchfrom torch import nnfrom d2l import torch as d2lbatch_size = 256train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)#28*28 隐藏层, num_inputs, num_outputs, num_hiddens = 784, 10, 256#这里有个小问题,我们是全部设成随机数 一会.原创 2022-05-30 16:28:10 · 539 阅读 · 0 评论 -
softmax回归+数据集等等
图像分类数据集里 减少batch_size(如减少到1)是否会影响读取性能? 答: 批量越大时间的成本是越低的。 数据迭代器的性能非常重要。你认为当前的实现足够快吗?探索各种选择来改进它。 不会 查阅框架的在线API文档。还有哪些其他数据集可用? 自行查阅 #softmax实现开始import torchfrom IPython import displayfrom d2l import torch as d2lbatch_size = 2...原创 2022-05-26 18:14:11 · 465 阅读 · 0 评论 -
3.2线性回归的从零实现
%matplotlib inlineimport randomimport torchfrom d2l import torch as d2l#人工生成数据集def synthetic_data(w, b, num_examples): #@save """生成y=Xw+b+噪声""" #正太分布 X = torch.normal(0, 1, (num_examples, len(w))) y = torch.matmul(X, w) + b #噪声.原创 2022-05-25 17:19:02 · 497 阅读 · 1 评论