【动手学深度学习】
文章平均质量分 53
本专栏内容跟着李沐老师的视频手搭一些深度学习模型时记录的一些习题答案和调试过程中遇到的问题
BeBrave_hit
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【动手学深度学习】windows安装jupyter
但我的电脑里现在还没安装 Rust。中点击“下载Jupyter记事本”下载对应的文件,并选一个地方进行解压。官网时发现不能直接运行他的command,因为他需要3.9以上版本。然后可以重新打开Anaconda prompt,激活刚刚建立的环境。这个是因为之前使用的是pip安装,使用pip的时候会出现所需要的。因为虚拟环境新建的时候使用Python 3.8版本,所以访问。我的是python3.8环境,CUDA是12.6。整个下载过程没有挂代理,使用的是默认的源。即可绕过需要Rust的问题。原创 2025-04-14 22:22:51 · 811 阅读 · 0 评论 -
【动手学深度学习】04 数据操作 + 数据预处理
数据操作对应文件夹为:notebooks/pytorch/chapter_preliminaries/ndarray.ipynb。原创 2025-04-17 11:32:36 · 232 阅读 · 0 评论 -
【动手学深度学习】05 线性代数
对应地址:notebooks/pytorch/chapter_preliminaries/linear-algebra.ipynb。原创 2025-05-31 22:56:30 · 305 阅读 · 0 评论 -
【动手学深度学习】06 矩阵计算
对应地址:notebooks/pytorch/chapter_preliminaries/calculus.ipynb。原创 2025-06-01 18:37:20 · 231 阅读 · 0 评论 -
【动手学深度学习】07 自动求导
对应地址:notebooks/chapter_preliminaries/autograd.ipynb。原创 2025-06-02 23:21:32 · 367 阅读 · 0 评论 -
【动手学深度学习】08 线性回归+基础优化算法
对应目录:notebooks/chapter_linear-networks/linear-regression-scratch.ipynb。原创 2025-06-13 22:02:23 · 427 阅读 · 0 评论 -
【动手学深度学习】09 回归+损失函数+图片分类数据集
视频p3地址:notebooks/chapter_linear-networks/image-classification-dataset.ipynb查看迭代器和batch_size对性能的影响:运行结果:视频p4地址:notebooks/chapter_linear-networks/softmax-regression-scratch.ipynbexp(50)数值会溢出;在log中,如果概率出现为0的情况会出现负无穷针对溢出,可以考虑减去最大值;针对负无穷,可以考虑+ 1e-9计算量会提高,原创 2025-07-18 18:10:48 · 311 阅读 · 0 评论 -
【动手学深度学习】12 权重衰退
视频地址:notebooks/chapter_multilayer-perceptrons/weight-decay.ipynb。原创 2025-07-23 12:10:46 · 151 阅读 · 0 评论 -
【动手学深度学习】13 dropout
替换损失率之后精度变化不明显,但是第一层损失率设置比较大的数值时,test acc有些减小。原创 2025-07-25 09:53:22 · 209 阅读 · 0 评论 -
【动手学深度学习】16 PyTorch 神经网络基础
地址 notebooks/chapter_deep-learning-computation/custom-layer.ipynbtemp = 0y = net(X)print("输出维度:", y.shape)#输出:输出维度: torch.Size([2])else:#输出。原创 2025-08-01 11:52:52 · 215 阅读 · 0 评论 -
【动手学深度学习】24 深度卷积神经网络 AlexNet
想尝试在pycharm里面运行代码,于是更改了一下训练函数,主要是指这里的绘图函数,并且原先在Jupyter上num_workers > 0会触发。的报错,经过查阅资料,给主脚本加上if __name__ == '__main__':保护之后就可以顺利运行了。train_and_plot.py:因为只有一个GPU,所以直接对device给定了cuda。原创 2025-08-10 20:02:55 · 224 阅读 · 0 评论
分享