- 博客(5)
- 收藏
- 关注
原创 大白话深度学习基础1-梯度&loss&交叉熵&激活函数
① 梯度就是所有参数的偏导向量② 黑色线段为该时刻的梯度在平面的投射③ 视频中运用了三个例子说明,分别在三个不同方向运动1的距离,观察函数变化首先是-1,0方向其次是1,0方向最后是梯度方向,即2,2方向三、梯度求解万能方程因为每进行完一次模型loss求解,如果还没下降到最小,就还要进行梯度下降,即参数更替,而模型中都是矩阵乘法,怎么求这些矩阵的导数并且进行参数更替呢呢?五星级重要☆☆☆☆☆即对任意的矩阵A @ 矩阵B + 矩阵b =矩阵Cdetal_w。
2024-05-26 20:46:48
1191
1
原创 InternLM实战营第二期第一课笔记-书生·浦语大模型全链路开源体系
InternLM2通过创新的预训练和优化技术,在六个维度和30个基准测试中超越了前身模型。
2024-05-23 17:46:39
822
1
原创 Pytorch血泪安装史好吗(GPU版本+cuda12.1+python3.9.13)
3.对于版本的匹配,pytorch和python、cuda都是较严格的。首先看下自己电脑是CPU还是GPU,看自己电脑对应的cuda版本 看右下角英伟达标识,点击组件,我的cuda版本是12.3,但最后发现安12.1比较好。注意不要安最新的版本,别问我为什么(可能不太好找对应的pytorch版本,太新也容易和很多软件不兼容),尽量安3.9版本,我用的是3.9.13。1.问题比较多在于镜像源出了很多问题,一会清华不行,一会中科大不行,记得选带anaconda的,报错了就直接百度。
2024-05-13 20:42:25
1399
2
原创 Python 八股总结01
所以你的内在还用的是人家的,就是引用了人家的,当人家内在一变,你的内在也跟着变。相当于我从头到脚、从里到外全部复制你一份,复制成我的,接着跟你就没有什么关系了。你变你的数值,也不会影响到我的数值。浅拷贝和深拷贝都是针对python的引用机制来说的。众所周知,python里面所有的赋值都是引用(指向),然而拷贝是复制,为什么会有引用呢?所以我们可以看到,内在发生变化引起的联动bug使我们引入深拷贝的办法去解决。不可变数据类型没有深拷贝!1.浅拷贝图示,只有最外层被复制成新的了,内在用的还是人家的。
2023-03-17 09:08:40
440
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人