- 博客(4)
- 收藏
- 关注
原创 深度学习心得(二)
但很奇怪,这个似乎和我们在工数二中学到的又有些不一样,因为在课本中限制条件应该是确定,也就是有一条确定的直线或者曲线,在这条线上来求关于loss函数 l(w,b) 的最小值。我对作者给出的解释进行了二次消化,有一些自己的理解:因为使原来不加约束的loss函数的w值并不唯一,在坐标系中呈现的是一个曲面或者平面,w这个面上就能使原来的loss函数数值最小。来调整权重稀疏性,利用重要的一些权重参数,舍弃一些不那么重要的权重参数,从而达到比较准确的计算结果,简化计算过程。看了视频之后,我大致明白:这个参数。
2024-10-31 18:29:55
293
原创 深度学习心得(1)
那么参照泰勒公式和深度学习中的计算过程,很难让人不怀疑通用近似定理其实就是泰勒公式的延伸,换句话说,泰勒公式其实也是用了一种比较特殊的非线性函数的神经网络,并以此来拟合任何想要拟合的函数。而在神经网络的深度学习中,我们也是利用非线性的函数将中间量不断计算得到一层一层的中间量,不断拟合各种函数。非线性的函数常见的有:ReLU函数、SigMoid函数等。这个让我联想到了泰勒公式,因为泰勒公式所使用到的多次多项式本身就是非线性的。而这个非线性的公式能够拟合所有的函数。
2024-10-29 16:19:41
233
原创 寻找旋转排序数组中的最小值
注意,数组 [a[0], a[1], a[2], ..., a[n-1]] 旋转一次 的结果为数组 [a[n-1], a[0], a[1], a[2], ..., a[n-2]]。解释:原数组为 [0,1,2,4,5,6,7] ,旋转 4 次得到输入数组。解释:原数组为 [1,2,3,4,5] ,旋转 3 次得到输入数组。若旋转 4 次,则可以得到 [4,5,6,7,0,1,2]若旋转 7 次,则可以得到 [0,1,2,4,5,6,7]输入:nums = [4,5,6,7,0,1,2]
2023-10-13 17:43:18
63
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人