
ml
文章平均质量分 55
洋气月
这个作者很懒,什么都没留下…
展开
-
Libsvm使用笔记【matlab】
代码流程I. 清空环境变量II. 导入数据III. 数据归一化IV. SVM创建/训练(RBF核函数)V. SVM仿真测试VI. 绘图原创 2023-02-07 15:37:45 · 8033 阅读 · 2 评论 -
【ML】李宏毅三:梯度下降&分类(高斯分布)
等高线的法线垂直于切线,:每次计算一次归点,然后根据归点梯度下降;再根据其结果算新的归点,再梯度下降。。。。。 在做梯度下降的时候,小心的调learning rate最好每一个参数都有一个learning rate,推荐使用adagrad case:利用过去所有微分值的均方根 解释:只考虑一个参数时: 考虑多个参数时,以上论述就不一定成立了:只看w1(蓝色):a比b离得远,则微分值越大 只看w2(绿色):c比d离得远,则微分值越大但结合起来看就不是了:a的微分值明显比c小,但是a距离原点更远,所以跨参数比较原创 2022-06-30 18:03:23 · 311 阅读 · 1 评论 -
【ML】李宏毅二:error来源
error来源于bias或者变量mean:均值variance:方差N较小,则分散的比较开;越大则分散的越集中 计算variance: bias和variance区别: 每个平行宇宙,抓到的宝可梦不一样,即使使用一样的函数,会得出来不同的model 比较简单的model,不太会收到data影响,所以variance就比较小 bias: 取值只能在function space里面取比较简单的model:bias比较大,variance较小比较复杂的model: bias比较小,variance原创 2022-06-16 20:13:15 · 117 阅读 · 0 评论 -
【ML】李宏毅一:宝可梦case入门:ppt详解
case:建立一个线性模型:预测宝可梦进化后最大的cp战斗值找一个函数f1或f2或f3等等,输入feature:xloss function:衡量函数f的好坏==一组参数的好坏loss=真实数值-预测数值的平方相加 找出最好的f,宝可梦数据集只有十个,可用线代,但是大量数据集的话,采用梯度下降梯度下降,找最小loss找到归点值,当有两个参数w,b,求他俩的偏导数 找最优点,蓝色的loss最小,红色最大线性回归函数没有局部最优解,不会出现这种情况,而是等高线图,从任意个点找最后都是等高线中间 算偏微分原创 2022-06-15 14:40:29 · 533 阅读 · 0 评论