
机器学习
文章平均质量分 96
潇与上海
电科新生在读
展开
-
模拟退火算法
目的是要概率接受,但是ex是个准确值,所以从理论上我们可以生成一个(0,1)的随机数,如果ex比(0,1)这个随机数要大,那么我们就接受。而我们如果找到了左边山峰的低点,以一定的概率接受了它(概率大小和温度以及当前的值的关键程度有关),会在跳转幅度减少之前,尽可能找到最优点。如果f(x0)>f(x1),那就说明结果变差了,我们需要概率选择它,因此Δf=−(f(x0)−f(x1))是的,是随机移动,可能向左,也可能向右,但是请记住一个关键点:移动的幅度和当前的温度T有关。为什么我们要接受一个更加差的状态呢?原创 2025-04-12 18:56:29 · 1032 阅读 · 0 评论 -
【机器学习-模型评估】
在进行回归和分类时,为了进行预测,定义了预测函数fθ(x)然后根据训练数据求出了预测函数的参数θ(即对目标函数进行微分,然后求出参数更新表达式的操作)之前求出参数更新表达式之后就结束了。但是,其实我们真正想要的是通过预测函数得到预测值。所以我们希望fθ(x)对未知数据x输出的预测值尽可能正确:对于一元二元问题可以画图观测:但是像多重回归这样的问题,变量增加后就不能在图上展示了,而且特意去画图也很麻烦还有一点,是从训练数据中得到的参数,训练结束之后得到的就是只针对于训练集的正确参数所以我们需要能原创 2025-03-21 20:16:40 · 1122 阅读 · 0 评论 -
【机器学习-分类算法】
现在权重向量w和训练数据的向量x(1)二者的方向几乎相反,w和x(1)之间的夹角θ的范围是90◦<θ<270◦,内积为负。也就是说,判别函数fw(x(1))的分类结果为−1,而训练数据x(1)的标签y(1)是1,所以fw(x(1))≠y(1)分类失败。刚才x(1)与权重向量分居直线两侧,现在它们在同一侧了,即这次θ<90◦,所以内积为正,判别函数fw(x)的分类结果为1。考虑一下使这个目标函数最大化的参数θ(回归的时候处理的是误差,所以要最小化,而现在考虑的是联合概率,我们希望概率尽可能大,所以要最大化)原创 2025-03-20 20:56:07 · 1577 阅读 · 3 评论 -
【机器学习-回归算法】
分类就是鉴别一个事务的类别,但是在此之前需要学习大量带标签的数据,告诉机器这个邮件是垃圾信息,这样的标签往往由人工标注,也可取巧的由用户数据里收集,比如验证码中的橘子,亦或是读取用户的黑名单,举报的邮件等等,当学习到一定的准确度时,就可以脱离标签对一个无标签的事物进行分类.只有两个类别的问题称为二分类,有三个及以上的问题称为多分类,比如数字的识别就属于多分类问题。首先我们将训练数据中的广告费x1,x2,…代入fθ(x),把得到的点击量fθ(x)与训练数据中的点击量y相比较,然后找出使二者的差最小的θ。原创 2025-03-18 22:34:40 · 1405 阅读 · 0 评论