task01-机器学习介绍

task01-机器学习介绍

1.人工智能、机器学习、深度学习关系

在这里插入图片描述

人工是智能实现目标,而机器学习是想要实现目标的手段,而深度学习就是就是学习的其中一种方法。

2.谈谈机器智能

机器智能不能像生物的本能,就像李宏毅老师举的例子,河狸堵水坝,当条件为听到水流声它就会去堵水坝。那么如果用一个人为的办法来播放流水声,比如在水泥墙里,河狸就在水泥墙上面放了很多的树枝;如果你把声音的来源放到地上,河狸就会用树枝把它盖住直到听不见为止,这就是生物的本能。

如果只是单纯的if嵌套,那不叫机器智能,只是按照人为的规则去运行,它将永远也超不过创造它的人类。

要使机器具有智能,就要使机器有能力来利用有关的信息;有关自己的工作情况的信息,有关环境和工作目标的信息,并将这两种信息进行比较和分析,从中获得误差信息,把这种误差信息同本身的工作情况联系起来,从而发现工作过程中的缺陷,再根据工作目标的要求来克服这些缺陷。机器获取信息、处理信息和利用信息的能力越强,它的智能水平就会越高。——《信息科学原理》

3.如何定义机器学习?

我们知道,如果让机器实现自己学习的能力,那这就是机器学习的方向,我们要做的就是这种AI。meachie learning=looking for a function from data

  • 写段程序,然后让机器人变得很聪明,有能学习的能力

然后就可以用像教小孩的方式告诉它。假设你要叫他学会做语音辨识,你就告诉它这段声音是“Hi”,这段声音是“How are you”,这段声音是“Good bye”。希望接下来它就学会了,你给它一个新的声音,它就可以帮你产生语音辨识的结果。

img
或者,去让它识别动物,告诉程序,哪张图是猫,哪张图是狗。然后给一张没有出现过图片进行测试,让它识别出来是什么。

img

  • 机器学习做出的事情,你可以想成就是在寻找一个功能,要让机器具备一个,这种能力是根据你提供给他的资料,它去寻找出我们要寻找的功能。还有很多关键问题都可以想成是我们就是需要一个功能。

img

  • 语音识别
  • 图像识别
  • 围棋
  • 聊天机器人
    img
4.meachie learning framework?(监督学习的过程)

第一步,首先我们必须有一个function的集合,里面包含了成千上万的function,有好的也有非常奇怪的。

第二步,training data,告诉机器一个好的function,应该是怎样的。让机器衡量function的好坏。

第三步,还需要有一个好的演算法, 来pick the “best” function

最后我们还可以进行测试,即看机器是否有了举一反三的能力。这个过程跟把大象装进冰箱的例子非常相似。

img

5.机器学习相关技术

di

Supervised Learnning(监督学习)
  • Regression(回归):简单来说就是从数据中进行学习,然后给出预测值。

    • 最小二乘法
    • 梯度下降
    • 多项式回归
    • 多重回归
  • Classification(分类):

    • 二分类:输出是或否(是或否);(如:识别垃圾邮件)
    • 多分类:数个类别里正确的类别。(如:新闻分类)
  • 模型的选择

    • 线性模型
    • 非线性模型(如:深度学习)
半监督学习

半监督学习,可以使用label的量减少。你有少量的标签数据,但是你同时有大量的未标签数据。在半监督学习的技术中,这些没有标签的数据,它可能也是对学习有帮助的。

迁移学习

我们只有少量的标签数据,但是我们现在有大量的数据,而这些大量的数据中可能有标签也可能没有标签。并且其中还有大堆不相关的图片。迁移学习解决的便是找出这一大堆不相关的数据能我们带来怎样的帮助,找到它们之间的联系。

无监督学习

简单来说,我们就是希望机器能够无师自通。我们想知道在完全没有lable的情况下,机器能够学会什么。

比如,如果我们给机器看大量的文章(在去网络上收集站文章很容易,网络上随便爬就可以)让机器看过大量的文章以后,它到底可以学到什么事情。给机器一堆图片,而没有给出输出是什么,这种情况下机器要怎样生成新的图片。

监督学习中的结构化学习

structured learning让输出是结构性的

  • 语音辨识:输出的为一个句子,句子由词汇组成,句子是有结构性的;
  • 机器翻译:让机器翻译我们所说的一句话,如输入是中文,输出是英文,输出也应该是具有结构性的;
  • 人脸识别:机器知道空间位置上的人物名字,最左边是长门,中间是凉宫春日,右边是宝玖瑠,让机器识别出来。

在这里插入图片描述

强化学习

我百度百科了一下,强化学习的定义:强化学习是智能体(Agent)以“试错”的方式进行学习,通过与环境进行交互获得的奖赏指导行为,目标是使智能体获得最大的奖赏,强化学习不同于连接主义学习中的监督学习,主要表现在强化信号上,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统RLS(reinforcement learning system)如何去产生正确的动作。由于外部环境提供的信息很少,RLS必须靠自身的经历进行学习。通过这种方式,RLS在行动-评价的环境中获得知识,改进行动方案以适应环境。

和李宏毅老师所讲的差不多,我们并没有把正确答案给机器,机器作出回答,机器得到的只有结果的好坏之分,机器人需要自己回去反省检讨讨哪一步做的不好。机器要在强化学习的情况下学习,机器是非常智能的。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Cifeng79

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值