一些不得不知道的概念!吴恩达deeplearning.ai:人工智能的导论


以下内容有任何不理解可以翻看我之前的博客哦

强人工智能 AGI

强人工智能也叫做通用人工智能,是人工智能学科发展的一个重要目标。

人工智能的分类

目前关于人工智能有很多误解,很大一个原因是因为不同的人对于人工智能的理解不同,人工智能其实分为两类。
第一种,ANI(artificial narrow intelligence),狭义人工智能,这种人工智能可以在某个独特的方向具有极高的水平,只做一件事。例如自动驾驶,智慧农场,智慧工厂等。在近几年,ANI的发展十分迅速并且创造了巨大的价值。由于ANI也是人工智能的一个子集,因此ANI的发展也大大促进了AI的发展。
第二种,AGI(artificial general intelligence),通用人工智能,这种人工智能有机会做到典型人类的程度,可以完成任何事情。目前通用人工智能仍然未能实现。
在这里插入图片描述

深度学习

随着现代深度学习的崛起,我们开始用计算机模拟神经元来训练人工智能,随着软硬件的发展,我们能模拟的神经元越来越多。从而使我们有一种期望,在某一天能够模拟人类大脑,可事实上没有那么简单,大致可以分为两种原因:
第一,我们模拟的神经元与真正的脑内神经元相比过于简单
第二,直到今天,我们也未能真正理解大脑的工作方式,因此模仿大脑也其实是无稽之谈。
综上所述,作者认为仅仅通过模仿大脑的工作方式从而实现AGI的可能性不大。

AGI可能实现的一些证据

一种学习算法的假设

近些年的一些动物实验发现,仅仅一个动物神经元就可以完成许多难以想象的任务,因此从而使得科学家猜测神经元的工作是否可以归因于一种或多种学习算法。如果我们能有一天弄清那是什么,或许我们某一天真的可以在计算机上实现它。

具体的例子

科学家在大脑负责听觉的区域进行试验,切断了这个区域与耳神经的联系(即切断了该神经元的输入),反而给其输入视觉信息,结果令人震惊的是这些神经元竟然开始学习如何“看”。这说明大脑许多部分的功能仅取决于你输入信息的种类。如果能够找到一种算法仅仅根据所给的数据就能,就能相应地学会处理输入

在这里插入图片描述
类似的例子还有,将摄像头看到的东西通过电压的方式传导到舌头,从而使舌头学会“看”;训练人类发出声音,从而学会海豚以及蝙蝠等的回声定位;运用触觉的方式让人类获得方向感;等等各种异想天开的实验。
在这里插入图片描述
总之,AGI是人工智能领域一个十分迷人的课题,也许有一天我们也会对其展开研究,但前提当然是我们能够正确认识它。

为什么人工智能如此高效

神经网络研究人员能够扩展神经网络的原因之一,在于神经网络的数据采用向量化的形式,它可以使用矩阵乘法从而高效地实现结果。事实证明,包括GPU在内的并行计算硬件非常擅长做非常大型的矩阵乘法。我们接下来了解神经网络的矢量化是如何实现的。
先看看我们以前不使用矩阵乘法时的代码是怎么写的:

x = np.array([200, 17])
W = np.array([[1, -3, 5],
              -2, 4, -6]])
b = np.array([-1, 1, 2])

def dense(a_in, W, b):
  a_out = np.zeros(units)
  for j in range(units):
    w = W[:,j]
    z = np.dot(w,x) + b[j]
    a[j] = g(z)
return a

说白了,就是你手动进行了一遍矩阵乘法,没什么技术含量。
再看看利用了矩阵乘法的代码:

X = np.array([[200, 17]])
W = np,array([[1, -3, 5],
              [-2, 4, -6]])
B = np.array([[-1, 1, -2]])
def dense(A_in, W, B):
  Z = np.matmul(W, X) + B
  A_out = g(Z)
return A_out

注意,在使用矩阵乘法的时候,所有的数据都是采用二维数组的格式进行的。从代码量就可以看出,原本的代码缩短了好几行。但相比代码行数其实更重要的是运行速度快了非常多。
下一次的博客中,我们将详细地讲讲矩阵运算的方式以及代码实现。
为了给读者你造成不必要的麻烦,博主的所有视频都没开仅粉丝可见,如果想要阅读我的其他博客,可以点个小小的关注哦。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

江安的猪猪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值