Machine Learning | ShareTechnote
AI/Machine Learning 的局限性
在我开始讨论 AI/机器学习的局限性之前,我想先说明一件事。本页面的目的不是展示我个人对这个技术的怀疑态度,也不是让读者对追求这个技术领域感到失望或气馁。我个人(并且将来也会)是 AI/机器学习的坚定追随者,原因有很多。
关于 AI/机器学习的局限性,人们常提到以下几点(截至2020年1月):我不能说所有这些点都会从列表中消失,但至少其中一些在未来将不再被视为限制,正如我们在工程学的历史和科学中所看到的那样。
目前的 AI/机器学习确实可以自学,但它需要大量的训练数据。一般来说,人类大脑可以从更小的训练数据集(或例子)中学习。有许多情况下,很难(甚至几乎不可能)获得足够大的数据集来训练一个机器学习算法。
AI/机器学习算法使用特定的训练数据集进行训练后,并不总是能处理在训练阶段从未遇到过的数据,即使新数据本质上属于同一类别。有时,基于图像的机器学习算法无法识别与训练图像相似但来自不同相机(例如,不同的亮度等)和分辨率的图像。
我知道我知道它是什么,但我不知道为什么知道它。在这种情况下,“它”指的是“AI/机器学习”。这通常被称为“可解释性”。从各种示例和实际应用中,我们知道(看到)某些 AI/机器学习可以学习一些东西并了解一些东西(例如,分类图像),但我们不完全清楚它是如何学习的。你可能会说:“我们知道它是如何学习的。它通过称为反向传播的机制不断更新权重值来学习。”但是当我们在这里谈论“可解释性”时,它意味着更具体的东西...比如一些确定性的/显式的逻辑。这真的有关系吗?人类大脑中有很多我们不知道其工作原理的事情。为什么我们期望 AI/机器学习具有这种可解释性呢?这个问题的答案留给你自己去思考。
难以泛化学习。在大多数(可能每个) AI/机器学习算法的情况下,它们专门用于执行特定功能,而且很难将这些学习泛化/扩展到其他领域。例如,即使是最好的图像分类器也不能完成驾驶汽车的基本任务。在一个特定类型的游戏中击败所有最佳人类玩家的算法在玩另一种类型的游戏时不会比第一次玩的玩家表现得更好。
存在一种系统性地欺骗算法的方法。这种方法最初是在那些用于图像分类的算法(即基于CNN的算法)中发现的。人们发现,对图像进行特殊设计的微小扰动可以使算法得出完全错误的结果,而相同的扰动对人类大脑没有任何影响。你可能会听说过一个著名的例子:一张带有这种类型扰动的寺庙照片被图像分类算法误认为是鸵鸟。你可以在此处找到更多详细信息和更多此类示例。现在似乎不仅图像分类算法存在这个问题,而且在自然语言处理等领域也存在类似的问题,正如这里所提到的那样。
对于自然语言处理相关的 AI/机器学习来说,理解上下文的能力非常有限(或者根本没有)。由于我们语言的本质,大多数语言(据我所知的所有自然语言)对许多表达方式都存在歧义。在大多数情况下,我们人类至少在一定程度上解决了这种歧义问题,这取决于上下文,但 AI/机器学习没有(或只有非常有限的)理解上下文的能力。一个简单的测试是尝试在谷歌翻译中将“Can I cut in ?”翻译成另一种语言。你会知道它的翻译会根据上下文而有所不同...比如你一只手拿着刀试图切东西...或者你在一条长队前面试图插队到队伍中间。
更多的抽象问题,如机器偏见、决策制定等关键情况,如自动驾驶中的 AI/机器学习应用(这里)。我个人不确定这是否是 AI/机器学习的局限性。这可能是人类大脑和/或人类社会的限制,而且我们不知道人类大脑/人类社会中的确切解决方案...而且我们可能无法在未来找到任何明确的解决方案在人类大脑/社会中。那么为什么我们要关心呢?我留给你自己去思考。我个人认为值得思考、重新思考并尝试找到更好的步骤、更好的调整方法,即使我们不能一次性解决所有这些问题(或单一的 AI/机器学习算法)。
为什么我们要关心这些局限性?不同的人对此问题有不同的答案。阅读了许多文章并观看了 YouTube 上的讲座和研讨会后,以下是我所理解的一些原因(这只是基于我从这些文档和视频中的解读,并不能保证我的解读是正确的)。
警告过度炒作:有时候建议要清楚地了解当前 AI/机器学习的局限性,以免陷入过度炒作之中。正如我们在科学和工程学的历史中所看到的那样,一定程度的炒作对于激励行业中的每个利益相关者实现这项技术是必要的