机器学习中的伦理与数据局限性
1. 机器学习并非总是带来改进
机器学习在很多领域的研究虽有前景,但并非总能带来显著的性能提升。在医学领域,尽管有许多关于机器学习的研究,特别是在成像方面,但整体研究文献缺乏透明度、清晰的报告以促进可重复性、对潜在伦理问题的探索以及对有效性的明确证明。虽然在医学诊断中机器学习有一些突破,但大量的出版物在许多应用领域并未使模型性能得到显著改善。
研究人员常认为自己的行为不受商业利益或外部压力影响,这种观点是错误的。学术研究人员从追求短期成果的资助体系中获取资金,例如,机器学习的进展常以在预定义挑战中的表现来衡量,这鼓励了针对狭窄问题领域的方法开发。即使研究人员不直接参与挑战,进展也以科学出版物、同行认可、媒体关注和商业兴趣来衡量。
我们应提高对模型性能的认知。作为工程师,我们面临的外部压力往往使我们强调结果的积极方面。虽然研究人员很少故意伪造结果,但可能会给人一种模型具有更广泛适用性或更强鲁棒性的印象。我们应该使用直白的语言,明确说明模型性能的含义、测试数据的局限性以及与人类表现的比较。
2. 训练数据的局限性
机器学习的核心是找到一个使用输入数据 (x) 来预测输出 (y) 的模型。然而,无论机器学习方法多么复杂,模型的质量都取决于所使用的数据,它本质上受训练数据的限制。
可以用“随机鹦鹉”的概念来理解机器学习数据的局限性。机器学习模型接收输入并被训练产生输出,但它对输入和输出数据缺乏更深入的理解,就像鹦鹉重复所学的关系一样。这一比喻凸显了两个重要局限性:
- 重复数据内容 :机器学习算法的预测本质上是重复数据内容,并带有因模型局限性产生的
机器学习中的数据偏见与伦理
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



