前言
上两篇讨论了模型的可解释性和安全性,也给出了些解决方案,相对比较硬核,这一篇聊一下人工智能的正义性,虽然通俗很多,但却是最难的部分...

正义性
AI不作恶
Don't Be Evil
曾是Google
提出的口号,不管他自己做没做到,至少指明了一个方向。技术即使不能为善,至少不能为恶。但现实中的选择,总陷入一个"不好"和一个“更不好"之间的困境,无论怎么选都很难。

人工智能的原则
之前有个TED的讲座里,提到了AI的几大原则:
对社会有益。
避免制造或强化不公平的偏见。
为安全而构建和测试。
对人负责。
纳入隐私设计原则。
坚持科学卓越的高标准。
可用于符合这些原则的用途。
不应该使用AI的场合:
造成或可能造成整体伤害的技术。
主要目的或实施是造成或直接促进对人的伤害的武器或其他技术。
收集或使用违反国际公认规范的监视信息的技术。
其目的违反广泛接受的国际法和人权原则的技术。
数据集不平衡
曾经 PULSE
算法将一张低质量的巴拉克•奥巴马(Barack Obama)照片进行了高倍放大,从而输出了一张高分辨率的白人照片。这种偏差问题在机器学习中非