边缘AI的负责任设计与伦理考量
1. 负责任设计的基础
在进行边缘AI的开发时,负责任的设计至关重要。可以将负责任的开发者视为能够熟练运用工具,将材料打造成符合利益相关者需求,并遵循受项目影响的所有人所认同的价值观的人。
要开启负责任的设计并不难,关键在于以下几点:
- 了解数据的局限性。
- 了解模型的局限性。
- 与产品的使用者进行沟通。
简单来说,开发负责任的边缘AI,要做到“KUDOs”,即“Know Ur Data”(了解你的数据)。
2. 边缘AI的黑盒与偏差问题
2.1 黑盒问题
边缘AI存在两个容易在实践中造成意外危害的方面,其中之一就是黑盒问题。黑盒是指一个系统对于分析和理解而言是不透明的。数据输入,决策输出,但导致这些决策的内部过程却难以捉摸。
现代AI,尤其是深度学习模型,常因难以剖析而受到批评。不过,像随机森林这样的算法,如果能访问模型,就比较容易解释其决策原因。但在边缘设备上情况则大不相同。
边缘设备通常设计得具有隐蔽性,它们会融入我们的生活环境,嵌入到建筑、产品、车辆和玩具中。这些设备就像真正的黑盒,其内部内容不可见,还常受到多层安全保护,难以进行详细检查。
一旦AI算法部署到边缘设备上,对于使用者来说它就成了黑盒。如果设备在与开发者预期不同的现实条件下运行,即使是开发者自己也可能难以理解其行为。
黑盒问题对不同的人都存在危险:
- 用户 :购买和安装设备的用户依赖一个他们并不完全理解的系统。他们可能信任设备做出正确决策,但却无法
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



