随着地方政府采用自动化城市服务的新技术,市民的伦理观念与期望与这些“智能城市”工具行为之间产生冲突的可能性日益增加。研究人员提出了一种方法,使政策制定者和技术开发者能够更好地将编程到智能城市技术中的价值观,与将使用这些技术的市民的伦理观念协调一致。
“我们的工作为如何确立人工智能驱动技术的价值观,以及如何将这些价值观实际编程到相关人工智能系统中提供了一个蓝图,”该工作的通讯作者、某大学的约瑟夫·D·摩尔杰出哲学教授说道。
问题在于智能城市,这是一个涵盖了近几十年来城市中出现的各种技术和管理实践的总称。例子包括自动检测到可能的枪声时派遣执法的技术,或使用自动传感器监控行人和汽车流量以控制从路灯到交通信号灯等各种设施的技术。
“这些技术可能引发重大的伦理问题,”这位同时也是该校“科学、技术与社会”项目成员的教授表示。
“例如,如果人工智能技术推测检测到了枪声,并将特警队派往一个商业场所,但噪音实际上是其他东西,这合理吗?”“谁来决定人们应该在多大程度上受到智能城市技术的跟踪或监视?哪些行为应被标记为需要进行升级监视的个人特征?”
“这些都是合理的问题,但目前还没有达成共识的程序来回答它们。而且,肯定没有一个清晰的程序来指导我们应如何训练人工智能来回答这些问题。”
为了解决这一挑战,研究人员借鉴了一种称为“主体-行为-后果”的模型。ADC模型认为,人们在做出道德判断时会考虑三件事:主体,即行事者的品格或意图;行为,即所做的事情;以及后果,即行为导致的结果。
在他们发表在《算法》期刊上的论文中,研究人员证明了ADC模型不仅可以用于捕捉人类如何做出价值判断和伦理决策,而且可以以一种能够被编程到人工智能系统中的方式来实现。这是可能的,因为ADC模型使用了道义逻辑,这是一种命令式逻辑。
“它使我们不仅能捕捉到什么是真实的,还能捕捉到应该做什么,”该论文的第一作者、某大学的博士后研究员说。“这很重要,因为它驱动行动,并且可以被人工智能系统用来区分合法和非法的命令或请求。”
“例如,如果一个人工智能系统负责管理交通,一辆闪烁着紧急灯的救护车接近一个交通信号灯,这可能向人工智能发出信号,表明救护车应享有优先权,并应改变交通信号以帮助其快速通行,”教授解释道。“这将是一个合法的请求。但如果一辆随机车辆在其车顶放置闪烁灯,试图更快地通过交通,那将是一个非法的请求,人工智能不应为其开绿灯。”
“对人类来说,可以通过解释的方式让人们学习什么应该做、什么不应该做,但这在计算机上行不通。相反,你必须能够创建一个代表推理链的数学公式。ADC模型使我们能够创建这个公式。”
“这些新兴的智能城市技术正在世界范围内被采用,我们在此所做的工作表明,ADC模型可用于解决这些技术提出的全部伦理问题,”博士后研究员说。“下一步是在模拟中跨多种技术测试各种场景,以确保该模型以一致、可预测的方式工作。如果通过了这些测试,它将为在现实环境中进行测试做好准备。”
更多信息:
Daniel Shussett 等人,《将主体-行为-后果模型应用于智能城市伦理》,《算法》。DOI: 10.3390/a18100625
由某大学提供
引用:
如何让“智能城市”技术合乎伦理地运行(2025年10月20日)于2025年10月22日检索自某科技网站。
本文档受版权保护。除用于私人研究或研究的公平交易外,未经书面许可,不得复制任何部分。内容仅供参考。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
941

被折叠的 条评论
为什么被折叠?



