人工智能透明度与信息提供要求解析
在人工智能快速发展的当下,其透明度和信息提供问题备受关注。相关主体提出了一系列要求和规范,旨在促进人工智能的负责任使用、建立信任并在需要时提供补救措施。
1. 人工智能系统能力与局限性沟通
根据相关准则,人工智能系统的能力和局限性应充分且适当地传达给相关利益相关者。这包括向人工智能从业者或最终用户以适合当前用例的方式传达系统的准确性水平及其局限性。例如,在开发系统时,要向将其部署到产品或服务中的人员清晰传达系统的特征、局限性和潜在缺点;在系统部署时,要向最终用户或消费者传达这些信息。
人工智能系统应可被识别,确保用户知道他们正在与人工智能系统交互,而不是人类。避免误导用户,使其误以为是在与人类交流。同时,应确保适当的人类参与,让用户具备理解和与人工智能系统交互的知识和工具,以便做出更明智的自主决策,并在可行的情况下对人工智能系统进行自我评估或挑战。
HLEG的ALTAI文件提供了自我评估人工智能系统能力和局限性是否充分传达给利益相关者的指导,具体如下:
- 提供人工智能系统的准确性水平(错误率)信息。
- 确保人工智能系统可被识别,例如让用户知道他们正在与聊天机器人等人工智能系统交互。
- 告知用户人工智能系统的目的、好处、技术局限性和潜在风险。
2. 高风险人工智能系统的透明度要求
为促进人工智能的负责任使用、建立信任并在需要时提供补救措施,《人工智能白皮书》强调了透明度的重要性,并提出了以下要求:
- 确保清晰提供人工智能系统的能力和局限性信息,特别是系统的预期用途、预期运行条件以及实现特定目的的预期准确性水平。
- 当公民与人工
超级会员免费看
订阅专栏 解锁全文
2729

被折叠的 条评论
为什么被折叠?



