ISACA中国今天正式发布《可信人工智能治理调研报告》,该报告围绕可信人工智能治理展开,深入探讨了全球人工智能治理的现状、行业实践及未来发展趋势。报告指出,尽管人工智能技术在多个行业中得到广泛应用,但企业在技术应用、数据安全、伦理治理等方面仍面临诸多挑战,亟需加强治理框架的建设和优化。
人工智能应用现状:技术规划为主,投入两极分化
报告显示,当前人工智能应用主要集中在技术服务/咨询业和金融/银行业,应用场景多集中于客户服务和经营管理。然而,大多数企业仍处于技术规划阶段,成熟度较低。在技术使用模式上,多数企业自研能力不足,主要依赖外部产品。人工智能投入方面,企业呈现两极分化:45%的企业投入不足100万元人民币,而15%的企业投入超过2000万元人民币。尽管部分企业投入巨大,但多数企业认为业务改进效果“一般”,投入产出比有待优化。
主要挑战:技术障碍、数据安全与算法合规性
在人工智能应用过程中,企业面临的主要挑战包括技术障碍(如算法复杂、集成性低)、数据安全(如隐私保护、数据可靠性)和算法合规性问题。报告指出,27%的企业最关注数据安全和隐私保护,31%的企业强调数据可用性与隐私平衡,显示出数据管理仍是人工智能应用的核心难题。此外,16%的企业面临算法偏见或歧视风险,尤其是在金融行业,投诉率最高,表明算法公平性治理亟待加强。
伦理治理:关注度不足,未来重要性凸显
尽管伦理性问题目前关注度较低,但其重要性将日益凸显。报告显示,仅24.2%的企业在选择人工智能模型时考虑伦理问题,反映出伦理治理在技术开发中的优先级较低。未来,企业需更加重视公平性、透明性和可解释性,以确保技术的可持续发展。
行业实践:互联网、医疗、金融等行业各具特色
在行业实践中,互联网、医疗健康、智能制造和金融行业均结合自身特点,针对数据隐私、算法安全等问题采取了相应的风险应对策略。例如,医疗行业通过审批流程使数据泄露率降低30%,显示出行业治理的显著效果。电信/通信行业对人工智能风险评估的重视度最高(50%),表明不同行业在治理策略上存在显著差异。
未来展望:加强治理框架建设,推动可信人工智能发展
报告指出,未来企业应明确治理责任,制定统一政策,建立建设规范和质量衡量标准,开展专业团队职责定位和能力建设,平衡技术与伦理,建立闭环评估机制并加强协作培训。行业需建立标准化框架,加强数据管理、伦理审核、安全防护及评估认证机制,以推动可信人工智能发展,让其更好地服务社会。