发布日期:2021-11-11
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(下称《伦理规范》)。旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
智慧金融、智能交通、智能安防等以人工智能为核心的创新方式为人们生活带来了便利,提升了生活质量,但人工智能在应用场景落地过程中,由于人工智能的不确定性、黑盒性和自主性,给行业引入新的安全风险与伦理争议。监管部门适时推出《伦理规范》可增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。
《伦理规范》全文共6章25条,包括总则、特定活动伦理规范和组织实施等内容,从增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6方面提出了基本伦理要求。同时,提出来人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。
4个特定活动伦理规范中的研发规范和供应规范与中国人民银行在2021年3月26日发布实施的《JR/T 0221—2021人工智能算法金融应用评价规范》(以下简称《评价规范》)中的具体要求相呼应,均对算法和产品、服务的研究与开发活动以及生产运营等供应活动做出了明确要求。
《伦理规范》的研发规范部分着重强调增强人工智能的安全透明,指出在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力。《评价规范》对于人工智能算法安全性与可解释性的要求与《伦理规范》中强调的人工智能安全透明相呼应,从建模准备、建模过程与建模应用对人工智能算法提出了可解释性的要求,同时从防范常见攻击能力、算法依赖库与算法内控等方面对人工智能算法的安全性进行要求。
《伦理规范》在研发规范部分指出要避免偏见歧视,在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。《评价规范》从目标函数设定、实施等环节来约束与控制人工智能算法的偏见歧视性。
《伦理规范》的供应规范包括尊重市场规则、加强质量管控、保障用户权益、强化应急保障4条。
在保障用户权益方面,《伦理规范》指出要在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。《评价规范》从算法内控、算法上线评审、算法风险控制等方面要求人工智能算法要充分向用户提示人工智能算法的固有缺陷和使用风险,同时应建立应急处理机制和风险赔偿机制。
在强化应急保障方面,《伦理规范》指出要研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。《评价规范》的算法内控部分和风险控制要求建立算法日常监测体系,对不满足需求的算法在保障安全的前提下停止使用,并及时采取相应措施消除算法退出带来的不利影响,同时要求具备AI算法突发情况应急处理机制。
波士顿大学最新的一项研究调查了世界范围内的225家初创公司,发现其中有58%的公司制定了有关人工智能伦理方面的政策,特别值得注意的是,研究显示有两类初创公司要在企业管理和生产中更注意人工智能伦理的落地,一类是曾经与大型高科技公司如亚马逊谷歌微软等在数据方面展开合作的,另一类则是受到过GDPR负面影响的公司。这说明,许多公司是在遭受了来自监管方的严格监管或惩罚后才能意识到人工智能伦理的重要性。《伦理规范》出台意味着人工智能伦理开始成为国内关注重点,从事人工智能管理、研发、供应、使用等相关活动要逐步加强人工智能伦理管理。国内对人工智能伦理的管理逐渐像欧盟一样日趋严格化,法律化,若机构能够提前做出合规认证将会在未来减少行业竞争的劣势。
国家金融科技测评中心(银行卡检测中心)在前期进行大量金融领域人工智能算法应用及安全研究基础上,深度参与央行牵头《评价规范》的研制过程。中心依据《评价规范》金融行业标准同时参考《伦理规范》,面向行业推出技术测评和咨询服务,全方位评价、测评人工智能算法金融应用的安全性、可解释性、精准性和性能,并可依据机构自身特点,提供定制化的人工智能算法金融应用安全服务,提升安全合规性,降低风险,共同推动人工智能算法在金融领域的规范应用。
参考文献:
[1] Bessen, James E., et al. "Ethicsand AI Startups." Available at SSRN 3895939 (2021).