信通院发布《人工智能伦理治理研究报告(2023年)》

2023年12月26日,中国信息通信研究院(简称“中国信通院”)在“2024中国信通院ICT深度观察报告会”科技伦理治理分论坛上发布了《人工智能伦理治理研究报告(2023年)》。

报告在总结人工智能伦理治理有关概念和特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行分析,并结合国内外人工智能伦理治理实践,提出人工智能伦理治理的四点展望,以期为更加广泛深入的讨论提供参考。

1. 人工智能伦理风险挑战亟需关注

目前,人工智能引发的伦理挑战已从理论研讨变为现实风险。在技术研发阶段,由于人工智能技术开发主体在数据获取和使用、算法设计、模型调优等方面还存在技术能力和管理方式的不足,可能产生偏见歧视、隐私泄露、错误信息、不可解释等伦理风险。在产品研发与应用阶段,人工智能产品所面向的具体领域、人工智能系统的部署应用范围等将影响人工智能伦理风险程度,并可能产生误用滥用、过度依赖、冲击教育与就业等伦理风险。对于人工智能生成内容、自动驾驶、智慧医疗等典型应用场景,需要根据风险发生频率、影响范围、影响程度等评估主要风险。

2. 人工智能伦理治理是应对人工智能风险的有效机制

人工智能伦理治理是人工智能治理的重要组成部分,是应对人工智能风险挑战的主要机制。人工智能伦理治理把以人为本、公平非歧视、透明可解释、人类可控制、责任可追溯、可持续发展等作为核心内容,并根据人工智能技术发展和应用情况,及时提出调整人与人工智能关系和应对人工智能风险的方法。

3. 各国积极推进人工智能伦理治理

为应对人工智能技术应用带来的风险,世界各国积极推动人工智能伦理国际治理合作。各国政府通过出台人工智能伦理原则、发布人工智能伦理治理指引、提供技术治理工具等加强本国本地区的人工智能伦理治理监管。我国通过积极完善人工智能伦理制度规范,探索人工智能伦理治理技术化、工程化、标准化落地措施,引导行业自律,加强人工智能治理国际合作等举措推动人工智能向善发展。

4. 人工智能伦理治理四点展望

在治理理念方面,坚持促进创新与防范风险相统一,统筹发展与安全。在治理举措方面,健全多学科多主体合作、探索分类分级治理、推动治理技术工具开发。在能力建设方面,重视科研人员、开发人员、社会公众等各主体科技伦理素养提升。在开放合作方面,积极参与全球人工智能伦理治理合作,推动人工智能技术造福人类。