IAPP发布《2024年人工智能治理实践报告》
文章目录
- 前言
- 一、黑箱问题
-
- ►透明度、可理解性与可解释性
- 二、法律和政策中的注意事项
-
- ►欧盟的《通用数据保护条例》
- ►欧盟的AI法案
- ►NIST的AI风险管理框架
- ►美国的第14110号行政命令
- ►《生成式人工智能服务管理暂行办法》
- ►新加坡的AI验证
- 三、实施人工智能治理
-
- ►模型卡与系统卡
- ►开源AI
- ►水印标记
前言
2024年6月,IAPP和FTI Consulting发布了《2024年人工智能治理实践报告》,报告旨在向人工智能治理专业人员提供信息,让其了解在构建和完善人工智能治理计划时,需要意识到人工智能治理正面临多重挑战。
具体而言,报告介绍了数据挑战,隐私和数据保护挑战,透明度、可理解性与可解释性挑战,偏见、歧视与不公平挑战,安全与稳健性挑战和版权挑战。本文主要摘译透明度、可理解性与可解释性挑战这一部分进行介绍。
一、黑箱问题
缺乏对人工智能系统信任的一个原因是用户无法清楚地理解人工智能的运作原理。这可能是由于模型本身的复杂性导致的,也可能是因为知识产权的封闭保护导致的,这通常被称为“黑箱问题”。
目前,深度学习等人工智能技术正变得越来越复杂,且多年来其参数数量呈指数级增长。同时,由于人工智能的强大自我学习能力以及它们的规模性和复杂性,黑箱问题变得越来越难以解决,通常需要去权衡简化AI系统的一些方面。
►透明度、可理解性与可解释性
透明度(Transparency)是一个广泛的概念,可以包括在整个生命周期中对技术和非技术文档的需求。在开源环境中,透明度也可以指提供对代码或数据集的访问权限,供开源社区中的人工智能系统使用。
透明度的目标还可以包括在用户与人工智能系统交互时通知用户,或者识别内容是否由人工智能生成。对于设计和使用这些系统的人来说&#