当前位置: 首页 > article >正文

IAPP发布《2024年人工智能治理实践报告》

文章目录

  • 前言
  • 一、黑箱问题
    • ►透明度、可理解性与可解释性
  • 二、法律和政策中的注意事项
    • ►欧盟的《通用数据保护条例》
    • ►欧盟的AI法案
    • ►NIST的AI风险管理框架
    • ►美国的第14110号行政命令
    • ►《生成式人工智能服务管理暂行办法》
    • ►新加坡的AI验证
  • 三、实施人工智能治理
    • ►模型卡与系统卡
    • ►开源AI
    • ►水印标记


前言

2024年6月,IAPP和FTI Consulting发布了《2024年人工智能治理实践报告》,报告旨在向人工智能治理专业人员提供信息,让其了解在构建和完善人工智能治理计划时,需要意识到人工智能治理正面临多重挑战。

具体而言,报告介绍了数据挑战,隐私和数据保护挑战,透明度、可理解性与可解释性挑战,偏见、歧视与不公平挑战,安全与稳健性挑战和版权挑战。本文主要摘译透明度、可理解性与可解释性挑战这一部分进行介绍。

在这里插入图片描述


一、黑箱问题

缺乏对人工智能系统信任的一个原因是用户无法清楚地理解人工智能的运作原理。这可能是由于模型本身的复杂性导致的,也可能是因为知识产权的封闭保护导致的,这通常被称为“黑箱问题”。

目前,深度学习等人工智能技术正变得越来越复杂,且多年来其参数数量呈指数级增长。同时,由于人工智能的强大自我学习能力以及它们的规模性和复杂性,黑箱问题变得越来越难以解决,通常需要去权衡简化AI系统的一些方面。

►透明度、可理解性与可解释性

透明度(Transparency)是一个广泛的概念,可以包括在整个生命周期中对技术和非技术文档的需求。在开源环境中,透明度也可以指提供对代码或数据集的访问权限,供开源社区中的人工智能系统使用。

透明度的目标还可以包括在用户与人工智能系统交互时通知用户,或者识别内容是否由人工智能生成。对于设计和使用这些系统的人来说&#


http://www.kler.cn/a/307111.html

相关文章:

  • linux,1.NFS和autofs,2.podman容器,3.http服务和虚拟web主机,4.内网DNS服务搭建
  • 【LeetCode】【算法】19. 删除链表的倒数第N个结点
  • 【入门篇】A+B Problem——多语言版
  • Sql server 备份还原方法
  • 【前端】HTML标签汇总
  • uniapp(API-Promise 化)
  • 【Leetcode:1184. 公交站间的距离 + 模拟】
  • 【2025】基于python的网上商城比价系统、智能商城比价系统、电商比价系统、智能商城比价系统(源码+文档+解答)
  • Ready Go
  • 本地部署大语言模型
  • 6. Fabric 拖拽元素到画布
  • 聊聊OceanBase合并和转储
  • 2024.9最新:CUDA安装,pytorch库安装
  • 大数据之Spark(二)
  • 开题报告的流程
  • 农产品自动识别系统(Java+Springboot+SSM+Vue+Maven+二维码溯源+识别农作物CNN模型PyTorch框架)
  • Java 枚举 新特性
  • 20240912软考架构-------软考161-165答案解析
  • matlab delsat = setdiff(1:69,unique(Eph(30,:))); 语句含义
  • firewalld中ipset与zone的区别
  • 【问题定位与解决】解决QT Creator MSVC编译模式下的中文乱码
  • 机器学习--K-Means
  • 浙大数据结构:05-树7 堆中的路径
  • PHP智慧家政同城服务家政系统小程序源码
  • Java集合(八股)
  • 大数据新视界 --大数据大厂之数据治理之道:构建高效大数据治理体系的关键步骤