当前位置: 首页 > article >正文

OpenAI 组建安全 AGI 新团队!应对AI“潘多拉魔盒”

图片

 夕小瑶科技说 原创
 作者 | 小戏

一旦谈及未来 AI,除了天马行空的科幻畅想,不可避免的也有未来 AI 时代的末日预言。从 AI 武器化到 AI 欺骗,从邪恶 AI 到 AI 掌权,人工智能,尤其是通用人工智能的风险始终都清清楚楚的写在人们的担忧之中。

图片

而伴随着以 GPT-4 为代表的大模型的出现,人类如何掌控这些拥有无法解释以致使用“涌现”而命名的神奇能力的大模型成为了一个巨大的灰犀牛问题,AI 的安全风险不会瞬间爆发,但是却不紧不慢的向我们奔袭而来。

而在昨天,OpenAI 在其安全与对齐社区中发布文章,宣布组建名为“Preparedness”的新团队,这个以“准备”甚至带着“战备”意味的词似乎表明 OpenAI 已经在试图为未来的 AI 风险付出认真的行动

图片

根据博客,OpenAI 表示自己已经开始积极的开展工作以应对 AI 相关的全方位的安全风险,这些风险不仅仅包含现在以 GPT 为基础架构的大模型潜在的风险,也包含未来可能的“超级人工智能”所蕴含的风险。具体而言,Preparedness 团队将评估与解决:

  1. 在现在以及未来,前沿的 AI 系统被滥用,它们会有多危险?

  2. 如何构建一个强大的框架来监控、评估、预测与防御前沿 AI 系统可能的风险?

  3. 如果前沿的 AI 系统被盗用,恶意行为者可能会如何使用它们?

在这些大目标的基础上,这个由 MIT 教授 Aleksander Madry 领导的新团队将主要防范包括网络安全风险、化学风险、生物风险、辐射风险、核风险以及政治风险在内的多种灾难性风险

此外,Preparedness 团队还将开发与维护一个风险指引发展策略(Risk-Informed Development Policy ,RDP),RDP 将详细阐释 OpenAI 将如何对自己开发的大模型进行风险监控,如何对大模型风险管理搭建治理体系与治理结构,以及如何对已发生风险进行补救。

图片

▲image.png

与此同时,OpenAI 也发布了一个 AI 安全风险防范挑战赛用以预防 AI 被灾难性的滥用,挑战赛的 TOP 10 将获得总计 25000 美元的 API 积分。

挑战赛地址:
https://openai.com/form/preparedness-challenge

最后,组建新团队当然还有一步就是广发英雄帖:

图片

▲image.png

目前在招的岗位有安全风险研究员以及研究工程师,怀揣拯救世界梦想的少年有没有去挑战 AI 这条恶龙的兴趣呢?


http://www.kler.cn/news/107252.html

相关文章:

  • 2023 年 Web 应用程序开发最佳技术堆栈
  • 【ROS入门】机器人运动控制以及里程计信息显示
  • CPU眼里的C/C++: 1.3 汇编级单步调试函数执行过程
  • C# 超链接 LinkLabel 类 控件
  • 最新Unity DOTS系列之Aspect核心机制分析
  • 多分类loss学习记录
  • 安防监控项目---boa服务器的移植
  • MySQL索引优化实战指南(InsCode AI 创作助手)
  • ilr normalize isometric log-ratio transformation
  • 291_C++_发送json数据给对于的URL【JSON数据交互】
  • 面向对象设计原则之依赖倒置原则
  • 香港服务器如何做负载均衡?
  • Python中json的用法
  • 1818_ChibiOS的计数信号量
  • Jenkins CLI二次开发工具类
  • CANOE 仿真+测试
  • 高可用系统架构——关于语雀宕机的思考
  • 使用es实现轻量级分布式锁
  • 【python学习笔记——列表】
  • 【@EnableWebMvc的原理】
  • 【广州华锐互动】城市水处理VR仿真实训平台
  • 计算线阵相机 到 拍摄产品之间 摆放距离?(隐含条件:保证图像不变形)
  • C#开发的OpenRA游戏之金钱系统(6)
  • Java New对象分配内存流程
  • 【网络】详解http协议
  • Clion 初始化 QT
  • 怎么在电脑上多屏播放和实时视频输入,ProVideoPlayer 功能介绍
  • Linux权限及Xshell运行原理
  • AQS 为什么要使用双向链表?
  • win10下Mariadb绿色版安装步骤