推动 AI 治理向前发展
OpenAI和其他领先的AI实验室正在做出一系列自愿承诺,以加强AI技术和我们服务的安全性,安全性和可信度。这一过程由白宫协调,是在美国和世界各地推进有意义和有效的人工智能治理的重要一步。
作为我们建立安全和有益的AGI的使命的一部分,我们将继续试点和改进具体治理实践,专门针对我们生产的高性能基础模型量身定制。我们还将继续投资于有助于监管领域的研究,例如评估人工智能模型中潜在危险能力的技术。
“世界各地的政策制定者正在考虑为高性能人工智能系统制定新的法律。今天的承诺为正在进行的讨论提供了具体和具体的做法。这一宣布是我们与各国政府、民间社会组织和世界各地其他各方持续合作推进人工智能治理的一部分,“全球事务副总裁Anna Makanju说。
人工智能自愿承诺
以下是公司为促进人工智能技术的安全、可靠和透明的开发和使用而做出的承诺清单。这些自愿承诺符合现有法律法规,旨在推进生成人工智能法律和政策制度。公司打算在涵盖基本相同问题的法规生效之前,这些自愿承诺将继续有效。个别公司可能会做出超出此处包含的其他承诺。
范围:如果承诺提到特定模型,它们仅适用于总体上比当前行业前沿更强大的生成模型(例如,总体上比任何当前发布的模型更强大的模型,包括 GPT-4、Claude 2、PaLM 2、Titan 以及在图像生成的情况下,DALL-E 2)。
安全
1)致力于在滥用、社会风险和国家安全问题等领域(如生物、网络和其他安全领域)对模型或系统进行内部和外部红队合作。
做出这一承诺的公司明白,强大的红队对于构建成功的产品、确保公众对人工智能的信心以及防范重大的国家安全威胁至关重要。模型安全和能力评估,包括红队,是科学探究的一个开放领域,还有更多的工作要做。公司致力于推进这一研究领域,并制定一个多方面、专业化和详细的红队制度,包括利用独立的领域专家,用于范围内新模型的所有主要公开发布。在设计制度时,他们将确保对以下方面给予重大关注:
- 生物、化学和放射性风险,例如系统降低武器开发、设计、获取或使用的准入门槛的方式
- 网络能力,例如系统可以帮助发现、利用漏洞或操作使用的方式,同时牢记此类能力也可能具有有用的防御应用,并且可能适合包含在系统中
- 系统交互和工具使用的影响,包括控制物理系统的能力
- 模型复制自身或“自我复制”的能力
- 社会风险,如偏见和歧视
为了支持这些努力,做出这一承诺的公司承诺推进正在进行的人工智能安全研究,包括人工智能系统决策过程的可解释性,以及提高人工智能系统防止滥用的稳健性。同样,公司承诺在其透明度报告中公开披露其红队和安全程序(如下所述)。
2)努力在公司和政府之间共享有关信任和安全风险,危险或紧急能力以及规避保障措施的企图的信息共享
做出这一承诺的公司认识到信息共享、通用标准和最佳实践对于红队和推进人工智能的信任和安全的重要性。他们承诺建立或加入一个论坛或机制,通过该论坛或机制,他们可以开发、推进和采用前沿人工智能安全的共享标准和最佳实践,例如 NIST 人工智能风险管理框架或与红队、安全和社会风险相关的未来标准。论坛或机制可促进交流关于前沿能力进步和新出现的风险和威胁的信息,例如企图规避保障措施,并可便利就优先关切领域建立技术工作组。在这项工作中,公司将与政府密切合作,包括美国政府、公民社会和学术界。
安全
3) 投资于网络安全和内部威胁保障措施,以保护专有和未发布的模型权重
做出这一承诺的公司将把范围内模型的未发布AI模型权重视为其业务的核心知识产权,特别是在网络安全和内部威胁风险方面。这包括将模型权重的访问权限限制为工作职能需要的人,并建立一个强大的内部威胁检测计划,以符合为其最有价值的知识产权和商业秘密提供的保护。此外,它还需要在适当安全的环境中存储和使用砝码,以降低未经批准释放的风险。
4) 鼓励第三方发现和报告问题和漏洞
做出这一承诺的公司认识到,即使在强大的红队之后,人工智能系统也可能继续存在弱点和漏洞。他们承诺在范围内建立系统赏金系统、竞赛或奖品,以鼓励负责任地披露弱点,例如不安全的行为,或将人工智能系统纳入其现有的漏洞赏金计划。
信任
5) 开发和部署机制,使用户能够了解音频或视频内容是否由 AI 生成,包括 AI 生成的音频或视频内容的可靠来源、水印或两者兼而有之
做出这一承诺的公司认识到,人们能够理解音频或视频内容何时由人工智能生成非常重要。为了进一步实现这一目标,他们同意开发强大的机制,包括为在开发水印系统后引入的范围内由其任何公开可用的系统创建的音频或视频内容制定出处和/或水印系统。他们还将开发工具或API,以确定特定内容是否是用他们的系统创建的。易于与现实区分开来的视听内容,或者旨在易于识别的视听内容(例如人工智能助手的默认声音)不在本承诺的范围之内。水印或出处数据应包括创建内容的服务或模型的标识符,但不需要包含任何标识用户信息。更一般地说,做出这一承诺的公司承诺酌情与行业同行和标准制定机构合作,开发技术框架,帮助用户区分用户生成的音频或视频内容与人工智能生成的音频或视频内容。
6)公开报告模型或系统功能,限制以及适当和不当使用的领域,包括讨论社会风险,例如对公平和偏见的影响
做出这一承诺的公司承认,用户应该了解他们使用或与之交互的人工智能系统的已知功能和局限性。他们承诺发布范围内所有新的重要模型公开发布的报告。这些报告应包括所进行的安全评估(包括危险能力等领域,只要这些评估负责公开披露)、对适当使用领域有影响的性能重大限制、模型对社会风险(如公平和偏见)的影响的讨论,以及为评估模型的部署适用性而进行的对抗性测试的结果。
7) 优先研究人工智能系统带来的社会风险,包括避免有害偏见和歧视,以及保护隐私
做出这一承诺的公司认识到避免人工智能系统传播有害偏见和歧视的重要性。公司通常致力于授权信任和安全团队,推进人工智能安全研究,促进隐私,保护儿童,并努力主动管理人工智能的风险,以实现其好处。
8)开发和部署前沿人工智能系统,以帮助应对社会面临的最大挑战
做出这一承诺的公司同意支持前沿人工智能系统的研究和开发,以帮助应对社会面临的最大挑战,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。公司还承诺支持促进学生和工人的教育和培训的举措,以从人工智能的好处中繁荣发展,并帮助公民了解该技术的性质、能力、局限性和影响。
您可以阅读白宫情况说明书这里.