转载

前沿人工智能监管:管理公共安全的新风险

先进的人工智能模型有望为人类带来巨大利益,但社会需要主动管理随之而来的风险。
在本文中,我们专注于我们所谓的“前沿人工智能”模型:功能强大的基础模型,可能具有足以对公共安全构成严重风险的危险能力。
前沿人工智能模型带来了独特的监管挑战:危险的能力可能会意外出现;很难可靠地防止部署的模型被滥用;而且,很难阻止模型的功能广泛扩散。
为了应对这些挑战,至少需要三个构建模块来监管前沿模型:
(1)标准制定流程,以确定前沿人工智能开发人员的适当要求,
(2)注册和报告要求,为监管机构提供前沿人工智能开发流程的可见性,
(3)确保遵守前沿人工智能模型开发和部署安全标准的机制。行业自律是重要的第一步。
然而,需要更广泛的社会讨论和政府干预来制定标准并确保遵守这些标准。为此,我们考虑了几种选择,包括授予监管机构执法权和前沿人工智能模型的许可制度。
最后,我们提出了一套初步的安全标准。这些措施包括进行部署前风险评估;对模型行为的外部审查;利用风险评估为部署决策提供信息;以及监视和响应有关模型功能和部署后使用的新信息。我们希望这次讨论有助于更广泛的对话,讨论如何平衡公共安全风险和人工智能发展前沿进步带来的创新利益。