OpenAI研究 一种用于代码合成大型语言模型的危险分析框架
Codex 是一种在各种代码库上训练的大型语言模型 (LLM),其合成和生成代码的能力超过了以前的技术水平。尽管 Codex 提供了很多好处,但可以生成如此规模的代码的模型有很大的局限性、对齐问题、被滥用的可能性以及提高技术领域进步速度的可能性,这些技术领域本身可能会产生不稳定的影响或被滥用潜在的。然而,此类安全影响尚不清楚或仍有待探索。在本文中,我们概述了在 OpenAI 构建的危害分析框架,以发现部署像 Codex 这样的模型可能在技术、社会、政治和经济方面造成的危害或安全风险。