有很多想法对我们来说很重要,我们有机会成功驾驭这一发展;在这里,我们对其中三个问题进行了初步思考。
首先,我们需要在主要的发展与努力之间进行一定程度的协调,以确保超级智能的发展能够以一种既能维持安全又能帮助系统与社会顺利融合的方式进行。有很多方法可以实现这一点;世界各地的主要政府可以建立一个项目,使当前的许多努力成为其中的一部分,或者我们可以共同同意(借助像下面建议的那样的新组织的支持力量),前沿人工智能能力的增长速度限制在每年一定的速度。
当然,每个公司都应该被要求有极高的责任心。
其次,我们可能最终需要一个国际原子能机构用于超智能工作;任何超过特定能力(或计算等资源)阈值的工作都需要接受国际权威机构的监督,该机构可以检查系统、要求审计、测试是否符合安全标准、限制部署程度和安全级别等。跟踪计算和能源使用可能会大有帮助,并给我们一些希望,这个想法实际上可以实现。作为第一步,公司可以自愿同意开始实施此类机构有朝一日可能需要的内容,作为第二步,各个国家可以实施这些内容。重要的是,此类机构应专注于减少存在的风险,而不是将问题留给各个国家,比如定义AI应该说什么。
第三,我们需要技术能力来确保超级智能的安全。这是一个开放性研究问题,我们都在付出很大努力。
什么不在范围内
我们认为,重要的是允许公司和开源项目在显著能力阈值以下开发模型,而不需要我们在这里描述的那种监管(包括许可证或审计等繁琐的机制)。
今天的系统将在世界上创造巨大的价值,虽然它们确实存在风险,但这些风险的水平与其他互联网技术相称,社会可能采取的方法似乎是合适的。
相比之下,我们所关注的系统将拥有超越任何现有技术的力量,我们应该小心,不要通过将类似标准应用于远低于此标准的技术来淡化对它们的关注。
公众投入和潜力
但是,最强大系统的治理,以及有关其部署的决策,必须有强有力的公共监督。我们相信世界各地的人们应该民主地决定边界和默认值用于AI系统。我们还不知道如何设计这样的机制,但是我们计划进行实验随着它的发展。我们继续认为,在这些宽泛的范围内,个人用户应该对他们使用的AI的行为有很大的控制权。
考虑到风险和困难,值得考虑我们为什么要构建这项技术。
在OpenAI,我们有两个基本原因。
首先,我们相信这将带来一个比我们今天想象的更好的世界(我们已经在教育、创意工作和个人生产力等领域看到了早期的例子)。世界面临着许多问题,我们需要更多的帮助才能解决;这项技术可以改善我们的社会,每个人使用这些新工具的创新能力肯定会让我们惊讶。经济增长和生活质量的提高将是惊人的。
第二,我们认为阻止超级智能的产生风险不大,也很难。因为好处是如此巨大,建造成本每年都在下降,建造者的数量在迅速增加,这是我们正在走的技术道路的一部分,阻止它需要类似全球监测制度的东西,即使这样也不能保证有效。所以我们必须把它做好。