OpenAI 人工智能的民主投入
人工智能将产生重大而深远的经济和社会影响。技术塑造了个人的生活,我们彼此之间的互动方式以及整个社会的发展方式。我们认为,关于人工智能行为方式的决策应该由反映公共利益的不同观点来塑造。
法律对价值观和规范进行编码,以规范行为。在法律框架之外,人工智能与社会一样,需要更复杂和适应性更强的行为准则来规范其行为。例如:人工智能系统应该在什么条件下谴责或批评公众人物,因为不同群体对这些人物有不同的看法?在 AI 输出中应如何表示有争议的观点?人工智能是否应该默认反映世界上中少数人的角色、国家、人口统计,还是完全不同的东西?任何个人、公司甚至国家都不应决定这些决定。
AI 应该造福全人类,并被塑造成尽可能具有包容性。我们正在启动这项赠款计划,朝着这个方向迈出第一步。我们正在寻求来自世界各地的团队,为民主进程开发概念验证,以回答有关人工智能系统应遵循哪些规则的问题。我们希望从这些实验中吸取教训,并将它们作为未来更加的全球化、更多的雄心勃勃的发展基础。虽然这些初步实验(至少目前)并不打算对决策具有约束力,但我们希望它们探索与决策相关的问题,并建立新的民主工具,以便更直接地为未来的决策提供信息。
这是强大的系统治理,以及有关其部署的决定,必须有强有力的公众监督。这笔赠款代表了建立监督AGI并最终监督超级智能的民主程序的一步。它将由OpenAI非营利组织提供,研究结果将免费提供。
我们所说的“民主进程”是什么意思?
我们所说的“民主进程”是指一个具有广泛代表性的群体的过程。一个交换意见,进行审议讨论B,并最终通过透明的决策过程决定结果C.有很多方法可以构建这样的过程 - 我们鼓励申请人创新,建立已知的方法,并提出全新的方法。启发我们的创造性方法的例子包括维基百科,推特社区笔记,民主下一个,平台组件,元政府,激进的改变,以人为本,集体反应系统和pol.is.另一项值得注意的持续努力由集体智慧项目(CIP),我们正在与公众合作,为人工智能提供公众意见,为他们即将到来的人工智能做出贡献对齐组件.我们还鼓励申请人设想人工智能如何提高民主进程。例如,人工智能可以使许多人之间更有效的沟通。
一个系统的基本说明性原型,它利用 ChatGPT 来促进审议并鼓励建立共识,灵感来自 pol.is。 您正在参加有关以下内容的大规模审议:“你认为像ChatGPT这样的人工智能助手的个性化应该走多远,以符合用户的品味和偏好?在这个过程中应该存在什么界限,如果有的话?以下是流程细分:
- 您将看到与主题相关的声明,并可以回复您的立场。
- 根据您的回答,您将与分享相似观点的参与者分组。
- 提出陈述供其他参与者考虑。
目标:提出在持相反观点的人之间达成一致的陈述。
ChatGPT 可以使用插件从其他参与者那里检索语句。
另一位参与者的声明:
“个性化应该有限制,某些有争议的话题,比如对物质使用的看法,必须被排除在人工智能助手个性化之外。同意、不同意或跳过此声明?请解释您的选择。
我不同意。最终,喝或使用娱乐性药物是每个人的选择。如果这些活动在某些地方是合法的,为什么不应该允许人工智能促进这种行为呢?
人工智能帮助参与者理解他人的意见。
谢谢。我会记录你的答案。我们对这个话题有两个阵营的意见。
集群A(112,043人) 成员们在很大程度上支持限制人工智能助手的个性化,主张排除有害的观点,例如促进物质使用。
B组(236,031人) 这个群体重视个人选择,即使是在有争议或有害的问题上。他们强调个人责任和自主。
您属于集群 B。
您想了解有关每个集群的更多信息吗?我可以提供有关每个人所持声明的更多信息。
然而,最终目标是提出两组都能达成一致的声明。让我知道你接下来想做什么。
我正在考虑提出一个声明:“应该允许人工智能生成有害内容,但这应该带有免责声明”?
人工智能可以确保相同的参数不会被回收。
已经提交了一份非常相似的声明:
“应该允许人工智能生成潜在的有害内容,但必须附有免责声明。
我感到迷茫。您对如何在集群之间弥合协议有任何想法吗?
人工智能可以帮助进行头脑风暴。
在限制对儿童的有害内容方面,应该有更多的共识。
伟大。我们可以试试吗?:“我们应该对人工智能为儿童生成的内容应用不同的标准。
让我提交它。这是一个新颖的说法。以前没有人提到过孩子。祈祷。希望我们将在讨论中找到一些一致意见。
时间流逝,用户对提议的声明进行了投票。最终,该声明获得了广泛的认可。
你的陈述,“我们应该对人工智能生成的儿童内容应用不同的标准”,在参与者中实现了95%的同意率。祝贺!🎉
一些问题可能会破坏民主进程,例如未能充分代表少数群体或多数群体、特殊利益集团的操纵、参与者信息不足或参与 洗涤.我们正在寻找能够主动解决这些故障模式的团队,并表现出对各种方法的潜在缺陷和缺点的认识。归根结底,设计真正的民主流程是一个很高的标准,我们认为我们的努力是对政府对人工智能监管的补充而不是替代品;该计划鼓励尽最大努力,民主的精神进程,包括审议和广泛的公众意见作为垫脚石。
参与说明
要申请补助金,我们邀请您在太平洋标准时间2023年6月24日下午9:00 之前提交所需的申请材料。您可以访问应用程序门户这里.系统将提示您回答一系列问题,包括您的团队背景,您选择的问题,您提议的工具的高级细节以及您进行和评估民主进程的计划这些因素在脑海中。我们希望您设计您的方法来解决来自提供的列表.任何人(个人或组织)都可以申请这个机会,无论他们在社会科学或人工智能方面的背景如何。
一旦申请期结束,我们希望选出十名成功的资助获得者。收件人可以是个人、团队或组织。每位获奖者将获得 100,000 美元的赠款,以按照其申请材料中的说明试行他们的提案。预计赠款接受者将实施概念验证/原型,吸引至少 500 名参与者,并被要求在 2023年10月20日之前发布一份关于其调查结果的公开报告。此外,作为资助计划的一部分,为该项目开发的任何代码或其他知识产权都必须根据开源许可证公开提供。适用于赠款接受者的条款在赠款条款以及可能要求赠款接受者与我们签订的与本计划有关的任何其他协议中指定。
时间轴
太平洋时间2023年6月24日下午9:00:提交拨款申请的截止日期
2023年7月14日:成功的申请人将被选中并通知
2023年10月20日:完成工作原型和结果的公开报告
正在审议的政策声明
要参与,团队应从提供的列表中选择一个或多个问题来展示他们提出的方法。如果需要,他们也可以创建自己的问题。重要的是,我们鼓励团队考虑简单的“是”或“否”答案是不够的问题,因此需要提出细致入微的政策建议。
此授权的范围涉及有关模型行为的政策问题,因为它可以根据策略建议使用修改后的模型行为进行 A/B 测试。我们承认这笔赠款的局限性,并认识到许多人工智能问题可以通过民主程序来解决,超越模型行为,包括各种情况下使用人工智能的指导方针、经济影响、利益分配等领域。
- 你认为像ChatGPT这样的人工智能助手的个性化应该走多远,以符合用户的品味和偏好?在这个过程中应该存在哪些界限(如果有的话)?
- 人工智能助手应该如何回答有关公众人物观点的问题?例如,他们应该保持中立吗?他们应该拒绝回答吗?他们应该提供某种来源吗?
- 在什么条件下(如果有的话),人工智能助手应该被允许提供医疗/财务/法律建议?
- 在哪些情况下,如果有的话,人工智能助手应该为个人提供情感支持?
- 是否应该允许联合视觉语言模型从他们的图像中识别人们的性别、种族、情感和身份/姓名?为什么或为什么不呢?
- 当生成模型为“CEO”、“医生”或“护士”等未指定的提示创建图像时,它们有可能产生多样化或同质的输出。人工智能模型应该如何平衡这些可能性?在这种情况下,在决定对人物的描述时,应该优先考虑哪些因素?
- 在处理涉及人权和当地文化或法律差异的话题(如LGBTQ权利和妇女权利)时,人工智能应该遵循哪些原则?人工智能响应是否应该根据其使用的位置或文化而改变?
- 您认为哪些类别的内容(如果有的话)应该专注于限制或否认?应该使用什么标准来确定这些限制?
这笔赠款的主要目标是促进流程创新——我们需要改进的民主方法来管理人工智能行为。对问题的具体回答不如过程本身取得的进展重要。
应用咨询委员会
申请审查因素
- 评估:我们鼓励参与者建立评估其方法质量的指标,例如参与者满意度、两极分化的变化、可扩展性或其他相关指标,并为健康的民主进程发明新的指标。
- 稳健性:防止或解决不当行为(例如拖钓和虚假帐户)的措施。
- 包容性和代表性:将来自不同背景和熟悉人工智能系统的个人纳入民主进程的战略。
- 赋予少数意见权力:确保听取不受欢迎或少数人的意见,并为较小的群体提供影响他们重大关注的问题的机会。
- 有效审核:在审核中应对挑战,包括确保观点的多样化代表性,将有价值的贡献与“偏离主题”的评论区分开来,并防止主持人偏见影响流程。
- 可扩展性:我们强调可以虚拟进行的可扩展流程,而不是通过面对面的参与。我们知道这种方法可能会牺牲与面对面讨论相关的一些好处,并且我们认识到某些方面可能会在虚拟环境中丢失。
- 可操作性:审议过程引发的信息的可操作性程度。
- 易读性:理解和信任该过程是多么容易。