OpenAI人工智能安全方法

OpenAI致力于保持强大的人工智能的安全和广泛的利益。我们知道我们的人工智能工具为当今的人们提供了许多好处。

我们在世界各地的用户告诉我们,ChatGPT有助于提高他们的生产力,增强他们的创造力,并提供量身定制的学习体验。

我们也认识到,与任何技术一样,这些工具也有真正的风险,因此我们努力确保我们的系统在各个层面都具有安全性。

构建越来越安全的人工智能系统

在发布任何新系统之前,我们会进行严格的测试,聘请外部专家进行反馈,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。

例如,在我们的最新模型GPT-4完成培训后,我们花了6个多月的时间在整个组织中工作,以使其在公开发布之前更安全、更一致。

我们认为,强大的人工智能系统应该接受严格的安全评估。需要进行监管以确保此类做法得到采纳,我们积极与政府就此类监管的最佳形式进行接触。

从现实世界的使用中学习,以改进保障措施

在部署之前,我们努力防止可预见的风险,然而,我们在实验室中所能学到的是有限的。尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用我们技术的所有方式。这就是为什么我们认为,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。

我们谨慎地、逐步地向不断扩大的人群发布新的人工智能系统,并在吸取教训的基础上不断改进。

我们通过自己的服务和API提供最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这使我们能够监测滥用情况并对其采取行动,并不断建立缓解措施,以应对人们滥用我们系统的真实方式,而不仅仅是关于滥用可能是什么样子的理论。

现实世界的使用也促使我们制定了越来越微妙的政策,反对对人们构成真正风险的行为,同时仍然允许我们的技术得到许多有益的使用。

至关重要的是,我们认为社会必须有时间更新和调整,以适应日益强大的人工智能,每个受这项技术影响的人都应该对人工智能的进一步发展有重要发言权。迭代部署有助于我们将各种利益相关者更有效地纳入关于采用人工智能技术的讨论中。

保护儿童

我们安全工作的一个关键重点是保护儿童。我们要求年满18岁或13岁以上的人必须获得父母批准才能使用我们的人工智能工具,并正在研究验证选项。

我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人内容等类别。与GPT-3.5相比,我们的最新模型GPT-4响应不允许内容请求的可能性降低了82%,我们已经建立了一个强大的系统来监控滥用情况。现在,ChatGPT-Plus用户可以使用GPT-4,我们希望随着时间的推移,更多的人可以使用它。

我们已经做出了重大努力,最大限度地减少我们的模型生成伤害儿童的内容的可能性。例如,当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会阻止并向国家失踪和被剥削儿童中心报告。

除了我们默认的安全护栏外,我们还与非营利组织Khan Academy等开发人员合作,该学院构建了一个人工智能辅助系统,既可以作为学生的虚拟导师,也可以作为教师的课堂助理,为他们的用例量身定制安全缓解措施。我们还在开发一些功能,允许开发人员为模型输出设置更严格的标准,以更好地支持想要这些功能的开发人员和用户。

尊重隐私

我们的大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开可用的内容、授权内容和由人类评审员生成的内容。我们不使用数据来销售我们的服务、广告或建立人们的档案,我们使用数据来使我们的模型对人们更有帮助。例如,ChatGPT通过对人们与它的对话进行进一步的培训来改进。

虽然我们的一些培训数据包括公共互联网上的个人信息,但我们希望我们的模型了解世界,而不是个人。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并响应个人从我们的系统中删除其个人信息的要求。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的响应的可能性。

提高事实准确性

今天的大型语言模型基于他们之前看到的模式来预测下一系列单词,包括用户提供的文本输入。在某些情况下,下一个最有可能的词在事实上可能并不准确。

提高事实准确性是OpenAI和许多其他人工智能开发人员的一个重要关注点,我们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,我们提高了GPT-4的事实准确性。GPT-4产生真实内容的可能性比GPT-3.5高40%。

当用户注册使用该工具时,我们努力做到尽可能透明,因为ChatGPT可能并不总是准确的。然而,我们认识到,要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具的当前局限性,还有很多工作要做。

持续的研究和参与

我们认为,解决人工智能安全问题的一种实用方法是投入更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界中的滥用进行测试。

重要的是,我们还认为,提高人工智能的安全性和能力应该齐头并进。迄今为止,我们最好的安全工作来自于与最有能力的车型合作,因为它们更善于遵循用户的指示,更容易驾驶或“引导”

我们将越来越谨慎地创建和部署更有能力的模型,并将随着人工智能系统的发展继续加强安全预防措施。

虽然我们等了6个多月才部署GPT-4,以便更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理,因此没有人会偷工减料。这是一个艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。

解决安全问题还需要广泛的辩论、实验和参与,包括人工智能系统行为的界限。我们已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。

原文链接:https://openai.com/blog/our-approach-to-ai-safety