当前位置: 网站首页 技术文章 正文

OpenAI贴吧介绍如何保证AI安全:监管是必须的,从实际使用中学习防范风险。

来源:互联网 发布时间:2024-06-27 18:22:06

4月6日消息,美国当地时间周三,OpenAI发布了一个帖子,详细介绍了其确保AI安全的方法,包括进行安全评估,改善释放后的保障措施,保护儿童和尊重隐私。该公司表示,确保人工智能系统的构建、部署和安全使用对于实现其使命至关重要。

以下是OpenAI帖子全文:

OpenAI致力于确保强大的AI安全性,并让尽可能多的人受益。我们知道我们的AI工具已经为今天的人们提供了很多帮助。世界各地的用户向我们反馈,ChatGPT有助于提高他们的工作效率,增强他们的创造力,并提供量身定制的学习体验。但是我们也意识到,像任何技术一样,这些工具也有真正的风险。因此,我们正在努力确保所有系统级别的安全性。

文章目录

打造更加安全的人工智能系统

在推出任何新的人工智能系统之前,我们都会进行严格的测试,征求外部专家的意见,并通过人工反馈强化学习等技术提高模型的性能。与此同时,我们还建立了广泛的安全和监测系统。

以我们的最新型号GPT 4为例。在完成培训后,我们进行了为期六个月的全公司测试,以确保它在向公众发布之前更加安全可靠。

我们认为一个强大的人工智能系统应该经过严格的安全评估。有必要进行监督,以确保这种做法得到广泛采用。因此,我们积极与世界各国政府联系,探讨最佳的监管形式。

从实际使用中学习,提高保障措施

我们尽最大努力在系统部署之前预防可预见的风险,但在实验室中的学习总是有限的。我们广泛地研究和测试,但我们无法预测人们将如何使用我们的技术或滥用它。因此,我们认为从实际使用中学习是创建和发布越来越多安全的人工智能系统的关键组成部分。

我们谨慎地一步一步向人群发布新的人工智能系统,并采取实质性的保障措施,根据吸取的教训不断改进。

我们在API中提供自己的服务和最强大的模型,这样开发者就可以直接将技术集成到他们的应用中。这使我们能够监测滥用情况并采取行动,同时制定对策。这样才能采取实际行动,而不是仅仅在理论上想象如何应对。

实践经验也促使我们制定越来越详细的政策来应对给人们带来真正风险的行为,同时仍然允许我们的技术以更有益的方式使用。

我们认为,社会需要更多的时间来适应日益强大的人工智能,每个受其影响的人都应该对人工智能的进一步发展有发言权。迭代部署有助于不同的利益相关者更有效地参与人工智能技术的对话,拥有使用这些工具的第一手经验非常重要。

保护儿童

我们安全工作的重点之一是保护儿童。我们要求使用我们人工智能工具的人必须年满18岁,或者在父母同意的情况下年满13岁。目前正在研究验证功能。

我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人等内容。与GPT-3.5相比,最新的GPT-4对受限内容请求的响应率降低了82%。我们建立了一个强有力的系统来监控滥用。ChatGPT Plus用户现在可以使用GPT-4,我们希望随着时间的推移,更多的人可以体验它。

我们已经采取了重大措施,最大限度地降低我们的模型产生危害儿童的内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像生成工具时,我们会阻止它,并将其报告给国家失踪和被剥削儿童中心。

除了默认的安全保护,我们还与非营利组织Khan Academy等开发组织合作,为他们量身定制安全措施。可汗学院开发了一款人工智能助手,可以作为学生的虚拟导师,也可以作为老师的课堂助手。我们还致力于开发允许开发人员为模型输出设置更严格标准的功能,以更好地支持需要此类功能的开发人员和用户。

尊重隐私

我们的大规模语言模型是在广泛的文本语料库上训练的,包括公开可用的内容、授权的内容和由人类审计员生成的内容。我们不会使用这些数据来销售我们的服务或广告,也不会使用它们来建立个人档案。我们只是利用这些数据让我们的模型更好地帮助人们,例如,通过与人们进行更多的对话来提高ChatGPT的智能水平。

虽然我们的很多训练数据都包含了可以在公共网络上获取的个人信息,但是我们希望我们的模型理解的是整个世界,而不是个人。因此,我们致力于在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝个人信息的查询请求,并响应个人从我们的系统中删除其个人信息的请求。这些措施最大限度地降低了我们的模型生成包含个人信息的响应的可能性。

提高事实准确性

今天的大规模语言模型,基于以前的模式和用户输入的文本,可以预测下一个可能使用的词汇。但在某些情况下,下一个最有可能的单词实际上可能存在事实错误。

提高事实的准确性是OpenAI和许多其他AI研究机构的重点之一,我们正在取得进展。我们通过使用ChatGPT输出中标记为不正确的用户反馈作为主要数据源,提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4更有可能产生事实内容,增幅为40%。

当用户注册使用该工具时,我们尽量做到透明,以避免ChatGPT给出错误的回复。然而,我们已经意识到,要进一步减少误解的可能性,并教育公众了解这些人工智能工具目前的局限性,还有很多工作要做。

持续的研究和参与

我们认为,解决AI安全问题的一个切实可行的方法是投入更多的时间和资源研究有效的缓解和校准技术,并对现实世界可能被滥用的情况进行测试。

重要的是,我们认为提高AI的安全性和能力应该同时进行。到目前为止,我们最好的安全工作来自于与我们最有能力的模型一起工作,因为他们更善于遵循用户的指令,更容易控制或“指导”他们。

我们将越来越谨慎地创建和部署具有更强能力的模型,并将随着AI系统的发展继续加强安全防范。

虽然我们等了六个多月才部署GPT-4,以更好地了解它的功能、好处和风险,但有时可能需要更长时间来提高AI系统的安全性。因此,政策制定者和AI开发者需要确保AI的开发和部署在全球范围内得到有效监管,这样就没有人会走捷径来保持领先。这是一个艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。

解决AI安全问题也需要广泛的辩论、实验和参与,包括为AI系统的行为设定边界。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建一个更安全的人工智能生态系统。

相关教程