ChatGPT遭多国调查,OpenAI凌晨就安全问题发文,GPT-5要暂缓?( 二 )


我们已建立了一个强大的监测系统,以监测滥用情况 。GPT-4 现已面向Plus 订阅用户,我们希望将其逐步推广至更多人 。
我们付出了巨大的努力,以最大限度地减少我们的模型产生对儿童有害内容的可能性 。例如,当用户试图将儿童色情材料上传到我们的图像工具时,我们会阻止并向「国家失踪和被剥削儿童中心」报告 。
除了我们的默认安全防护措施外,我们还与开发商合作,如非营利性组织 Khan,他们建立了一个 AI 助手,既是学生虚拟导师,又是教师课堂助手,为学生们量身定制了安全保护措施 。
我们还致力于开发功能,允许开发者设置更严格的模型输出标准,更好地支持需要这种功能的开发者和用户 。
尊重隐私
我们的大型语言模型是基于广泛的文本语料库进行训练的,其中包括公开可用的、有许可的内容和由人工评审员生成的内容 。我们不使用数据出售我们的服务、广告或构建人的画像——我们使用数据使我们的模型更有用 。
例如,通过在人们与其交谈的对话中进一步训练来提高回答效果 。

ChatGPT遭多国调查,OpenAI凌晨就安全问题发文,GPT-5要暂缓?

文章插图
尽管我们的一些训练数据包含公开互联网上的个人信息,但我们希望我们的模型了解世界,而不是私人个体 。
因此,我们努力从训练数据集中删除个人信息,逐步调整模型以拒绝私人个体的个人信息请求,响应个人要求从我们的系统中删除其个人信息 。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的回复的可能性 。
改善事实准确性
今天的大型语言模型工作的原理是基于它们「看到」的文本来预测下一组单词 。在某些情况下,生成出来的单词可能不是事实准确的 。
改善事实准确性是和许多其他人工智能开发者的重点,我们在这方面已取得了初步的进展 。
通过利用用户负反馈(被标记为不正确的输出内容)作为主要数据源,我们已经改善了 GPT-4 的事实准确性 。GPT-4 比 GPT-3.5 更可能产生基于事实的准确内容 。
在用户注册使用这项工具的时候,我们也告知他们可能不总是准确的 。
但是,我们认识到还有很多工作要做,以进一步降低 AI 幻觉的可能性,并尽力向公众科普目前这些人工智能工具的限制 。
持续研究和合作
我们认为,解决人工智能安全问题的实际方法是投入更多的时间和资源研究有效的减缓和对齐技术,并在真实滥用案例中测试它们 。
重要的是,我们也相信,改进人工智能的安全性和能力应该与更多人一起合作 。
我们到目前为止做得最好的安全工作,是与我们最强大的模型(编者注:指内部目前比 GPT-4 更强大的模型)一起工作,因为它们更擅长遵循用户的指示并更容易被引导或「指导」 。
我们将越来越谨慎地创建和部署更强大的模型,并将继续增强安全预防措施,随着我们的人工智能系统的不断发展 。
虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其能力、好处和风险,但我们确实需要花比这更长的时间来提高人工智能系统的安全性 。
因此,决策者和人工智能提供商需要确保全球范围内有效地管理人工智能的开发和部署,以便没有人为了取得领先地位而走捷径 。这是一个艰巨的挑战,需要技术和制度创新,但我们非常愿意为之贡献力量 。
解决安全问题还需要社会广泛的辩论、实验和参与,包括对人工智能系统行为范围的讨论 。我们已经并将继续促进利益相关者之间的合作和开放对话,创建一个安全的人工智能生态系统 。