ChatGPT 的开源“替代”来了!前 OpenAI 团队出手,能用中文提问

整理 | 郑丽媛
出品 | CSDN(ID:)
近来的爆火,令不少人开始关注其背后的。
追溯过往才发现,原来成立于 2015 年的 ,最初声称是一家非营利机构,会向公众开放专利和研究成果,要为人类谋福利 。
但 2019 年,变成了一家名为LP 的营利性公司,又接受了微软注资的 10 亿美元后:GPT-3 仅通过 API 发布而非开源模型,也毫无开源迹象——许多人唏嘘:不如改名为。
意外的是,的开源“平替”还是来了 。
3 月 12 日,Orca数据科学主管Golan 在推特分享了“第一个的开源替代”: 组织中的前研究员团队,发布了一个类开源模型,名为。
值得一提的是,不论是的源代码、模型权重还是训练数据集,已全部公开 。
在问答、提取和分类方面,表现尚佳
根据官方介绍,GPT-NeoXT-Chat-Base-20B 是构成基础的大型语言模型,而它则基于“黑客组织”的 GPT-NeoX-20B 模型 。
作为一个诞生于 2020 年 7 月的“黑客组织”,由一群机器学习研究人员组成,为反抗微软与对大规模 NLP 模型的垄断(微软与达成协议,拥有对 GPT-3 源码的独家访问)而成立,旨在构建和开源大型语言模型 。
创始人Leahy 曾说:“起初这真的只是一个有趣的业余爱好 。我们认为自己是几十年前经典黑客文化的后裔,只是在新的领域,出于好奇和对挑战的热爱而对技术进行试验 。”
【ChatGPT 的开源“替代”来了!前 OpenAI 团队出手,能用中文提问】成立不到 3 年,不断实现其目标:先发布了类 GPT 的 27 亿参数模型 GPT-Neo,又开源了 60 亿参数的 NLP 模型 GPT-J,去年又免费开放了包含 200 亿参数的 GPT-NeoX-20B 。
得益于 GPT-NeoX-20B 的开源,用 4300 万条高质量指令的集合对模型的聊天功能进行了微调,主要在多轮对话、问答、分类、提取和摘要等方面重点调优,从而得到了 GPT-NeoXT-Chat-Base-20B 。

ChatGPT 的开源“替代”来了!前 OpenAI 团队出手,能用中文提问

文章插图
据介绍,GPT-NeoXT-Chat-Base-20B 开箱即用,为一系列广泛的自然语言任务提供了一个强大基础,它在 HELM 基准测试上的得分高于其基本模型 GPT-NeoX,特别是在涉及问答、提取和分类的任务上 。
基于 GPT-NeoXT-Chat-Base-20B 的 ,也就继承了这些优点 。
在编码等方面还有欠缺
具体来说,一共包含 4 个关键组件:
(1)一个经过指令调整的大型语言模型,该模型基于的 GPT-NeoX-20B,经过了 4300 万条指令的微调 。
(2)定制配方,对模型进行微调,以实现任务的高精确度 。
(3)一个可扩展的检索系统,能够在推理时用来自文件库、API 或其他实时更新的信息源的信息来增强响应 。
(4)一个由 GPT-JT-6B 微调的调节模型,以此过滤一些问题的响应 。
基于这些组件,现阶段的开箱即用,并且在问答、信息提取和文本分类方面较为擅长:
user:将下面句子的情感分为正面、中性或负面:对于教授斯坦福大学的第一门大型语言模型课程,我感到非常兴奋!在这里查看教学大纲 。
bot:正面的 。
user:将下面句子的情感分为正面、中性或负面:外面在下雨,我感到很忧郁 。
bot:负面的 。
同时也承认,目前刚发布的仍存在不少问题和缺陷,例如编码能力不足、会重复回答等:
为此,呼吁大家一起尝试与对话(),如发现问题可随时反馈,以此加强数据集并提高其准确性:“这不仅是一个模型的发布,更是一个开源项目的开始,希望能在社区的帮助下不断改进 。”
可以用中文问答
或许是拥有着“前研究团队开发”的前缀,仅发布 3 天,就在上收获了 3k+ Star,在页面还能看到不少国内开发者的提问: