Science:AI竞赛,学界正在输给业界( 二 )


因此,通过在领先的研究机构发表文章、建立最先进的 AI 模型以及超越关键基准三个方面衡量,分析表明,业界在 AI 产出方面的地位越来越突出 。
业界的压倒性优势带来隐患
业界对 AI 的投资不断增加,可能通过技术的商业化为社会带来巨大利益 。公司可以创造更好的产品,使消费者受益——机器翻译有利于国际贸易,并能简化流程降低成本 。业界对 AI 的投资还产生了对整个社区有价值的工具 。例如,学界广泛使用的和,促进深度学习模型高效训练的硬件如 TPU,以及可公开访问的预训练模型——Meta 的 OPT 模型 。
与此同时,AI 在业界中的集中也令人担忧,业界的商业动机促使他们关注以盈利为导向的话题 。如果所有的前沿模型都来自业界,就会出现不存在具有公共意识的替代品的情况 。换句话来说,“优先部门的 AI 研究人员倾向于专注于数据要求高和计算密集的深度学习方法”是以“涉及其他 AI 方法的研究、考虑 AI 的社会和伦理影响的研究以及在健康等领域的应用”为代价的 。

Science:AI竞赛,学界正在输给业界

文章插图
AI 的发展轨迹如何?谁来控制它?AI 会替代人类吗并引发不平等吗?一些研究人员担心,“我们可能正走向社会次优轨迹,它更侧重于替代人类劳动,而不是增强人类能力 。”一些人展开想象:业界和学界可能会形成与其他学科类似的分工:基础研究主要由大学完成,而应用研究和开发则主要由业界完成 。
然而,在 AI 领域,产学的明确分工并不存在 。业界所使用的应用模型往往是那些突破基础研究边界的模型 。例如,是由谷歌大脑研究人员于 2017 年开发的一种深度学习架构,使得基础研究向前迈出重要一步,并且几乎立即应用于业界使用 。尽管这意味着学术工作可以直接惠及业界,但是应用工作的业界主导权也赋予了它决定基础研究方向的权力 。
鉴于 AI 工具可以在整个社会中得到广泛的应用,这种情况将使少数技术公司在社会发展方向拥有巨大的权力 。对于世界上许多人来说,这种担忧进一步加剧,因为这些组织对他们来说是“外国公司” 。例如,生命未来研究所认为,“欧洲公司没有开发通用 AI 系统,而且由于他们与美国和中国公司相比在竞争上处于相对劣势,不太可能很快开始开发” 。
学界重塑 AI 前沿的可行之路
通过对业界AI 的审查或外部监督,监管可能是解决方案 。例如,2018 年,学者 Joy和Gebru 记录了商业人脸识别系统中的性别和种族偏见 。然而,如果学界不能接触到业界的 AI 系统,或者没有资源来开发竞争模型,他们解释业界模型或提供公共利益的替代方案的能力将受到限制 。
这既是因为学界无法建立尖端性能所需的大型模型,也是因为 AI 系统的一些有用的能力似乎是“涌现”的——系统只有在特别大的时候才能获得这些能力 。模型的一些负面特征似乎也随着规模的增加而扩大 。例如,AI 生成的语言中的毒性以及刻板印象 。在任何一种情况下,没有足够资源的学者都无法对这些重要领域做出有意义的贡献 。
在全球范围内,这种对学界在 AI 研究中的资源劣势的担忧正在被认识到,并开始出现政策应对措施 。在美国,NAIRR 工作组提议创建公共研究云和公共数据集 。在加拿大,国家高级研究计算平台一直在为该国的学界服务,自从近十年前启动以来,一直被超额使用 。
对许多国家来说,这类投资所需的规模可能令人望而生畏 。在这种情况下,决策者面临的关键问题将是,他们是否能够与志同道合的合作者一起筹集足够的资源,以达到创建反映自己优先事项的 AI 系统所需的规模 。