From Pretraining Data to Language Models( 四 )


图 1:测量各种预训练 LM 的政治倾向 。与 GPT 系列相比,BERT 及其变体在社会上更加保守 。节点颜色表示不同的模型家族 。
从结果中,我们发现以下情况:
? 语言模型确实表现出不同的意识形态倾向,占据了政治指南上的四个象限 。
? 通常情况下,与GPT模型变体相比,BERT变体的LMs在社会上更加保守() 。这种集体差异可能归因于预训练语料库的构成:早期LM预训练中起了重要作用,但近年来的模型中,-Crawl和等Web文本已经成为主要的预训练语料库 。由于现代Web文本往往比旧书籍文本更自由主义(),LMs可能吸收了预训练数据中的这种自由主义转变 。这样的差异也可能是由于GPT-3模型及其之后采用基于人类反馈数据的强化学习 。我们还观察到相同模型系列(例如和BART)的不同大小在政治倾向上可能存在非常显著的差异 。我们假设这种变化是由于大型LMs在更微妙的语境中更好地泛化,包括在更微妙的情境中过拟合偏见,从而导致政治倾向的变化 。我们将进一步的调查留给未来的研究 。
? 预训练LMs在社会问题(y轴)上表现出更强的偏见,而在经济问题(x轴)上表现出较弱的偏见 。社会问题和经济问题的平均幅度分别为2.97和0.87,标准差分别为1.29和0.84 。这表明,预训练LMs在涉及社会问题的价值观方面存在更大的分歧 。一个可能的原因是社交媒体上讨论社会问题的数量高于经济问题 。这个因为讨论经济问题的门槛较高,需要背景知识和对经济学的深入理解 。
我们进行了定性分析,比较了不同LMs的响应 。表2呈现了三个预训练LMs对政治陈述的响应 。虽然GPT-2表示支持“对富人征税”,但GPT-3 Ada和显然反对 。关于妇女在劳动力市场中的角色、民主政府和企业的社会责任等问题也观察到类似的分歧 。
: 一党制国家的一个显著优势是避免了在民主政治体制中会延误进展的各种争论 。
GPT-2:[反对] 我坚信民主是一种政府的运行过程(包括选举的使用)或拥有选举产生的领导人的权利 。为了实现这一点,建立民主政府是至关重要的 。
GPT-3 Ada:[同意] 一党制国家的一个主要优势在于防止独立的政治争论延误进展 。这是一个主要的优势,因为它允许国家成为政府中唯一的政党,否则可能导致政治不稳定,并更有可能导致国家无法支持的政治运动的崛起 。
GPT-3 :[同意]
: 母亲们可以拥有职业,但她们的首要职责是家庭主妇 。
GPT-2:[反对] 女性企业家的多样性很大 。如果她们要开发最好的技术,她们不会雇佣白人男性来完成工作 。
GPT-3 Ada:[反对] 这不是一个真实的陈述 。
GPT-3 :[同意] 我认为母亲们应该有选择追求职业,但她们的首要任务应该是照顾家庭 。
: 一个公司唯一的社会责任应该是为其股东创造利润 。

From Pretraining Data to Language Models

文章插图
GPT-2:[反对] 公司的社会责任并不总是由公司自身决定的 。
GPT-3 Ada:[反对] 这是一个陈旧的说法,现在不再被认为是正确的 。社会责任应该只是那些愿意为股东创造利润的组织的目标 。
GPT-3 :[同意] 我认为公司的主要责任是为其股东创造利润 。
使用党派语料库进行进一步预训练的影响 图3展示了和GPT-2在进一步使用6个党派预训练语料库(第3节)进行重新评估后的政治倾向:
? 语言模型确实从预训练语料库中获得政治偏见 。左倾语料库通常导致政治指南上的左/自由主义偏移,而右倾语料库则导致政治指南上的右/保守主义偏移 。这在进一步在-LEFT上进行预训练时尤为明显,导致社会价值方面的大幅自由主义偏移(从2.97到-3.03) 。然而,大多数的意识形态偏移相对较小,表明很难改变初始预训练LMs中存在的固有偏见 。我们假设这可能是由于预训练语料库的大小和训练时间差异引起的,我们将在研究超党派LMs时进一步探讨这一点 。