4、迁移学习和预训练模型( 三 )


得到第一个词的上下文表示后,给定第二个词的 query 向量,我们会重复之前的操作,计算当前 query 向量同各个词 key 向量的得分,对这些得分做归一化处理,并将这些得分同其对应的 value 向量做加权和,以得到其编码上下文信息的表示 。
第二个关键技术是自监督学习
在预训练的模型中,AR(自回归)LM 和 AE(自动编码器)是最常用的自监督学习方法,其中,自回归 LM 旨在利用前面的词序列预测下个词的出现概率(语言模型) 。自动编码器旨在对损坏的输入句子,比如遮掩了句子某个词、或者打乱了词序等,重建原始数据 。通过这些自监督学习手段来学习单词的上下文相关表示 。
第三个关键技术就是微调
【4、迁移学习和预训练模型】在做具体任务时,微调旨在利用其标注样本对预训练网络的参数进行调整 。以我们使用基于 BERT(一种流行的预训练模型)为例来判断两个句子是否语义相同 。输入是两个句子,经过 BERT 得到每个句子的对应编码表示,我们可以简单地用预训练模型的第一个隐节点预测分类标记判断两个句子是同义句子的概率,同时需要额外加一个线性层和计算得到分类标签的分布 。预测损失可以反传给 BERT 再对网络进行微调 。当然也可以针对具体任务设计一个新网络,把预训练的结果作为其输入 。