Representation Learning 表示学习 Part1( 二 )


举个例子,一个DNA序列可以看作是一个长字符串,由四种基因(A,T,C,G)组成 。虽然我们可以使用类似于处理文本的方法来处理这种数据,但DNA序列具有一些特殊的结构和属性(比如三个基因编码一个氨基酸),这些特性可能无法被当前的深度学习架构充分利用 。因此,我们可能需要开发新的架构,特别是为了捕捉和利用这些特性 。
**无限可能:**以上只是现有的一些方法,这个领域还有无限的可能等待我们去探索 。你的创新想法可能会开辟出新的道路 。
总的来说,这段话的主题是通过无监督学习或自监督学习在没有标注数据的情况下进行表示学习 。这种学习方法为我们提供了一种强大的工具,能够从大量的未标注数据中学习有用的知识 。
本文所讲的是任务
在深度学习领域,自我监督学习是一种无监督学习的形式,其中训练信号(也就是标签)是从输入数据本身生成的,而不是由人工提供 。这种方法的目标是学习良好的数据表示,而不关心代理任务的结果 。
代理任务是自我监督学习的一种实现方式,通过构建一种任务,这种任务可以从输入数据本身获取监督信号 。实际上,我们并不关心代理任务本身的结果,我们关心的只是它是否能促使模型学习出有用的数据表示(比如真正的识别出照片里是个猫) 。
代理任务可以大致分为以下几类:
**推断结构:**这类任务要求模型从输入数据中推断出某种结构或模式 。**转换预测:**这类任务要求模型预测数据的某种转换,例如旋转、翻译或缩放 。**重构:**这类任务要求模型重构其输入,通常在某种转换(如添加噪声)之后 。自编码器就是这类任务的例子 。**利用时间:**在这类任务中,模型需要理解数据的时间顺序或者预测未来的事件 。例如,在自然语言处理中,模型可能需要预测下一个词 。**多模态任务:**这些任务涉及到多种类型的数据,例如图像和文本,目标是学习跨模态的表示 。**实例分类:**这是一种特殊类型的任务,其中每个数据实例都被视为自己的类别 。
需要注意的是,这只是一种对代理任务的大致分类,有些任务可能会符合多个类别 。
(推断结构)
上下文预测: 这是一种自我监督学习方法,在此方法中,模型学会从输入的其他部分预测输入的一部分 。这是一种理解图像中对象部分或特征的有用方法 。然而,这种方法假设训练图像是以规范(标准)的方向拍摄的,这可能并非总是真实的 。上下文预测的缺点: 上下文预测有一些问题 。
以下这些是因为我个人听的有点抽象,提出的一些问题和gpt4的解答,可以跳过 。其实就是表示学习是自动学到了很多的表示(特征),但是这个特征更加的高级,比机器学习里人一个个去造特征要有潜力的多
by
无监督视觉表示学习的基本概念:无监督视觉表示学习通过上下文预测是一种自我监督的学习方法,其目标是使机器学习模型从输入的未标记图像中学习有用的表示方法 。这种学习方法通过预测图像中的上下文来实现,通常是通过预测图像的一部分来理解图像的其他部分 。
举一个简单的例子来说明这个概念:
假设你有一张照片,上面是一只猫正在玩一个球 。我们把这张照片切割成几个部分,然后随机地把其中一个部分移除,我们的任务就是预测被移除的部分应该是什么 。
在这个任务中,模型需要理解各种上下文线索,比如猫的形状,球的颜色和形状,以及它们在图像中的相对位置 。通过这种方式,模型可以学习到猫和球的视觉表示以及它们的空间关系 。这样,即使在测试时遇到新的猫或球的图片,模型也能根据已经学习到的表示来理解和分类它们 。