聚类算法


聚类算法

文章插图
聚类算法聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法,同时也是数据挖掘的一个重要算法 。
聚类(Cluster)分析是由若干模式(Pattern)组成的,通常,模式是一个度量(Measurement)的向量,或者是多维空间中的一个点 。
【聚类算法】聚类分析以相似性为基础,在一个聚类中的模式之间比不在同一聚类中的模式之间具有更多的相似性 。
算法起源俗话说:“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题 。所谓类,通俗地说,就是指相似元素的集合 。聚类分析起源于分类学,在古老的分类学中,人们主要依靠经验和专业知识来实现分类,很少利用数学工具进行定量的分类 。随着人类科学技术的发展,对分类的要求越来越高,以致有时仅凭经验和专业知识难以确切地进行分类,于是人们逐渐地把数学工具引用到了分类学中,形成了数值分类学,之后又将多元分析的技术引入到数值分类学形成了聚类分析 。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等 。算法用途聚类的用途是很广泛的 。在商业上,聚类可以帮助市场分析人员从消费者资料库中区分出不同的消费群体来,并且概括出每一类消费者的消费模式或者说习惯 。它作为数据挖掘中的一个模组,可以作为一个单独的工具以发现资料库中分布的一些深层的信息,并且概括出每一类的特点,或者把注意力放在某一个特定的类上以作进一步的分析;并且,聚类分析也可以作为数据挖掘算法中其他分析算法的一个预处理步骤 。聚类分析的算法可以分为划分法(Partitioning Methods)、层次法(Hierarchical Methods)、基于密度的方法(density-based methods)、基于格线的方法(grid-based methods)、基于模型的方法(Model-Based Methods) 。聚类要求可伸缩性许多聚类算法在小于 200 个数据对象的小数据集合上工作得很好;但是,一个大规模资料库可能包含几百万个对象,在这样的大数据集合样本上进行聚类可能会导致有偏的结果 。我们需要具有高度可伸缩性的聚类算法 。不同属性许多算法被设计用来聚类数值类型的数据 。但是,套用可能要求聚类其他类型的数据,如二元类型(binary),分类/标称类型(categorical/nominal),序数型(ordinal)数据,或者这些数据类型的混合 。任意形状许多聚类算法基于欧几里得或者曼哈顿距离度量来决定聚类 。基于这样的距离度量的算法趋向于发现具有相近尺度和密度的球状簇 。但是,一个簇可能是任意形状的 。提出能发现任意形状簇的算法是很重要的 。领域最小化许多聚类算法在聚类分析中要求用户输入一定的参数,例如希望产生的簇的数目 。聚类结果对于输入参数十分敏感 。参数通常很难确定,特别是对于包含高维对象的数据集来说 。这样不仅加重了用户的负担,也使得聚类的质量难以控制 。处理“噪声”绝大多数现实中的资料库都包含了孤立点,缺失,或者错误的数据 。一些聚类算法对于这样的数据敏感,可能导致低质量的聚类结果 。记录顺序一些聚类算法对于输入数据的顺序是敏感的 。例如,同一个数据集合,当以不同的顺序交给同一个算法时,可能生成差别很大的聚类结果 。开发对数据输入顺序不敏感的算法具有重要的意义 。高维度(high dimensionality)一个资料库或者数据仓库可能包含若干维或者属性 。许多聚类算法擅长处理低维的数据,可能只涉及两到三维 。人类的眼睛在最多三维的情况下能够很好地判断聚类的质量 。在高维空间中聚类数据对象是非常有挑战性的,特别是考虑到这样的数据可能分布非常稀疏,而且高度偏斜 。基于约束现实世界的套用可能需要在各种约束条件下进行聚类 。假设你的工作是在一个城市中为给定数目的自动提款机选择安放位置,为了作出决定,你可以对住宅区进行聚类,同时考虑如城市的河流和公路网,每个地区的客户要求等情况 。要找到既满足特定的约束,又具有良好聚类特性的数据分组是一项具有挑战性的任务 。解释性-可用性用户希望聚类结果是可解释的,可理解的,和可用的 。也就是说,聚类可能需要和特定的语义解释和套用相联繫 。套用目标如何影响聚类方法的选择也是一个重要的研究课题 。记住这些约束,我们对聚类分析的学习将按如下的步骤进行 。首先,学习不同类型的数据,以及它们对聚类方法的影响 。接着,给出了一个聚类方法的一般分类 。然后我们详细地讨论了各种聚类方法,包括划分方法,层次方法,基于密度的方法,基于格线的方法,以及基于模型的方法 。最后我们探讨在高维空间中的聚类和孤立点分析(outlier analysis) 。算法分类很难对聚类方法提出一个简洁的分类,因为这些类别可能重叠,从而使得一种方法具有几类的特徵,儘管如此,对于各种不同的聚类方法提供一个相对有组织的描述依然是有用的,为聚类分析计算方法主要有如下几种:划分法划分法(partitioning methods),给定一个有N个元组或者纪录的数据集,分裂法将构造K个分组,每一个分组就代表一个聚类,K<N 。而且这K个分组满足下列条件:(1) 每一个分组至少包含一个数据纪录;(2)每一个数据纪录属于且仅属于一个分组(注意:这个要求在某些模糊聚类算法中可以放宽);对于给定的K,算法首先给出一个初始的分组方法,以后通过反覆叠代的方法改变分组,使得每一次改进之后的分组方案都较前一次好,而所谓好的标準就是:同一分组中的记录越近越好,而不同分组中的纪录越远越好 。大部分划分方法是基于距离的 。给定要构建的分区数k,划分方法首先创建一个初始化划分 。然后,它採用一种叠代的重定位技术,通过把对象从一个组移动到另一个组来进行划分 。一个好的划分的一般準备是:同一个簇中的对象儘可能相互接近或相关,而不同的簇中的对象儘可能远离或不同 。还有许多评判划分质量的其他準则 。传统的划分方法可以扩展到子空间聚类,而不是搜寻整个数据空间 。当存在很多属性并且数据稀疏时,这是有用的 。为了达到全局最优,基于划分的聚类可能需要穷举所有可能的划分,计算量极大 。实际上,大多数套用都採用了流行的启发式方法,如k-均值和k-中心算法,渐近的提高聚类质量,逼近局部最优解 。这些启发式聚类方法很适合发现中小规模的资料库中小规模的资料库中的球状簇 。为了发现具有複杂形状的簇和对超大型数据集进行聚类,需要进一步扩展基于划分的方法 。使用这个基本思想的算法有:K-MEANS算法、K-MEDOIDS算法、CLARANS算法;层次法层次法(hierarchical methods),这种方法对给定的数据集进行层次似的分解,直到某种条件满足为止 。具体又可分为“自底向上”和“自顶向下”两种方案 。例如,在“自底向上”方案中,初始时每一个数据纪录都组成一个单独的组,在接下来的叠代中,它把那些相互邻近的组合併成一个组,直到所有的记录组成一个分组或者某个条件满足为止 。层次聚类方法可以是基于距离的或基于密度或连通性的 。层次聚类方法的一些扩展也考虑了子空间聚类 。层次方法的缺陷在于,一旦一个步骤(合併或分裂)完成,它就不能被撤销 。这个严格规定是有用的,因为不用担心不同选择的组合数目,它将产生较小的计算开销 。然而这种技术不能更正错误的决定 。已经提出了一些提高层次聚类质量的方法 。代表算法有:BIRCH算法、CURE算法、CHAMELEON算法等;密度算法基于密度的方法(density-based methods),基于密度的方法与其它方法的一个根本区别是:它不是基于各种各样的距离的,而是基于密度的 。这样就能克服基于距离的算法只能发现“类圆形”的聚类的缺点 。这个方法的指导思想就是,只要一个区域中的点的密度大过某个阈值,就把它加到与之相近的聚类中去 。代表算法有:DBSCAN算法、OPTICS算法、DENCLUE算法等;图论聚类法图论聚类方法解决的第一步是建立与问题相适应的图,图的节点对应于被分析数据的最小单元,图的边(或弧)对应于最小处理单元数据之间的相似性度量 。因此,每一个最小处理单元数据之间都会有一个度量表达,这就确保了数据的局部特性比较易于处理 。图论聚类法是以样本数据的局域连线特徵作为聚类的主要信息源,因而其主要优点是易于处理局部数据的特性 。格线算法基于格线的方法(grid-based methods),这种方法首先将数据空间划分成为有限个单元(cell)的格线结构,所有的处理都是以单个的单元为对象的 。这幺处理的一个突出的优点就是处理速度很快,通常这是与目标资料库中记录的个数无关的,它只与把数据空间分为多少个单元有关 。代表算法有:STING算法、CLIQUE算法、WAVE-CLUSTER算法;模型算法基于模型的方法(model-based methods),基于模型的方法给每一个聚类假定一个模型,然后去寻找能够很好的满足这个模型的数据集 。这样一个模型可能是数据点在空间中的密度分布函式或者其它 。它的一个潜在的假定就是:目标数据集是由一系列的机率分布所决定的 。通常有两种尝试方向:统计的方案和神经网路的方案 。具体方法K-MEANSk-means 算法接受输入量 k ;然后将n个数据对象划分为 k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小 。聚类相似度是利用各聚类中对象的均值所获得一个“中心对象”(引力中心)来进行计算的 。k-means 算法的工作过程说明如下:首先从n个数据对象任意选择 k 个对象作为初始聚类中心;而对于所剩下其它对象,则根据它们与这些聚类中心的相似度(距离),分别将它们分配给与其最相似的(聚类中心所代表的)聚类;然后再计算每个所获新聚类的聚类中心(该聚类中所有对象的均值);不断重複这一过程直到标準测度函式开始收敛为止 。一般都採用均方差作为标準测度函式. k个聚类具有以下特点:各聚类本身儘可能的紧凑,而各聚类之间儘可能的分开 。K-MEDOIDSK-MEANS有其缺点:产生类的大小相差不会很大,对于髒数据很敏感 。改进的算法:k—medoids 方法 。这儿选取一个对象叫做mediod来代替上面的中心的作用,这样的一个medoid就标识了这个类 。K-medoids和K-means不一样的地方在于中心点的选取,在K-means中,我们将中心点取为当前cluster中所有数据点的平均值,在 K-medoids算法中,我们将从当前cluster 中选取这样一个点——它到其他所有(当前cluster中的)点的距离之和最小——作为中心点 。步骤:1,任意选取K个对象作为medoids(O1,O2,…Oi…Ok) 。以下是循环的:2,将余下的对象分到各个类中去(根据与medoid最相近的原则);3,对于每个类(Oi)中,顺序选取一个Or,计算用Or代替Oi后的消耗—E(Or) 。选择E最小的那个Or来代替Oi 。这样K个medoids就改变了,下面就再转到2 。4,这样循环直到K个medoids固定下来 。这种算法对于髒数据和异常数据不敏感,但计算量显然要比K均值要大,一般只适合小数据量 。Clara上面提到K-medoids算法不适合于大数据量的计算 。Clara算法,这是一种基于採样的方法,它能够处理大量的数据 。Clara算法的思想就是用实际数据的抽样来代替整个数据,然后再在这些抽样的数据上利用K-medoids算法得到最佳的medoids 。Clara算法从实际数据中抽取多个採样,在每个採样上都用K-medoids算法得到相应的(O1, O2 … Oi … Ok),然后在这当中选取E最小的一个作为最终的结果 。ClaransClara算法的效率取决于採样的大小,一般不太可能得到最佳的结果 。在Clara算法的基础上,又提出了Clarans的算法,与Clara算法不同的是:在Clara算法寻找最佳的medoids的过程中,採样都是不变的 。而Clarans算法在每一次循环的过程中所採用的採样都是不一样的 。与上面所讲的寻找最佳medoids的过程不同的是,必须人为地来限定循环的次数 。