AP近邻传播聚类算法原理及Matlab实现.docx

上传人:wj 文档编号:1213859 上传时间:2023-04-30 格式:DOCX 页数:5 大小:228.32KB
下载 相关 举报
AP近邻传播聚类算法原理及Matlab实现.docx_第1页
第1页 / 共5页
AP近邻传播聚类算法原理及Matlab实现.docx_第2页
第2页 / 共5页
AP近邻传播聚类算法原理及Matlab实现.docx_第3页
第3页 / 共5页
AP近邻传播聚类算法原理及Matlab实现.docx_第4页
第4页 / 共5页
AP近邻传播聚类算法原理及Matlab实现.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

AP近邻传播聚类算法原理及Matlab实现.docx

《AP近邻传播聚类算法原理及Matlab实现.docx》由会员分享,可在线阅读,更多相关《AP近邻传播聚类算法原理及Matlab实现.docx(5页珍藏版)》请在冰点文库上搜索。

AP近邻传播聚类算法原理及Matlab实现.docx

AP近邻传播聚类算法原理及Matlab实现

AffinityPropagation(AP)聚类是2007年在Science杂志上提出的一种新的聚类算法。

它根据N个数据点之间的相似度进行聚类,这些相似度可以是对称的,即两个数据点互相之间的相似度一样(如欧氏距离);也可以是不对称的,即两个数据点互相之间的相似度不等。

这些相似度组成N×N的相似度矩阵S(其中N为有N个数据点)。

AP算法不需要事先指定聚类数目,相反它将所有的数据点都作为潜在的聚类中心,称之为exemplar。

以S矩阵的对角线上的数值s(k,k)作为k点能否成为聚类中心的评判标准,这意味着该值越大,这个点成为聚类中心的可能性也就越大,这个值又称作参考度p(preference)。

聚类的数量受到参考度p的影响,如果认为每个数据点都有可能作为聚类中心,那么p就应取相同的值。

如果取输入的相似度的均值作为p的值,得到聚类数量是中等的。

如果取最小值,得到类数较少的聚类。

AP算法中传递两种类型的消息,(responsiility)和(availability)。

r(i,k)表示从点i发送到候选聚类中心k的数值消息,反映k点是否适合作为i点的聚类中心。

a(i,k)则从候选聚类中心k发送到i的数值消息,反映i点是否选择k作为其聚类中心。

r(i,k)与a(i,k)越强,则k点作为聚类中心的可能性就越大,并且i点隶属于以k点为聚类中心的聚类的可能性也越大。

AP算法通过迭代过程不断更新每一个点的吸引度和归属度值,直到产生m个高质量的exemplar,同时将其余的数据点分配到相应的聚类中。

在这里介绍几个文中常出现的名词:

exemplar:

指的是聚类中心。

similarity:

数据点i和点j的相似度记为S(i,j)。

是指点j作为点i的聚类中心的相似度。

preference:

数据点i的参考度称为P(i)或S(i,i)。

是指点i作为聚类中心的参考度。

一般取S相似度值的中值。

Responsibility:

R(i,k)用来描述点k适合作为数据点i的聚类中心的程度。

Availability:

A(i,k)用来描述点i选择点k作为其聚类中心的适合程度。

Dampingfactor:

阻尼系数,主要是起收敛作用的。

机器学习中一个很重要的方面就是聚类算法。

聚类算法说白了就是给你一大堆点的坐标(维度可以是很高的),然后给你一个距离度量的准则(比如欧拉距离,马氏距离什么的),然后你要自动把相近的点放在一个集合里面,归为一类。

继续科普:

一个比较传统的聚类算法就是k-Means聚类,算法很简单,哦,说起这件事,我刚刚在整理东西时就发现了一篇讲到k-Means的论文,里面又是一大堆看不懂的符号,我说你们真的有必要那么装逼么?

比如说下面这幅图,有这么多个点,我们强大的大脑可以瞬间分辨出这里有三个团簇,一般术语叫cluster。

但是K-Means算法是怎么实现的呢?

首先我们已经知道有三个类了,所以呢就随机的选三个点(上图最左),作为三个类的中心,也可以叫做代表点,之后呢把图中所有的点归于离他最近的那个点,认为这个点就是属于这一类(上图左二),显然这样分类是不行的,然后我们计算每个类的那些点的中心(或者称为重心),把每个类的代表点的位置移到这个类的重心处(上图右二),然后再把全图中所有点都归于他们最近的那个类代表点,这时有些点的归属就会发生变化,然后不断的这么迭代,知道所有点的归属都不再变化为止,我们就认为这个算法收敛了。

显然这个算法很简单,比较简陋,但是大部分情况下都很实用!

要说缺点的话,第一,我们必须先知道总共有多少个类,其次就是算法最后能否收敛和收敛的速度对开始随机挑的那几个点很敏感。

好吧,扯远了,我这篇博文不是为了讲K-Means的,想介绍的是近邻传播聚类算法。

近邻传播,英文是affinitypropagation,它是一种半监督聚类算法。

比起传统的像K-Means,它有很多别的算法所望尘莫及的优势,比如不需事先指定类的个数,对初值的选取不敏感,对距离矩阵的对称性没要求等。

AP聚类算法是将每个数据看成图中的一个节点,迭代的过程即是在图中通过传播信息来找到聚类集合。

本文计算两个数据点的相似度采用距离的负数,也就是说距离越近,相似度越大。

相似矩阵S中i到j的相似度就是刚刚所说的距离的负数。

但是主对角线上的那些数表示的是某个点和自身的相似度,但是这里我们不能直接用0来表示。

根据算法要求,主对角线上的值s(k,k)一般称为偏向参数,一般情况下对所有k,s(k,k)都相等,取非主对角线上的所有数的中位数。

这个值很重要,他的大小与最后得到的类的数目有关,一般而言这个数越大,得到的类的数目就越多。

这里为什么要设定一个偏向参数而不直接用0来算呢,估计是因为AP聚类算法是要用图论的一些东西来理解的,它把所有的点都看成一个图中的节点,通过节点之间的信息传递来达到聚类的效果。

具体比较复杂,形象一点说就是我告诉你我和这些人是死党,如果你认为你也是我死党的话,那你就加入我们这一堆人里面来吧!

有一些详细的原理上的东西就不说了,直接说计算过程吧。

聚类就是个不断迭代的过程,迭代的过程主要更新两个矩阵,代表(Responsibility)矩阵R=[r(i,k)]N×N和适选(Availabilities)矩阵A=[a(i,k)]N×N。

这两个矩阵才初始化为0,N是所有样本的数目。

r(i,k)表示第k个样本适合作为第i个样本的类代表点的代表程度,a(i,k)表示第i个样本选择第k个样本作为类代表样本的适合程度。

迭代更新公式如下:

每次更新后就可以确定当前样本i的代表样本(exemplar)点k,k就是使{a(i,k)+r(i,k)}取得最大值的那个k,如果i=k的话,那么说明样本i就是自己这个cluster的类代表点,如果不是,那么说明i属于k所属的那个cluster。

当然,迭代停止的条件就是所有的样本的所属都不在变化为止,或者迭代了n次都还没有变化(n的值可以自己取)。

说起来还有一种判断点属于属于哪一类的方法,就是找出所有决策矩阵主对角线元素{a(k,k)+r(k,k)}大于0的所有点,这些点全部都是类代表点,之后在决定其余的点属于这里面的一类。

这两种方法的结果我没比较过诶,不知是不是一样的。

另外还有一点就是AP聚类算法迭代过程很容易产生震荡,所以一般每次迭代都加上一个阻尼系数λ:

rnew(i,k)=λ*rold(i,k)+(1-λ)*r(i,k)

anew(i,k)=λ*aold(i,k)+(1-λ)*a(i,k)

下图是采用下面的API画出来的聚类结果:

 

下面就它的优缺点进行简要的叙述,不做任何理论上的解释:

(1)与众多聚类算法不同,AP聚类不需要指定K(经典的K-Means)或者是其他描述聚类个数(SOM中的网络结构和规模)的参数。

(2)一个聚类中最具代表性的点在AP算法中叫做Examplar,与其他算法中的聚类中心不同,examplar是原始数据中确切存在的一个数据点,而不是由多个数据点求平均而得到的聚类中心(K-Means)。

(3)多次执行AP聚类算法,得到的结果是完全一样的,即不需要进行随机选取初值步骤。

(4)算法复杂度较高,为O(N*N*logN),而K-Means只是O(N*K)的复杂度。

因此当N比较大时(N>3000),AP聚类算法往往需要算很久。

(*5)若以误差平方和来衡量算法间的优劣,AP聚类比其他方法的误差平方和都要低。

(无论k-centerclustering重复多少次,都达不到AP那么低的误差平方和)

(*6)AP通过输入相似度矩阵来启动算法,因此允许数据呈非欧拉分布,也允许非常规的点-点度量方法。

Matlab实现代码:

functionidx=AP(S)

N=size(S,1);

A=zeros(N,N);

R=zeros(N,N);%Initializemessages

 

lam=0.9;%Setdampingfactor

 

same_time=-1;

foriter=1:

10000

    %Computeresponsibilities

    Rold=R;

    AS=A+S;

    [Y,I]=max(AS,[],2);

    fori=1:

N

        AS(i,I(i))=-1000;

    end

    [Y2,I2]=max(AS,[],2);

    R=S-repmat(Y,[1,N]);

    fori=1:

N

        R(i,I(i))=S(i,I(i))-Y2(i);

    end

    R=(1-lam)*R+lam*Rold;%Dampenresponsibilities

    %Computeavailabilities

    Aold=A;

    Rp=max(R,0);

    fork=1:

N

        Rp(k,k)=R(k,k);

    end

    A=repmat(sum(Rp,1),[N,1])-Rp;

    dA=diag(A);

    A=min(A,0);

    fork=1:

N

        A(k,k)=dA(k);

    end;

    A=(1-lam)*A+lam*Aold;%Dampenavailabilities

 

    if(same_time==-1)

        E=R+A;

        [ttidx_old]=max(E,[],2);

        same_time=0;

    else

        E=R+A;

        [ttidx]=max(E,[],2);

 

        if(sum(abs(idx_old-idx))==0)

            same_time=same_time+1;

            if(same_time==10)

                iter

                break;

            end

        end

        idx_old=idx;

end

end

 

E=R+A;

[ttidx]=max(E,[],2);

 

%figure;

%fori=unique(idx)'

%    ii=find(idx==i);

%    h=plot(x(ii),y(ii),'o');

%    holdon;

%    col=rand(1,3);

%    set(h,'Color',col,'MarkerFaceColor',col);

%    xi1=x(i)*ones(size(ii));xi2=y(i)*ones(size(ii));

%    line([x(ii)',xi1]',[y(ii)',xi2]','Color',col);

%end;

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2