聚类分析算法解析Word文档下载推荐.docx

上传人:b****2 文档编号:3321963 上传时间:2023-05-01 格式:DOCX 页数:13 大小:307.04KB
下载 相关 举报
聚类分析算法解析Word文档下载推荐.docx_第1页
第1页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第2页
第2页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第3页
第3页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第4页
第4页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第5页
第5页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第6页
第6页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第7页
第7页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第8页
第8页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第9页
第9页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第10页
第10页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第11页
第11页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第12页
第12页 / 共13页
聚类分析算法解析Word文档下载推荐.docx_第13页
第13页 / 共13页
亲,该文档总共13页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

聚类分析算法解析Word文档下载推荐.docx

《聚类分析算法解析Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《聚类分析算法解析Word文档下载推荐.docx(13页珍藏版)》请在冰点文库上搜索。

聚类分析算法解析Word文档下载推荐.docx

,最大距离"

maximum"

绝对值距离"

manhattan"

"

canberra"

二进制距离非对称"

binary"

和明氏距离"

minkowski"

默认是计算欧式距离,所有的属性必须是相同的类型。

比如都是连续类型,或者都是二值类型。

dd<

-dist(iris)

str(dd)

距离矩阵可以使用()函数转化了矩阵的形式,方便显示。

Iris数据共150例样本间距离矩阵为150行列的方阵。

下面显示了1~5号样本间的欧式距离。

(dd)

二、用hclust()进行谱系聚类法(层次聚类)

1.聚类函数

R中自带的聚类函数是hclust(),为谱系聚类法。

基本的函数指令是

结果对象<

-hclust(距离对象,method=方法)

hclust()可以使用的类间距离计算方法包含离差法"

ward"

,最短距离法"

single"

,最大距离法"

complete"

,平均距离法"

average"

,"

mcquitty"

,中位数法"

median"

和重心法"

centroid"

下面采用平均距离法聚类。

hc<

-hclust(dist(iris),method="

ave"

2.聚类函数的结果

聚类结果对象包含很多聚类分析的结果,可以使用数据分量的方法列出相应的计算结果。

str(hc)

下面列出了聚类结果对象hc包含的merge和height结果值的前6个。

其行编号表示聚类过程的步骤,X1,X2表示在该步合并的两类,该编号为负代表原始的样本序号,编号为正代表新合成的类;

变量height表示合并时两类类间距离。

比如第1步,合并的是样本102和143,其样本间距离是,合并后的类则使用该步的

步数编号代表,即样本-102和-143合并为1类。

再如第6行表示样本11和49合并,该两个样本的类间距离是,合并后的类称为6类。

head(hc$merge,hc$height)

下面显示的聚类结果对象hc包含的merge和height结果值的50~55步的结果。

第50步结果表明样本43与13类(即第13步的聚类合类结果)合并。

所有的类编号负数j表示原数据的样本编号,正数i表示聚类过程的第i步形成的新类。

再如54步,表示聚类过程第7步和第37步形成的类合并为新类,新类成为第54类,其类间距离是。

(hc$merge,hc$height)[50:

55]

3.绘制聚类图

聚类完成后可以使用plot()绘制出聚类的树图。

plot(hc,hang=-1,labels=iris$Species)

4.指定分类和类中心聚类

通过观察树形图,可见由于数据例很多,使图形很乱,不容易确定合理的分类,为简化图形,使用cutree()来确定最初的分类结果,先初步确定各个样本的最初分类的类数后,然后用hclust()再次聚类,重新聚类后,得出最后的分类结果。

memb<

-cutree(hc,k=10)#确定10个分类

table(memb)#各类中的样本数

为了进行重新聚类,需要计算各类的类中心的类中心,这里用各类的均向量来代表各类的类中心,计算程序如下。

cent<

-NULL

for(kin1:

10){

cent<

-rbind(cent,colMeans(irisSample[memb==k,,drop=FALSE]))

}

有了各类的类中心后,再次使用hclust()函数,从10类起重新开始聚类。

hclust()函数这时需要指定各类的类中心,并采用中心法来聚类。

hc1<

-hclust(dist(cent),method="

members=table(memb))

plot(hc1)

hc1

再次聚类的树形图就很精简了。

从树形图上看,确定为三类是比较合适的。

4.输出最终分类结果

使用cutree()来确定输出各个样本的最后分类。

-cutree(hc,k=3#确定3个分类

下面将聚类结果和原始的分类比较可见聚类结果是不错的。

错误率约为14/150=%。

5.直接数据距离阵聚类

可以直接输入距离矩阵,然后用()函数转为hclust()可以使用的距离阵对象,然后再用hclust()再进行聚类分析。

x<

(text="

idBAFIMIVORMTO

BA0662877255412996

FI6620295468268400

MI8772950754564138

VO2554687540219869

RM4122685642190669

TO9964001388696690"

header=T)

(x)<

-x$id

x$id<

x

转换为距离阵。

(x)

-hclust(x)

显示聚类过程。

(hc$merge,hc$height)

绘制聚类图。

plot(hc2)

从聚类图可见聚为两类比较合适。

cutree(hc2,2)

所以BA、VO、RM聚为1类而TO、FI、MI聚为另一类。

四、使用cluster包进行聚类分析

1.计算距离矩阵

除了可以使用dist()函数外,加载了cluster包后还可以使用daisy()函数,该函数可以使用的数据类型更多一些。

当原始数据表中包含的数据是混合型即属性变量既有有连续又有分类的时候,dist()计算就不够完美,而采用daisy()函数就可以毫无问题。

使用daisy()必须加载cluster包。

第一次使用还必须安装。

(‘cluster’,repos=’htt

用agens()聚类

cluster包提供了两种层次聚类的方法,一种是abottom-up自底而上,采用先将数据样本先各自看成一类,然后通过合并法的聚类过程,最终形成一个大类,包含全部样本,agnes()函数完成这个功能,这个称为合并层次聚类。

而diana()则采用相反的方法,即atop-down自顶而下,先将所有样本看成一类,然后通过分裂类的过程将样品最终分为各自样本类,这个称为分裂法。

agens()函数的形式是

agnes(x,diss=TRUE|FALSE,metric="

stand=FALSE|TRUE,

method="

,=n<

100,=!

diss)

其中的diss指定x对象是否是不相似矩阵对象,与hclust()函数不同,agnes()既可以使用原始数据也可以采用距离阵。

stand是要求对数据进行标准化,而可以采用的类间距离计算方法有“average”平均法,“UPGMA”,“single”最短距离法,“complete”最大距离法,“ward”离差法,“weighted”权重平均距离法和“flexible”弹性法。

和指定在结果中是否保留不相似矩阵和数据,保留这些结果需要更多的内存。

ag<

-agnes(iris,diss=F,metric="

stand=F,method="

(ag$merge,ag$height)[50:

55,]

plot(ag,ask=FALSE,=NULL)

cutree(ag,k=3)

装载数据

load'

'

str(AdultUCI)

删除原来的目标变量

AdultUCI$income<

删除原始据中数据缺失的数据例

AdultUCI<

(AdultUCI)

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 总结汇报 > 学习总结

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2