Clementine决策树CHAID算法.docx

上传人:b****2 文档编号:1344502 上传时间:2023-04-30 格式:DOCX 页数:20 大小:464.15KB
下载 相关 举报
Clementine决策树CHAID算法.docx_第1页
第1页 / 共20页
Clementine决策树CHAID算法.docx_第2页
第2页 / 共20页
Clementine决策树CHAID算法.docx_第3页
第3页 / 共20页
Clementine决策树CHAID算法.docx_第4页
第4页 / 共20页
Clementine决策树CHAID算法.docx_第5页
第5页 / 共20页
Clementine决策树CHAID算法.docx_第6页
第6页 / 共20页
Clementine决策树CHAID算法.docx_第7页
第7页 / 共20页
Clementine决策树CHAID算法.docx_第8页
第8页 / 共20页
Clementine决策树CHAID算法.docx_第9页
第9页 / 共20页
Clementine决策树CHAID算法.docx_第10页
第10页 / 共20页
Clementine决策树CHAID算法.docx_第11页
第11页 / 共20页
Clementine决策树CHAID算法.docx_第12页
第12页 / 共20页
Clementine决策树CHAID算法.docx_第13页
第13页 / 共20页
Clementine决策树CHAID算法.docx_第14页
第14页 / 共20页
Clementine决策树CHAID算法.docx_第15页
第15页 / 共20页
Clementine决策树CHAID算法.docx_第16页
第16页 / 共20页
Clementine决策树CHAID算法.docx_第17页
第17页 / 共20页
Clementine决策树CHAID算法.docx_第18页
第18页 / 共20页
Clementine决策树CHAID算法.docx_第19页
第19页 / 共20页
Clementine决策树CHAID算法.docx_第20页
第20页 / 共20页
亲,该文档总共20页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

Clementine决策树CHAID算法.docx

《Clementine决策树CHAID算法.docx》由会员分享,可在线阅读,更多相关《Clementine决策树CHAID算法.docx(20页珍藏版)》请在冰点文库上搜索。

Clementine决策树CHAID算法.docx

Clementine决策树CHAID算法

CHAID算法(Chi-SquareAutomaticInteractionDetection)

CHAID提供了一种在多个自变量中自动搜索能产生最大差异的变量方案。

不同于C&R树和QUEST节点,CHAID分析可以生成非二进制树,即有些分割有两个以上的分支。

CHAID模型需要一个单一的目标和一个或多个输入字段。

还可以指定重量和频率领域。

CHAID分析,卡方自动交互检测,是一种用卡方统计,以确定最佳的分割,建立决策树的分类方法。

1.CHAID方法(卡方自动交叉检验)

CHAID根据细分变量区分群体差异的显著性程度(卡方值)的大小顺序,将消费者分为不同的细分群体,最终的细分群体是由多个变量属性共同描述的,因此属于多变量分析。

在形式上,CHAID非常直观,它输出的是一个树状的图形。

1.它以因变量为根结点,对每个自变量(只能是分类或有序变量,也就是离散性的,如果是连续

变量,如年龄,收入要定义成分类或有序变量)进行分类,计算分类的卡方值(Chi-Square-Test)。

如果

几个变量的分类均显著,则比较这些分类的显著程度(P值的大小),然后选择最显著的分类法作为

子节点。

2.CHIAD可以自动归并自变量中类别,使之显著性达到最大。

3.最后的每个叶结点就是一个细分市场

CHAID自动地把数据分成互斥的、无遗漏的组群,但只适用于类别型资料。

当预测变量较多且都是分类变量时,CHAID分类最适宜。

2.CHAID分层的标准:

卡方值最显著的变量

3.CHAID过程:

建立细分模型,根据卡方值最显著的细分变量将群体分岀两个或多个群体,对于这些群体再根据其它的卡方值相对最显著的细分变量继续分岀子群体,直到没有统计意义上显著的细分变量可以将这些子群体再继续分开为止。

4.CHAID的一般步骤

-属性变量的预处理

-确定当前分支变量和分隔值

属性变量的预处理:

-对定类的属性变量,在其多个分类水平中找到对目标变量取值影响不显著的分类,并合并它们;

-对定距型属性变量,先按分位点分组,然后再合并具有同质性的组;

-如果目标变量是定类变量,则采用卡方检验

-如果目标变量为定距变量,则采用F检验

(统计学依据数据的计量尺度将数据划分为三大类,即定距型数据(Scale)、定序型数

据(Ordinal)和定类型数据(Nominal)。

定距型数据通常指诸如身高、体重、血压等的连续性数据,也包括诸如人数、商品件数等离散型数据;定序型数据具有在固有大小

或高低顺序,但它又不同于定距型数据,一般可以数值或字符表示。

如职称变量可以有低级、中级和高级三个取值,可以分别用1、2、3等表示,年龄段变量可以有老、中、

青三个取值,分别用A、B、C表示等。

这里无论是数值型的1、2、3还是字符型的A、B、

C,都是有大小或高低顺序的,但数据之间却是不等距的。

因为低级和中级职称之间的差距与中级和高级职称之间的差距是不相等的;定类型数据是指没有在固定大小或高低顺

序,一般以数值或字符表示的分类数据。

2

F检验:

比较两组数据的方差s2,F字,假设检验两组数据没有显著差异,FVF表,则接受

s小

原假设,两组数据没有显著差异;F>F表,拒绝原假设,两组数据存在显著差异。

属性变量预处理的具体策略

-如果仅有一个或两个分组,则不做合并处理

-根据卡方统计量(或似然比卡方)的P-值决定合并哪些组(P值>merge)

-如果用户指定在合并同时还考虑组拆分(Allowsplittingmergedcategories),则新近合并

的组中如果包括三个以上的原始分组,应根据检验结果判断是否需再拆分成两组(P-值<

split-merge)

确疋当前分支变量和分隔值

-计算经预处理后的各属性变量与目标变量的卡方检验统计量和P-值。

P-值最小的变量(与目标

变量联系最紧密)作为当前的最佳分支变量,该变量的所有分组形成该分支下的子节点对每个子节点重复上述处理,直到满足收敛条件为止

5.CHAID的适用围

当预测变量是分类变量时,CHAID方法最适宜。

对于连续型变量,CHAID在缺省状态下将连续变量自动分为10段处理,但是可能有遗漏。

当预测变量是人口统计变量时,研究者可以很快找岀不同细分市场特征,免去对交叉分析表归并与检查之苦。

6.CHAID的预剪枝

基本参数:

1.决策树最大深度:

如果决策树的层数已经达到指定深度,则停止生长。

2.树中父节点和子节点所包含的最少样本量或比例:

对父节点是指,如果节点的样本量已低于最少样本量或比例,则不再分组;对于子节点是指,如果分组后生成的子节点中的样本量低于最小样本或比例,则不必进行分组。

3.当输入变量与输岀变量的相关性小于一个指定值,则不必进行分组。

7.CHAID模块的优点:

-不像CART和QUEST模块,CHAID可产生多分枝的决策树

-目标变量可以定距或定类的

-从统计显著性角度确定分支变量和分隔值,进而优化树的分枝过程

-CHAID是建立在因果关系的探讨中的,依据目标变量实现对输入变量众多水平的划分

例:

心脏数据综合诊断数据

现有数据OVERALL_DIAGNOSIS综合诊断)

本案例是一个医学心脏病综合诊断报告案例,目的通过已知的22个变量F1〜F22来预测每个病人是否正常。

0-正常,1-异常

卡方检验:

计数项:

07E1F13

OVERALL^〒

0

1

(空白)

总计

0

46

7

55

1

S7

125

212

(空白)

总计

135

13Z

267

P(KA2tk)

0.50

0.40

025

0.15

0.10

k

0455

0.70S

i宓

2.072

2.705

P{KA2ik)

005

0C25

0.010

O.C05

0.001

r

3,841

5.C24

663S

7S79

10.928

(1)零假设H0:

心脏病检验结果与F13变量无关。

(F13变量对输出变量无影响)

卡方值越大,说明两者有关系可能性越大。

(2)确定自由度:

(行数-1)*(列数-1)=1

选择显著水平=0.05,对应的卡方值K为3.841

(3)卡方值=(48*12587*7)2*267/(55*212*135*132)=37.35>10.828>3.481

拒绝原假设。

故心脏病检验结果与F13有关。

(卡方值为37.35时,对应的P值已

趋于0,即“心脏病检验结果与F13有关”成立的概率趋于1-0=100%)

建立CHAID模型

-在“建模”中选择CHAID节点,将其加入数据流中

“TYPE'节点

-“Range”围:

用来描述数值,如0-100或0.75-1.25围。

一个围值可以是一个整数,实数,日期/时间。

-“Discrete”离散:

用于不同的字符串数值的确切数目是未知的。

这是一个未初始化的数据类型,即对数据的存储和使用的所有可能的信息尚不清楚。

一旦数据被读取,类型标志,集,或无类型的,取决于最大集大小属性对话框中指定的流。

-“Flag”标志:

用于具有两个不同值的数据,如Yes和No或1和2的数据。

可能是文本,整数,实数,

日期/时间数据。

注:

日期/时间是指三种类型的存储时间,日期或时间戳

-“Set”集:

用来描述具有多个不同的值的数据,每个被视为一个集的成员,如小型/中型/大型数据。

在这

个版本的Clementine,一套可以有任何存储数值---字符串或日期/时间。

请注意,设置类型设置不会自动改变字符串的值。

-“OrderedSet”有序集合:

用来描述具有多个不同的值的数据,有一种在的秩序。

例如,工资类别或满意度排名可以分为一组有序。

有序集的顺序是指通过其元素的自然排序顺序。

例如,1,3,5,是一组

整数的默认排序顺序,而高,低,师大学(升序按字母顺序排列)是一组字符串的顺序。

有序的集合类型,可让您定义一组有序数据的可视化,建立模型(C5.0,C&RTree,TwoStep),并扩展到其他应用程序,如

SPSS,承认有序数据作为一个独特的类型。

此外,任何存储类型(真实的,整数,字符串,日期,时间,等等)的领域都可以被定义为一个有序的集合。

-“Typeless”无类型:

用于数据不符合任何上述类型的集合类型或包含太多值的集合类型。

它是有用于一个集合包含太多值(如)。

CHAID“字段”选项

目标。

对于需要一个或多个目标字段的模型,请选择目标字段。

此操作与在类型节点中将字段的方向设置为输岀类似。

输入。

选择输入字段。

此操作与在类型节点中将字段的方向设置为输入类似。

分区字段。

该字段允许使用指定字段将数据分割为几个不同的样本,分别用于模型构建过程中的训练、检验和验证阶段。

通过用某个样本生成模型并用另一个样本对模型进行检验,可以预判岀此模型对类似于当前数据的大型数据集的拟合优劣。

如果已使用类型或分区节点定义了多个分区字段,则必须在每个用于分区的建模节点的字段”选项卡中选择一个分区字段。

(如果仅有一个分区字段,则将在启用分区后自动引入此字段。

)同时请注意,要在分析时应用选定分区,同样必须启用节点模型选项”选项卡中的分区功

能。

(取消此选项,则可以在不更改字段设置的条件下禁用分区功能。

使用频数字段。

此选项允许选择某个字段作为频数权重。

如果训练数据中的每条记录代表多个单元(例如,正在使用聚合的数据),则可采用此项。

字段值应为代表每条记录的单元数。

使用加权字段。

此选项允许选择某个字段作为案例权重。

案例权重将作为对输岀字段各个水平上方差的差异的一种考量。

CHAID“模型”选项

-模型名称指定要产生模型的名称

-使用分区数据若用户定义了此选项,则模型会选择训练集作为建模数据集,并利用测试集对模型评价。

利用训练集建立模型,用测试集剪枝。

-方法该节点提供了CHAID和ExhaustiveCHAID两种方法,后者会花更多时间,但会得到更为可靠的结果ExhaustiveCHAID算法是CHAID的改进算法。

它的改进主要集中在如何避免自由度的影响上。

在选择最佳分组变量时采用了“将分组进行到底“的策略。

也就是说,仍然保留输入变量预处理的结果,并将各分组作为决策树的各分枝。

但在计算检验统计量的概率P值时,将继续合并输入变量的分组,直到最终形成两

个组或两个“超类”为止,进而确保所有输入变量的检验统计量的自由度都相同。

最后,再比较概率P值,

取概率P值最小的输入变量为当前最佳分组变量。

-模式

生成模型:

计算机直接给岀最终模型,自动建立和剪枝决策树。

启动交互回话:

可以逐层建立,修改和删除节点。

若同时勾选“使用树指令”,则可以指定任意层节点的分

割方式或字节点数,所做设定也可以保存,以供下次建树使用。

-最大树状图深度:

用户可以自定义CHAID树的最大层数,避免过度拟合问题。

(完整的决策树能够准确反映训练样本集中数据的特征,但可能因其失去一般代表性而无法用于对新数据的分类预测,这种现象称为“过度拟合”现象)

CHAID“专家”选项

-模式

该节点提供简单和专家模式-

Alpha用于合并:

指定合并的显著水平。

若要避免合并,该值应设为1。

该选项对于ExhaustiveCHAID无

效。

默认值为0.05,表示当P值>0.05时,认为输入变量目前的分组水平对输出变量取值没有显著影响,可以合并;否则不能合并。

(该值越大,合并的可能性越不容易,树就会越庞大)

-Alpha用于分割:

设定分割标准。

显著水平越低,则树的分叉越少。

默认值为0.05,表示当P值<0.05

时,认为输入变量目前的分组水平对输岀变量取值有显著影响,可以分割;否则不能分割。

-卡方用于类别目标:

当目标变量时分类变量时,CHAID模型可利用Pearson卡方值或者似然比方法来进

行分类。

但小样本下不应该使用Pearson卡方值,似然比更为通用和稳健。

似然比检验LRT:

LR=2*(lnL1-lnL2),似然函数|_()=L(xnX2,...,Xn;)=P(xi;)

-正在停止…:

节点终止选项。

这些选项控制树的构造,设置最小分支数目以避免分割岀过小的子群

-父分支(%)中的最小记录数:

表示当父节点中的样本百分比(占总样本量的百分比)低于指定值(默

认2%)时则不进行分组。

-子分支(%)中的最小记录数:

表示当分组后产生的子节点中的样本百分比低于指定值(默认1%)

时则不进行分组。

-Epsilon()用于收敛:

当卡方值大于Epsilon值时,需进一步迭代;否则停止迭代

-收敛的最大迭代次数:

指定收敛的最大迭代次数。

当实际迭代次数超过设定值时,终止计算。

-允许分割合并的类别:

选中表示,新近合并的组中如果包括三个以上的原始分组,允许将它再拆分成

两个组。

例如,可以将[1,2,3]组拆分成[1,2]和[3]或是[1],[2,3]。

-使用Bonferroni调整:

对策略变量组合进行分类时,根据检验次数调整显著水平,以获得较稳健的分类树

CHAID“成本”选项----误判成本值,调整误判(clementine决策树之调整误判成本来优化模型)

-在某些情况下,特定类型的错误比其他类错误所引起的损失更大。

成本选项卡允许指定不同类型预

测错误之间的相对重要性

-错误归类损失矩阵显示预测类和实际类每一种可能组合的损失。

所有错误归类都预设为1,要输入自定义

损失值,选择“使用误分类损失”,然后把自定义值输入到损失矩阵中。

模型执行结果

dEFALLwDI^"NiT^IS

目可壬ttu庄片lj_j^onusis自粒克別:

u」

节口

节点n

苛时I

节点

frmn

liF创

V

4Dan

J1SB

21IDD

15571

5r5U

293DD

•A.

r

24□□

12.00

5DHD

加DD

21MO

23j00

1J门

ion

21.74

m.o-i

5.00

sjee

c.w

q.do

Q.DO

o.w

4

jtno

2033

0Oi(J

iru

1fi22

血?

?

4

75AA

e.oo

10nn

37V

11seii

e

11_oo

1.QQ

2朋

93

B

i.ao

1,18

Hj.OO

Q.QD

a.QO

0.M

62-00

2957

o.aio

010

O.«l

D.DD

6

29.00

M12

1.00

5.00

3.45

14£6

|io

150D

la44

aon

0.00

□00

D»D

ID

4oa

4.71

1.00

S00

25QD

1DfiiJS

 

IHS

.厂

Tolsll

0.0

12

JiU

1o

12

53

「加

24

B1

es

节点:

节点编号,与决策树图形展示中的节点编号相对应。

这个是CLEMENTINE自动分配的,每次运行时

会不同。

节点:

n:

节点包含的样本个数。

例如:

7号测试节点,总个数为:

24.

节点(%):

节点包含的样本个数占总样本的百分比。

例如:

7号测试节点,2485=28.24%

收益:

n:

节点包含指定类别(这里为0类)样本的个数。

高收益的节点应包含尽可能多的指定类别的样本。

例如:

7号测试节点,“0“类个数为:

12

收益(%):

节点包含指定类别(这里为0类)的样本占相应类别总样本数的百分比。

同样,高收益的节点值应越高。

(匹配项)例如:

7号测试节点,12/20=60%.

响应(%):

节点包含指定类别(这里为0类)样本占本节点样本的比例。

例如:

7号测试节点,12/24=50%

指数(%):

节点包含指定类别(这里为0类)样本的比例(响应%)是所有同类别样本占总样本比例的百分比,这个值也称为提升度(lift)•或:

收益(%)是本节点样本占总样本比例的百分比。

例如:

7号测试节点,50%/(20/85)=212.50%

提升度是数据挖掘中最重要且应用最广的模型评价指标,其定义为

liftP(classt/sample)/P(classt/population)

其中,P(classt/sample)表示在模型所限定的特定样本空间输出变量值为t类的概率;

P(classt/population)表示在所有样本空间输出变量值为t类的概率。

可见,提升度本质是收益(%)

和响应(%)综合的反应。

该值越大说明模型对t类样本所应具备的特征和“捕捉”能力越强,模型的收益越好。

制作模型评价图

通常按提升度(指数)降序重新排列,然后按百分比点的样本所在节点的累计收益评价数据。

CMTFWLL^DIftSHOSIE00

节点

百〒帥

较弐n

1帕W

「呃亦宙

节点

驭益n1曲珂

磁w

T

IDDD

1BUD

1DCI口

2957

srsa

2g<9.DD

IDCD

9.DD

5.DD

22.5Q

5DOU

212.5D

30.DD

加.的

21.00

59.11

騎戲

2ML00

7

20.00

17.DO

3.00

50.00

21150

3000

5500

対刖

*r75

24B.2Q

30CO

5010

12CD

QOLOQ

4619

10H5

QO.OD

7700

3000

84J63

40-59

211.00

flOOO

14.00

1300

甘询

3030

167.05

A

別DO

S100

3300

3570

105.95

4

5000

阳too

伯DO

5ft7Q

156.34

4,B

GDDO

lorioa

J500

^4tl

3194

1BL.11

4

MOO

sion

1EI0D

^naa

躬油

1SU.UCI

S.&

7D0D

12700

3500

10OQ3

27.5Q

143.3r

70CO

他M

1900

QU8

30«

12945

6

ogon

143□□

16-CO

innaci

23

17JEEi

E

IBDDD

阴HD

igno

g?

7s

2T70

116951

E.10

9DJDD

164.00

300

1oo.ao

21.34.

11

6

BD.OD

J7JD

19.DD

04J1

刘50

104.11

10

101DO

1G200

3500

10000

19.23

100.00

6.10

IDO00

05<0

2000

ionoo

2353

100.0D

冃标变重;OVtRALL^DIAGNOSIS目臟另『口。

收堆〔旬蹟乘

日料字霞OVERALLDIA^NOSie日标奥刖0.0

Gains图

横坐标通常为分位点(按置信度降序),纵坐标是累计Gains,定义为:

分位累计命中率/总命

中率*100%

Gains图纵坐标取值围为0%~100%。

理想的Gains图应在前期快速达到较高的累计Gains,很

快趋于100%并平稳

目标变星:

OVERALLDIAGNOSIS目标类别:

U』

昌折罕叢:

OVERALL_D1A&MO9IS日加契审|:

"D

Lift图(提升度,该值越大说明模型的收益越好)

横坐标通常为分位点(按置信度降序),纵坐标是累计Lift,定义为:

(分位累计命中率/分

位样本数)/(总命中数/总样本数)

Lift图纵坐标一般从大于1开始逐渐减少至1

理想的Lift图应在较高的累计Lift上保持较长一段,然后迅速下降到1

目标空里:

OVERALL_DIAOhl03IS目标宾别:

0口

Response图

横坐标通常为分位点(按置信度降序),纵坐标是累计Response,定义为:

(分位累计命中

数/分位样本数)*100%

Response图与Lift图相似。

理想的Responset图应在较高的累计Response上保持较长一段,然后迅速下降

点击“风险”窗口得到错判矩阵

IL1&S

O.i3

1D

00

42

13

55

蘇谨

ID

31

1E1

212

0LDU

73

2嗣

本例决策树的错判率为

0.165,标准差为

0.023.可以看出,

实际正常结果判为异常的错误概

率占正常人群的23.64%(1355),实际异常结果判为正常的错误概率占异常人群的14.62%

(31/212)

模型预测及应用

若模型的错判概率在我们可以接受的围之,则我们可以应用决策树模型进行预测。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 求职职场 > 简历

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2