SPSS因子分析法例子解释.doc

上传人:wj 文档编号:1223552 上传时间:2023-04-30 格式:DOC 页数:18 大小:450.50KB
下载 相关 举报
SPSS因子分析法例子解释.doc_第1页
第1页 / 共18页
SPSS因子分析法例子解释.doc_第2页
第2页 / 共18页
SPSS因子分析法例子解释.doc_第3页
第3页 / 共18页
SPSS因子分析法例子解释.doc_第4页
第4页 / 共18页
SPSS因子分析法例子解释.doc_第5页
第5页 / 共18页
SPSS因子分析法例子解释.doc_第6页
第6页 / 共18页
SPSS因子分析法例子解释.doc_第7页
第7页 / 共18页
SPSS因子分析法例子解释.doc_第8页
第8页 / 共18页
SPSS因子分析法例子解释.doc_第9页
第9页 / 共18页
SPSS因子分析法例子解释.doc_第10页
第10页 / 共18页
SPSS因子分析法例子解释.doc_第11页
第11页 / 共18页
SPSS因子分析法例子解释.doc_第12页
第12页 / 共18页
SPSS因子分析法例子解释.doc_第13页
第13页 / 共18页
SPSS因子分析法例子解释.doc_第14页
第14页 / 共18页
SPSS因子分析法例子解释.doc_第15页
第15页 / 共18页
SPSS因子分析法例子解释.doc_第16页
第16页 / 共18页
SPSS因子分析法例子解释.doc_第17页
第17页 / 共18页
SPSS因子分析法例子解释.doc_第18页
第18页 / 共18页
亲,该文档总共18页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

SPSS因子分析法例子解释.doc

《SPSS因子分析法例子解释.doc》由会员分享,可在线阅读,更多相关《SPSS因子分析法例子解释.doc(18页珍藏版)》请在冰点文库上搜索。

SPSS因子分析法例子解释.doc

因子分析的基本概念和步骤

一、因子分析的意义

在研究实际问题时往往希望尽可能多地收集相关变量,以期望能对问题有比较全面、完整的把握和认识。

例如,对高等学校科研状况的评价研究,可能会搜集诸如投入科研活动的人数、立项课题数、项目经费、经费支出、结项课题数、发表论文数、发表专著数、获得奖励数等多项指标;再例如,学生综合评价研究中,可能会搜集诸如基础课成绩、专业基础课成绩、专业课成绩、体育等各类课程的成绩以及累计获得各项奖学金的次数等。

虽然收集这些数据需要投入许多精力,虽然它们能够较为全面精确地描述事物,但在实际数据建模时,这些变量未必能真正发挥预期的作用,“投入”和“产出”并非呈合理的正比,反而会给统计分析带来很多问题,可以表现在:

±计算量的问题

由于收集的变量较多,如果这些变量都参与数据建模,无疑会增加分析过程中的计算工作量。

虽然,现在的计算技术已得到了迅猛发展,但高维变量和海量数据仍是不容忽视的。

±变量间的相关性问题

收集到的诸多变量之间通常都会存在或多或少的相关性。

例如,高校科研状况评价中的立项课题数与项目经费、经费支出等之间会存在较高的相关性;学生综合评价研究中的专业基础课成绩与专业课成绩、获奖学金次数等之间也会存在较高的相关性。

而变量之间信息的高度重叠和高度相关会给统计方法的应用带来许多障碍。

例如,多元线性回归分析中,如果众多解释变量之间存在较强的相关性,即存在高度的多重共线性,那么会给回归方程的参数估计带来许多麻烦,致使回归方程参数不准确甚至模型不可用等。

类似的问题还有很多。

为了解决这些问题,最简单和最直接的解决方案是削减变量的个数,但这必然又会导致信息丢失和信息不完整等问题的产生。

为此,人们希望探索一种更为有效的解决方法,它既能大大减少参与数据建模的变量个数,同时也不会造成信息的大量丢失。

因子分析正式这样一种能够有效降低变量维数,并已得到广泛应用的分析方法。

因子分析的概念起源于20世纪初KarlPearson和CharlesSpearmen等人关于智力测验的统计分析。

目前,因子分析已成功应用于心理学、医学、气象、地址、经济学等领域,并因此促进了理论的不断丰富和完善。

因子分析以最少的信息丢失为前提,将众多的原有变量综合成较少几个综合指标,名为因子。

通常,因子有以下几个特点:

ê因子个数远远少于原有变量的个数

原有变量综合成少数几个因子之后,因子将可以替代原有变量参与数据建模,这将大大减少分析过程中的计算工作量。

ê因子能够反映原有变量的绝大部分信息

因子并不是原有变量的简单取舍,而是原有变量重组后的结果,因此不会造成原有变量信息的大量丢失,并能够代表原有变量的绝大部分信息。

ê因子之间的线性关系并不显著

由原有变量重组出来的因子之间的线性关系较弱,因子参与数据建模能够有效地解决变量多重共线性等给分析应用带来的诸多问题。

ê因子具有命名解释性

通常,因子分析产生的因子能够通过各种方式最终获得命名解释性。

因子的命名解释性有助于对因子分析结果的解释评价,对因子的进一步应用有重要意义。

例如,对高校科研情况的因子分析中,如果能够得到两个因子,其中一个因子是对科研人力投入、经费投入、立项项目数等变量的综合,而另一个是对结项项目数、发表论文数、获奖成果数等变量的综合,那么,该因子分析就是较为理想的。

因为这两个因子均有命名可解释性,其中一个反映了科研投入方面的情况,可命名为科研投入因子,另一个反映了科研产出方面的情况,可命名为科研产出因子。

总之,因子分析是研究如何以最少的信息丢失将众多原有变量浓缩成少数几个因子,如何使因子具有一定的命名解释性的多元统计分析方法。

二、因子分析的基本概念

1、因子分析模型

因子分析模型中,假定每个原始变量由两部分组成:

共同因子(commonfactors)和唯一因子(uniquefactors)。

共同因子是各个原始变量所共有的因子,解释变量之间的相关关系。

唯一因子顾名思义是每个原始变量所特有的因子,表示该变量不能被共同因子解释的部分。

原始变量与因子分析时抽出的共同因子的相关关系用因子负荷(factorloadings)表示。

因子分析最常用的理论模式如下:

(j=1,2,3…,n,n为原始变量总数)

可以用矩阵的形式表示为。

其中F称为因子,由于它们出现在每个原始变量的线性表达式中(原始变量可以用表示,这里模型中实际上是以F线性表示各个原始变量的标准化分数),因此又称为公共因子。

因子可理解为高维空间中互相垂直的m个坐标轴,A称为因子载荷矩阵,称为因子载荷,是第j个原始变量在第i个因子上的负荷。

如果把变量看成m维因子空间中的一个向量,则表示在坐标轴上的投影,相当于多元线性回归模型中的标准化回归系数;U称为特殊因子,表示了原有变量不能被因子解释的部分,其均值为0,相当于多元线性回归模型中的残差。

其中,

(1)为第j个变量的标准化分数;

(2)(i=1,2,…,m)为共同因素;

(3)m为所有变量共同因素的数目;

(4)为变量的唯一因素;

(5)为因素负荷量。

2、因子分析数学模型中的几个相关概念

ê因子载荷(因素负荷量factorloadings)

所谓的因子载荷就是因素结构中,原始变量与因素分析时抽取出共同因素的相关。

可以证明,在因子不相关的前提下,因子载荷是变量和因子的相关系数,反映了变量与因子的相关程度。

因子载荷值小于等于1,绝对值越接近1,表明因子与变量的相关性越强。

同时,因子载荷也反映了因子对解释变量的重要作用和程度。

因子载荷作为因子分析模型中的重要统计量,表明了原始变量和共同因子之间的相关关系。

因素分析的理想情况,在于个别因素负荷量不是很大就是很小,这样每个变量才能与较少的共同因素产生密切关联,如果想要以最少的共同因素数来解释变量间的关系程度,则彼此间或与共同因素间就不能有关联存在。

一般说来,负荷量为0.3或更大被认为有意义。

所以,当要判断一个因子的意义时,需要查看哪些变量的负荷达到了0.3或0.3以上。

ê变量共同度(共同性,Communality)

变量共同度也就是变量方差,就是指每个原始变量在每个共同因子的负荷量的平方和,也就是指原始变量方差中由共同因子所决定的比率。

变量的方差由共同因子和唯一因子组成。

共同性表明了原始变量方差中能被共同因子解释的部分,共同性越大,变量能被因子说明的程度越高,即因子可解释该变量的方差越多。

共同性的意义在于说明如果用共同因子替代原始变量后,原始变量的信息被保留的程度。

因子分析通过简化相关矩阵,提取可解释相关的少数因子。

一个因子解释的是相关矩阵中的方差,而解释方差的大小称为因子的特征值。

一个因子的特征值等于所有变量在该因子上的负荷值的平方总和。

变量的共同度的数学定义为:

,该式表明变量的共同度是因子载荷矩阵A中第j行元素的平方和。

由于变量的方差可以表示成,因此变量的方差可由两个部分解释:

第一部分为共同度,是全部因子对变量方差解释说明的比例,体现了因子全体对变量的解释贡献程度。

变量共同度越接近1,说明因子全体解释说明了变量的较大部分方差,如果用因子全体刻画变量,则变量的信息丢失较少;第二部分为特殊因子U的平方,反应了变量方差中不能由因子全体解释说明的比例,越小则说明变量的信息丢失越少。

总之,变量d共同度刻画了因子全体对变量信息解释的程度,是评价变量信息丢失程度的重要指标。

如果大多数原有变量的变量共同度均较高(如高于0.8),则说明提取的因子能够反映原有变量的大部分信息(80%以上)信息,仅有较少的信息丢失,因子分析的效果较好。

因子,变量共同度是衡量因子分析效果的重要依据。

ê因子的方差贡献(特征值eigenvalue)

因子的方差贡献(特征值)的数学定义为:

,该式表明,因子的方差贡献是因子载荷矩阵A中第i列元素的平方和。

因子的方差贡献反映了因子对原有变量总方差的解释能力。

该值越高,说明相应因子的重要性越高。

因此,因子的方差贡献和方差贡献率是衡量因子重要性的关键指标。

为了便于说明,以三个变量抽取两个共同因素为例,三个变量的线性组合分别为:

转换成因素矩阵如下:

变量

(共同因素一)

(共同因素二)

共同性

()

唯一因素

()

特征值

解释量

所谓共同性,就是每个变量在每个共同因素之负荷量的平方总和(一横列中所有因素负荷量的平方和),也就是个别变量可以被共同因素解释的变异量百分比,这个值是个别变量与共同因素间多元相关的平方。

从共同性的大小可以判断这个原始变量与共同因素之间关系程度。

而各变量的唯一因素大小就是1减掉该变量共同性的值。

(在主成分分析中,有多少个原始变量便有多少个“component”成分,所以共同性会等于1,没有唯一因素)。

至于特征值是每个变量在某一共同因素之因素负荷量的平方总和(一直行所有因素负荷量的平方和)。

在因素分析之共同因素抽取中,特征值大的共同因素会最先被抽取,其次是次大者,最后抽取的共同因素之特征值最小,通常会接近0(在主成分分析中,有几个题项,便有几个成分,因而特征值的总和刚好等于变量的总数)。

将每个共同因素的特征值除以总题数,为此共同因素可以解释的变异量,因素分析的目的,即在因素结构的简单化,希望以最少的共同因素,能对总变异量作最大的解释,因而抽取的因素越少越好,但抽取因素之累积解释的变异量则越大越好。

3、社会科学中因素分析通常应用在三个层面:

(1)显示变量间因素分析的组型(pattern)

(2)侦测变量间之群组(clusters),每个群组所包括的变量彼此相关很高,同构型较大,亦即将关系密切的个别变量合并为一个子群。

(3)减少大量变量数目,使之称为一组涵括变量较少的统计自变量(称为因素),每个因素与原始变量间有某种线性关系存在,而以少数因素层面来代表多数、个别、独立的变量。

因素分析具有简化数据变量的功能,以较少层面来表示原来的数据结构,它根据变量间彼此的相关,找出变量间潜在的关系结构,变量间简单的结构关系称为“成份”(components)或“因素”(factors).

三、因素分析的主要方式

围绕浓缩原有变量提取因子的核心目标,因子分析主要涉及以下五大基本步骤:

1、因子分析的前提条件

由于因子分析的主要任务之一是对原有变量进行浓缩,即将原有变量中的信息重叠部分提取和综合成因子,进而最终实现减少变量个数的目的。

因此它要求原有变量之间应存在较强的相关关系。

否则,如果原有变量相互独立,相关程度很低,不存在信息重叠,它们不可能有共同因子,那么也就无法将其综合和浓缩,也就无需进行因子分析。

本步骤正是希望通过各种方法分析原有变量是否存在相关关系,是否适合进行因子分析。

SPSS提供了四个统计量可帮助判断观测数据是否适合作因子分析:

(1)计算相关系数矩阵CorrelationMatrix

在进行提取因子等分析步骤之前,应对相关矩阵进行检验,如果相关矩阵中的大部分相关系数小于0.3,则不适合作因子分析;当原始变量个数较多时,所输出的相关系数矩阵特别大,观察起来不是很方便,所以一般不会采用此方法或即使采用了此方法,也不方便在结果汇报中给出原始分析报表。

(2)计算反映象相关矩阵Anti-imagecorrelationmatrix

反映象矩阵重要包括负的协方差和负的偏相关系数。

偏相关系数是在控制了其他变量对两变量影响的条件下计算出来的净相关系数。

如果原有变量之间确实存在较强的相互重叠以及传递影响,也就是说,如果原有变量中确实能够提取出公共因子,那么在控制了这些影响后的偏相关系数必然很小。

反映象相关矩阵的对角线上的元素为某变量的MSA(MeasureofSampleAdequacy)统计量,其数学定义为:

,其中,是变量和其他变量()间的简单相关系数,是变量()在控制了剩余变量下的偏相关系数。

由公式可知,某变量的统计量的取值在0和1之间。

当它与其他所有变量间的简单相关系数平方和远大于偏相关系数的平方和时,值接近1。

值越接近1,意味变量与其他变量间的相关性越强;当它与其他所有变量间的简单相关系数平方和接近0时,值接近0。

值越接近0,意味变量与其他变量间的相关性越弱。

观察反映象相关矩阵,如果反映象相关矩阵中除主对角元素外,其他大多数元素的绝对值均小,对角线上元素的值越接近1,则说明这些变量的相关性较强,适合进行因子分析。

(1)中最后所述理由相同,一般少采用此方法。

(3)巴特利特球度检验Bartletttestofsphericity

Bartlett球体检验的目的是检验相关矩阵是否是单位矩阵(identitymatrix),如果是单位矩阵,则认为因子模型不合适。

Bartlett球体检验的虚无假设为相关矩阵是单位阵,如果不能拒绝该假设的话,就表明数据不适合用于因子分析。

一般说来,显著水平值越小(<0.05)表明原始变量之间越可能存在有意义的关系,如果显著性水平很大(如0.10以上)可能表明数据不适宜于因子分析。

(4)KMO(Kaiser-Meyer-OklinMeasureofSmaplingAdequacy)

KMO是Kaiser-Meyer-Olkin的取样适当性量数。

KMO测度的值越高(接近1.0时),表明变量间的共同因子越多,研究数据适合用因子分析。

通常按以下标准解释该指标值的大小:

KMO值达到0.9以上为非常好,0.8~0.9为好,0.7~0.8为一般,0.6~0.7为差,0.5~0.6为很差。

如果KMO测度的值低于0.5时,表明样本偏小,需要扩大样本。

综上所述,经常采用的方法为巴特利特球度检验Bartletttestofsphericity和KMO(Kaiser-Meyer-OklinMeasureofSmaplingAdequacy)。

2、抽取共同因子,确定因子的数目和求因子解的方法

将原有变量综合成少数几个因子是因子分析的核心内容。

本步骤正是研究如何在样本数据的基础上提取和综合因子。

决定因素抽取的方法,有“主成份分析法”(principalcomponentsanalysis)、主轴法、一般化最小平方法、未加权最小平方法、最大概似法、Alpha因素抽取法与映象因素抽取法等。

使用者最常使用的是主成份分析法与主轴法,其中,又以主成份分析法使用最为普遍,在SPSS使用手册中,也建议研究者多采用主成份分析法来估计因素负荷量(SPSSInc,1998)。

所谓主成份分析法,就是以较少的成份解释原始变量方差的较大部分。

进行主成份分析时,先要将每个变量的数值转换成标准值。

主成份分析就是用多个变量组成一个多维空间,然后在空间内投射直线以解释最大的方差,所得的直线就是共同因子,该直线最能代表各个变量的性质,而在此直线上的数值所构成的一个变量就是第一个共同因子,或称第一因子()。

但是在空间内还有剩余的方差,所以需要投射第二条直线来解释方差。

这时,还要依据第二条准则,即投射的第二条直线与第一条直线成直交关系(即不相关),意为代表不同的方面。

第二条直线上的数值所构成的一个变量,称为第二因子()。

依据该原理可以求出第三、第四或更多的因子。

原则上,因子的数目与原始变量的数目相同,但抽取了主要的因子之后,如果剩余的方差很小,就可以放弃其余的因子,以达到简化数据的目的。

因子数目的确定没有精确的定量方法,但常用的方法是借助两个准则来确定因子的个数。

一是特征值(eigenvalue)准则,二是碎石图检验(screetest)准则。

特征值准则就是选取特征值大于或等于1的主成份作为初始因子,而放弃特征值小于1的主成份。

因为每个变量的方差为1,该准则认为每个保留下来的因子至少应该能解释一个变量的方差,否则达不到精简数据的目的。

碎石检验准则是根据因子被提取的顺序绘出特征值随因子个数变化的散点图,根据图的形状来判断因子的个数。

散点曲线的特点是由高到低,先陡后平,最后几乎成一条直线。

曲线开始变平的前一个点被认为是提取的最大因子数。

后面的散点类似于山脚下的碎石,可舍弃而不会丢失很多信息。

3、使因子更具有命名可解释性

通常最初因素抽取后,对因素无法作有效的解释。

这时往往需要进行因子旋转(rotation),通过坐标变换使因子解的意义更容易解释。

转轴的目的在于改变题项在各因素负荷量的大小,转轴时根据题项与因素结构关系的密切程度,调整各因素负荷量的大小,转轴后,使得变量在每个因素的负荷量不是变大(接近1)就是变得更小(接近0),而非转轴前在每个因素的负荷量大小均差不多,这就使对共同因子的命名和解释变量变得更容易。

转轴后,每个共同因素的特征值会改变,但每个变量的共同性不会改变。

常用的转轴方法,有最大变异法(Varimax)、四次方最大值法(Quartimax)、相等最大值法(Equamax)、直接斜交转轴法(DirectOblimin)、Promax转轴法,其中前三者属于“直交转轴法”(orthogonalrotations),在直交转轴法中,因素(成份)与因素(成份)间没有相关,亦即其相关为0,因素轴间夹角为90°;而后二者(直接斜交转轴、Promax转轴法)属“斜交转轴”(obliquerotations),采用斜交转轴法,表示因素与因素间彼此有某种程度的相关,亦即因素轴间的夹角不是90°。

直交转轴法的优点是因素间提供的信息不会重叠,观察体在某一个因素的分数与在其它因素的分数,彼此独立不相关;而其缺点是研究者迫使因素间不相关,但在实际情境中,它们彼此有相关的可能性很高。

因而直交转轴方法偏向较多人为操控方式,不需要正确响应现实世界中自然发生的事件(Bryman&Cramer,1997)。

所谓直交旋转法(orthogonalrotations),就是要求各个因子在旋转时都要保持直角关系,即不相关。

在直交旋转时,每个变量的共同性(commonality)是不变的。

不同的直交旋转方法有不同的作用。

在直交旋转法中,常用于社会科学研究的方式是Varimax旋转法。

该方法是在旋转时尽量弄清楚在每一个因子上各个变量的因子负荷情况,也即让因子矩阵中每一列的的值尽可能变成1或0,该旋转法的作用是突出每个因子的性质,可以更清楚哪些变量是属于它的。

由此可见,Varimax旋转法可以帮助找出多个因子,以澄清概念的内容。

Quartimax旋转法可以则可以尽量弄清楚每个变量在各个因子上的负荷情况,即让每个变量在某个因子上的负荷尽可能等于1,而在其它因子上则尽可能等于0。

该方法可以增强第一因子的解释力,而使其它因子的效力减弱。

可见Quartimax旋转法适合于找出一个最强效力的因子。

Equamax旋转法则是一种折中的做法,即尽可能简化因子,也可弄清楚负荷情况。

其缺点是可能两方面都未照顾好。

斜交旋转(obliquerotarion)方法是要求在旋转时各个因子之间呈斜交的关系,表示允许该因子与因子之间有某种程度上的相关。

斜交旋转中,因子之间的夹可以是任意的,所以用斜交因子描述变量可以使因子结构更为简洁。

选择直接斜交旋转时,必须指定Delta值。

该值的取值范围在0~-1之间,0值产生最高相关因子,大的负数产生旋转的结果与直交接近。

Promax斜交旋转方法也允许因子彼此相关,它比直接斜交旋转更快,因此适用于大数据集的因子分析。

综上所述,不同的因子旋转方式各有其特点。

因此,究竟选择何种方式进行因子旋转取决于研究问题的需要。

如果因子分析的目的只是进行数据简化,而因子的确切含义是什么并不重要,就应该选择直交旋转。

如果因子分析的目的是要得到理论上有意义的因子,应该选择斜交因子。

事实上,研究中很少有完全不相关的变量,所以,从理论上看斜交旋转优于直交旋转。

但是斜交旋转中因子之间的斜交程度受研究者定义的参数的影响,而且斜交选装中所允许的因子之间的相关程度是很小的,因为没有人会接受两个高度相关的共同因子。

如果两个因子确实高度相关,大多数研究者会选取更少的因子重新进行分析。

因此,斜交旋转的优越性大打折扣。

在实际研究中,直交旋转(尤其是Varimax旋转法)得到更广泛的运用。

4、决定因素与命名

转轴后,要决定因素数目,选取较少因素层面,获得较大的解释量。

在因素命名与结果解释上,必要时可将因素计算后之分数存储,作为其它程序分析之输入变量。

5、计算各样本的因子得分

因子分析的最终目标是减少变量个数,以便在进一步的分析中用较少的因子代替原有变量参与数据建模。

本步骤正是通过各种方法计算各样本在各因子上的得分,为进一步的分析奠定基础。

此外,在因素分析中,研究者还应当考虑以下几个方面(Bryman&Cramer,1997):

(1)可从相关矩阵中筛选题项

题项间如果没有显著的相关,或相关太小,则题项间抽取的因素与研究者初始构建的层面可能差距很大。

相对的题项间如果有极其显著的正/负相关,则因素分析较易构建成有意义的内容。

因素分析前,研究者可从题项间相关矩阵分布情形,简扼看出哪些题项间有密切关系。

(2)样本大小

因素分析的可靠性除与预试样本的抽样有关外,预样本数的多少更有密切关系。

进行因素分析时,预试样本应该多少才能使结果最为可靠,学者间没有一致的结论,然而多数学者均赞同“因素分析要有可靠的结果,受试样本数要比量表题项数还多”,如果一个分量表有40个预试题项,则因素分析时,样本数不得少于40。

此外,在进行因素分析时,学者Gorshch(1983)的观点可作为参考:

①题项与受试者的比例最好为1:

5;

②受试总样本总数不得少于100人。

如果研究主要目的在找出变量群中涵括何种因素,样本数要尽量大,才能确保因素分析结果的可靠性。

(3)因素数目的挑选

进行因素分析,因素数目考虑与挑选标准,常用的准则有两种:

一是学者Kaiser所提的准则标准:

选取特征值大于1的因素,Kaiser准则判断应用时,因素分析的题项数最好不要超过30题,题项平均共同性最好在0.70以上,如果受试样本数大于250位,则平均共同性应在0.60以上(Stevens,1992),如果题项数在50题以上,有可能抽取过多的共同因素(此时研究者可以限定因素抽取的数目);二为CATTELL(1996)所倡导的特征值图形的陡坡检验(screetest),此图根据最初抽取因素所能解释的变异量高低绘制而成。

“陡坡石”(scree)原是地质学上的名词,代表在岩石斜坡底层发现的小碎石,这些碎石价值性不高。

应用于统计学之因素分析中,表示陡坡图底端的因素不具重要性,可以舍弃不用。

因而从陡坡图的情形,也可作为挑选因素分析数目的标准。

在多数的因素分析中,根据Kaiser选取的标准,通常会抽取过多的共同因素,因而陡坡图是一个重要的选取准则。

在因素数目准则挑选上,除参考以上两大主要判断标准外,还要考虑到受试者多少、题项数、变量共同性的大小等。

四、因素分析的操作说明

Statistics/DataReduction/Factor…

(统计分析/数据缩减/因子…)

出现“FactorAnalysis”(因子分析)对话框,将左边框中鉴别度达显著性的a1~a22选如右边“Variables”(变量)下的空框中。

其中五个按钮内的图标意义如下:

òDescriptives(描述性统计量)按钮,会出现“FactorAnalysis:

Descriptives”(因子分析:

描述性统计量)对话窗口

1.“Statistics”(统计量)选项框

(1)“£Univariatedescriptives”(单变量描述性统计量):

显示每一题项的平均数、标准差。

(2)“£Initialsolution”(未转轴之统计量):

显示因素分析未转轴前之共同性(communality)、特征值(eigenvalues)、变异数百分比及累积百分比。

2.“CorrelationMatric”(相关矩阵)选项框

(1)“£Coefficients”(系数):

显示题项的相关矩阵;

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2