MSA计数型测量系统分析指导书资料.docx
《MSA计数型测量系统分析指导书资料.docx》由会员分享,可在线阅读,更多相关《MSA计数型测量系统分析指导书资料.docx(21页珍藏版)》请在冰点文库上搜索。
MSA计数型测量系统分析指导书资料
莱州市XX机械有限公司作业文件
文件编号:
JT/C-7.6J-004 版号:
A/0
(MSA)计数型测量系统
研究分析作业指导书
批准:
审核:
编制:
受控状态:
分发号:
2015年11月15日发布 2015年11月15日实施
计数型测量系统研究分析作业指导书JT/C-7.6J-004
1目的
为了配备并使用与要求的测量能力相一致的测量仪器,通过适当的统计技术,对计数型测量系统进行分析研究,使测量结果的不确定度已知,为准确评定产品提高质量保证。
2适用范围
适用于公司使用的计数型测量仪器的测量系统的分析研究。
3职责
3.1检验科负责确定过程所需要的计数型测量仪器,并定期校准和检定,对使用的测量系统进行研究分析,对存在的异常情况及时采取纠正预防措施。
3.2工会负责根据需要组织和安排计数型测量系统分析所需应用技术的培训。
3.3生产科配合对测量仪器进行测量系统分析。
4计数型测量系统简介
Ⅲ
Ⅰ
LSL
USL
Ⅰ
计数型测量系统是一种测量数值为一有限的分类数量的测量系统,它与能获得一连串数值结果的计量型测量系统截然不同。
通/止规(go/nogogage)是最常用的量具,它只有两种可能的结果;其它的计数型测量系统,
目标如目视标准,可能产生五到七个分类,如非常好、好、
一般、差、非常差。
所以,针对计量性测量系统所描述的分析方法不能用于评价这样的系统。
当使用任何测量系统进行决策时,都存在一定程度的风险。
这些方法不能量化测量系统变异性,只有当顾客同意的情况下才能使用。
选择和应用于这些技术应以基于一个良好的统计实践,了解影响产品和测量过程变差源,以及错误决定最终顾客的影响。
计数型测量系统的变差来源,应该通过利用了人为因素和人机工程学的研究结果使之最小化。
5研究分析方法
5.1某生产过程处于统计受控状态,其性能指数为Pp=PpK=0.5,这是不可
接受的。
由于过程正在生产不合格的产品,于是被要求采取遏制措施,以便从生产过程中挑出不可接受的产品。
见图1:
与测量系统有关的“灰色”区域
JT/C-7.6J-004
LSLUSL
0.400.500.60
图1过程范例
5.2具体的遏制行动是,过程小组采用了一个计数型量具,来对每一个零件与一个指定的限定值进行比较。
如果零件满足限定值就可接受该零件,不满足的零件则拒收(如通/止量具)。
许多这样的计数型量具基于一套基准零件来设定接收与拒收。
不象计量型量具,计数型量具不能显示一个零件有多好或多么坏,它只能指示该零件可接受或拒收(即2个分级。
通或不通)。
1)小组使用了一个%GRR为公差的25%的特定量具。
由于这还没有被小组文件化,于是需要对这测量系统进行研究。
小组已决定从过程中随机地选取50个零件,以获得涵盖了整个过程范围的零件。
2)使用三名评价人,每位评价人对每个零件评价三次。
3)设定1表示可接受的决定;0为不可接受的决定。
表1中所示的参考决定和计量参考值在一开始还没有确定。
表1还显示了“代码”列,还分别用“-”、“+”、“×”代表零件是否在第I区、II区、及III区。
见表1
JT/C-7.6J-004
表1-计数型研究数据表
零件
A-1
A-2
A-3
B-1
B-2
B-3
C-1
C-2
C-3
参考
参考值
代码
1
1
1
1
1
1
1
1
1
1
1
0.476901
+
2
1
1
1
1
1
1
1
1
1
1
0.509015
+
3
0
0
0
0
0
0
0
0
0
0
0.576459
-
4
0
0
0
0
0
0
0
0
0
0
0.566152
-
5
0
0
0
0
0
0
0
0
0
0
0.57036
-
6
1
1
0
1
1
0
1
0
0
1
0.544951
x
7
1
1
1
1
1
1
1
1
1
1
0.465454
x
8
1
1
1
1
1
1
1
1
1
1
0.502295
+
9
0
0
0
0
0
0
0
0
0
0
0.437817
-
10
1
1
1
1
1
1
1
1
1
1
0.515573
+
11
1
1
1
1
1
1
1
1
1
1
0.488905
+
12
0
0
0
0
0
0
0
0
0
0
0.559918
x
13
1
1
1
1
1
1
1
1
1
1
0.542704
+
14
1
1
0
1
1
1
1
0
0
1
0.454518
x
15
1
1
1
1
1
1
1
1
1
1
0.517377
+
16
1
1
1
1
1
1
1
1
1
1
0.531939
+
17
1
1
1
1
1
1
1
1
1
1
0.519694
+
18
1
1
1
1
1
1
1
1
1
1
0.484167
+
19
1
1
1
1
1
1
1
1
1
1
0.520496
+
20
1
1
1
1
1
1
1
1
1
1
0.477236
+
21
1
1
0
1
0
1
0
1
0
1
0.452310
x
22
0
0
1
0
1
0
1
0
1
0
0.545604
x
23
1
1
1
1
1
1
1
1
1
1
0.529065
+
24
1
1
1
1
1
1
1
1
1
1
0.514192
+
25
0
0
0
0
0
0
0
0
0
0
0.599581
-
26
0
1
0
0
0
0
0
0
1
0
0.547204
x
27
1
1
1
1
1
1
1
1
1
1
0.502436
+
28
1
1
1
1
1
1
1
1
1
1
0.521642
+
29
1
1
1
1
1
1
1
1
1
1
0.523754
+
30
0
0
0
0
0
1
0
0
0
0
0.561457
x
31
1
1
1
1
1
1
1
1
1
1
0.503091
+
32
1
1
1
1
1
1
1
1
1
1
0.505850
+
33
1
1
1
1
1
1
1
1
1
1
0.487613
+
34
0
0
1
0
0
1
0
1
1
0
0.449696
x
35
1
1
1
1
1
1
1
1
1
1
0.498698
+
36
1
1
0
1
1
1
1
0
1
1
0.543077
x
37
0
0
0
0
0
0
0
0
0
0
0.409238
-
38
1
1
1
1
1
1
1
1
1
1
0.488184
+
39
0
0
0
0
0
0
0
0
0
0
0.427687
-
40
1
1
1
1
1
1
1
1
1
1
0.501132
41
1
1
1
1
1
1
1
1
1
1
0.513779
42
0
0
0
0
0
0
0
0
0
0
0.566575
43
3
1
0
1
1
1
1
1
1
0
1
0.462410
x
44
1
1
1
1
1
1
1
1
1
1
0.470832
+
45
0
0
0
0
0
0
0
0
0
0
0.412453
-
46
1
1
1
1
1
1
1
1
1
1
0.493441
+
47
1
1
1
1
1
1
1
1
1
1
0.486379
+
48
0
0
0
0
0
0
0
0
0
0
0.587893
-
49
1
1
1
1
1
1
1
1
1
1
0.483803
+
50
0
0
0
0
0
0
0
0
0
0
0.446697
-
JT/C-7.6J-004
5.3假设试验分析-交叉表法范例
★由于小组不知道零件的参考判断值,他们开展了了交叉表格(cross-tabuiations)来比较每个评价人与其它人之间的结果。
A*B交叉表
B
总计
.00
1.00
A.00计算
期望的计算
1.00计算
期望的计算
44
15.7
6
34.3
50
50.0
3
31.3
97
68.7
100
100.0
总计计算
期望的计算
47
47.0
103
103.0
150
150.0
B*C交叉表
C
总计
.00
1.00
B.00计算
期望的计算
1.00计算
期望的计算
42
16.0
5
31.0
47
47.0
9
35.0
94
68.0
103
103.0
总计计算
期望的计算
51
51.0
99
99.0
150
150.0
A*C交叉表
C
总计
.00
1.00
A.00计算
期望的计算
1.00计算
期望的计算
43
17.0
7
33.0
50
50.0
8
34.0
92
66.0
100
100.0
总计计算
期望的计算
51
51.0
99
99.0
150
150.0
★这些表格的目的在与确定评价人之间一致性的程度。
为确定评价人一致性的程度,小组使用了(cohen科恩的)kappa,这是用来衡量两个评价人对同一物体进行评价时,其评定结论的一致性。
Kappa为1时,表示有完全的一致性。
为0时,表示一致性不比可能性来的好。
Kappa仅用于表格,表中两个变数有相同的分类值,且两个变数具有相同的分类数量。
★Kappa一种对评价人内部一致性的测量。
它测量在诊断区(获得相同评定的零件)中的数量与那些具与可能性期望的数量是否有差别。
JT/C-7.6J-004
设Po=对角栏框中,观测比例的总和
Pe=对角栏框中,期望部分的总和
则Kappa=(Po-Pe)/(1-Pe)
★Kappa是一种程度而不是检验。
通过使用一种渐进和标准误差以形成一个t统计值来判断其大小。
通用的比例法则是Kappa值大于0.75,则表示很好的一致性(最大的Kappa值=1);Kappa值小于0.4则表示一致性不好。
Kappa不考虑评价人间的不一致量有多大,只考虑他们之间是不是一致。
★通过以上对评价人计算了Kappa程度,小组得到以下结论:
Kappa
A
B
C
A
—
.86
.78
B
.86
—
.79
C
.78
.79
—
这分析表明所有评价人与其它评价人之间有良好的一致性。
这种分析用来确定评价人之间是否有差异的需求。
但不能告诉我们这测量系统从坏零件中挑出好零件的能力。
在本分析范例中,小组使用一计量型测量系统来评价零件,并应用其结果来确定其参考决定。
★使用新的信息建立了另一组交叉表,以便将每个评价人与参考决定进行比较。
A与基准判断交叉表
基准
总计
.00
1.00
A.00计算
期望的计算
1.00计算
期望的计算
45
16.0
5
34.0
50
50.0
3
32.0
97
68.0
100
100.0
总计计算
期望的计算
48
48.0
102
102.0
150
150.0
JT/C-7.6J-004
B与基准判断交叉表
基准
总计
.00
1.00
B.00计算
期望的计算
1.00计算
期望的计算
45
15.0
2
32.0
47
47.0
3
33.0
100
70.0
103
103.0
总计计算
期望的计算
48
48.0
102
101.0
150
150.0
C与基准判断交叉表
基准
总计
.00
1.00
A.00计算
期望的计算
1.00计算
期望的计算
42
16.3
9
34.7
51
51.0
6
31.7
93
67.3
99
99.0
总计计算
期望的计算
48
48.0
102
102.0
150
150.0
★小组也计算了Kappa值以确定每个评价人与参考决定之间的一致
性。
A
B
C
Kappa
.88
.92
.77
以上这些数据可被解释为每个评价人与标准之间有很好的一致性。
然后,过程小组计算了这测量系统的有效性。
有效性=作出正确判断的次数/总决定次数
JT/C-7.6J-004
来源
总受检数
符合的
错误的拒收(由于评价人偏移造成的拒收)
错误的接受(由于评价人偏移造成的接受)
不相配
95%上限
计算得分
95%下限
评价人%
评价人A评价人B评价人C
结果%与归因的比较
评价人A评价人B评价人C
50
50
50
50
50
50
42
45
40
42
45
40
0
0
0
0
0
0
8
5
10
93%
97%
90%
93%
97%
90%
84%
90%
80%
84%
90%
80%
71%
78%
66%
71%
78%
66%
检查总数
一致的结果
95%UCI
计算所得的结果
95%LCI
错误的拒收
错误的接受
系统有效结果%
系统有效结果%与参考的比较
50
50
39
39
89%
69%
78%
78%
64%
64%
注:
1)在所有的测量中,评价人本身是一致的。
2)评价人对所有测量与已知的标准一致。
3)所有评价人本身与其它人之间是一致的。
4)所有评价人本身与其它人之间一致,并与参考值一致。
5)UCL和LCI分别为置信区间边界的上限和下限。
★每对评价人间多次试验的的假设可用零假设来表示:
Ho:
两个评价人一致的有效性。
★经计算,由于每位评价人结果的计算值均落在其它人的置信度区间
内,小组决定不能拒绝零假设。
这结论进一步证实了Kappa测量得到的结论。
JT/C-7.6J-004
★为进一步分析,小组的一名成员得出下列数据表格,为每个评价人
的结果提供指南:
决定
测量系统
有效性
错误率
(漏发警报的比例)
错误警报率
(误发警报的比例)
评价人可接受
≥90%
≤2%
≤5%
评价人可接受的边缘
-可能需改进
≥80%
≤5%
≤10%
评价人不可接受
-需改进
<80%
>5%
>10%
对他们所已得到的所有信息进行汇总,小组得出以下结论:
有效性
错误率
(漏发警报的比例)
错误警报率
(误发警报的比例)
A
84%
6.3%
4.9%
B
90%
6.3%
2.0%
C
80%
12.5%
8.8%
这些结果显示,各个评价人对于该测量系统,在有效性、错误率与错误警报率上都有不同程度的结果;在所有三个项目中,没有一位评价者是以被接受的。
是否需要为这过程更改其接收标准?
这些风险可以被接受吗?
评价者是否要更好的培训?
测量的环境可不可以被改善?
重要的是:
顾客对着测量系统与其研究结果会有什么看法?
顾客原本预期的情况是什么?
顾客是否接受这些风险。
★关注点:
1)关于可接受的风险,并没有以理论为基础的决策准则。
以上指南是探索性的。
并且是基于怎样才是“接受”的个别“信念”下所发展的。
最终的决定准则应该取决于对后续过程和最终顾客的影响(如风险)。
这是一个客观事物的决定-而不是统计上的决定。
2)上述分析是以数据为依据的。
例如,如果过程能力指数为Pp=Ppk=1.00,那么所有的结论都可能是正确的,因为不会有零JT/C-7.6J-004
件落在测量系统的II区(“灰色”区域)中。
图3Pp=Ppk=1.00的过程范例
在这新情况下,可以得出这样的结论:
所有的评价人都是可被接受的,因为将不会有决定的误差。
★通常对于交叉的结果的实际意义有一误解。
以B的结果为例:
B参考交叉表
基准
总计
.00
1.00
B.00数量
在参考值内的%
1.00数量
在参考值内的%
45
93.8%
2
20.%
47
31.3%
3
6.3%.0
100
98.0%
103
68.7%
总计数量
在参考值内的%
48
100.0%
102
100.0%
150
100.0%
由于检验的目的在于找出所有的不合格零件,许多人视左上角处一个测量找到坏零件的有效性。
这个百分比表示将已经是坏的零件判定坏的零件的可能性:
Pr(称为坏零件一个坏零件)
假设过程已经被改进到Pp=Ppk=1.00,生产者关心的的概率是:
Pr(零件是坏的被称为怀的)
JT/C-7.6J-004
★从上面的数据中确定以上结果,必须应用贝叶斯Baye的理论。
Pr(判不合格\判不合格)*Pr(不合格)
Pr(判不合格\判不合格)+Pr(判不合格\判不合格)*Pr(不合格)
.938*(.0027)
.938*(.0027)+.020*(.9973)
Pr(不合格\判不合格)=
Pr(不合格\判不合格)=
Pr(不合格\判不合格)=.11
也就是说,以上这些结果指出,如果某零件被判定为坏的,实际上它只有十分之一的可能是坏的。
★这种分析不必使用计量型数据信息,即是参考决定值已被确定,且为可获得时,也不需要安排这些相关的资料。