大家好,又见面了,我是你们的朋友全栈君。
在一个试验中,有个处理平均数间比较时,其全部可能的相互比较对数有个,这种比较是复式比较,亦称多重比较(multiple comparisons)。
为什么要做多重比较呢?
方差分析后做多重比较有很多好处:
- 误差由多个处理内的变异合并估计,自由度增大了,因而比较的精确度也增大了。
- 检验显著,说明可以判定多个处理间存在显著的变异。因此方差分析后再做多重比较,称为Fisher氏保护性多重比较(Fisher’s protected multiple comparisons)。
- 如果有多个比较,不做F检验的情况下,很有可能有更多的比较是显著的;做了F检验以后,显著的平均数比较会相应减少。
- 显然,在无检验保护时,设有4个处理(),需要做6个比较,若各个处理间总体上并无差异,每一比较误判为有差异的概率为0.05,则6个比较中至少有1个被误判的概率为 。
多重比较有多重方法,本次依次介绍LSD法、Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法等。
LSD法
LSD法全称least significance difference,即最小显著差异法。由Fisher最先提出,本质上是一种t检验。通常用于1对或者几对专业上有特殊意义的样本均数间的比较。
为了更好的理解LSD法的计算原理,我们首先回顾两独立样本检验的:
其中 是两个样本的联合估计的方差(满足样本方差齐的前提下),本质就是组内误差的均方,该统计量服从自由度为的分布。
与上述类似,LSD法也进行的是两两比较的t检验。所不同的是,在满足方差齐性的前提下,LSD法采用所有样本的联合方差来估计均数差的标准误,而不是要比较的两个样本的联合方差。以三样本之间均数差异比较为例,其公式为
LSD法往往计算最小显著差异,即
当两组均数差大于LSD时,说明差异达到显著的水平,也就可以拒绝零假设,认为两组均数不相等。需要注意的是,LSD法单次比较的检验水准仍然为。LSD法检验的灵敏度最高,但是会因为对比的频数增加使得第一类型错误概率增加。为解决该问题,便出现了Sidak法和Bonferroni法。
Sidak法
Sidak法的也是一种t检验,计算公式和LSD法的相同。但是Sidak法对进行了调整。其调整方法如下:如果有组,对组进行两两比较的次数为
那么做完c次比较,累积犯一类错误的概率为:
令上面的公式值等于0.05,由此可以反推出调整后的 。例如进行6次事后比较,则Sidak法的=0.0085,以 作为单次比较的显著性水平,显然 变小了。由于 减小,结论趋于接受无效假设,因此该方法要比LSD法保守的多。
Bonferroni法
Bonferroni法与Sidak法类似,同样是在LSD法的基础上对进行了调整。其调整方法基于Bonferroni不等式。若有组,其计算公式为
一般认为Bonferroni法是最为保守的,仍然以上面例子来说明。若进行6次比较,则Bonferroni法的调整=0.0083,比上面的sidak法还要小。事实上,当比较的次数不多时,该方法效果比较好,当比较次数较多时(如>10),该方法对 的调整有些矫枉过正,效果不如Sidak法。
Dunnett法
Dunnett法检验统计量为 ,故又称为Dunnett-t检验,实际上该方法的计算与LSD法相同,但是LSD法临界值表基于分布,而该方法有特殊的临界值表 ,通常用于多个实验组和一个对照组均数的比较。
Tukey法
在介绍Tukey方法前,首先了解学生化极差分布。
在概率论和统计学中,学生化极差分布是极差的抽样分布。该分布是一种连续型概率分布,用于在样本量较小且总体标准差未知的情况下估计正态分布总体的极差。
假设要比较的组数为,那么在零假设成立的条件下,下面的随机变量服从学生化极差分布。
公式中分子分别是最大和最小样本的均值, 是所有样本的联合方差 ,为每个样本的样本含量。该统计量有两个自由度,分别为和。
Turkey的HSD (Honestly significant difference)是基于学生化极差的成对比较。其思想和LSD方法类似,通过计算HSD统计量,如果两组均数的差异大于该极差,认为差异是显著的,因此拒绝零假设,认为两组均数不同。计算临界HSD的公式为
为组数,为联合方差的自由度,即,为每个样本的样本含量。从HSD公式上看,Tukey法较LSD法保守,即较LSD不易发现显著差异。Tukey法要求比较的样本容量相差不大,一般用于样本容量相同的组之间均数的比较。
SNK 法
SNK法全称Newman–Keuls 或者 Student–Newman–Keuls,属于复极差法(multiple range test),也称为q检验。该方法是对Tukey法的修正,也用的是学生化极差统计量。但是与Tukey法所不同的是,该方法在计算临界值时考虑了两样本均数排序的步长。因而不同步长的两个样本均数的比较使用不同的q临界值。
例如比较三个样本均数,样本均数从小到大排列后,如果比较最大均数和最小均数的差异,两者的步长为3(此时计算的临界值等于HSD),若比较最小均数和第二个均数,步长为2。根据步长和自由度查q临界值表,计算相应的q临界值,即最小显著极差,进而判断均数差异的显著性。
或
为组间步长,其他字母含义同Tukey法。可以发现Tukey法不管要比较的均数相差几步都使用相同(且为最大)的临界值,而SNK法则考虑了步长,并且随着步长的减小, 也在减小,因而SNK法较Tukey法灵敏(更容易发现显著差异)。另外,对所有>2,均有 ,因而SNK法又不及LSD法灵敏。
Duncan法
SNK法不同步长下的最小显著极差变幅大,虽然减小了犯Ⅰ类错误的概率,但是同时增加了犯Ⅱ类错误的概率。
Duncan法的全称为Duncan’s new multiple range test (MRT),也称为新复极差法。该方法是对SNK法的修正,但是提高了一类错误概率,降低了二类错误的概率,通常用于农业研究。该方法与SNK法相似,区别在于计算最小显著极差时,不是查q表,而是查SSR表,所得最小显著极差值随着k增大通常比SNK检验的小。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/130234.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...