均值多重比较的校正 - Python 中的 Tukey HSD

gio*_*o-p 3 python posthoc python-3.x statsmodels tukey

我有一个包含 4 个条件(A、B、C、D)的日期集。我在运行单向方差分析时观察到,在 4 个条件下,我的因变量(反应时间,RT)呈线性增加。

我想运行事后测试,看看 RT 从 A 到 B、从 B 到 C、从 C 到 D 的增加对于 Tukey HSD 事后测试是否显着。

为了在 Python 中运行测试,我使用以下代码:

#Multiple Comparison of Means - Tukey HSD
from statsmodels.stats.multicomp import pairwise_tukeyhsd
print(pairwise_tukeyhsd(df["RT"], df['Cond']))
Run Code Online (Sandbox Code Playgroud)

我面临的问题是,这里假设我对所有可能的比较感兴趣(A vs B、A vs C、A vs D、B vs C、B vs D、C vs D)。因此,所应用的校正是基于 6 次测试。然而,我只是对 3 个比较(A 与 B、B 与 C、C 与 D)进行假设。

我如何告知事后测试我感兴趣的比较的数量/类型?

Stu*_*olf 7

不幸的是你不能。Tukey HSD 与对原始 p 值进行多重比较调整的成对 t 检验不同。您看到的 p 值基于学生化极差 (q) 分布

实现此目的的一种方法是拟合线性模型,就像方差分析一样,对系数进行成对 t 检验,并对所需的系数进行子集。

为了说明这一点,我使用了一些模拟数据,这就是 TukeyHSD 的样子:

import pandas as pd
import numpy as np
from statsmodels.formula.api import ols
from statsmodels.stats.multicomp import pairwise_tukeyhsd
from statsmodels.stats.multitest import multipletests

np.random.seed(123)

df = pd.DataFrame({'RT':np.random.randn(100),'Cond':np.random.choice(['A','B','C','D'],100)})

hs_res=pairwise_tukeyhsd(df["RT"], df['Cond'])
print(hs_res)

Multiple Comparison of Means - Tukey HSD, FWER=0.05
===================================================
group1 group2 meandiff p-adj   lower  upper  reject
---------------------------------------------------
     A      B  -0.6598 0.2428 -1.5767 0.2571  False
     A      C  -0.3832 0.6946 -1.3334  0.567  False
     A      D   -0.634 0.2663 -1.5402 0.2723  False
     B      C   0.2766 0.7861 -0.5358 1.0891  False
     B      D   0.0258    0.9 -0.7347 0.7864  False
     C      D  -0.2508 0.8257 -1.0513 0.5497  False
---------------------------------------------------
Run Code Online (Sandbox Code Playgroud)

现在我们做ols,你可以看到它非常具有可比性:

res = ols("RT ~ Cond", df).fit()
pw = res.t_test_pairwise("Cond",method="sh")
pw.result_frame

    coef    std err t   P>|t|   Conf. Int. Low  Conf. Int. Upp. pvalue-sh   reject-sh
B-A -0.659798   0.350649    -1.881645   0.062914    -1.355831   0.036236    0.352497    False
C-A -0.383176   0.363404    -1.054407   0.294343    -1.104528   0.338176    0.829463    False
D-A -0.633950   0.346604    -1.829032   0.070499    -1.321954   0.054054    0.352497    False
C-B 0.276622    0.310713    0.890281    0.375541    -0.340138   0.893382    0.829463    False
D-B 0.025847    0.290885    0.088858    0.929380    -0.551555   0.603250    0.929380    False
D-C -0.250774   0.306140    -0.819147   0.414731    -0.858458   0.356910    0.829463    False
Run Code Online (Sandbox Code Playgroud)

然后我们选择子集和校正方法,下面我像上面一样使用 simes-hochberg :

subdf = pw.result_frame.loc[['B-A','C-B','D-C']]
subdf['adj_p'] = multipletests(subdf['P>|t|'].values,method='sh')[1]
subdf

    coef    std err t   P>|t|   Conf. Int. Low  Conf. Int. Upp. pvalue-sh   reject-sh   adj_p
B-A -0.659798   0.350649    -1.881645   0.062914    -1.355831   0.036236    0.352497    False   0.188742
C-B 0.276622    0.310713    0.890281    0.375541    -0.340138   0.893382    0.829463    False   0.414731
D-C -0.250774   0.306140    -0.819147   0.414731    -0.858458   0.356910    0.829463    False   0.414731
Run Code Online (Sandbox Code Playgroud)

作为评论,如果您看到趋势,可能会有其他模型来模拟该趋势,而不是依赖事后测试。另外,对您需要的测试进行子集化并执行校正可以被认为是某种类型的樱桃采摘。如果比较的数量(如您的示例 6 中),我建议您选择 Tukey。这是您可以在交叉验证上发布的另一个讨论。