3  俩眼视力或矫正视力5.0的人摸大象(施工中)

相信大家对盲人摸象的典故都不陌生。几个盲人接了个盲人按摩的活,给一头大象做马杀鸡1。每位盲人负责一个区域,有人摸腿,有人摸鼻子,有人摸肚子等等。最后活干完了,大家吵起来了,对自己摸的是啥产生了一些人民内部矛盾。

有趣的是,英语里还有个说法叫房间里的大象(elephant in the room),意指一个大家避免讨论但非常明显的问题。

在上一章中,我们已经通过独立样本t检验找到了一只大象——机人和袋人的魔法天赋有差异。从摸大象的角度看,我们已经睁着眼睛通过摸鼻子的方式摸出了这是一只大象。在这一章中,我希望带着各位读者以一种近似性骚扰的方式从各种角度重新摸,来展示我们能用多少种方式摸出这是一只大象。

3.1 第一摸:相关

描述数据的方式有非常多种。上面我们介绍的是针对数据集中趋势的统计检验。还有一个大家非常熟悉的描述统计方式,虽然可能很多人没有意识到这是一种描述统计,那就是相关。

相关字面意思地就是描述两个(当然也可以是多个)变量的关联程度。我们的大象——机人和袋人的魔法天赋不一样,可以从相关的角度去描述吗?当然没问题,用相关的语言,我们可以关注:一个人的魔法天赋是否与他是机人或者袋人有关?

所以这样一个相关中的两个变量是什么呢?一个是人的性别自我认同(机人 vs 袋人),另一个是魔法天赋分数。显然,前一个变量是一个只有两水平的类别变量,后一个变量是一个连续变量。统计学的好的读者肯定已经能脱口而出了,一个天然的二分类别变量和一个连续变量的相关应该使用点二列相关计算。

3.1.1 点二列相关

Equation 3.1 就是点二列相关系数的计算公式。相关系数就是对于相关程度的数字描述,通常相关系数的取值范围是-1 ~ +1。 +1表示完全的正相关;-1表示完全的负相关;0表示两个变量没有关系。

\[ r_{点二列}=\frac{\bar{X_1}−\bar{X_2}}{S_X}\sqrt{\frac{n_1n_2}{N(N-1)}} \tag{3.1}\]

我知道大家已经迫不及待想享受计算的乐趣了,让我们把我们的数据代入公式,开始计算吧。

x1_m <- mean(df1.1$magic_score[df1.1$iden=="武装直升机"])
x2_m <- mean(df1.1$magic_score[df1.1$iden=="某品牌塑料袋"])
x_s <- sd(df1.1$magic_score)
N <- 100
r_pbis <- (x1_m-x2_m)/x_s*sqrt((N/2)*(N/2)/(N*(N-1)))
r_pbis
[1] -0.6108072

计算的结果是,性别自我认同和魔法天赋分数的点二列相关系数是-0.61,这是一个相对比较高的相关系数。也在一定程度上说明了性别自我认同和魔法天赋分数存在关联。但是,还是像我们在第二章的时候讨论的问题,平均数有差异,那你怎么判断总体是不是真的有差异呢?同样的,我们算出了样本中的两变量相关,那么怎么知道总体中两个变量是否相关呢?

答案仍然是使用NHST,设定我们的零假设(r=0),然后构造抽样分布,得到样本中相关系数在抽样分布中的出现概率,通过alpha水平判断是否拒绝零假设。相关系数的抽样分布仍然可以使用t分布,有如下公式 Equation 3.2

\[t_{点二列}=r_b\sqrt{\frac{N-2}{1-r_b^2}} \tag{3.2}\]

我们又可以享受计算的乐趣了。

## 代入公式得到t值
t_pbis <- r_pbis*sqrt((N-2)/(1-r_pbis^2))

## 根据t值和自由度计算p值;乘以2计算双尾概率
p_pbis <- 2*(1- pt(abs(t_pbis), df=N-2))

## 输出结果
print(paste("点二列相关的双尾检验: r=", round(r_pbis, 4),",t=",round(t_pbis, 4),",p=",round(p_pbis, 15),",df=",N-2))
[1] "点二列相关的双尾检验: r= -0.6108 ,t= -7.6368 ,p= 1.498e-11 ,df= 98"
思考:单尾与双尾

上面的计算中,pt() 计算的结果默认是单尾检验的概率,我们直接将它乘以2就得到了双尾的概率。为什么呢?

点二列相关系数的显著性检验说明,人们的自我性别认同和他们的魔法天赋分数之间的相关是显著的。这点也与我们的期待一致,毕竟大象就在房间里。不过,读者可以仔细检查一下我们上面做出的检验的具体数值,再对照上一章 Section 2.2.5 看看有没有什么发现?

是的,不管是t的绝对值,p值还是df值,针对这两个变量的点二列相关的显著性检验结果,和我们的独立样本t检验结果一模一样,一个数字都不带差的。为什么呢?

事实上,如果你将上面的点二列相关系数公式 Equation 3.1 代入对其显著性进行检验的t检验公式 Equation 3.2 中,最终可以得到下面的独立t检验公式。

\[ t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{\frac{(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1 + n_2 - 2} \left( \frac{1}{n_1} + \frac{1}{n_2} \right)}} \]

这个推导十分简单,感兴趣的读者可以自己找一张草稿纸代入计算,并以此入眠。“可惜此处的空白太小”2,我就不详细推导了。读者只需要注意,N=n0 + n1 即可。

所以,换句话说,对于性别自我认同和魔法天赋分数这两个变量的点二列相关推论统计,跟比较机人和袋人的魔法天赋平均分数差异的推论统计,实际上是同一个东西。我们确实在摸同一只大象!

3.1.2 皮尔逊相关

如果读者们系统学习过相关的统计知识3,应该会知道,点二列相关可以被看做是皮尔逊(Pearson)相关的特例。当然,我相信有一部分读者可能没有学过相关的概念,或更可能已经忘了皮尔逊相关是什么。简单地来说,皮尔逊相关主要用于描述两个连续变量之间相关关系。皮尔逊相关系数的计算公式如下:

\[ r = \frac{\sum_{i=1}^{n} (X_{1i} - \bar{X}_1)(X_{2i} - \bar{X}_2)}{\sqrt{\sum_{i=1}^{n} (X_{1i} - \bar{X}_1)^2} \cdot \sqrt{\sum_{i=1}^{n} (X_{2i} - \bar{X}_2)^2}} \tag{3.3}\]

事实上,当你用1和0分别表示机人和袋人,代入上面的公式中就可以得到我们的点二列相关系数公式 Equation 3.1 。所以同样的,我们在我们的数据中也可以尝试使用1和0代表机人和袋人来进行一次相关系数检验。

## 分别用1和0表示机人和袋人
df1.1$iden_n <- c(rep(0,50),rep(1,50))

## 比较一下两个变量的差异
## 原来的变量
table(df1.1$iden)

某品牌塑料袋   武装直升机 
          50           50 
## 新生成的变量
table(df1.1$iden_n)

 0  1 
50 50 

当然,你也可以使用as.numeric()命令直接改变iden变量的属性。但因为我被外星人劫持了,如果我不这么写代码的话他们就会把全世界的薯片都变成酸甜的番茄口味。为了全世界人类的福祉,我决定向外星人屈服。

好,现在我们有了一个新的性别自我认同变量(数字版)。我们就可以用它来算一个皮尔逊相关,并检验相关系数的显著性了。

cor.test(df1.1$iden_n,df1.1$magic_score)

    Pearson's product-moment correlation

data:  df1.1$iden_n and df1.1$magic_score
t = 7.6368, df = 98, p-value = 1.498e-11
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 0.4708826 0.7207539
sample estimates:
      cor 
0.6108072 

结果如上,是的,我们又摸了大象一把。不过这次我们胸有成竹,因为我们已经知道本质就是同一个公式,那么结果自然也会一样。我猜,在你再次看到7.6368,1.498e-11这些数字时,已经无动于衷了。

不过当我们放到皮尔逊相关这个角度去摸这只大象时,不妨回忆一下,如果我们坐在统计的课堂上,当老师讲解这个概念时,使用的例子是什么样的。比如下面这个图,使用的就是鸢尾花的数据,呈现了花瓣长度(x轴)和花瓣宽度(y轴)之间的关系。见过花的读者应该都知道,这两个变量之间显然存在关系,在同一个物种上,花瓣不能光横着长或者竖着长。就好像在ppt里缩放图片,显然你得按住shift缩放才能保住花的真实感。所以,花的长度越长,一般宽度就越宽,反过来也一样。

通常我们使用皮尔逊相关描述的就是这样两个连续变量之间的相关关系。从上面这张散点图来看,显然所有点都聚集在一起形成了一种趋势。这个趋势是什么呢,好难猜啊。

`geom_smooth()` using formula = 'y ~ x'

好了不卖关子了,相信很多读者都能直接画出上面图里的红线。这也是许多情况下对相关进行表征的一个办法。散点图里,显然蓝色的点似乎聚集在一条看不见的线附近,而我们心中的相关关系,很多时候都是这样一条的直线。

事实上,两变量的皮尔逊相关系数描述的就是两个变量的线性关系。比如下图中就展示了两个变量的散点图,如果对数据计算皮尔逊相关系数并检验显著性,r = -.052, p = .245。换句话说,皮尔逊相关的结果说明两个变量之间没有相关。图中拟合出的直线也似乎没有很好的描述数据的趋势。

那么真实情况是什么样的呢。我们再看一张图。

可以看到,图中的绿色虚线提示了两个变量间的关系其实是非线性的,实际上是一个倒U型曲线(想想心理学常说的关于动机和表现的耶基斯–多德森定律)。这条线一画,看上去就对数据的趋势有了一个贴切的描述。换句话说就是,皮尔逊相关系数并不能找到非线性,也就是不能用一条直线描述的相关关系(对非线性关系的检验我们会在 Chapter 8 中介绍)。所以,不管是点二项相关还是皮尔逊相关系数,反映的都是一种“线性”的相关关系。

那么,我们之前描述的关于性别自我认同和魔法天赋之间的关系,也可以在图里画上这样一条直线表示它们之间的关系。

3.2 第二摸:一元/简单线性回归

我们在第一摸里花了那么久的时间,得到了两个结论。其一是,我们之前做的独立样本t检验,和自变量与因变量的相关系数显著性检验本质是一回事。另一个是,相关系数本质描述的,是一种线性关系。我们还把这种关系在之前的描述统计图里,用一条直线表示了出来。不知道读者有没有好奇,这条直线是怎么画出来的?

画这样一条直线,我们使用的是另一个统计工具,线性回归。这条直线就是所谓的回归直线。这个回归模型,可以写成一个一元一次方程:

\[ 魔法天赋分数=b_0+b_1性别自我认同 \]

所以我们管这样的模型叫做一元回归模型,因为这是最简单的线性回归模型,所以也叫简单线性回归。

说个冷笑话,简单线性回归是最便宜的线性回归了。

咱们的九年义务教育还没忘的读者应该都能理解这样一个方程如何在直角坐标系中画出来。问题在于,我们如何确定b0 和b1 这两个系数。不过故事可能是完全反过来的。我们确定这两个系数的方法叫做最小二乘法,这个办法其实也简单地在笔者本人的高中数学里讲过。这个办法也叫最小平方法,也就是找到一个函数,让误差最小。误差是什么呢,就是函数对数据的预测与实际数据之间的差值。请看下图:

这条红线就是我们的函数(方程)。每个蓝点都是一个实际数据。可以看到,其实每个蓝点都没有在红线上,但可以从蓝点画一条垂直于x轴的线,连到红线上。这个线段就是误差。当然在计算上直接使用差值会有正负号不好加减的问题,所以我们可以把这个差值开平方以后相加,当这个平方和最小的时候(所以叫最小平方法),也就是每个点到线的距离之和最短的时候,就是对数据最佳的(线性)拟合。

如果对于任意一个原始数据点的坐标\((x,y)\),那么对应的回归模型预测值是\(\hat y=b_0+b_1x\),误差就是\(e=y-\hat y\)。我们的方程也可以写成\(y=b_0+b_1x+e\)。简而言之,最小二乘法就是找到让e2最小的那个方程。

接下来我们来拟合一个能描述我们机人和袋人魔法天赋分数的线性回归模型。就像我们在独立样本t检验中做的那样,性别自我认同作为我们的预测变量,魔法天赋分数作为我们的结果变量。也就是我们一定程度上能通过一个人是机人还是袋人,判断ta的魔法天赋情况。

lm1 <- lm(magic_score~iden_n, df1.1)
summary(lm1)

Call:
lm(formula = magic_score ~ iden_n, data = df1.1)

Residuals:
    Min      1Q  Median      3Q     Max 
-18.414  -6.369  -1.198   6.157  25.225 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   81.240      1.301  62.426  < 2e-16 ***
iden_n        14.055      1.840   7.637  1.5e-11 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 9.202 on 98 degrees of freedom
Multiple R-squared:  0.3731,    Adjusted R-squared:  0.3667 
F-statistic: 58.32 on 1 and 98 DF,  p-value: 1.498e-11

上面就是我们的回归分析的统计结果。运用最小二乘法拟合数据找到的回归方程是\(\hat y=81.240+14.055x\)。换言之b0=81.240,b1=14.055。如果你还残存着高中的数学知识,应该还记得,我们把b0叫做截距,b1叫做斜率。不过,这两个系数有什么实际意义吗?

不知道读者们还记不记得我们之前的几个关键数值,比如“点二列相关的双尾检验: r= -0.6108 ,t= -7.6368 ,p= 1.498e-11 ,df= 98”。再拿着这些数值回到我们回归方程的拟合结果逡巡一下,就会发现,咦,怎么对于预测变量的斜率进行的显著性检验,结果还是一样的?换句话说,就像相关系数一样,斜率作为一个描述统计的数值,它跟零之间的差异的显著性检验,也是在检验机人和袋人的魔法天赋是否有差异,也是在检验自我性别认同和魔法天赋之间是否相关。是的,我们又摸了大象一把。

原理是什么呢?我们不妨回到上面的图,不过我们可以在图里再画两条辅助线。

上图还是我们对于数据的描述性统计。两个红色三角形,对应的分别是两个人群的平均魔法天赋,分别是81.2395(机人),和95.29439(袋人)。还记得回归方程是如何得出的吗?最小二乘法,找到误差最小的那条线。在这个回归模型里,我们的机人对应的还是皮尔逊相关里使用的0,袋人对应1。那么,对于机人来说,也就是x=0,距离所有实际数据y误差最小的那个点是多少呢?

没错,就是它们的平均数。同理,袋人也是一样的。

那么,我们把这两个点一连线,画出来的就是\(\hat y=81.240+14.055x\)对应的回归线。所以b0=81.240对应的是什么呢?x=0时函数预测的y值,这个值就是机人的平均魔法天赋分数。斜率b1又对应着什么呢?如果你们还记得斜率的几何意义,应该能看出来,斜率对应的就是图中紫色的虚线除以绿色的虚线(也就是蓝线与绿虚线夹角的tan值)。紫色的虚线是什么呢?机人与袋人魔法天赋平均数之差。绿色虚线是什么呢?机人与袋人对应的x值之差。斜率其实就是在反映预测变量x每一个单位的增长,会导致y增加多少。转化成数学形式:

\[ b_1=\frac{|\bar Y_{机人}-\bar Y_{袋人}|}{|\bar X_{机人}-\bar X_{袋人}|} \tag{3.4}\]

还记得我们对机人和袋人赋的x值吗?对,0和1。所以上面那个式子的分母就是1,斜率b1就是机人和袋人的魔法天赋分数的差值。检验它是否显著,就是在检验机人和袋人的平均魔法天赋分数的差异是否显著!

我们还可以做一件事,把两个变量都做标准化处理,转变为Z分数,也就是标准分数。忘了这是什么东西的读者可以回到第二章@sec-零假设显著性检验 的部分,在其中我们介绍正态分布的时候提到了Z分数。

lm1 <- lm(scale(magic_score)~scale(iden_n), df1.1)
summary(lm1)

Call:
lm(formula = scale(magic_score) ~ scale(iden_n), data = df1.1)

Residuals:
    Min      1Q  Median      3Q     Max 
-1.5925 -0.5508 -0.1036  0.5325  2.1815 

Coefficients:
                Estimate Std. Error t value Pr(>|t|)    
(Intercept)   -3.584e-16  7.958e-02   0.000        1    
scale(iden_n)  6.108e-01  7.998e-02   7.637  1.5e-11 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.7958 on 98 degrees of freedom
Multiple R-squared:  0.3731,    Adjusted R-squared:  0.3667 
F-statistic: 58.32 on 1 and 98 DF,  p-value: 1.498e-11

以上就是把两个变量标准化之后的结果。可以看出,标准化之后,回归方程的截距实际上变成了零4。而斜率的显著性检验结果,仍然和上面使用原始分数计算的一样。换句话说,标准化并不改变数据的显著性。 不过更重要的是,不知道大家有没有注意到标准化后斜率的数值。还记得我们的相关系数的值吗?

r_pbis
[1] -0.6108072

是的,这个斜率就是两个变量的相关系数!

其实,考虑到用最小二乘法生成的回归模型,其中斜率的计算公式就是 \[ b=\frac{\sum (x-\bar x)(y-\bar y)}{\sum (x-\bar x)^2}=\frac{\sum (x-\bar x)(y-\bar y)}{s_x^2} \] 回到皮尔逊相关系数的计算公式 Equation 3.3 观察,其实 \[ r=\frac{\sum (x-\bar x)(y-\bar y)}{s_xs_y} \] 回归系数和相关系数仅在分母上有所差别。即 \[ b=r \frac {s_y}{s_x} \tag{3.5}\] 所以,当你把两个变量转换成分布形态一样,但平均数为0,标准差为1的标准正态分布时,两个变量的标准差在上面的公式中就都变为1,斜率就跟相关系数相等了。 事实上,不管是 Equation 3.4 还是 Equation 3.5 的显著性检验,都是在把它们跟0比较。那么它们是否等于0,取决于分子是否为零。而我们构造出的这些式子,最终指向的结果是,在这样一个两水平的分类变量作为自变量的情况下,斜率是否为0,取决于平均数之差是否为零或相关是否为零。根本而言,这都是我们伸向大象的黑手,走了不同的路径而已。

思考:两水平的分类变量应该如何赋值?

针对我们的当作连续变量放进方程的分类变量自我认同(iden)进行标准化后究竟发生了什么呢。下面的代码对iden标准化后的水平进行了频次统计。即原来赋值为0和1的变量,变成了赋值为正负0.99498743710662的变量。

## 第一行是水平对应的数值,第二行是iden等于对应数值的个体数。
table(scale(df1.1$iden_n))

-0.99498743710662  0.99498743710662 
               50                50 

可以看出,标准化之后改变了我们原来对于分类变量的赋值。当然,统计学的好的同学都知道,标准化变量并不会改变它参与的统计检验的结果。那么如果我随意给分类变量的两个水平赋任意值,结果又会如何呢?感兴趣的读者可以自己试着理解并运行下面的代码,变换不同的赋值,并尝试解释结果。

df1.1$iden_nn <- c(rep(233,50),rep(7788,50))
lm2 <- lm(magic_score~iden_nn, df1.1)
summary(lm2)
引申:因变量是否要求正态分布?

效应=平均数+随机误差

分组的检验 (总平均数+组间差异)+随机误差

组平均数+随机误差

本质:在排除了能解释的处理效应后,剩下的误差必须是随机的。而误差作为一个随机变量应该满足什么分布呢?当然是正态分布呀。回想一下高尔顿板和中心极限定理,一个随机变量在多次抽样后的分布形态是什么?在误差这个随机变量的角度看,每个样本中的个体,其实就是对误差的一次抽样,整个样本就组成了对误差的抽样分布,那么这样的分布在样本量够大时,就应该服从正态分布。

也就是线性回归的残差服从正态分布假设。

思考:如果把预测变量与结果变量互换位置呢?

在讲相关的时候,我们说过,相关表示的是两个变量之间的关系。所以观察公式你们也可以看出来,两个变量之间互相交换位置并不会改变相关系数的大小。那么在回归方程中互换位置呢?把它们标准化之后再互换位置呢?

相信很多读者不用跑代码也能猜出上面两个问题的结果。当然我鼓励你们尝试写一下代码看看结果,作为一种实践。不过更关键的问题是,为什么呢?

在这第二摸的最后,我们可以总结一下,不管是处理平均数差异的独立样本t检验,还是关心两变量关系的相关系数,或者是反映结果变量随预测变量变化而变化的斜率,本质上对它们的显著性检验都是在检验同一只大象。而本书的一大目标,就是用回归模型带你重走取经路,看看你之前学过的各种检验如何在线性模型中理解,并把它作为一种工具,灵活地运用于你遇到的更加复杂的统计问题之中。

是的,在第一章中,我说我们要放弃直线,走一段弯路。这段弯路,就是让我们运用“直线”——以线性关系来统合你之前学过的心理统计。很有意思的转折,不是吗?

3.3 第三摸:方差分析

也许摸完第二摸之后,读者也许会觉得,这大象都快被你摸秃了,你还要摸吗?是的,我们已经在第二摸中引出了本书的中心主题。但心理统计本科阶段的最后一块拼图并没有拼上,那就是大家最熟悉又陌生的————方差分析。

aov1 <- aov(magic_score~iden, df1.1)
summary(aov1)
            Df Sum Sq Mean Sq F value  Pr(>F)    
iden         1   4938    4938   58.32 1.5e-11 ***
Residuals   98   8298      85                    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

还记得我们之前做的t检验吗,t值是多少?7.636829。发现什么了吗?

t_pbis
[1] -7.636829

还没发现,让我们把它平方一下,再看看?

t_pbis^2
[1] 58.32115

是的,F=t2

R与r。

事实上,回到皮尔逊相关系数的计算公式 Equation 3.3 以及Z分数的计算公式\(Z=\frac{X-\bar X}{s}\),不难看出,皮尔逊的相关系数公式也可以写成:

\[ r = \frac{ \sum_{i=1}^{N} (Z_{x_i} \cdot Z_{y_i})}{N} \]

实际上,皮尔逊相关系数的另一种写法是: \[ r=\frac{Cov(X,Y)}{S_xS_y},其中Cov(X,Y)=\frac{\sum{(x-\bar x)(y-\bar y)}}{N} \] 而当我们对原始数据进行标准化之后,两个变量的标准差都变成了1。换句话说,相关系数其实就是Cov,也就是协方差的标准分数。

注意:统计检验与因果推断

很多刚学完心理统计的同学会有一个误解,就是t检验、方差分析分析的是自变量和因变量,因此可以得到一个变量如何影响另一个变量的结论5。理解完这章内容的同学应该能意识到,上述的这些统计检验既然是摸同一只大象的不同方法,那么它们自身就没有分辨这只大象是饲养的还是野生的能力。这也是我持有的观点,能帮助验证因果的从来都不是统计模型,而是研究设计的逻辑。大家不妨回去看看研究方法(实验心理学)的课程内容,确定两个变量的因果关系需要的前提是什么?再思考纵向数据、工具变量等等常见的跟因果推断有关的“统计分析”,究竟是如何试图验证因果关系的。

温忠麟, 马鹏, 孟进, and 王一帆. 2025. “因果·影响·相关与预测辨析.” 心理学报 57 (6): 1108. https://doi.org/10.3724/SP.J.1041.2025.1108.
葛枭语. 2025. “所谓影响关系有待商榷:对温忠麟等人(2024)的评论.” 心理学报 57 (6): 1098. https://doi.org/10.3724/SP.J.1041.2025.1098.

  1. 当然是开个玩笑,对盲人朋友没有什么恶意。↩︎

  2. 费马语。↩︎

  3. 这里的相关指的是相关这个统计概念,当然为了避免歧义,我们也可以表述成,“关于相关的相关统计知识”。是不是除了像绕口令之外就没有其他问题了呢。↩︎

  4. 因为计算机运算取值的关系,R给出的结果是一个无限接近于0的数值,但相信我,它就是零。↩︎

  5. 这里我们使用的“影响”一词指的是一个变量导致了另一个变量发生变化的“影响”,即affect或have an effect on。本书不就近期国内学术圈热烈讨论的 温忠麟 et al. (2025)葛枭语 (2025) 的争端站队。↩︎