# 置换检验
> 原文:[https://www.textbook.ds100.org/ch/18/hyp_introduction_part2.html](https://www.textbook.ds100.org/ch/18/hyp_introduction_part2.html)
```
# HIDDEN
# Clear previously defined variables
%reset -f
# Set directory for data loading to work properly
import os
os.chdir(os.path.expanduser('~/notebooks/18'))
```
```
# HIDDEN
import warnings
# Ignore numpy dtype warnings. These warnings are caused by an interaction
# between numpy and Cython and can be safely ignored.
# Reference: https://stackoverflow.com/a/40846742
warnings.filterwarnings("ignore", message="numpy.dtype size changed")
warnings.filterwarnings("ignore", message="numpy.ufunc size changed")
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import seaborn as sns
%matplotlib inline
import ipywidgets as widgets
from ipywidgets import interact, interactive, fixed, interact_manual
import nbinteract as nbi
sns.set()
sns.set_context('talk')
np.set_printoptions(threshold=20, precision=2, suppress=True)
pd.options.display.max_rows = 7
pd.options.display.max_columns = 8
pd.set_option('precision', 2)
# This option stops scientific notation for pandas
# pd.set_option('display.float_format', '{:.2f}'.format)
```
在一些情况下,我们希望执行一个置换测试,以测试一个假设并了解更多关于世界的信息。置换测试是一种非常有用的非参数测试类型,它允许我们在不进行低于传统参数测试的统计假设的情况下进行推论。
排列推理的一个有见地的例子是通过无聊、奥托博尼和斯塔克(2016)对学生对教学(集合)数据的评估进行复查。在这个实验中,47 名学生被随机分配到四个部分中的一个。有两个助教分别教两个部分;一个助教是男性,另一个是女性。在其中两个部分中,教学助理是用他们的实际姓名介绍的。在其他两个部分中,助手们交换了名字。
```
#HIDDEN
from IPython.display import Image
display(Image('student_setup.png'))
```
![](https://img.kancloud.cn/df/ea/dfea77a6370592df92cd3f8b748c7c58_1186x698.jpg)
学生们从未面对面见到过助教。相反,他们通过在线论坛与学生互动。家庭作业的返回是协调的,这样所有学生都能同时收到分数/反馈。这两个助教的经验水平也相当。在课程结束时,学生们会评估作业的及时性。作者想调查性别认知是否对集合评估/评分有任何影响。
### 实验装置
我们使用 0.05 的 p 值截止值进行假设检验。
在我们的**模型**中,每个助教有两个可能的评分,每个学生一个针对每个感知到的性别。每个学生被分配到任何一对(性别,感知性别)的机会均等。最后,学生们相互独立地评估他们的助教。
本实验的**无效假设**是感知性别对集合没有影响,任何观察到的评分差异都是偶然的。换言之,无论是男性还是女性,对每个助教的评估都应保持不变。这意味着每个助教实际上只有一个可能的评分来自每个学生。
另一种假设是感知性别对集合有影响。
**检验统计**是每个 TA 的感知男性和感知女性评分的平均值差异。直观地说,如果性别对收视率没有影响,我们预计这将接近 0。我们可以正式写下:
$$\mu \文本感知女性-\mu \文本感知男性$$
哪里:
$$ \begin{aligned} \mu_{\text{perceived female}} &= \frac {\sum_{j=1}^{n_1} x_{1j} + \sum_{j=1}^{n_3} x_{3j}}{{n_1} + {n_3}} \\ \mu_{\text{perceived male}} &= \frac {\sum_{j=1}^{n_2} x_{2j} + \sum_{j=1}^{n_4} x_{4j}}{{n_2} + {n_4}} \end{aligned} $$
其中,$n i$是$i$th 组的学生人数,$x ij 是第 i 组的第 j 个学生的评分。
为了确定性别对集合评分是否有影响,我们进行了置换测试,以在无效假设下生成检验统计量的经验分布。我们遵循以下步骤:
1. 为同一助教下的学生排列感知的性别标签。请注意,在上图中,我们在左右两半部分进行了调整。
2. 计算确定的女性和确定的男性群体的平均得分差异。
3. 重复多次,为两组的平均分数差创建一个近似的抽样分布。
4. 使用近似分布来估计看到测试统计数据比观察到的更极端的可能性。
理解置换测试在这种情况下的合理性是很重要的。在空模型下,每个学生都会给他们的助教相同的分数,而不管他们的性别。简单的随机分配意味着,对于一个给定的助教,无论他们被视为男性还是女性,他们的所有评分都有平等的机会出现。因此,如果无效假设为真,那么排列性别标签对评分应该没有影响。
### 数据[¶](#The-Data)
我们从下面的学生和性别数据开始。这些数据是美国一所大学的 47 名参加在线课程的学生的人口普查。
```
#HIDDEN
student_eval = (
pd.read_csv('StudentRatingsData.csv')
.loc[:, ["tagender", "taidgender", "prompt"]]
.dropna()
.rename(columns={'tagender': 'actual', 'taidgender': 'perceived'})
)
student_eval[['actual', 'perceived']] = (
student_eval[['actual', 'perceived']]
.replace([0, 1], ['female', 'male'])
)
student_eval
```
| | 实际的 | 感知 | 促使 |
| --- | --- | --- | --- |
| 零 | 女性的 | 男性的 | 四 |
| --- | --- | --- | --- |
| 1 个 | female | male | 五 |
| --- | --- | --- | --- |
| 二 | female | male | 5.0 |
| --- | --- | --- | --- |
| …… | …… | ... | ... |
| --- | --- | --- | --- |
| 四十三 | male | female | 4.0 |
| --- | --- | --- | --- |
| 四十四 | male | female | 二 |
| --- | --- | --- | --- |
| 45 岁 | male | female | 4.0 |
| --- | --- | --- | --- |
43 行×3 列
这些列具有以下含义:
**实际**——助教的真实性别
**感知**——呈现给学生的性别
**提示**——HW 的及时性等级从 1 到 5
在分析和绘制了下面实验的评分数据后,两组学生之间似乎存在差异,感知到的女性评分低于男性评分;然而,我们需要一个更正式的假设测试,以确定这种差异是否仅仅是由于随机性导致的。m 学生作业。
```
# HIDDEN
avg_ratings = (student_eval
.loc[:, ['actual', 'perceived', 'prompt']]
.groupby(['actual', 'perceived'])
.mean()
.rename(columns={'prompt': 'mean prompt'})
)
avg_ratings
```
| | | 平均提示 |
| --- | --- | --- |
| actual | perceived | |
| --- | --- | --- |
| 女性的 | 女性的 | 3.75 条 |
| --- | --- | --- |
| 男性的 | 四点三三 |
| --- | --- |
| 男性的 | female | 三点四二 |
| --- | --- | --- |
| male | 四点三六 |
| --- | --- |
```
# HIDDEN
fig, ax = plt.subplots(figsize=(12, 7))
ind = np.arange(4)
plt.bar(ind, avg_ratings["mean prompt"])
ax.set_xticks(ind)
ax.set_xticklabels(['Female (Percieved Female)', 'Female (Percieved Male)', 'Male (Percieved Female)', "Male (Percieved Male)"])
ax.set_ylabel('Average Promptness Rating')
ax.set_xlabel('Actual/Percieved Gender')
ax.set_title('Average Rating Per Actual/Percieved Gender')
plt.show()
```
![](https://img.kancloud.cn/55/66/5566d46242a206fe5f8e126e4609ec03_718x451.jpg)
### 进行实验
我们将计算确定的男性和确定的女性群体的平均评分之间观察到的差异:
```
def stat(evals):
'''Computes the test statistic on the evals DataFrame'''
avgs = evals.groupby('perceived').mean()
return avgs.loc['female', 'prompt'] - avgs.loc['male', 'prompt']
```
```
observed_difference = stat(student_eval)
observed_difference
```
```
-0.79782608695652169
```
我们发现差异是-0.8-在这种情况下,女性的平均评分从 1 分到 5 分低了近 1 分。考虑到评级的规模,这种差异似乎相当大。通过执行排列测试,我们将能够发现在空模型下观察到如此大差异的机会。
现在,我们可以为每个 TA 排列感知的性别标签,并计算 1000 次测试统计:
```
def shuffle_column(df, col):
'''Returns a new copy of df with col shuffled'''
result = df.copy()
result[col] = np.random.choice(df[col], size=len(df[col]))
return result
```
```
repetitions = 1000
gender_differences = np.array([
stat(shuffle_column(student_eval, 'perceived'))
for _ in range(repetitions)
])
```
我们使用下面的排列图绘制得分差异的近似抽样分布,用红色虚线显示观察值。
```
# HIDDEN
differences_df = pd.DataFrame()
differences_df["gender_differences"] = gender_differences
gender_hist = differences_df.loc[:, "gender_differences"].hist(normed=True)
gender_hist.set_xlabel("Average Gender Difference (Test Statistic)")
gender_hist.set_ylabel("Percent per Unit")
gender_hist.set_title("Distribution of Gender Differences")
plt.axvline(observed_difference, c='r', linestyle='--');
```
```
<matplotlib.lines.Line2D at 0x1a1b34e3c8>
```
![](https://img.kancloud.cn/f9/f6/f9f63552bddbfee66c2b201c7d8ed38c_398x287.jpg)
```
# HIDDEN
differences_df = pd.DataFrame()
differences_df["gender_differences"] = gender_differences
gender_hist = differences_df.loc[:, "gender_differences"].hist(normed=True)
gender_hist.set_xlabel("Average Gender Difference (Test Statistic)")
gender_hist.set_ylabel("Percent per Unit")
gender_hist.set_title("Distribution of Gender Differences")
plt.axvline(observed_difference, c='r', linestyle='--')
```
```
<matplotlib.lines.Line2D at 0x1a1b256ef0>
```
![](https://img.kancloud.cn/f9/f6/f9f63552bddbfee66c2b201c7d8ed38c_398x287.jpg)
根据下面的计算,在 1000 个模拟中,只有 18 个的差异至少与观察到的差异一样大。因此,我们的 p 值小于 0.05 阈值,我们拒绝了零假设,而赞成替代。
```
#Sample Distribution Parameters
sample_sd = np.std(gender_differences)
sample_mean = np.mean(gender_differences)
#Computing right-hand extreme value
num_sd_away = (sample_mean - observed_difference)/sample_sd
right_extreme_val = sample_mean + (num_sd_away*sample_sd)
#Calculate P-value
num_extreme_left = np.count_nonzero(gender_differences <= observed_difference)
num_extreme_right = np.count_nonzero(gender_differences >= right_extreme_val)
empirical_P = (num_extreme_left + num_extreme_right) / repetitions
empirical_P
```
```
0.018
```
### 结论[¶](#Conclusion)
通过这一排列测试,我们发现集合对女教师的偏见是一个数额大,统计意义重大。
还有其他一些研究也在教学评估中测试了偏差。根据 Dring,Ottoboni&Stark 2016,进行了其他几个参数测试,假设男女教师的评级是来自具有相同方差的正态分布人群的独立随机样本;这种类型的实验设计与提出了零假设,导致 p 值可能产生误导。
相比之下,无聊的 Ottoboni&Stark 2016 使用了基于随机分配学生到班级的排列测试。回想一下,在排列测试期间,我们没有对数据的分布做任何基本假设。在这个实验中,我们没有假设学生、集合分数、成绩或任何其他变量包含任何群体的随机样本,更不用说具有正态分布的群体。
在检验假设时,仔细选择实验设计和无效假设是非常重要的,以获得可靠的结果。
- 一、数据科学的生命周期
- 二、数据生成
- 三、处理表格数据
- 四、数据清理
- 五、探索性数据分析
- 六、数据可视化
- Web 技术
- 超文本传输协议
- 处理文本
- python 字符串方法
- 正则表达式
- regex 和 python
- 关系数据库和 SQL
- 关系模型
- SQL
- SQL 连接
- 建模与估计
- 模型
- 损失函数
- 绝对损失和 Huber 损失
- 梯度下降与数值优化
- 使用程序最小化损失
- 梯度下降
- 凸性
- 随机梯度下降法
- 概率与泛化
- 随机变量
- 期望和方差
- 风险
- 线性模型
- 预测小费金额
- 用梯度下降拟合线性模型
- 多元线性回归
- 最小二乘-几何透视
- 线性回归案例研究
- 特征工程
- 沃尔玛数据集
- 预测冰淇淋评级
- 偏方差权衡
- 风险和损失最小化
- 模型偏差和方差
- 交叉验证
- 正规化
- 正则化直觉
- L2 正则化:岭回归
- L1 正则化:LASSO 回归
- 分类
- 概率回归
- Logistic 模型
- Logistic 模型的损失函数
- 使用逻辑回归
- 经验概率分布的近似
- 拟合 Logistic 模型
- 评估 Logistic 模型
- 多类分类
- 统计推断
- 假设检验和置信区间
- 置换检验
- 线性回归的自举(真系数的推断)
- 学生化自举
- P-HACKING
- 向量空间回顾
- 参考表
- Pandas
- Seaborn
- Matplotlib
- Scikit Learn