在计算好相关系数以后,如何对它们进行统计显著性检验呢?常用的原假设为变量间不相关
(即总体的相关系数为0)。你可以使用cor.test()函数对单个的Pearson、Spearman和Kendall相关系数进行检验。简化后的使用格式为:
cor.test(x, y, alternative = , method = )
其中的x和y为要检验相关性的变量,alternative则用来指定进行双侧检验或单侧检验(取值
为”two.side”、“less”或”greater”),而method用以指定要计算的相关类型(“pearson”、
“kendall” 或 “spearman” )。 当 研 究 的 假 设 为 总 体 的 相 关 系 数 小 于 0 时,请使用
alternative=“less” 。在研究的假设为总体的相关系数大于 0 时,应使用
alternative=“greater”。
> cor.test(states[,3], states[,5])
Pearson's product-moment correlation
data: states[, 3] and states[, 5]
t = 6.85, df = 48, p-value = 1.258e-08
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
0.528 0.821
sample estimates:
cor
0.703
这段代码检验了预期寿命和谋杀率的Pearson相关系数为0的原假设。假设总体的相关度为0,
则预计在一千万次中只会有少于一次的机会见到0.703这样大的样本相关度(即p=1.258e–08)。由
于这种情况几乎不可能发生,所以你可以拒绝原假设,从而支持了要研究的猜想,即预期寿命和
谋杀率之间的总体相关度不为0。
遗憾的是,cor.test()每次只能检验一种相关关系。但幸运的是,psych包中提供的
corr.test()函数可以一次做更多事情。corr.test()函数可以为Pearson、Spearman或Kendall
相关计算相关矩阵和显著性水平