R语言 相关性的显著性检验

  • Post author:
  • Post category:其他


在计算好相关系数以后,如何对它们进行统计显著性检验呢?常用的原假设为变量间不相关

(即总体的相关系数为0)。你可以使用cor.test()函数对单个的Pearson、Spearman和Kendall相关系数进行检验。简化后的使用格式为:

cor.test(x, y, alternative = , method = )

其中的x和y为要检验相关性的变量,alternative则用来指定进行双侧检验或单侧检验(取值

为”two.side”、“less”或”greater”),而method用以指定要计算的相关类型(“pearson”、

“kendall” 或 “spearman” )。 当 研 究 的 假 设 为 总 体 的 相 关 系 数 小 于 0 时,请使用

alternative=“less” 。在研究的假设为总体的相关系数大于 0 时,应使用

alternative=“greater”。

> cor.test(states[,3], states[,5]) 
 Pearson's product-moment correlation 
data: states[, 3] and states[, 5] 
t = 6.85, df = 48, p-value = 1.258e-08 
alternative hypothesis: true correlation is not equal to 0 
95 percent confidence interval: 
 0.528 0.821 
sample estimates: 
 cor 
0.703 

这段代码检验了预期寿命和谋杀率的Pearson相关系数为0的原假设。假设总体的相关度为0,

则预计在一千万次中只会有少于一次的机会见到0.703这样大的样本相关度(即p=1.258e–08)。由

于这种情况几乎不可能发生,所以你可以拒绝原假设,从而支持了要研究的猜想,即预期寿命和

谋杀率之间的总体相关度不为0。

遗憾的是,cor.test()每次只能检验一种相关关系。但幸运的是,psych包中提供的

corr.test()函数可以一次做更多事情。corr.test()函数可以为Pearson、Spearman或Kendall

相关计算相关矩阵和显著性水平



版权声明:本文为Mrrunsen原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。