<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://wiki.statsape.com/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Pengwei</id>
	<title>决策链云智库 - 用户贡献 [zh-cn]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.statsape.com/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Pengwei"/>
	<link rel="alternate" type="text/html" href="https://wiki.statsape.com/%E7%89%B9%E6%AE%8A:%E7%94%A8%E6%88%B7%E8%B4%A1%E7%8C%AE/Pengwei"/>
	<updated>2026-04-03T18:29:44Z</updated>
	<subtitle>用户贡献</subtitle>
	<generator>MediaWiki 1.39.6</generator>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6568</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6568"/>
		<updated>2024-01-21T05:16:28Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] [X] 和 [Y] 之间的总体相关系数 [\rho_{X,Y}]，它们具有[[expected value]]s [\mu_X] 和 [\mu_Y] 以及[[standard deviation]]s [\sigma_X] 和 [\sigma_Y]，定义如下：&lt;br /&gt;
&lt;br /&gt;
[\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.]&lt;br /&gt;
&lt;br /&gt;
其中 [\operatorname{E}] 是[[expected value]]运算符，[\operatorname{cov}] 表示[[covariance]]，[\operatorname{corr}] 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
[\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }]&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 [(-1,1)] 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 [X] 关于零对称分布，并且 [Y=X^2]。那么 [Y] 完全由 [X] 决定，因此 [X] 和 [Y] 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 [X] 和 [Y] 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 [n] 次测量的对 [(X_i,Y_i)]（由 [i=1,\ldots,n] 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 [X] 和 [Y] 之间的总体皮尔逊相关系数 [\rho_{X,Y}]。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:[&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 [\overline{x}] 和 [\overline{y}] 分别是 [X] 和 [Y] 的样本[[arithmetic mean|算术平均值]]，[s_x] 和 [s_y] 是 [X] 和 [Y] 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
[r_{xy}] 的等效表达式是：&lt;br /&gt;
:[&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 [s&#039;_x] 和 [s&#039;_y] 分别是 [X] 和 [Y] 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 [x] 和 [y] 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 [r_{xy}]，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ [\mathrm{P}(X=x,Y=y)]&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 [(x,y)]：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，[x]增加，[y]也增加。这种关系是完美的，意味着[x]的增加&#039;&#039;总是&#039;&#039;伴随着[y]的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果[y]在[x]&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:[\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},]&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)]&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Wiktionary|correlation|dependence}}&lt;br /&gt;
{{Commons category|Correlation}}&lt;br /&gt;
{{Wikiversity|Correlation}}&lt;br /&gt;
* [http://mathworld.wolfram.com/CorrelationCoefficient.html MathWorld page on the (cross-)correlation coefficient/s of a sample]&lt;br /&gt;
* [http://peaks.informatik.uni-erlangen.de/cgi-bin/usignificance.cgi Compute significance between two correlations], for the comparison of two correlation values.&lt;br /&gt;
* {{cite web|url=http://www.mathworks.com/matlabcentral/fileexchange/20846|title=A MATLAB Toolbox for computing Weighted Correlation Coefficients|archive-url=https://web.archive.org/web/20210424091029/https://www.mathworks.com/matlabcentral/fileexchange/20846-weighted-correlation-matrix|archive-date=24 April 2021}}&lt;br /&gt;
* [https://www.scribd.com/doc/299546673/Proof-that-the-Sample-Bivariate-Correlation-has-limits-plus-or-minus-1 Proof that the Sample Bivariate Correlation has limits plus or minus 1]&lt;br /&gt;
* [http://nagysandor.eu/AsimovTeka/correlation_en/index.html Interactive Flash simulation on the correlation of two normally distributed variables] by Juha Puranen.&lt;br /&gt;
* [https://web.archive.org/web/20150407112430/http://www.biostat.katerynakon.in.ua/en/association/correlation.html Correlation analysis. Biomedical Statistics]&lt;br /&gt;
* R-Psychologist [https://rpsychologist.com/correlation/ Correlation] visualization of correlation between two numeric variables&lt;br /&gt;
&lt;br /&gt;
{{Statistics |相关分析}}&lt;br /&gt;
{{Authority control}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Correlation And Dependence}}&lt;br /&gt;
[[Category:Covariance and correlation]]&lt;br /&gt;
[[Category:Dimensionless numbers]]&lt;br /&gt;
&lt;br /&gt;
[[Category:数据分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6567</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6567"/>
		<updated>2024-01-21T05:09:30Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​/* 皮尔逊积矩相关系数 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] [X] 和 [Y] 之间的总体相关系数 [\rho_{X,Y}]，它们具有[[expected value]]s [\mu_X] 和 [\mu_Y] 以及[[standard deviation]]s [\sigma_X] 和 [\sigma_Y]，定义如下：&lt;br /&gt;
&lt;br /&gt;
[\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.]&lt;br /&gt;
&lt;br /&gt;
其中 [\operatorname{E}] 是[[expected value]]运算符，[\operatorname{cov}] 表示[[covariance]]，[\operatorname{corr}] 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
[\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }]&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 [(-1,1)] 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 [X] 关于零对称分布，并且 [Y=X^2]。那么 [Y] 完全由 [X] 决定，因此 [X] 和 [Y] 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 [X] 和 [Y] 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 [n] 次测量的对 [(X_i,Y_i)]（由 [i=1,\ldots,n] 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 [X] 和 [Y] 之间的总体皮尔逊相关系数 [\rho_{X,Y}]。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:[&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 [\overline{x}] 和 [\overline{y}] 分别是 [X] 和 [Y] 的样本[[arithmetic mean|算术平均值]]，[s_x] 和 [s_y] 是 [X] 和 [Y] 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
[r_{xy}] 的等效表达式是：&lt;br /&gt;
:[&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 [s&#039;_x] 和 [s&#039;_y] 分别是 [X] 和 [Y] 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 [x] 和 [y] 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 [r_{xy}]，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ [\mathrm{P}(X=x,Y=y)]&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 [(x,y)]：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，[x]增加，[y]也增加。这种关系是完美的，意味着[x]的增加&#039;&#039;总是&#039;&#039;伴随着[y]的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果[y]在[x]&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:[\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},]&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)]&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Wiktionary|correlation|dependence}}&lt;br /&gt;
{{Commons category|Correlation}}&lt;br /&gt;
{{Wikiversity|Correlation}}&lt;br /&gt;
* [http://mathworld.wolfram.com/CorrelationCoefficient.html MathWorld page on the (cross-)correlation coefficient/s of a sample]&lt;br /&gt;
* [http://peaks.informatik.uni-erlangen.de/cgi-bin/usignificance.cgi Compute significance between two correlations], for the comparison of two correlation values.&lt;br /&gt;
* {{cite web|url=http://www.mathworks.com/matlabcentral/fileexchange/20846|title=A MATLAB Toolbox for computing Weighted Correlation Coefficients|archive-url=https://web.archive.org/web/20210424091029/https://www.mathworks.com/matlabcentral/fileexchange/20846-weighted-correlation-matrix|archive-date=24 April 2021}}&lt;br /&gt;
* [https://www.scribd.com/doc/299546673/Proof-that-the-Sample-Bivariate-Correlation-has-limits-plus-or-minus-1 Proof that the Sample Bivariate Correlation has limits plus or minus 1]&lt;br /&gt;
* [http://nagysandor.eu/AsimovTeka/correlation_en/index.html Interactive Flash simulation on the correlation of two normally distributed variables] by Juha Puranen.&lt;br /&gt;
* [https://web.archive.org/web/20150407112430/http://www.biostat.katerynakon.in.ua/en/association/correlation.html Correlation analysis. Biomedical Statistics]&lt;br /&gt;
* R-Psychologist [https://rpsychologist.com/correlation/ Correlation] visualization of correlation between two numeric variables&lt;br /&gt;
&lt;br /&gt;
{{Statistics |相关分析}}&lt;br /&gt;
{{Authority control}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Correlation And Dependence}}&lt;br /&gt;
[[Category:Covariance and correlation]]&lt;br /&gt;
[[Category:Dimensionless numbers]]&lt;br /&gt;
&lt;br /&gt;
[[Category:数据分析]]&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 关于零对称分布，并且 &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;。那么 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 完全由 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 决定，因此 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; 次测量的对 &amp;lt;math&amp;gt;(X_i,Y_i)&amp;lt;/math&amp;gt;（由 &amp;lt;math&amp;gt;i=1,\ldots,n&amp;lt;/math&amp;gt; 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体皮尔逊相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\overline{x}&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\overline{y}&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的样本[[arithmetic mean|算术平均值]]，&amp;lt;math&amp;gt;s_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s_y&amp;lt;/math&amp;gt; 是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt; 的等效表达式是：&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 &amp;lt;math&amp;gt;s&#039;_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s&#039;_y&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 &amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt;，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ &amp;lt;math&amp;gt;\mathrm{P}(X=x,Y=y)&amp;lt;/math&amp;gt;&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 &amp;lt;math&amp;gt;(x,y)&amp;lt;/math&amp;gt;：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;增加，&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;也增加。这种关系是完美的，意味着&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;的增加&#039;&#039;总是&#039;&#039;伴随着&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;在&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Wiktionary|correlation|dependence}}&lt;br /&gt;
{{Commons category|Correlation}}&lt;br /&gt;
{{Wikiversity|Correlation}}&lt;br /&gt;
* [http://mathworld.wolfram.com/CorrelationCoefficient.html MathWorld page on the (cross-)correlation coefficient/s of a sample]&lt;br /&gt;
* [http://peaks.informatik.uni-erlangen.de/cgi-bin/usignificance.cgi Compute significance between two correlations], for the comparison of two correlation values.&lt;br /&gt;
* {{cite web|url=http://www.mathworks.com/matlabcentral/fileexchange/20846|title=A MATLAB Toolbox for computing Weighted Correlation Coefficients|archive-url=https://web.archive.org/web/20210424091029/https://www.mathworks.com/matlabcentral/fileexchange/20846-weighted-correlation-matrix|archive-date=24 April 2021}}&lt;br /&gt;
* [https://www.scribd.com/doc/299546673/Proof-that-the-Sample-Bivariate-Correlation-has-limits-plus-or-minus-1 Proof that the Sample Bivariate Correlation has limits plus or minus 1]&lt;br /&gt;
* [http://nagysandor.eu/AsimovTeka/correlation_en/index.html Interactive Flash simulation on the correlation of two normally distributed variables] by Juha Puranen.&lt;br /&gt;
* [https://web.archive.org/web/20150407112430/http://www.biostat.katerynakon.in.ua/en/association/correlation.html Correlation analysis. Biomedical Statistics]&lt;br /&gt;
* R-Psychologist [https://rpsychologist.com/correlation/ Correlation] visualization of correlation between two numeric variables&lt;br /&gt;
&lt;br /&gt;
{{Statistics |相关分析}}&lt;br /&gt;
{{Authority control}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Correlation And Dependence}}&lt;br /&gt;
[[Category:Covariance and correlation]]&lt;br /&gt;
[[Category:Dimensionless numbers]]&lt;br /&gt;
&lt;br /&gt;
[[Category:数据分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6566</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6566"/>
		<updated>2024-01-21T04:49:33Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;，它们具有[[expected value]]s &amp;lt;math&amp;gt;\mu_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\mu_Y&amp;lt;/math&amp;gt; 以及[[standard deviation]]s &amp;lt;math&amp;gt;\sigma_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\sigma_Y&amp;lt;/math&amp;gt;，定义如下：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\operatorname{E}&amp;lt;/math&amp;gt; 是[[expected value]]运算符，&amp;lt;math&amp;gt;\operatorname{cov}&amp;lt;/math&amp;gt; 表示[[covariance]]，&amp;lt;math&amp;gt;\operatorname{corr}&amp;lt;/math&amp;gt; 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 &amp;lt;math&amp;gt;(-1,1)&amp;lt;/math&amp;gt; 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 关于零对称分布，并且 &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;。那么 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 完全由 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 决定，因此 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; 次测量的对 &amp;lt;math&amp;gt;(X_i,Y_i)&amp;lt;/math&amp;gt;（由 &amp;lt;math&amp;gt;i=1,\ldots,n&amp;lt;/math&amp;gt; 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体皮尔逊相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\overline{x}&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\overline{y}&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的样本[[arithmetic mean|算术平均值]]，&amp;lt;math&amp;gt;s_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s_y&amp;lt;/math&amp;gt; 是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt; 的等效表达式是：&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 &amp;lt;math&amp;gt;s&#039;_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s&#039;_y&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 &amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt;，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ &amp;lt;math&amp;gt;\mathrm{P}(X=x,Y=y)&amp;lt;/math&amp;gt;&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 &amp;lt;math&amp;gt;(x,y)&amp;lt;/math&amp;gt;：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;增加，&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;也增加。这种关系是完美的，意味着&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;的增加&#039;&#039;总是&#039;&#039;伴随着&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;在&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Wiktionary|correlation|dependence}}&lt;br /&gt;
{{Commons category|Correlation}}&lt;br /&gt;
{{Wikiversity|Correlation}}&lt;br /&gt;
* [http://mathworld.wolfram.com/CorrelationCoefficient.html MathWorld page on the (cross-)correlation coefficient/s of a sample]&lt;br /&gt;
* [http://peaks.informatik.uni-erlangen.de/cgi-bin/usignificance.cgi Compute significance between two correlations], for the comparison of two correlation values.&lt;br /&gt;
* {{cite web|url=http://www.mathworks.com/matlabcentral/fileexchange/20846|title=A MATLAB Toolbox for computing Weighted Correlation Coefficients|archive-url=https://web.archive.org/web/20210424091029/https://www.mathworks.com/matlabcentral/fileexchange/20846-weighted-correlation-matrix|archive-date=24 April 2021}}&lt;br /&gt;
* [https://www.scribd.com/doc/299546673/Proof-that-the-Sample-Bivariate-Correlation-has-limits-plus-or-minus-1 Proof that the Sample Bivariate Correlation has limits plus or minus 1]&lt;br /&gt;
* [http://nagysandor.eu/AsimovTeka/correlation_en/index.html Interactive Flash simulation on the correlation of two normally distributed variables] by Juha Puranen.&lt;br /&gt;
* [https://web.archive.org/web/20150407112430/http://www.biostat.katerynakon.in.ua/en/association/correlation.html Correlation analysis. Biomedical Statistics]&lt;br /&gt;
* R-Psychologist [https://rpsychologist.com/correlation/ Correlation] visualization of correlation between two numeric variables&lt;br /&gt;
&lt;br /&gt;
{{Statistics |相关分析}}&lt;br /&gt;
{{Authority control}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Correlation And Dependence}}&lt;br /&gt;
[[Category:Covariance and correlation]]&lt;br /&gt;
[[Category:Dimensionless numbers]]&lt;br /&gt;
&lt;br /&gt;
[[Category:数据分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6565</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6565"/>
		<updated>2024-01-21T04:45:37Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;，它们具有[[expected value]]s &amp;lt;math&amp;gt;\mu_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\mu_Y&amp;lt;/math&amp;gt; 以及[[standard deviation]]s &amp;lt;math&amp;gt;\sigma_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\sigma_Y&amp;lt;/math&amp;gt;，定义如下：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\operatorname{E}&amp;lt;/math&amp;gt; 是[[expected value]]运算符，&amp;lt;math&amp;gt;\operatorname{cov}&amp;lt;/math&amp;gt; 表示[[covariance]]，&amp;lt;math&amp;gt;\operatorname{corr}&amp;lt;/math&amp;gt; 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 &amp;lt;math&amp;gt;(-1,1)&amp;lt;/math&amp;gt; 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 关于零对称分布，并且 &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;。那么 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 完全由 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 决定，因此 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; 次测量的对 &amp;lt;math&amp;gt;(X_i,Y_i)&amp;lt;/math&amp;gt;（由 &amp;lt;math&amp;gt;i=1,\ldots,n&amp;lt;/math&amp;gt; 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体皮尔逊相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\overline{x}&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\overline{y}&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的样本[[arithmetic mean|算术平均值]]，&amp;lt;math&amp;gt;s_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s_y&amp;lt;/math&amp;gt; 是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt; 的等效表达式是：&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 &amp;lt;math&amp;gt;s&#039;_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s&#039;_y&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 &amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt;，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ &amp;lt;math&amp;gt;\mathrm{P}(X=x,Y=y)&amp;lt;/math&amp;gt;&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 &amp;lt;math&amp;gt;(x,y)&amp;lt;/math&amp;gt;：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;增加，&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;也增加。这种关系是完美的，意味着&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;的增加&#039;&#039;总是&#039;&#039;伴随着&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;在&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6564</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6564"/>
		<updated>2024-01-21T04:44:39Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​页面内容被替换为“2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用弗罗贝尼乌斯范数定义了接近度的概念，并提供了一种使用迪克斯特拉投影算法计算最近…”&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6563</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6563"/>
		<updated>2024-01-21T04:42:04Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;，它们具有[[expected value]]s &amp;lt;math&amp;gt;\mu_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\mu_Y&amp;lt;/math&amp;gt; 以及[[standard deviation]]s &amp;lt;math&amp;gt;\sigma_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\sigma_Y&amp;lt;/math&amp;gt;，定义如下：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\operatorname{E}&amp;lt;/math&amp;gt; 是[[expected value]]运算符，&amp;lt;math&amp;gt;\operatorname{cov}&amp;lt;/math&amp;gt; 表示[[covariance]]，&amp;lt;math&amp;gt;\operatorname{corr}&amp;lt;/math&amp;gt; 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 &amp;lt;math&amp;gt;(-1,1)&amp;lt;/math&amp;gt; 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 关于零对称分布，并且 &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;。那么 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 完全由 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 决定，因此 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; 次测量的对 &amp;lt;math&amp;gt;(X_i,Y_i)&amp;lt;/math&amp;gt;（由 &amp;lt;math&amp;gt;i=1,\ldots,n&amp;lt;/math&amp;gt; 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体皮尔逊相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\overline{x}&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\overline{y}&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的样本[[arithmetic mean|算术平均值]]，&amp;lt;math&amp;gt;s_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s_y&amp;lt;/math&amp;gt; 是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt; 的等效表达式是：&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 &amp;lt;math&amp;gt;s&#039;_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s&#039;_y&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 &amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt;，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ &amp;lt;math&amp;gt;\mathrm{P}(X=x,Y=y)&amp;lt;/math&amp;gt;&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 &amp;lt;math&amp;gt;(x,y)&amp;lt;/math&amp;gt;：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;增加，&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;也增加。这种关系是完美的，意味着&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;的增加&#039;&#039;总是&#039;&#039;伴随着&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;在&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6562</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6562"/>
		<updated>2024-01-21T04:40:46Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6561</id>
		<title>相关分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E7%9B%B8%E5%85%B3%E5%88%86%E6%9E%90&amp;diff=6561"/>
		<updated>2024-01-21T04:40:19Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:数据分析]]1&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E5%88%86%E7%B1%BB:%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&amp;diff=6560</id>
		<title>分类:数据分析</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E5%88%86%E7%B1%BB:%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&amp;diff=6560"/>
		<updated>2024-01-21T04:22:03Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Short description|统计学概念}}&lt;br /&gt;
{{About|统计数据中的相关性和依赖性||Correlation (disambiguation)}}&lt;br /&gt;
[[File:Correlation examples2.svg|thumb|400px|right|几组（&#039;&#039;x&#039;&#039;,&amp;amp;nbsp;&#039;&#039;y&#039;&#039;）点，以及每组的[[Pearson correlation coefficient|皮尔逊相关系数]]。这些相关性反映了线性关系的噪声性和方向（顶部行），但不包括该关系的斜率（中间），以及非线性关系的许多方面（底部）。注意：中间的图形斜率为0，但在这种情况下，相关系数是未定义的，因为&#039;&#039;Y&#039;&#039;的方差为零。]]&lt;br /&gt;
&lt;br /&gt;
在[[statistics|统计学]]中，&#039;&#039;&#039;相关性&#039;&#039;&#039;或&#039;&#039;&#039;依赖性&#039;&#039;&#039;是指两个[[random variable|随机变量]]或[[bivariate data|双变量数据]]之间的任何统计关系，无论其是否[[causality|因果]]。尽管从广义上讲，“相关性”可能指任何类型的关联，在统计学中，它通常指的是一对变量&#039;&#039;[[line (geometry)|线性地]]&#039;&#039;相关的程度。熟悉的相关现象示例包括[[human height|父母身高]]与其后代之间的相关性，以及商品价格与消费者愿意购买数量之间的相关性，正如所谓的[[demand curve|需求曲线]]所描述的。&lt;br /&gt;
&lt;br /&gt;
相关性之所以有用，是因为它们可以指示出可以在实践中利用的预测关系。例如，电力公司可能在温和的天气下根据电力需求和天气之间的相关性减少发电量。在这个例子中，存在一个[[causality|因果关系]]，因为[[extreme weather|极端天气]]导致人们使用更多的电力进行取暖或制冷。然而，一般而言，存在相关性并不足以推断出存在因果关系（即[[correlation does not imply causation|相关性并不意味着因果性]]）。&lt;br /&gt;
&lt;br /&gt;
正式地说，如果随机变量不满足[[independence (probability theory)|概率独立性]]的数学特性，它们就是&#039;&#039;依赖的&#039;&#039;。在非正式用语中，&#039;&#039;相关性&#039;&#039;与&#039;&#039;依赖性&#039;&#039;是同义的。然而，在技术意义上使用时，相关性指的是[[Conditional expectation|测试变量及其各自期望值]]之间的几种特定类型的数学运算之一。本质上，相关性是衡量两个或多个变量之间关系的度量。有几种[[correlation coefficient|相关系数]]，通常用[math]\rho[/math]或[math]r[/math]表示，用以衡量相关程度。其中最常见的是&#039;&#039;[[Pearson product-moment correlation coefficient|皮尔逊相关系数]]&#039;&#039;，它只对两个变量之间的线性关系敏感（即使当其中一个变量是另一个的非线性函数时，这种关系也可能存在）。其他的相关系数——如&#039;&#039;[[Spearman&#039;s rank correlation coefficient|斯皮尔曼等级相关]]&#039;&#039;——已被开发出来，比皮尔逊的更加[[robust statistics|健壮]]，即对非线性关系更敏感。&amp;lt;ref&amp;gt;Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) &#039;&#039;Applied General Statistics&#039;&#039;, Pitman. {{ISBN|9780273403159}} (page 625)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Dietrich, Cornelius Frank (1991) &#039;&#039;Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement&#039;&#039; 2nd Edition, A. Higler. {{ISBN|9780750300605}} (Page 331)&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Aitken, Alexander Craig (1957) &#039;&#039;Statistical Mathematics&#039;&#039; 8th Edition. Oliver &amp;amp; Boyd. {{ISBN|9780050013007}}  (Page 95)&amp;lt;/ref&amp;gt; [[Mutual information|互信息]]也可以用来衡量两个变量之间的依赖性。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
两个量之间依赖关系的最常见度量是[[Pearson product-moment correlation coefficient]]（PPMCC），即“皮尔逊相关系数”，通常简称为“相关系数”。它通过取我们数值数据集中所讨论的两个变量的协方差与它们方差的平方根的比值获得。数学上，简单地将两个变量的[[covariance]]除以它们[[standard deviation]]的乘积。[[Karl Pearson]]从[[Francis Galton]]的一个类似但略有不同的想法中发展出了这个系数。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;&amp;gt;{{cite journal | last1 = Rodgers | first1 = J. L. | last2 = Nicewander | first2 = W. A. | year = 1988 | title = Thirteen ways to look at the correlation coefficient | journal = The American Statistician | volume = 42 | issue = 1| pages = 59–66 | jstor=2685263 | doi=10.1080/00031305.1988.10475524}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
皮尔逊积矩相关系数试图通过在两个变量的数据集中建立最佳拟合线，基本上展示了预期值，而所得到的皮尔逊相关系数表明实际数据集与预期值的偏离程度。根据我们的皮尔逊相关系数的符号，如果数据集中的变量之间存在某种关系，我们可能会得到负相关或正相关。{{cn|date=November 2023}}&lt;br /&gt;
&lt;br /&gt;
两个[[random variables]] &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;，它们具有[[expected value]]s &amp;lt;math&amp;gt;\mu_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\mu_Y&amp;lt;/math&amp;gt; 以及[[standard deviation]]s &amp;lt;math&amp;gt;\sigma_X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\sigma_Y&amp;lt;/math&amp;gt;，定义如下：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} = \operatorname{corr}(X,Y) = {\operatorname{cov}(X,Y) \over \sigma_X \sigma_Y} = {\operatorname{E}[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}, \quad \text{if}\ \sigma_{X}\sigma_{Y}&amp;gt;0.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\operatorname{E}&amp;lt;/math&amp;gt; 是[[expected value]]运算符，&amp;lt;math&amp;gt;\operatorname{cov}&amp;lt;/math&amp;gt; 表示[[covariance]]，&amp;lt;math&amp;gt;\operatorname{corr}&amp;lt;/math&amp;gt; 是相关系数的广泛使用的替代符号。只有当两个标准差都是有限且正数时，皮尔逊相关才有定义。纯粹用[[moment (mathematics)|moments]]表示的替代公式是：&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=block&amp;gt;\rho_{X,Y} =  {\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y)\over \sqrt{\operatorname{E}(X^2)-\operatorname{E}(X)^2}\cdot \sqrt{\operatorname{E}(Y^2)-\operatorname{E}(Y)^2} }&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===相关性和独立性===&lt;br /&gt;
[[Cauchy–Schwarz inequality]]的一个推论是皮尔逊相关系数的[[absolute value]]不大于1。因此，相关系数的值范围在−1和+1之间。在完美的直接（增长）线性关系（相关）情况下，相关系数为+1，在完美的逆向（减少）线性关系（&#039;&#039;&#039;反相关&#039;&#039;&#039;）情况下，相关系数为−1，&amp;lt;ref&amp;gt;Dowdy, S. and Wearden, S. (1983). &amp;quot;Statistics for Research&amp;quot;, Wiley. {{ISBN|0-471-08602-9}} pp 230&amp;lt;/ref&amp;gt; 在所有其他情况下，相关系数为 &amp;lt;math&amp;gt;(-1,1)&amp;lt;/math&amp;gt; 之间的某个值，表明变量之间的[[linear dependence]]程度。当它接近零时，关系较少（更接近无关）。相关系数越接近−1或1，变量之间的相关性越强。&lt;br /&gt;
&lt;br /&gt;
==皮尔逊积矩相关系数==&lt;br /&gt;
{{Main|Pearson product-moment correlation coefficient}}&lt;br /&gt;
[[File:Pearson Correlation Coefficient and associated scatterplots.png|thumb|各种数据集的散点图示例，展示了不同的相关系数。]]&lt;br /&gt;
&lt;br /&gt;
当两个变量是[[statistical independence|独立的]]时，皮尔逊相关系数为0，但反之不一定成立，因为相关系数只检测两个变量之间的线性依赖。简单来说，如果两个随机变量X和Y是独立的，那么它们是不相关的；但如果两个随机变量不相关，它们可能是独立的，也可能不是。&lt;br /&gt;
&lt;br /&gt;
[math display=block]\begin{align}&lt;br /&gt;
X,Y \text{ 独立} \quad &amp;amp; \Rightarrow \quad \rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\\&lt;br /&gt;
\rho_{X,Y} = 0 \quad (X,Y \text{ 不相关})\quad &amp;amp; \nRightarrow \quad X,Y \text{ 独立}&lt;br /&gt;
\end{align}[/math]&lt;br /&gt;
&lt;br /&gt;
例如，假设随机变量 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 关于零对称分布，并且 &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;。那么 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 完全由 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 决定，因此 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是完全依赖的，但它们的相关性为零；它们是[[uncorrelated|不相关的]]。然而，在特殊情况下，当 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 是[[Joint normality|联合正态分布]]时，不相关性等同于独立性。&lt;br /&gt;
&lt;br /&gt;
尽管不相关的数据不一定意味着独立性，但如果随机变量的[[mutual information|互信息]]为0，可以检查它们是否独立。&lt;br /&gt;
&lt;br /&gt;
===样本相关系数===&lt;br /&gt;
对于一组 &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; 次测量的对 &amp;lt;math&amp;gt;(X_i,Y_i)&amp;lt;/math&amp;gt;（由 &amp;lt;math&amp;gt;i=1,\ldots,n&amp;lt;/math&amp;gt; 索引），可以使用&#039;&#039;样本相关系数&#039;&#039;来估计 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 之间的总体皮尔逊相关系数 &amp;lt;math&amp;gt;\rho_{X,Y}&amp;lt;/math&amp;gt;。样本相关系数定义如下：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
r_{xy} \quad \overset{\underset{\mathrm{def}}{}}{=} \quad \frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{(n-1)s_x s_y}&lt;br /&gt;
=\frac{\sum\limits_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}&lt;br /&gt;
{\sqrt{\sum\limits_{i=1}^n (x_i-\bar{x})^2 \sum\limits_{i=1}^n (y_i-\bar{y})^2}},&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中 &amp;lt;math&amp;gt;\overline{x}&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;\overline{y}&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的样本[[arithmetic mean|算术平均值]]，&amp;lt;math&amp;gt;s_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s_y&amp;lt;/math&amp;gt; 是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Corrected sample standard deviation|校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt; 的等效表达式是：&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{align}&lt;br /&gt;
r_{xy} &amp;amp;=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s&#039;_x s&#039;_y} \\[5pt]&lt;br /&gt;
&amp;amp;=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
其中 &amp;lt;math&amp;gt;s&#039;_x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;s&#039;_y&amp;lt;/math&amp;gt; 分别是 &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; 的[[Standard deviation#Uncorrected sample standard deviation|未校正样本标准差]]。&lt;br /&gt;
&lt;br /&gt;
如果 &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; 和 &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; 是包含测量误差的测量结果，相关系数的实际限制不是−1到+1，而是更小的范围。&amp;lt;ref&amp;gt;{{cite journal|last=Francis|first=DP|author2=Coats AJ|author3=Gibson D|title=How high can a correlation coefficient be?|journal=Int J Cardiol|year=1999|volume=69|pages=185–199|doi=10.1016/S0167-5273(99)00028-5|issue=2|pmid=10549842}}&amp;lt;/ref&amp;gt; 对于单独自变量的线性模型，[[Coefficient of determination|决定系数（R平方）]]是 &amp;lt;math&amp;gt;r_{xy}&amp;lt;/math&amp;gt;，即皮尔逊积矩系数的平方。&lt;br /&gt;
&lt;br /&gt;
==示例==&lt;br /&gt;
考虑下表中给出的 {{mvar|X}} 和 {{mvar|Y}} 的[[joint probability distribution|联合概率分布]]。&lt;br /&gt;
&lt;br /&gt;
:{| class=&amp;quot;wikitable&amp;quot; style=&amp;quot;text-align:center;&amp;quot;&lt;br /&gt;
|+ &amp;lt;math&amp;gt;\mathrm{P}(X=x,Y=y)&amp;lt;/math&amp;gt;&lt;br /&gt;
! {{diagonal split header|{{mvar|x}}|{{mvar|y}}}}&lt;br /&gt;
!&amp;amp;minus;1&lt;br /&gt;
!0&lt;br /&gt;
!1&lt;br /&gt;
|-&lt;br /&gt;
!0&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|-&lt;br /&gt;
!1&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|0&lt;br /&gt;
|{{sfrac|1|3}}&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==联合分布的边缘分布==&lt;br /&gt;
针对这个联合分布，其边缘分布如下所示：&lt;br /&gt;
:[math]\mathrm{P}(X=x)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } x=0 \\&lt;br /&gt;
\frac 2 3 &amp;amp; \quad \text{对于 } x=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\mathrm{P}(Y=y)=&lt;br /&gt;
\begin{cases}&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=-1 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=0 \\&lt;br /&gt;
\frac 1 3 &amp;amp; \quad \text{对于 } y=1&lt;br /&gt;
\end{cases}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
这导致了以下期望值和方差：&lt;br /&gt;
:[math]\mu_X = \frac 2 3[/math]&lt;br /&gt;
:[math]\mu_Y = 0[/math]&lt;br /&gt;
:[math]\sigma_X^2 = \frac 2 9[/math]&lt;br /&gt;
:[math]\sigma_Y^2 = \frac 2 3[/math]&lt;br /&gt;
&lt;br /&gt;
因此：&lt;br /&gt;
&lt;br /&gt;
: [math]&lt;br /&gt;
\begin{align}&lt;br /&gt;
\rho_{X,Y} &amp;amp; = \frac{1}{\sigma_X \sigma_Y} \mathrm{E}[(X-\mu_X)(Y-\mu_Y)] \\[5pt]&lt;br /&gt;
&amp;amp; = \frac{1}{\sigma_X \sigma_Y} \sum_{x,y}{(x-\mu_X)(y-\mu_Y) \mathrm{P}(X=x,Y=y)} \\[5pt]&lt;br /&gt;
&amp;amp; = \left(1-\frac 2 3\right)(-1-0)\frac{1}{3} + \left(0-\frac 2 3\right)(0-0)\frac{1}{3} + \left(1-\frac 2 3\right)(1-0)\frac{1}{3} = 0.&lt;br /&gt;
\end{align}&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
==秩相关系数==&lt;br /&gt;
{{Main|Spearman&#039;s rank correlation coefficient|Kendall tau rank correlation coefficient}}&lt;br /&gt;
&lt;br /&gt;
像[[Spearman&#039;s rank correlation coefficient]]（斯皮尔曼等级相关系数）和[[Kendall&#039;s tau|Kendall的秩相关系数 (τ)]]这样的秩相关系数，用来衡量随着一个变量增加，另一个变量也倾向于增加的程度，而不要求这种增加必须通过线性关系来表示。如果当一个变量增加时，另一个变量&#039;&#039;减少&#039;&#039;，秩相关系数将是负的。通常认为这些秩相关系数是皮尔逊系数的替代品，用于减少计算量或使系数对分布中的非正态性不那么敏感。然而，这种观点在数学上并无太多依据，因为秩相关系数衡量的是与[[Pearson product-moment correlation coefficient]]（皮尔逊积矩相关系数）不同类型的关系，并且最好被视为不同类型的关联度量，而不是人口相关系数的另一种度量。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;&amp;gt;Yule, G.U and Kendall, M.G. (1950), &amp;quot;An Introduction to the Theory of Statistics&amp;quot;, 14th Edition (5th Impression 1968). Charles Griffin &amp;amp; Co. pp 258–270&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;Kendall Rank Correlation Methods&amp;quot;&amp;gt;Kendall, M. G. (1955) &amp;quot;Rank Correlation Methods&amp;quot;, Charles Griffin &amp;amp; Co.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
为了说明秩相关的性质及其与线性相关的区别，考虑以下四对数字 &amp;lt;math&amp;gt;(x,y)&amp;lt;/math&amp;gt;：&lt;br /&gt;
&lt;br /&gt;
:(0,&amp;amp;nbsp;1), (10,&amp;amp;nbsp;100), (101,&amp;amp;nbsp;500), (102,&amp;amp;nbsp;2000)。&lt;br /&gt;
&lt;br /&gt;
当我们从一对数到另一对数时，&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;增加，&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;也增加。这种关系是完美的，意味着&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;的增加&#039;&#039;总是&#039;&#039;伴随着&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;的增加。这意味着我们有一个完美的秩相关，斯皮尔曼和肯德尔的相关系数都是1，而在这个例子中皮尔逊积矩相关系数为0.7544，表明这些点远离直线。同样地，如果&amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt;在&amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;&#039;&#039;增加&#039;&#039;时总是&#039;&#039;减少&#039;&#039;，秩相关系数将是-1，而皮尔逊积矩相关系数可能接近-1，也可能不接近，这取决于这些点与直线的接近程度。尽管在完美秩相关的极端情况下，两个系数都是相等的（都是+1或-1），但通常情况下并非如此，因此两个系数的值不能有意义地进行比较。&amp;lt;ref name=&amp;quot;Yule and Kendall&amp;quot;/&amp;gt;例如，对于三对数(1,&amp;amp;nbsp;1) (2,&amp;amp;nbsp;3) (3,&amp;amp;nbsp;2)，斯皮尔曼系数是1/2，而肯德尔系数是&amp;amp;nbsp;1/3。&lt;br /&gt;
&lt;br /&gt;
==其他衡量随机变量相依性的方法==&lt;br /&gt;
{{See also|Pearson product-moment correlation coefficient#Variants}}&lt;br /&gt;
&lt;br /&gt;
仅靠相关系数所提供的信息并不足以定义随机变量之间的依赖结构。&amp;lt;ref name=&amp;quot;wilmottM.com&amp;quot;&amp;gt;{{cite journal|author=Mahdavi Damghani B.|title=The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model|journal=Wilmott Magazine|volume=2013|issue=67|pages=50–61|year=2013|doi=10.1002/wilm.10252 }}&amp;lt;/ref&amp;gt; 在某些特殊情况下，例如当分布是[[multivariate normal distribution]]时，相关系数完全定义了依赖结构。在[[elliptical distribution]]的情况下，它描述了等密度的(超)椭圆；然而，它并不完全描述依赖结构（例如，[[multivariate t-distribution]]的自由度决定了尾部依赖的程度）。&lt;br /&gt;
&lt;br /&gt;
[[Distance correlation]]&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. Rizzo | last2 = Bakirov | first2 = N. K. | year = 2007 | title = Measuring and testing independence by correlation of distances | journal = [[Annals of Statistics]] | volume = 35 | issue = 6| pages = 2769–2794 | doi = 10.1214/009053607000000505 | arxiv = 0803.4101 | s2cid = 5661488 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last1 = Székely | first1 = G. J. | last2 = Rizzo | first2 = M. L. | year = 2009 | title = Brownian distance covariance | journal = Annals of Applied Statistics | volume = 3 | issue = 4| pages = 1233–1303 | doi = 10.1214/09-AOAS312 | pmid = 20574547 | pmc = 2889501 | arxiv = 1010.0297 }}&amp;lt;/ref&amp;gt; 被引入是为了弥补Pearson相关系数的不足，即它可能对依赖的随机变量为零；零距离相关性意味着独立。&lt;br /&gt;
&lt;br /&gt;
随机依赖系数&amp;lt;ref&amp;gt;Lopez-Paz D. and Hennig P. and Schölkopf B. (2013). &amp;quot;The Randomized Dependence Coefficient&amp;quot;, &amp;quot;[[Conference on Neural Information Processing Systems]]&amp;quot; [ Reprint]&amp;lt;/ref&amp;gt; 是一个基于[[Copula (probability theory)|copula]]的多变量随机变量之间依赖性的计算效率高的衡量方法。RDC对随机变量的非线性缩放不变，能够发现广泛的功能关联模式，并在独立时取值为零。&lt;br /&gt;
&lt;br /&gt;
对于两个[[binary data|二元变量]]，[[odds ratio]]衡量它们的依赖性，并取非负数值范围，可能为无穷大：{{tmath|[0, +\infty]}}。相关的统计量如[[Yule&#039;s Y|Yule&#039;s &#039;&#039;Y&#039;&#039;]]和[[Yule&#039;s Q|Yule&#039;s &#039;&#039;Q&#039;&#039;]]将其规范化到类似相关系数的范围{{tmath|[-1, 1]}}。[[logistic regression|逻辑模型]]将赔率比推广，用于模拟依赖变量是离散的情况，且可能有一个或多个独立变量。&lt;br /&gt;
&lt;br /&gt;
[[correlation ratio]]、基于[[Entropy (information theory)|熵]]的[[mutual information]]、[[total correlation]]、[[dual total correlation]]和[[polychoric correlation]]都能够检测更一般的依赖性，考虑它们之间的[[copula (statistics)|copula]]也是如此，而[[coefficient of determination]]将相关系数推广到[[multiple regression]]。&lt;br /&gt;
&lt;br /&gt;
==对数据分布的敏感性==&lt;br /&gt;
{{Further|Pearson product-moment correlation coefficient#Sensitivity to the data distribution}}&lt;br /&gt;
&lt;br /&gt;
变量{{mvar|X}}和{{mvar|Y}}之间的依赖程度不取决于这些变量表达的尺度。也就是说，如果我们分析{{mvar|X}}和{{mvar|Y}}之间的关系，大多数相关度量不会受到将{{mvar|X}}转换为[math]a + bX[/math]和{{mvar|Y}}转换为[math]c + dY[/math]的影响，其中a、b、c和d是常数（b和d为正数）。这适用于某些相关统计量以及它们的[[Population (statistics)|人口]]类似物。一些相关统计量，如秩相关系数，也对{{mvar|X}}和/或{{mvar|Y}}的边缘分布的[[monotone function|单调变换]]保持不变。&lt;br /&gt;
&lt;br /&gt;
[[File:correlation range dependence.svg|300px|right|thumb|当{{mvar|X}}和{{mvar|Y}}两个变量的范围不受限制时，以及{{mvar|X}}的范围限制在区间(0,1)时，展示了{{mvar|X}}与{{mvar|Y}}之间的[[Pearson product moment correlation coefficient|Pearson]]/[[Spearman&#039;s rank correlation coefficient|Spearman]]相关系数。]]大多数相关度量对于{{mvar|X}}和{{mvar|Y}}的抽样方式是敏感的。如果在更广范围的值上观察，依赖关系往往更强。因此，如果我们考虑所有成年男性父亲与其儿子身高之间的相关系数，并将其与仅选择身高在165厘米到170厘米之间的父亲时计算的同一相关系数进行比较，后者情况下的相关性会更弱。已经开发出几种技术试图纠正一个或两个变量中的范围限制，并且通常在元分析中使用；最常见的是Thorndike的第二和第三案例方程。&amp;lt;ref&amp;gt;{{cite book|last=Thorndike|first=Robert Ladd|title=Research problems and techniques (Report No. 3)|year=1947|publisher=US Govt. print. off.|location=Washington DC}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
对于{{mvar|X}}和{{mvar|Y}}的某些联合分布，使用中的各种相关度量可能是未定义的。例如，Pearson相关系数是基于[[moment (mathematics)|矩]]定义的，因此如果矩是未定义的，它也将是未定义的。基于[[quantile]]的依赖度量始终是定义的。旨在估计人口依赖度量的基于样本的统计量可能具有或可能不具有如无偏性或[[consistent estimator|渐近一致性]]等理想的统计属性，这取决于采样数据的人口空间结构。&lt;br /&gt;
&lt;br /&gt;
对数据分布的敏感性可以被用作优势。例如，[[scaled correlation]]旨在利用对范围的敏感性来挑选出时间序列中快速组成部分之间的相关性。&amp;lt;ref name = &amp;quot;Nikolicetal&amp;quot;&amp;gt;{{cite journal | last1 = Nikolić | first1 = D | last2 = Muresan | first2 = RC | last3 = Feng | first3 = W | last4 = Singer | first4 = W | year = 2012 | title = Scaled correlation analysis: a better way to compute a cross-correlogram | journal = European Journal of Neuroscience | volume = 35| issue = 5| pages = 1–21 | doi = 10.1111/j.1460-9568.2011.07987.x | pmid = 22324876 | s2cid = 4694570 }}&amp;lt;/ref&amp;gt;通过以受控方式减少值的范围，过滤掉长时间尺度上的相关性，仅揭示短时间尺度上的相关性。&lt;br /&gt;
&lt;br /&gt;
== 相关矩阵 ==&lt;br /&gt;
&lt;br /&gt;
[math]n[/math]个随机变量[math]X_1,\ldots,X_n[/math]的相关矩阵是一个[math]n \times n[/math]矩阵[math]C[/math]，其[math](i,j)[/math]项定义为&lt;br /&gt;
:[math]c_{ij}:=\operatorname{corr}(X_i,X_j)=\frac{\operatorname{cov}(X_i,X_j)}{\sigma_{X_i}\sigma_{X_j}},\quad \text{若}\ \sigma_{X_i}\sigma_{X_j}&amp;gt;0.[/math]&lt;br /&gt;
因此，对角线上的条目都是[[unity (number)|一]]。如果使用的相关性度量是乘积矩相关系数，相关矩阵与[[standardized variable|标准化随机变量]] [math]X_i / \sigma(X_i)[/math] 的[[covariance matrix|协方差矩阵]]相同，适用于[math]i = 1, \dots, n[/math]。这适用于人口相关矩阵（在这种情况下[math]\sigma[/math]是人口标准差）和样本相关矩阵（在这种情况下[math]\sigma[/math]表示样本标准差）。因此，每个矩阵都必然是[[positive-semidefinite matrix|半正定矩阵]]。此外，如果没有变量的所有值都可以精确地作为其他变量值的线性函数生成，则相关矩阵严格[[positive definite matrix|正定]]。&lt;br /&gt;
&lt;br /&gt;
相关矩阵是对称的，因为[math]X_i[/math]与[math]X_j[/math]之间的相关性与[math]X_j[/math]与[math]X_i[/math]之间的相关性相同。&lt;br /&gt;
&lt;br /&gt;
例如，在[[coefficient of multiple determination#Computation|多重决定系数]]的公式中，相关矩阵是[[multiple regression|多重回归]]中拟合优度的一种度量。&lt;br /&gt;
&lt;br /&gt;
在[[statistical modelling|统计建模]]中，代表变量之间关系的相关矩阵被划分为不同的相关结构，这些结构根据估计所需的参数数量等因素进行区分。例如，在[[Exchangeability|可交换]]相关矩阵中，所有变量对被建模为具有相同的相关性，因此矩阵的所有非对角元素都彼此相等。另一方面，当变量代表时间序列时，经常使用[[Autoregressive model|自回归]]矩阵，因为当测量值时间上更接近时，相关性可能会更大。其他例子包括独立、非结构化、M依赖和托普利茨。&lt;br /&gt;
&lt;br /&gt;
在[[exploratory data analysis|探索性数据分析]]中，[[iconography of correlations|相关性图标]]包括用一个图表替换相关矩阵，其中“显著”相关性由实线（正相关）或虚线（负相关）表示。&lt;br /&gt;
&lt;br /&gt;
=== 最近有效相关矩阵 ===&lt;br /&gt;
在某些应用中（例如，仅从部分观察到的数据中构建数据模型），人们希望找到与“近似”相关矩阵（例如，由于计算方式，通常缺乏半正定正性的矩阵）“最接近”的相关矩阵。&lt;br /&gt;
&lt;br /&gt;
2002年，Higham&amp;lt;ref&amp;gt;{{cite journal|title=Computing the nearest correlation matrix—a problem from finance|journal=IMA Journal of Numerical Analysis|date=2002|first=Nicholas J.|last=Higham|volume=22|issue=3|pages=329–343|doi=10.1093/imanum/22.3.329|citeseerx=10.1.1.661.2180}}&amp;lt;/ref&amp;gt; 使用[[Frobenius norm|弗罗贝尼乌斯范数]]定义了接近度的概念，并提供了一种使用[[Dykstra&#039;s projection algorithm|迪克斯特拉投影算法]]计算最近相关矩阵的方法，该方法可以通过在线Web API实现。&amp;lt;ref&amp;gt;{{Cite web|url=https://portfoliooptimizer.io/|title=Portfolio Optimizer |website=portfoliooptimizer.io|access-date=2021-01-30}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
这激发了人们对该主题的兴趣，随后几年中产生了新的理论（例如，计算具有因子结构的最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=Computing a Nearest Correlation Matrix with Factor Structure.|journal= SIAM J. Matrix Anal. Appl.|date=2010|first1=Rudiger|last1=Borsdorf|first2=Nicholas J.|last2=Higham|first3=Marcos|last3=Raydan|volume=31|issue=5|pages=2603–2622|doi=10.1137/090776718|url= http://eprints.maths.manchester.ac.uk/1523/1/SML002603.pdf}}&amp;lt;/ref&amp;gt;）和数值（例如，使用[[Newton&#039;s method]]计算最近相关矩阵&amp;lt;ref&amp;gt;{{cite journal|title=A quadratically convergent Newton method for computing the nearest correlation matrix.|journal= SIAM J. Matrix Anal. Appl.|date=2006|first1=HOUDUO|last1=Qi|first2=DEFENG|last2=Sun|volume=28|issue=2|pages=360–385|doi=10.1137/050624509}}&amp;lt;/ref&amp;gt;）方面的结果。&lt;br /&gt;
&lt;br /&gt;
==随机过程的不相关性和独立性==&lt;br /&gt;
类似地，对于两个随机过程[math]\left\{ X_t \right\}_{t\in\mathcal{T}}[/math]和[math]\left\{ Y_t \right\}_{t\in\mathcal{T}}[/math]：如果它们是独立的，那么它们是不相关的。&amp;lt;ref name=KunIlPark&amp;gt;{{cite book | author=Park, Kun Il| title=Fundamentals of Probability and Stochastic Processes with Applications to Communications| publisher=Springer | year=2018 | isbn=978-3-319-68074-3}}&amp;lt;/ref&amp;gt;{{rp|p. 151}} 这个陈述的相反可能不成立。即使两个变量不相关，它们也可能不是彼此独立的。&lt;br /&gt;
&lt;br /&gt;
==常见误解==&lt;br /&gt;
&lt;br /&gt;
===相关性和因果关系===&lt;br /&gt;
{{Main|Correlation does not imply causation}} {{See also|Normally distributed and uncorrelated does not imply independent}}&lt;br /&gt;
常规的格言“[[correlation does not imply causation]]”意味着不能单独使用相关性来推断变量之间的因果关系。&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | volume=10 | issue=4 | year=1995 | pages=364–376 | title=Correlations Genuine and Spurious in Pearson and Yule | jstor=2246135 | doi=10.1214/ss/1177009870| doi-access=free }}&amp;lt;/ref&amp;gt; 这个格言不应被理解为相关性不能指示因果关系的潜在存在。然而，相关性背后的原因（如果有的话）可能是间接和未知的，高相关性也与[[identity (mathematics)|同一性]]关系（[[tautology (logic)|重言式]]）重叠，其中不存在因果过程。因此，两个变量之间的相关性不是建立因果关系（无论哪个方向）的充分条件。&lt;br /&gt;
&lt;br /&gt;
儿童年龄和身高之间的相关性相对因果关系较为明确，但人们的情绪和健康之间的相关性则不那么明显。情绪改善是否导致健康改善，或者良好的健康是否导致情绪好转，或者两者都有？或者还有其他因素在两者之下？换句话说，相关性可以被视为可能因果关系的证据，但不能指明这种因果关系（如果有的话）可能是什么。&lt;br /&gt;
&lt;br /&gt;
=== 简单线性相关性 ===&lt;br /&gt;
&lt;br /&gt;
[[File:Anscombe&#039;s quartet 3.svg|thumb|325px|right|[[Anscombe&#039;s quartet]]：四组数据，它们的相关系数均为0.816]]&lt;br /&gt;
皮尔逊相关系数用于表示两个变量之间&#039;&#039;线性&#039;&#039;关系的强度，但其值通常无法完全刻画它们的关系。&amp;lt;ref&amp;gt;{{cite journal |first=Babak |last=Mahdavi Damghani |year=2012|title=测量相关性的误导性价值 |journal=[[Wilmott (magazine)|Wilmott Magazine]] |volume=2012 |issue=1 |pages=64–73 |doi=10.1002/wilm.10167|s2cid=154550363 }}&amp;lt;/ref&amp;gt; 特别是，如果给定[math]X[/math]的[math]Y[/math]的[[条件期望|条件均值]]，记作[math]\operatorname{E}(Y \mid X)[/math]，不是[math]X[/math]的线性函数，那么相关系数将无法完全确定[math]\operatorname{E}(Y \mid X)[/math]的形式。&lt;br /&gt;
&lt;br /&gt;
相邻图片展示了[[Anscombe&#039;s quartet]]的[[散点图]]，这是由[[Francis Anscombe]]创建的四对不同变量组成的集合。&amp;lt;ref&amp;gt;{{cite journal | last=Anscombe | first=Francis J. | year=1973 | title=统计分析中的图形 | journal=The American Statistician | volume=27 | issue=1 | pages=17–21 | jstor=2682899 | doi=10.2307/2682899}}&amp;lt;/ref&amp;gt; 这四个[math]y[/math]变量具有相同的平均值（7.5）、方差（4.12）、相关系数（0.816）和回归线（[math display=&amp;quot;inline&amp;quot;]y=3+0.5x[/math]）。然而，如图所示，这些变量的分布非常不同。第一个（左上角）似乎呈正态分布，并符合人们对两个相关变量在正态性假设下的预期。第二个（右上角）不是正态分布；虽然两个变量之间的明显关系可以观察到，但它不是线性的。在这种情况下，皮尔逊相关系数并未表明存在精确的函数关系：只是表明该关系在多大程度上可以被线性关系近似。在第三种情况（左下角）中，线性关系是完美的，除了一个[[离群值]]，它的影响足以将相关系数从1降低到0.816。最后，第四个例子（右下角）展示了当一个离群值足以产生高相关系数的另一个例子，尽管两个变量之间的关系不是线性的。&lt;br /&gt;
&lt;br /&gt;
这些例子表明，相关系数作为[[总结统计量]]，不能替代对数据的视觉检查。有时认为这些例子表明皮尔逊相关假设数据遵循[[正态分布]]，但这只是部分正确。&amp;lt;ref name=&amp;quot;thirteenways&amp;quot;/&amp;gt; 皮尔逊相关可以准确地计算任何具有有限[[协方差矩阵]]的分布，这包括实际遇到的大多数分布。然而，皮尔逊相关系数（连同样本均值和方差）只是[[充分统计量]]，如果数据来自[[多元正态分布]]。因此，只有当数据来自多元正态分布时，皮尔逊相关系数才能完全刻画变量之间的关系。&lt;br /&gt;
&lt;br /&gt;
==双变量正态分布==&lt;br /&gt;
如果一对随机变量[math](X,Y)[/math]遵循[[双变量正态分布]]，则给定[math]Y[/math]的条件下[math]X[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(X \mid Y)[/math]是[math]Y[/math]的线性函数，而给定[math]X[/math]的条件下[math]Y[/math]的条件均值[math]\operatorname{\boldsymbol\mathcal E}(Y \mid X)[/math]是[math]X[/math]的线性函数。[math]X[/math]和[math]Y[/math]之间的相关系数[math]\rho_{X,Y}[/math]，以及[math]X[/math]和[math]Y[/math]的[[边缘分布|边缘]]均值和方差确定了这种线性关系：&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\operatorname{\boldsymbol\mathcal E}(Y \mid X ) = \operatorname{\boldsymbol\mathcal E}(Y) + \rho_{X,Y} \cdot \sigma_Y \cdot \frac{X-\operatorname{\boldsymbol\mathcal E}(X)}{\sigma_X},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]\operatorname{\boldsymbol\mathcal E}(X)[/math]和[math]\operatorname{\boldsymbol\mathcal E}(Y)[/math]分别是[math]X[/math]和[math]Y[/math]的期望值，[math]\sigma_X[/math]和[math]\sigma_Y[/math]分别是[math]X[/math]和[math]Y[/math]的标准差。&lt;br /&gt;
&lt;br /&gt;
经验相关系数[math]r[/math]是相关系数[math]\rho[/math]的[[估计|估计值]]。对[math]\rho[/math]的分布估计由以下公式给出：&lt;br /&gt;
&lt;br /&gt;
: &amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;\pi ( \rho \mid r ) =&lt;br /&gt;
\frac{\Gamma(N)}{\sqrt{ 2\pi } \cdot&lt;br /&gt;
\Gamma( N - \tfrac{1}{2})} \cdot&lt;br /&gt;
\bigl( 1 - r^2 \bigr)^{\frac{N - 2}{2}} \cdot&lt;br /&gt;
\bigl( 1 - \rho^2 \bigr)^{\frac{N - 3}{2}} \cdot&lt;br /&gt;
\bigl( 1 - r \rho \bigr)^{- N + \frac{3}{2}} \cdot F_\mathsf{Hyp} \left(\tfrac{3}{2}, -\tfrac{1}{2}; N - \tfrac{1}{2}; \frac{1 + r \rho}{2} \right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
其中[math]F_\mathsf{Hyp}[/math]是[[高斯超几何函数]]。&lt;br /&gt;
&lt;br /&gt;
这个密度既是贝叶斯[[后验概率|后验]]密度，也是精确的最佳[[置信度分布]]密度。&amp;lt;ref&amp;gt;{{cite journal |last=Taraldsen |first=Gunnar |date=2021 |title=关于相关性的置信密度 |journal=Sankhya A |volume=85 |pages=600–616 |lang=en |s2cid=244594067 |issn=0976-8378 |doi=10.1007/s13171-021-00267-y |doi-access=free}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite report |last=Taraldsen |first=Gunnar |date=2020 |title=关于相关性的信心 |lang=en |type=preprint |doi=10.13140/RG.2.2.23673.49769 |website=researchgate.net |url=http://rgdoi.net/10.13140/RG.2.2.23673.49769}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==另请参阅==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Further|Correlation (disambiguation)}}&lt;br /&gt;
{{cols|colwidth=26em}}&lt;br /&gt;
* [[自相关]]&lt;br /&gt;
* [[典型相关]]&lt;br /&gt;
* [[决定系数]]&lt;br /&gt;
* [[协整]]&lt;br /&gt;
* [[一致性相关系数]]&lt;br /&gt;
* [[共分型相关]]&lt;br /&gt;
* [[消除衰减的相关]]&lt;br /&gt;
* [[相关函数]]&lt;br /&gt;
* [[相关差距]]&lt;br /&gt;
* [[协方差]]&lt;br /&gt;
* [[协方差和相关]]&lt;br /&gt;
* [[互相关]]&lt;br /&gt;
* [[生态相关]]&lt;br /&gt;
* [[未解释的方差比例]]&lt;br /&gt;
* [[遗传相关]]&lt;br /&gt;
* [[古德曼和克鲁斯卡尔的lambda]]&lt;br /&gt;
* [[相关图像学]]&lt;br /&gt;
* [[虚假相关]]&lt;br /&gt;
* [[类间相关]]&lt;br /&gt;
* [[类内相关]]&lt;br /&gt;
* [[数据挖掘中的提升]]&lt;br /&gt;
* [[平均依赖性]]&lt;br /&gt;
* [[可修改区域单元问题]]&lt;br /&gt;
* [[多重相关]]&lt;br /&gt;
* [[点二项相关系数]]&lt;br /&gt;
* [[象限计数比]]&lt;br /&gt;
* [[伪相关]]&lt;br /&gt;
* [[统计相关比率]]&lt;br /&gt;
* [[次独立性]]&lt;br /&gt;
  {{colend}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* {{cite book |author=Cohen, J. |author2=Cohen P. |author3=West, S.G. |author4=Aiken, L.S.|author4-link= Leona S. Aiken |name-list-style=amp |year=2002 |title=Applied multiple regression/correlation analysis for the behavioral sciences |edition=3rd |publisher=Psychology Press |isbn= 978-0-8058-2223-6 }}&lt;br /&gt;
* {{springer|title=Correlation (in statistics)|id=p/c026560}}&lt;br /&gt;
* {{cite book|last1=Oestreicher|first1=J. &amp;amp; D. R.|title=Plague of Equals: A science thriller of international disease, politics and drug discovery|date=February 26, 2015|publisher=Omega Cat Press|location=California|isbn=978-0963175540|pages=408}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Wiktionary|correlation|dependence}}&lt;br /&gt;
{{Commons category|Correlation}}&lt;br /&gt;
{{Wikiversity|Correlation}}&lt;br /&gt;
* [http://mathworld.wolfram.com/CorrelationCoefficient.html MathWorld page on the (cross-)correlation coefficient/s of a sample]&lt;br /&gt;
* [http://peaks.informatik.uni-erlangen.de/cgi-bin/usignificance.cgi Compute significance between two correlations], for the comparison of two correlation values.&lt;br /&gt;
* {{cite web|url=http://www.mathworks.com/matlabcentral/fileexchange/20846|title=A MATLAB Toolbox for computing Weighted Correlation Coefficients|archive-url=https://web.archive.org/web/20210424091029/https://www.mathworks.com/matlabcentral/fileexchange/20846-weighted-correlation-matrix|archive-date=24 April 2021}}&lt;br /&gt;
* [https://www.scribd.com/doc/299546673/Proof-that-the-Sample-Bivariate-Correlation-has-limits-plus-or-minus-1 Proof that the Sample Bivariate Correlation has limits plus or minus 1]&lt;br /&gt;
* [http://nagysandor.eu/AsimovTeka/correlation_en/index.html Interactive Flash simulation on the correlation of two normally distributed variables] by Juha Puranen.&lt;br /&gt;
* [https://web.archive.org/web/20150407112430/http://www.biostat.katerynakon.in.ua/en/association/correlation.html Correlation analysis. Biomedical Statistics]&lt;br /&gt;
* R-Psychologist [https://rpsychologist.com/correlation/ Correlation] visualization of correlation between two numeric variables&lt;br /&gt;
&lt;br /&gt;
{{Statistics |相关分析}}&lt;br /&gt;
{{Authority control}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Correlation And Dependence}}&lt;br /&gt;
[[Category:Covariance and correlation]]&lt;br /&gt;
[[Category:Dimensionless numbers]]&lt;br /&gt;
&lt;br /&gt;
[[Category:数据分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5034</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5034"/>
		<updated>2024-01-18T02:54:25Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{简短描述|统计假设检验，大多使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|自由度为 d1 和 d2 = 10，在显著性水平 0.05 的 f-检验概率密度函数（pdf）。(红色阴影区域表示临界区域)]]&lt;br /&gt;
一个&#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039;是用于比较两个样本方差或多个样本方差比的任何[[统计检验]]。[[检验统计量]]，随机变量 F，用于确定在真实[[零假设]]下，测试数据是否符合[[F 分布|&#039;&#039;F&#039;&#039; 分布]]，以及误差项（ε）的真实惯常假定。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer 国际出版社 |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于[[模型选择|比较统计模型]]，这些模型已经适应于一个[[数据]]集合，以确定最适合从中抽取数据的[[人口统计（统计学）|人群]]的模型。精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot; 主要出现在使用[[最小二乘法]]拟合数据时。这个名称由[[George W. Snedecor]]创造，以纪念[[Ronald Fisher]]。Fisher 最初在 1920 年代开发了这个统计量作为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==常见例子==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;F&#039;&#039; 检验的常见用途包括以下情况的研究：&lt;br /&gt;
&lt;br /&gt;
* [[File:One-way ANOVA Table generated using Matlab.jpg|thumb|使用 Matlab 生成的单因素方差分析表，包含 3 个随机组，每组有 30 个观察值。F 值在倒数第二列计算]]假设一组给定的[[正态分布|正态分布]]人群，都具有相同的[[标准差]]，它们的[[算术平均数|均值]]相等。这可能是最著名的 &#039;&#039;F&#039;&#039; 检验，并在[[方差分析]]（ANOVA）中扮演重要角色。&lt;br /&gt;
  ** 方差分析（ANOVA）的 F 检验遵循三个假设：&lt;br /&gt;
  **# [[正态性（统计学）|正态性]]&lt;br /&gt;
  **# [[方差同质性|方差齐性]]&lt;br /&gt;
  **# [[独立性（概率论）|误差独立性]] 和 [[随机性|随机抽样]]&lt;br /&gt;
&lt;br /&gt;
* 假设提出的回归模型很好地拟合了[[数据]]。参见[[缺乏拟合的平方和]]。&lt;br /&gt;
* 假设在[[回归分析]]中的数据集遵循两个提出的线性模型中较简单的一个，这两个模型是[[统计模型#嵌套模型|嵌套]]在彼此之内&lt;br /&gt;
{{简短描述|统计假设检验，主要使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039;-检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|在显著性水平0.05下，自由度d1和d2为10的F-检验概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
一个&#039;&#039;&#039;&#039;&#039;F&#039;&#039;-检验&#039;&#039;&#039;是用来比较两个样本的方差或多个样本之间的方差比率的任何[[统计检验]]。[[检验统计量]]，随机变量F，用于确定在真实[[零假设]]下被检验的数据是否具有[[F 分布|&#039;&#039;F&#039;&#039;-分布]]，以及关于误差项（ε）的真实传统假设。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于比较已经拟合到数据集的[[模型选择|统计模型]]，以识别最能代表从中抽样的数据的[[人口统计（统计学）|总体]]的模型。精确的&amp;quot;&#039;&#039;F&#039;&#039;-检验&amp;quot;主要出现在模型通过[[最小二乘法]]拟合到数据时。这个名称由[[George W. Snedecor]]创造，以纪念[[Ronald Fisher]]。Fisher最初在20世纪20年代开发了这个统计量，作为方差比率。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5033</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5033"/>
		<updated>2024-01-18T02:53:02Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{简短描述|统计假设检验，大多使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|自由度为 d1 和 d2 = 10，在显著性水平 0.05 的 f-检验概率密度函数（pdf）。(红色阴影区域表示临界区域)]]&lt;br /&gt;
一个&#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039;是用于比较两个样本方差或多个样本方差比的任何[[统计检验]]。[[检验统计量]]，随机变量 F，用于确定在真实[[零假设]]下，测试数据是否符合[[F 分布|&#039;&#039;F&#039;&#039; 分布]]，以及误差项（ε）的真实惯常假定。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer 国际出版社 |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于[[模型选择|比较统计模型]]，这些模型已经适应于一个[[数据]]集合，以确定最适合从中抽取数据的[[人口统计（统计学）|人群]]的模型。精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot; 主要出现在使用[[最小二乘法]]拟合数据时。这个名称由[[George W. Snedecor]]创造，以纪念[[Ronald Fisher]]。Fisher 最初在 1920 年代开发了这个统计量作为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==常见例子==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;F&#039;&#039; 检验的常见用途包括以下情况的研究：&lt;br /&gt;
&lt;br /&gt;
* [[File:One-way ANOVA Table generated using Matlab.jpg|thumb|使用 Matlab 生成的单因素方差分析表，包含 3 个随机组，每组有 30 个观察值。F 值在倒数第二列计算]]假设一组给定的[[正态分布|正态分布]]人群，都具有相同的[[标准差]]，它们的[[算术平均数|均值]]相等。这可能是最著名的 &#039;&#039;F&#039;&#039; 检验，并在[[方差分析]]（ANOVA）中扮演重要角色。&lt;br /&gt;
  ** 方差分析（ANOVA）的 F 检验遵循三个假设：&lt;br /&gt;
  **# [[正态性（统计学）|正态性]]&lt;br /&gt;
  **# [[方差同质性|方差齐性]]&lt;br /&gt;
  **# [[独立性（概率论）|误差独立性]] 和 [[随机性|随机抽样]]&lt;br /&gt;
&lt;br /&gt;
* 假设提出的回归模型很好地拟合了[[数据]]。参见[[缺乏拟合的平方和]]。&lt;br /&gt;
* 假设在[[回归分析]]中的数据集遵循两个提出的线性模型中较简单的一个，这两个模型是[[统计模型#嵌套模型|嵌套]]在彼此之内```markdown&lt;br /&gt;
{{简短描述|统计假设检验，主要使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039;-检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|在显著性水平0.05下，自由度d1和d2为10的F-检验概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
一个&#039;&#039;&#039;&#039;&#039;F&#039;&#039;-检验&#039;&#039;&#039;是用来比较两个样本的方差或多个样本之间的方差比率的任何[[统计检验]]。[[检验统计量]]，随机变量F，用于确定在真实[[零假设]]下被检验的数据是否具有[[F 分布|&#039;&#039;F&#039;&#039;-分布]]，以及关于误差项（ε）的真实传统假设。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于比较已经拟合到数据集的[[模型选择|统计模型]]，以识别最能代表从中抽样的数据的[[人口统计（统计学）|总体]]的模型。精确的&amp;quot;&#039;&#039;F&#039;&#039;-检验&amp;quot;主要出现在模型通过[[最小二乘法]]拟合到数据时。这个名称由[[George W. Snedecor]]创造，以纪念[[Ronald Fisher]]。Fisher最初在20世纪20年代开发了这个统计量，作为方差比率。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5027</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5027"/>
		<updated>2024-01-18T02:42:38Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{简短描述|统计假设检验，主要使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|在显著性水平 0.05 下，自由度为 d1 和 d2 = 10 的 f-检验概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
一个 &#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039; 是用来比较两个样本的方差或多个样本之间的方差比率的任何 [[统计检验]]。[[检验统计量]], 随机变量 F, 用于确定在真实 [[零假设]] 下测试数据是否具有 [[F 分布|&#039;&#039;F&#039;&#039; 分布]]，以及关于误差项 (ε) 的传统假设。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer 国际出版社 |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于 [[模型选择|比较统计模型]]，这些模型已经应用于 [[数据]] 集，以识别最能拟合数据采样来源 [[人口统计 (统计)|人口]] 的模型。精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot; 主要出现在使用 [[最小二乘法]] 将模型拟合到数据时。这个名字是由 [[George W. Snedecor]] 创造的，以纪念 [[Ronald Fisher]]。Fisher 最初在 1920 年代将该统计量作为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==常见例子==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;F&#039;&#039; 检验的常见用例包括以下情况的研究：&lt;br /&gt;
&lt;br /&gt;
* [[File:One-way ANOVA Table generated using Matlab.jpg|thumb|使用 Matlab 生成的具有 3 个随机组的单因素方差分析表，每个组有 30 个观察值。F 值在倒数第二列中计算]]假设一组给定的 [[正态分布|正态分布]] 群体的 [[算术平均数|平均数]] 相等，所有群体都具有相同的 [[标准差]]。这可能是最著名的 &#039;&#039;F&#039;&#039; 检验，并在 [[方差分析]] (ANOVA) 中扮演重要角色。&lt;br /&gt;
  ** 方差分析 (ANOVA) 的 F 检验遵循三个假设&lt;br /&gt;
  **# [[正态性 (统计)]]&lt;br /&gt;
  **# [[方差齐性]]&lt;br /&gt;
  **# [[独立性 (概率论)|误差独立性]] 和 [[随机性|随机抽样]]&lt;br /&gt;
&lt;br /&gt;
* 假设提出的回归模型很好地拟合 [[数据]]。参见 [[拟合优度平方和]]。&lt;br /&gt;
* 假设在 [[回归分析]] 中的数据集遵循两个提出的线性模型中较简单的一个，这两个模型在彼此之内 [[统计模型#嵌套模型|嵌套]]。&lt;br /&gt;
* 如果 F 检验导```markdown&lt;br /&gt;
{{Short description|统计假设检验，多数使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|带有 d1 和 d2 = 10，在显著性水平 0.05 下的 f-检验概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
一个&#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039;是用于比较两个样本的方差或多个样本间方差比的任何[[统计检验]]。[[检验统计量]]，即随机变量 F，用于确定在真实[[零假设]]和关于误差项（ε）的常规假设下，被检验的数据是否有[[F 分布|&#039;&#039;F&#039;&#039; 分布]]。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer 国际出版社 |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它通常用于[[模型选择|比较统计模型]]，这些模型已拟合到数据集，以确定哪个模型最符合从中抽取数据的[[人口统计（统计学）|人群]]。当模型使用[[最小二乘法]]拟合到数据上时，通常会出现精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot;。这个名称是由[[George W. Snedecor]]为了纪念[[Ronald Fisher]]而创造的。Fisher 最初在 1920 年代发展了这个统计量作为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：进阶课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5026</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5026"/>
		<updated>2024-01-18T02:24:00Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​清空全部内容&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5025</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5025"/>
		<updated>2024-01-18T02:23:27Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
### 单因素方差分析&lt;br /&gt;
单因素&#039;&#039;&#039;方差分析&#039;&#039;&#039;的&#039;&#039;F&#039;&#039;检验[[测试统计量|统计量]]公式是：&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{\text{解释的方差}}{\text{未解释的方差}} ,[/math]&lt;br /&gt;
&lt;br /&gt;
或&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{\text{组间变异性}}{\text{组内变异性}}.[/math]&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;解释的方差&amp;quot;，或&amp;quot;组间变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math]&lt;br /&gt;
\sum_{i=1}^{K} n_i(\bar{Y}_{i\cdot} - \bar{Y})^2/(K-1)&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]\bar{Y}_{i\cdot}[/math] 表示第&#039;&#039;i&#039;&#039;组中的[[平均数|样本均值]]，[math]n_i[/math] 是第&#039;&#039;i&#039;&#039;组中的观测数量，[math]\bar{Y}[/math] 表示数据的总体平均值，[math]K[/math] 表示组数。&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;未解释的方差&amp;quot;，或&amp;quot;组内变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math]&lt;br /&gt;
\sum_{i=1}^{K}\sum_{j=1}^{n_{i}} \left( Y_{ij}-\bar{Y}_{i\cdot} \right)^2/(N-K),&lt;br /&gt;
[/math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]Y_{ij}[/math] 是第&#039;&#039;i&#039;&#039;组中第&#039;&#039;j&#039;&#039;&amp;lt;sup&amp;gt;th&amp;lt;/sup&amp;gt;个观测值，[math]K[/math] 为组数，而[math]N[/math] 为总样本量。这个&#039;&#039;F&#039;&#039;统计量遵循自由度为 [math]d_1=K-1[/math] 和 [math]d_2=N-K[/math] 的[[F分布|&#039;&#039;F&#039;&#039;分布]]，假设零假设成立。如果组间变异性相对于组内变异性较大，这个统计量将会很大，这在所有[[期望值|群体均值]]都相同时不太可能发生。&lt;br /&gt;
[[File:5% F table.jpg|thumb|F表：5%水平临界值，包含分子和分母的自由度范围从1-20]]&lt;br /&gt;
通过将计算出的F值与特定显著性水平（例如5%）的临界F值进行比较，可以确定F检验的结果。F表作为一个参考指南，包含了在真实零假设假设下F统计量分布的临界F值。它旨在帮助确定F统计量超出控制百分比（例如，5%）的阈值，当零假设准确时。要在F表中找到临界F值，需要使用相应的自由度。这涉及到在F表中识别对应于正在测试的显著性水平（例如，5%）的适当行和列。&amp;lt;ref&amp;gt;{{Citation |last=Siegel |first=Andrew F. |title=Chapter 15 - ANOVA: Testing for Differences Among Many Samples and Much More |date=2016-01-01 |url=https://www.sciencedirect.com/science/article/pii/B9780128042502000158 |work=Practical Business Statistics (Seventh Edition) |pages=469–492 |editor-last=Siegel |editor-first=Andrew F. |access-date=2023-12-10 |publisher=Academic Press |doi=10.1016/b978-0-12-804250-2.00015-8 |isbn=978-0-12-804250-2}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
如何使用临界F值：&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;lt; 临界F值&lt;br /&gt;
&lt;br /&gt;
* 不拒绝零假设&lt;br /&gt;
* 拒绝备择假设&lt;br /&gt;
* 样本均值之间没有显著差异&lt;br /&gt;
* 样本均值之间的观察差异可能合理地由随机机会本身引起&lt;br /&gt;
* 结果统计上不显著&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;gt; 临界F值&lt;br /&gt;
&lt;br /&gt;
* 接受备择假设&lt;br /&gt;
* 拒绝零假设&lt;br /&gt;
* 样本均值之间存在显著差异&lt;br /&gt;
* 样本均值之间的观察差异不可能合理地由随机机会本身引起&lt;br /&gt;
* 结果统计上显著&lt;br /&gt;
&lt;br /&gt;
注意，当单因素方差分析的&#039;&#039;F&#039;&#039;检验只有两组时，[math]F = t^{2}[/math]，其中&#039;&#039;t&#039;&#039; 是 [[Student&#039;s t-test|Student&#039;s [math]t[/math] 统计量]]。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5024</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5024"/>
		<updated>2024-01-18T02:22:07Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
### 单因素方差分析&lt;br /&gt;
单因素&#039;&#039;&#039;方差分析&#039;&#039;&#039;的&#039;&#039;F&#039;&#039;检验[[测试统计量|统计量]]公式是：&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{\text{解释的方差}}{\text{未解释的方差}} ,[math]&lt;br /&gt;
&lt;br /&gt;
或&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{\text{组间变异性}}{\text{组内变异性}}.[math]&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;解释的方差&amp;quot;，或&amp;quot;组间变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math]&lt;br /&gt;
\sum_{i=1}^{K} n_i(\bar{Y}_{i\cdot} - \bar{Y})^2/(K-1)&lt;br /&gt;
[math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]\bar{Y}_{i\cdot}[math] 表示第&#039;&#039;i&#039;&#039;组中的[[平均数|样本均值]]，[math]n_i[math] 是第&#039;&#039;i&#039;&#039;组中的观测数量，[math]\bar{Y}[math] 表示数据的总体平均值，[math]K[math] 表示组数。&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;未解释的方差&amp;quot;，或&amp;quot;组内变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math]&lt;br /&gt;
\sum_{i=1}^{K}\sum_{j=1}^{n_{i}} \left( Y_{ij}-\bar{Y}_{i\cdot} \right)^2/(N-K),&lt;br /&gt;
[math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]Y_{ij}[math] 是第&#039;&#039;i&#039;&#039;组中第&#039;&#039;j&#039;&#039;&amp;lt;sup&amp;gt;th&amp;lt;/sup&amp;gt;个观测值，[math]K[math] 为组数，而[math]N[math] 为总样本量。这个&#039;&#039;F&#039;&#039;统计量遵循自由度为 [math]d_1=K-1[math] 和 [math]d_2=N-K[math] 的[[F分布|&#039;&#039;F&#039;&#039;分布]]，假设零假设成立。如果组间变异性相对于组内变异性较大，这个统计量将会很大，这在所有[[期望值|群体均值]]都相同时不太可能发生。&lt;br /&gt;
[[File:5% F table.jpg|thumb|F表：5%水平临界值，包含分子和分母的自由度范围从1-20]]&lt;br /&gt;
通过将计算出的F值与特定显著性水平（例如5%）的临界F值进行比较，可以确定F检验的结果。F表作为一个参考指南，包含了在真实零假设假设下F统计量分布的临界F值。它旨在帮助确定F统计量超出控制百分比（例如，5%）的阈值，当零假设准确时。要在F表中找到临界F值，需要使用相应的自由度。这涉及到在F表中识别对应于正在测试的显著性水平（例如，5%）的适当行和列。&amp;lt;ref&amp;gt;{{Citation |last=Siegel |first=Andrew F. |title=Chapter 15 - ANOVA: Testing for Differences Among Many Samples and Much More |date=2016-01-01 |url=https://www.sciencedirect.com/science/article/pii/B9780128042502000158 |work=Practical Business Statistics (Seventh Edition) |pages=469–492 |editor-last=Siegel |editor-first=Andrew F. |access-date=2023-12-10 |publisher=Academic Press |doi=10.1016/b978-0-12-804250-2.00015-8 |isbn=978-0-12-804250-2}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
如何使用临界F值：&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;lt; 临界F值&lt;br /&gt;
&lt;br /&gt;
* 不拒绝零假设&lt;br /&gt;
* 拒绝备择假设&lt;br /&gt;
* 样本均值之间没有显著差异&lt;br /&gt;
* 样本均值之间的观察差异可能合理地由随机机会本身引起&lt;br /&gt;
* 结果统计上不显著&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;gt; 临界F值&lt;br /&gt;
&lt;br /&gt;
* 接受备择假设&lt;br /&gt;
* 拒绝零假设&lt;br /&gt;
* 样本均值之间存在显著差异&lt;br /&gt;
* 样本均值之间的观察差异不可能合理地由随机机会本身引起&lt;br /&gt;
* 结果统计上显著&lt;br /&gt;
&lt;br /&gt;
注意，当单因素方差分析的&#039;&#039;F&#039;&#039;检验只有两组时，[math]F = t^{2}[math]，其中&#039;&#039;t&#039;&#039; 是 [[Student&#039;s t-test|Student&#039;s [math]t[math] 统计量]]。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5023</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5023"/>
		<updated>2024-01-18T02:19:14Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​清空全部内容&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5022</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5022"/>
		<updated>2024-01-18T02:16:43Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{简短描述|统计假设检验，通常使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[文件:F-test_plot.svg|thumb|自由度为 d1 和 d2 等于 10，显著性水平为 0.05 的 f-test 概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039; 是用来比较两个样本的方差或者多个样本间方差比的任何 [[统计检验]]。[[检验统计量]]，随机变量 F，被用来确定在真实的 [[零假设]]下，以及对误差项（ε）的真实惯常假设下，被检验的数据是否具有 [[F 分布|&#039;&#039;F&#039;&#039; 分布]]。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于 [[模型选择|比较统计模型]]，这些模型已被拟合到一个 [[数据]] 集上，以确定哪个模型最适合从中抽样得到数据的 [[统计群体|群体]]。当模型使用 [[最小二乘法]]拟合到数据上时，精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot; 主要出现。这个名称由 [[乔治·W·斯内德科]]创造，以纪念 [[罗纳德·费希尔]]。费希尔最初在20世纪20年代将该统计量发展为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==常见例子==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;F&#039;&#039; 检验的常见例子包括研究以下情况&lt;br /&gt;
&lt;br /&gt;
* [[文件:One-way ANOVA Table generated using Matlab.jpg|thumb|使用 Matlab 生成的单因素方差分析表，有 3 个随机组，每组有 30 个观察值。F 值在倒数第二列中被计算]]&lt;br /&gt;
  假设一组给定的 [[正态分布|正态分布]]群体的 [[算术平均数|均值]]都相等，且都具有相同的 [[标准差]]。这可能是最著名的 &#039;&#039;F&#039;&#039; 检验，并且在 [[方差分析]] (ANOVA) 中扮演重要角色。&lt;br /&gt;
  ** [[方差分析]] (ANOVA) 的 F 检验遵循三个假设&lt;br /&gt;
  **# [[正态性 (统计学)|正态性]]&lt;br /&gt;
  **# [[方差齐性]]&lt;br /&gt;
  **# [[独立性 (概率论)|误差独立性]] 和 [[随机性|随机抽样]]&lt;br /&gt;
&lt;br /&gt;
* 假设一个提出的回归模型很好地拟合 [[数据]]。参见 [[缺乏拟合平方和]]。&lt;br /&gt;
* 假设在 [[回归分析]]中的数据集遵循两个提出的线性模型中较简单的一个，这两个模型是 [[统计```markdown&lt;br /&gt;
# F 检验&lt;br /&gt;
&lt;br /&gt;
F 检验是统计中用于比较两个样本方差或多个样本方差比的一种检验方法。它涉及到的检验统计量是 F 分布，该分布可用于在零假设成立的情况下，以及误差项符合特定假设的前提下，判断数据是否符合预期分布。F 检验通常用于模型选择，帮助决定哪个统计模型最适合描述数据集。当通过最小二乘法拟合数据时，F 检验尤为重要。这个检验是以统计学家罗纳德·费希尔的名字命名的，他在20世纪20年代提出了这种检验方法。&lt;br /&gt;
&lt;br /&gt;
## 常见例子&lt;br /&gt;
&lt;br /&gt;
F 检验的应用包括：&lt;br /&gt;
&lt;br /&gt;
- 方差分析（ANOVA），它用于假设所有正态分布的群体均值相等且具有相同的标准差。ANOVA 中的 F 检验基于三个假设：&lt;br /&gt;
  1. 数据呈正态分布&lt;br /&gt;
  2. 各组数据方差相等（方差齐性）&lt;br /&gt;
  3. 误差项独立且来自随机抽样&lt;br /&gt;
&lt;br /&gt;
- 回归分析中的 F 检验，用于假设提出的回归模型与数据拟合良好。&lt;br /&gt;
&lt;br /&gt;
- 线性模型比较，用于确定两个提出的线性模型中哪一个更适合数据集，通常比较一个更为复杂的模型和一个简单模型。&lt;br /&gt;
&lt;br /&gt;
![](https://upload.wikimedia.org/wikipedia/commons/thumb/3/3e/F-test_plot.svg/220px-F-test_plot.svg.png)&lt;br /&gt;
&lt;br /&gt;
*图示：自由度为 d1 和 d2 等于 10，显著性水平为 0.05 的 F 检验概率密度函数图。红色阴影区域表示临界区域。*&lt;br /&gt;
&lt;br /&gt;
![](https://upload.wikimedia.org/wikipedia/commons/thumb/c/c9/One-way_ANOVA_Table_generated_using_Matlab.jpg/220px-One-way_ANOVA_Table_generated_using_Matlab.jpg)&lt;br /&gt;
&lt;br /&gt;
*图示：使用 Matlab 生成的单因素方差分析表，包含 3 个组，每组 30 个观察值。F 值在表中倒数第二列给出。*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
单因素&#039;&#039;&#039;方差分析&#039;&#039;&#039;的&#039;&#039;F&#039;&#039;检验[[测试统计量|统计量]]公式是：&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{ ext{解释的方差}}{ ext{未解释的方差}} ,[math]&lt;br /&gt;
&lt;br /&gt;
或&lt;br /&gt;
&lt;br /&gt;
:[math]F = \frac{ ext{组间变异性}}{ ext{组内变异性}}.[math]&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;解释的方差&amp;quot;，或&amp;quot;组间变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math] \sum_{i=1}^{K} n_i(\bar{Y}_{i\cdot} - \bar{Y})^2/(K-1) [math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]\bar{Y}_{i\cdot}[math] 表示第&#039;&#039;i&#039;&#039;组中的[[平均数|样本均值]]，[math]n_i[math] 是第&#039;&#039;i&#039;&#039;组中的观测数量，[math]\bar{Y}[math] 表示数据的总体平均值，[math]K[math] 表示组数。&lt;br /&gt;
&lt;br /&gt;
所谓的&amp;quot;未解释的方差&amp;quot;，或&amp;quot;组内变异性&amp;quot;是&lt;br /&gt;
&lt;br /&gt;
:[math] \sum_{i=1}^{K}\sum_{j=1}^{n_{i}} \left( Y_{ij}-\bar{Y}_{i\cdot} \right)^2/(N-K), [math]&lt;br /&gt;
&lt;br /&gt;
其中，[math]Y_{ij}[math] 是第&#039;&#039;i&#039;&#039;组中第&#039;&#039;j&#039;&#039;th个观测值，[math]K[math] 为组数，而[math]N[math] 为总样本量。这个&#039;&#039;F&#039;&#039;统计量遵循自由度为 [math]d_1=K-1[math] 和 [math]d_2=N-K[math] 的[[F分布|&#039;&#039;F&#039;&#039;分布]]，假设零假设成立。如果组间变异性相对于组内变异性较大，这个统计量将会很大，这在所有[[期望值|群体均值]]都相同时不太可能发生。 [[File:5% F table.jpg|thumb|F表：5%水平临界值，包含分子和分母的自由度范围从1-20]] 通过将计算出的F值与特定显著性水平（例如5%）的临界F值进行比较，可以确定F检验的结果。F表作为一个参考指南，包含了在真实零假设假设下F统计量分布的临界F值。它旨在帮助确定F统计量超出控制百分比（例如，5%）的阈值，当零假设准确时。要在F表中找到临界F值，需要使用相应的自由度。这涉及到在F表中识别对应于正在测试的显著性水平（例如，5%）的适当行和列。{{Citation |last=Siegel |first=Andrew F. |title=Chapter 15 - ANOVA: Testing for Differences Among Many Samples and Much More |date=2016-01-01 |url=https://www.sciencedirect.com/science/article/pii/B9780128042502000158 |work=Practical Business Statistics (Seventh Edition) |pages=469–492 |editor-last=Siegel |editor-first=Andrew F. |access-date=2023-12-10 |publisher=Academic Press |doi=10.1016/b978-0-12-804250-2.00015-8 |isbn=978-0-12-804250-2}}&lt;br /&gt;
&lt;br /&gt;
如何使用临界F值：&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;lt; 临界F值&lt;br /&gt;
&lt;br /&gt;
    不拒绝零假设&lt;br /&gt;
    拒绝备择假设&lt;br /&gt;
    样本均值之间没有显著差异&lt;br /&gt;
    样本均值之间的观察差异可能合理地由随机机会本身引起&lt;br /&gt;
    结果统计上不显著&lt;br /&gt;
&lt;br /&gt;
如果 F 统计量 &amp;gt; 临界F值&lt;br /&gt;
&lt;br /&gt;
    接受备择假设&lt;br /&gt;
    拒绝零假设&lt;br /&gt;
    样本均值之间存在显著差异&lt;br /&gt;
    样本均值之间的观察差异不可能合理地由随机机会本身引起&lt;br /&gt;
    结果统计上显著&lt;br /&gt;
&lt;br /&gt;
注意，当单因素方差分析的&#039;&#039;F&#039;&#039;检验只有两组时，[math]F = t^{2}[math]，其中&#039;&#039;t&#039;&#039; 是 [[Student&#039;s t-test|Student&#039;s [math]t[math] 统计量]]。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5019</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=5019"/>
		<updated>2024-01-18T01:45:28Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{简短描述|统计假设检验，通常使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039; 检验}}&lt;br /&gt;
[[文件:F-test_plot.svg|thumb|自由度为 d1 和 d2 等于 10，显著性水平为 0.05 的 f-test 概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;F&#039;&#039; 检验&#039;&#039;&#039; 是用来比较两个样本的方差或者多个样本间方差比的任何 [[统计检验]]。[[检验统计量]]，随机变量 F，被用来确定在真实的 [[零假设]]下，以及对误差项（ε）的真实惯常假设下，被检验的数据是否具有 [[F 分布|&#039;&#039;F&#039;&#039; 分布]]。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它最常用于 [[模型选择|比较统计模型]]，这些模型已被拟合到一个 [[数据]] 集上，以确定哪个模型最适合从中抽样得到数据的 [[统计群体|群体]]。当模型使用 [[最小二乘法]]拟合到数据上时，精确的 &amp;quot;&#039;&#039;F&#039;&#039; 检验&amp;quot; 主要出现。这个名称由 [[乔治·W·斯内德科]]创造，以纪念 [[罗纳德·费希尔]]。费希尔最初在20世纪20年代将该统计量发展为方差比。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==常见例子==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;F&#039;&#039; 检验的常见例子包括研究以下情况&lt;br /&gt;
&lt;br /&gt;
* [[文件:One-way ANOVA Table generated using Matlab.jpg|thumb|使用 Matlab 生成的单因素方差分析表，有 3 个随机组，每组有 30 个观察值。F 值在倒数第二列中被计算]]&lt;br /&gt;
  假设一组给定的 [[正态分布|正态分布]]群体的 [[算术平均数|均值]]都相等，且都具有相同的 [[标准差]]。这可能是最著名的 &#039;&#039;F&#039;&#039; 检验，并且在 [[方差分析]] (ANOVA) 中扮演重要角色。&lt;br /&gt;
  ** [[方差分析]] (ANOVA) 的 F 检验遵循三个假设&lt;br /&gt;
  **# [[正态性 (统计学)|正态性]]&lt;br /&gt;
  **# [[方差齐性]]&lt;br /&gt;
  **# [[独立性 (概率论)|误差独立性]] 和 [[随机性|随机抽样]]&lt;br /&gt;
&lt;br /&gt;
* 假设一个提出的回归模型很好地拟合 [[数据]]。参见 [[缺乏拟合平方和]]。&lt;br /&gt;
* 假设在 [[回归分析]]中的数据集遵循两个提出的线性模型中较简单的一个，这两个模型是 [[统计```markdown&lt;br /&gt;
# F 检验&lt;br /&gt;
&lt;br /&gt;
F 检验是统计中用于比较两个样本方差或多个样本方差比的一种检验方法。它涉及到的检验统计量是 F 分布，该分布可用于在零假设成立的情况下，以及误差项符合特定假设的前提下，判断数据是否符合预期分布。F 检验通常用于模型选择，帮助决定哪个统计模型最适合描述数据集。当通过最小二乘法拟合数据时，F 检验尤为重要。这个检验是以统计学家罗纳德·费希尔的名字命名的，他在20世纪20年代提出了这种检验方法。&lt;br /&gt;
&lt;br /&gt;
## 常见例子&lt;br /&gt;
&lt;br /&gt;
F 检验的应用包括：&lt;br /&gt;
&lt;br /&gt;
- 方差分析（ANOVA），它用于假设所有正态分布的群体均值相等且具有相同的标准差。ANOVA 中的 F 检验基于三个假设：&lt;br /&gt;
  1. 数据呈正态分布&lt;br /&gt;
  2. 各组数据方差相等（方差齐性）&lt;br /&gt;
  3. 误差项独立且来自随机抽样&lt;br /&gt;
&lt;br /&gt;
- 回归分析中的 F 检验，用于假设提出的回归模型与数据拟合良好。&lt;br /&gt;
&lt;br /&gt;
- 线性模型比较，用于确定两个提出的线性模型中哪一个更适合数据集，通常比较一个更为复杂的模型和一个简单模型。&lt;br /&gt;
&lt;br /&gt;
![](https://upload.wikimedia.org/wikipedia/commons/thumb/3/3e/F-test_plot.svg/220px-F-test_plot.svg.png)&lt;br /&gt;
&lt;br /&gt;
*图示：自由度为 d1 和 d2 等于 10，显著性水平为 0.05 的 F 检验概率密度函数图。红色阴影区域表示临界区域。*&lt;br /&gt;
&lt;br /&gt;
![](https://upload.wikimedia.org/wikipedia/commons/thumb/c/c9/One-way_ANOVA_Table_generated_using_Matlab.jpg/220px-One-way_ANOVA_Table_generated_using_Matlab.jpg)&lt;br /&gt;
&lt;br /&gt;
*图示：使用 Matlab 生成的单因素方差分析表，包含 3 个组，每组 30 个观察值。F 值在表中倒数第二列给出。*&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=4128</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=4128"/>
		<updated>2024-01-16T06:02:15Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Short description|统计假设检验，通常使用多重限制}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039;检验}}&lt;br /&gt;
[[文件:F-test_plot.svg|缩略图|一个在显著性水平为0.05的情况下，自由度d1和d2等于10的f检验概率密度函数图。（红色阴影区域表示临界区域）]]&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;F&#039;&#039;检验&#039;&#039;&#039;是任何用来比较两个样本方差或多个样本间方差比的[[统计检验]]。[[检验统计量]]，随机变量F，用于确定测试数据是否在真实[[零假设]]下，以及对误差项(ε)的真实惯常假设下具有[[F分布|&#039;&#039;F&#039;&#039;分布]]。&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=实验设计 |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; 它通常用于[[模型选择|比较统计模型]]，这些模型已经被拟合到一个[[数据]]集上，以确定哪个模型最适合从中抽取数据的[[人口统计学|人口]]。当模型已经使用[[最小二乘法]]拟合到数据上时，通常会出现确切的“&#039;&#039;F&#039;&#039;检验”。这个名称由[[George W. Snedecor]]创造，以纪念[[Ronald Fisher]]。Fisher最初在20世纪20年代将此统计量作为方差比发展出来。&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=统计概念：第二课程 |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=4126</id>
		<title>F检验</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=F%E6%A3%80%E9%AA%8C&amp;diff=4126"/>
		<updated>2024-01-16T05:55:10Z</updated>

		<summary type="html">&lt;p&gt;Pengwei：​&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox nodebasic &lt;br /&gt;
|nodename=F检验&lt;br /&gt;
|nodeimage=F_Test.png&lt;br /&gt;
|icon=F_Test.svg&lt;br /&gt;
|simpleicon=F_Test_Pure.svg&lt;br /&gt;
|developer=Dev.Team-DPS&lt;br /&gt;
|productionstate=PC可用&lt;br /&gt;
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署&lt;br /&gt;
|nodeenglishname=[[Has english name::F_Test]]&lt;br /&gt;
|abbreviation=[[Has abbreviation::F_Test]]&lt;br /&gt;
|funcmaincategory=数据分析&lt;br /&gt;
|funcsubcategory=[[DataAGM Lv1 Cat::方差分析]]&lt;br /&gt;
|nodecategory=数据挖掘&lt;br /&gt;
|nodeinterpretor=R&lt;br /&gt;
|nodeshortdescription=&amp;lt;p&amp;gt;F检验也称方差比率检验、方差齐性检验。它是一种在零假设（null hypothesis, H0）之下，统计值服从F-分布的检验。主要通过比较两组数据的方差, 以确定两者密度是否有显著性差异, 也是检查多组均值之间的差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;用途：用于比较两个或多个样本或群体的方差是否显著不同。F检验常常用在方差分析中，以确定不同组别之间是否存在显著差异。&amp;lt;/p&amp;gt;&amp;lt;p&amp;gt;参数：选择连续型数值变量&amp;lt;/p&amp;gt;&lt;br /&gt;
|nodeinputnumber=4&lt;br /&gt;
|nodeoutputnumber=3&lt;br /&gt;
|nodeloopsupport=是&lt;br /&gt;
|nodeifswitchsupport=否&lt;br /&gt;
|nodeavailableplotlist=Rain_Cloud&lt;br /&gt;
|nodeavailabletablelist=Table_For_Downstream&lt;br /&gt;
|nodeconfiguration=VariableList;DropManu;Text&lt;br /&gt;
|nodeinputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|nodeoutputports=WorkFlow-Control ➤;Transfer-Variable ◆;Transfer-Table ■&lt;br /&gt;
|statsapewikiurl=https://wiki.statsape.com/F检验&lt;br /&gt;
|previousnode=[[McNemar检验]]&lt;br /&gt;
|nextnode=[[One_Way_ANOVA]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Short description|Statistical hypothesis test, mostly using multiple restrictions}}&lt;br /&gt;
{{DISPLAYTITLE:&#039;&#039;F&#039;&#039;-test}}&lt;br /&gt;
[[File:F-test_plot.svg|thumb|An f-test pdf with d1 and d2 = 10, at a significance level of 0.05. (Red shaded region indicates the critical region)]]&lt;br /&gt;
An &#039;&#039;&#039;&#039;&#039;F&#039;&#039;-test&#039;&#039;&#039; is any [[statistical test]] used to compare the variances of two samples or the ratio of variances between multiple samples. The [[test statistic]], random variable F, is used to determine if the tested data has an [[F-distribution|&#039;&#039;F&#039;&#039;-distribution]] under the true [[null hypothesis]], and true customary assumptions about the error term (ε).&amp;lt;ref name=&amp;quot;:0&amp;quot;&amp;gt;{{Cite book |last=Berger |first=Paul D. |url=http://link.springer.com/10.1007/978-3-319-64583-4 |title=Experimental Design |last2=Maurer |first2=Robert E. |last3=Celli |first3=Giovana B. |date=2018 |publisher=Springer International Publishing |isbn=978-3-319-64582-7 |location=Cham |pages=108 |language=en |doi=10.1007/978-3-319-64583-4}}&amp;lt;/ref&amp;gt; It is most often used when [[model selection|comparing statistical models]] that have been fitted to a [[data]] set, in order to identify the model that best fits the [[population (statistics)|population]] from which the data were sampled. Exact &amp;quot;&#039;&#039;F&#039;&#039;-tests&amp;quot; mainly arise when the models have been fitted to the data using [[least squares]]. The name was coined by [[George W. Snedecor]], in honour of [[Ronald Fisher]]. Fisher initially developed the statistic as the variance ratio in the 1920s.&amp;lt;ref&amp;gt;{{cite book |last=Lomax |first=Richard G. |year=2007 |title=Statistical Concepts: A Second Course |url=https://archive.org/details/introductiontost0000loma_j6h1 |url-access=registration |page=[https://archive.org/details/introductiontost0000loma_j6h1/page/10 10] |isbn=978-0-8058-5850-1 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Navplate AlgorithmNodeList}}&lt;br /&gt;
&lt;br /&gt;
[[Category:方差分析]]&lt;/div&gt;</summary>
		<author><name>Pengwei</name></author>
	</entry>
</feed>