<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://wiki.statsape.com/index.php?action=history&amp;feed=atom&amp;title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90</id>
	<title>回归分析 - 版本历史</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.statsape.com/index.php?action=history&amp;feed=atom&amp;title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90"/>
	<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;action=history"/>
	<updated>2026-05-13T20:21:45Z</updated>
	<subtitle>本wiki上该页面的版本历史</subtitle>
	<generator>MediaWiki 1.39.6</generator>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8178&amp;oldid=prev</id>
		<title>2024年1月22日 (一) 06:49 Zeroclanzhang</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8178&amp;oldid=prev"/>
		<updated>2024-01-22T06:49:53Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2024年1月22日 (一) 14:49的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l143&quot;&gt;第143行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第143行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{(X^\top X )\hat{\boldsymbol{\beta}}= {}X^\top Y},\,[/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{(X^\top X )\hat{\boldsymbol{\beta}}= {}X^\top Y},\,[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;其中[math]\mathbf X[/math]的[math]ij[/math]元素是[math]x_{ij}[/math]，列向量[math]Y[/math]的[math]i[/math]元素是[math]y_i[/math]，[math]j[/math]的[math]\hat{\beta}[/math]元素是[math]\hat{\beta}_{j}[/math]。因此[math]\mathbf X[/math]是[math]n \times p[/math]，[math]Y[/math]是[math]n \times 1[/math]，[math]\hat &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;\boldsymbol &lt;/del&gt;\beta[/math]是[math]p \times 1[/math]。解为&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;其中[math]\mathbf X[/math]的[math]ij[/math]元素是[math]x_{ij}[/math]，列向量[math]Y[/math]的[math]i[/math]元素是[math]y_i[/math]，[math]j[/math]的[math]\hat{\beta}[/math]元素是[math]\hat{\beta}_{j}[/math]。因此[math]\mathbf X[/math]是[math]n \times p[/math]，[math]Y[/math]是[math]n \times 1[/math]，[math]\hat&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{&lt;/ins&gt;\beta&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;}&lt;/ins&gt;[/math]是[math]p \times 1[/math]。解为&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{\hat{\boldsymbol{\beta}}= (X^\top X )^{-1}X^\top Y}.[/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{\hat{\boldsymbol{\beta}}= (X^\top X )^{-1}X^\top Y}.[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key statsape_wiki:diff::1.12:old-8177:rev-8178 --&gt;
&lt;/table&gt;</summary>
		<author><name>Zeroclanzhang</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8177&amp;oldid=prev</id>
		<title>2024年1月22日 (一) 06:47 Zeroclanzhang</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8177&amp;oldid=prev"/>
		<updated>2024-01-22T06:47:50Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;zh-Hans-CN&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2024年1月22日 (一) 14:47的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l90&quot;&gt;第90行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第90行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;回到直线情况：给定一个来自总体的随机样，我们估计总体参数并获得样本线性回归模型：&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;回到直线情况：给定一个来自总体的随机样，我们估计总体参数并获得样本线性回归模型：&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:math&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;gt; &lt;/del&gt;\widehat{y}_i = \widehat{\beta}_0 + \widehat{\beta}_1 x_i. [/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;[&lt;/ins&gt;math&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;]&lt;/ins&gt;\widehat{y}_i = \widehat{\beta}_0 + \widehat{\beta}_1 x_i.[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[统计学中的误差和残差|残差]]，[math] e_i = y_i - \widehat{y}_i [/math]，是模型预测的因变量值[math] \&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;widehaty&lt;/del&gt;}_i[/math]与因变量真实值[math]y_i[/math]之间的差异。估计的一种方法是[[普通最小二乘法]]。该方法获得的参数估计是最小化[[统计学中的误差和残差|残差]]平方和，[[残差平方和|SSR]]：&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[统计学中的误差和残差|残差]]，[math]e_i = y_i - \widehat{y}_i[/math]，是模型预测的因变量值[math]\&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;widehat{y&lt;/ins&gt;}_i[/math]与因变量真实值[math]y_i[/math]之间的差异。估计的一种方法是[[普通最小二乘法]]。该方法获得的参数估计是最小化[[统计学中的误差和残差|残差]]平方和，[[残差平方和|SSR]]：&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;SSR&lt;/del&gt;=\sum_{i=1^n &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;e_i&lt;/del&gt;^2[/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;S S R&lt;/ins&gt;=\sum_{i=1&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;}&lt;/ins&gt;^&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{&lt;/ins&gt;n&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;} e_{i}&lt;/ins&gt;^&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{&lt;/ins&gt;2&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;}&lt;/ins&gt;[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;最小化这个函数得到一组[[线性最小二乘（数学）|正规方程]]，这是参数中的一组同时线性方程，通过解这些方程得到参数估计值，[math]\widehat{\beta}_0, \widehat{\beta}_1[/math]。&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;最小化这个函数得到一组[[线性最小二乘（数学）|正规方程]]，这是参数中的一组同时线性方程，通过解这些方程得到参数估计值，[math]\widehat{\beta}_0, \widehat{\beta}_1[/math]。&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l143&quot;&gt;第143行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第143行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{(X^\top X )\hat{\boldsymbol{\beta}}= {}X^\top Y},\,[/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{(X^\top X )\hat{\boldsymbol{\beta}}= {}X^\top Y},\,[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;其中[math]\mathbf X[/math]的[math]ij[/math]元素是[math]x_{ij}[/math]，列向量[math]Y[/math]的[math]i[/math]元素是[math]y_i[/math]，[math]&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;\hat \boldsymbol \beta&lt;/del&gt;[/math]的[math]&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;j&lt;/del&gt;[/math]元素是[math]\hat \&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;beta_j&lt;/del&gt;[/math]。因此[math]\mathbf X[/math]是[math]n \times p[/math]，[math]Y[/math]是[math]n \times 1[/math]，[math]\hat \boldsymbol \beta[/math]是[math]p \times 1[/math]。解为&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;其中[math]\mathbf X[/math]的[math]ij[/math]元素是[math]x_{ij}[/math]，列向量[math]Y[/math]的[math]i[/math]元素是[math]y_i[/math]，[math]&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;j&lt;/ins&gt;[/math]的[math]&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;\hat{\beta}&lt;/ins&gt;[/math]元素是[math]\hat&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{&lt;/ins&gt;\&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;beta}_{j}&lt;/ins&gt;[/math]。因此[math]\mathbf X[/math]是[math]n \times p[/math]，[math]Y[/math]是[math]n \times 1[/math]，[math]\hat \boldsymbol \beta[/math]是[math]p \times 1[/math]。解为&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;br/&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{\hat{\boldsymbol{\beta}}= (X^\top X )^{-1}X^\top Y}.[/math]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;:[math]\mathbf{\hat{\boldsymbol{\beta}}= (X^\top X )^{-1}X^\top Y}.[/math]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key statsape_wiki:diff::1.12:old-8176:rev-8177 --&gt;
&lt;/table&gt;</summary>
		<author><name>Zeroclanzhang</name></author>
	</entry>
	<entry>
		<id>https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8176&amp;oldid=prev</id>
		<title>Zeroclanzhang：​创建页面，内容为“{{Short description|一组用于估计变量之间关系的统计过程}} 50个随机点在围绕线性y=1.5x+2（未显示）的[[高斯分布中的回归线]] {{Regression bar}} {{Machine learning|Problems}}  在统计模型中，&#039;&#039;&#039;回归分析&#039;&#039;&#039;是一组用于估计因变量（通常称为&#039;结果&#039;或&#039;响应&#039;变量，或在机器学习术语中称为&#039;标签&#039;）与一个或多个…”</title>
		<link rel="alternate" type="text/html" href="https://wiki.statsape.com/index.php?title=%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90&amp;diff=8176&amp;oldid=prev"/>
		<updated>2024-01-22T04:02:26Z</updated>

		<summary type="html">&lt;p&gt;创建页面，内容为“{{Short description|一组用于估计变量之间关系的统计过程}} &lt;a href=&quot;/%E6%96%87%E4%BB%B6:Normdist_regression.png&quot; title=&quot;文件:Normdist regression.png&quot;&gt;thumb|right|200px|50个随机点在围绕线性y=1.5x+2（未显示）的[[高斯分布&lt;/a&gt;中的回归线]] {{Regression bar}} {{Machine learning|Problems}}  在&lt;a href=&quot;/index.php?title=%E7%BB%9F%E8%AE%A1%E6%A8%A1%E5%9E%8B&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;统计模型（页面不存在）&quot;&gt;统计模型&lt;/a&gt;中，&amp;#039;&amp;#039;&amp;#039;回归分析&amp;#039;&amp;#039;&amp;#039;是一组用于&lt;a href=&quot;/index.php?title=%E4%BC%B0%E8%AE%A1%E7%90%86%E8%AE%BA&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;估计理论（页面不存在）&quot;&gt;估计&lt;/a&gt;&lt;a href=&quot;/index.php?title=%E5%9B%A0%E5%8F%98%E9%87%8F&amp;amp;action=edit&amp;amp;redlink=1&quot; class=&quot;new&quot; title=&quot;因变量（页面不存在）&quot;&gt;因变量&lt;/a&gt;（通常称为&amp;#039;结果&amp;#039;或&amp;#039;响应&amp;#039;变量，或在机器学习术语中称为&amp;#039;标签&amp;#039;）与一个或多个…”&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{Short description|一组用于估计变量之间关系的统计过程}}&lt;br /&gt;
[[File:Normdist regression.png|thumb|right|200px|50个随机点在围绕线性y=1.5x+2（未显示）的[[高斯分布]]中的回归线]]&lt;br /&gt;
{{Regression bar}}&lt;br /&gt;
{{Machine learning|Problems}}&lt;br /&gt;
&lt;br /&gt;
在[[统计模型]]中，&amp;#039;&amp;#039;&amp;#039;回归分析&amp;#039;&amp;#039;&amp;#039;是一组用于[[估计理论|估计]][[因变量]]（通常称为&amp;#039;结果&amp;#039;或&amp;#039;响应&amp;#039;变量，或在机器学习术语中称为&amp;#039;标签&amp;#039;）与一个或多个[[自变量]]（通常称为&amp;#039;预测因子&amp;#039;、&amp;#039;协变量&amp;#039;、&amp;#039;解释变量&amp;#039;或&amp;#039;特征&amp;#039;）之间关系的统计过程。回归分析最常见的形式是[[线性回归]]，其中找到最符合特定数学标准的数据线（或更复杂的[[线性组合]]）。例如，[[普通最小二乘法]]计算唯一的线（或[[超平面]]），以最小化真实数据与该线（或超平面）之间的平方差之和。出于特定的数学原因（参见[[线性回归]]），这允许研究者在自变量取一组特定值时，估计因变量的[[条件期望]]（或人口[[平均值]]）。较不常见的回归形式使用略有不同的程序来估计其他[[位置参数]]（例如，[[分位数回归]]或[[必要条件分析]]&amp;lt;ref&amp;gt;[http://www.erim.eur.nl/centres/necessary-condition-analysis/ Necessary Condition Analysis]&amp;lt;/ref&amp;gt;）或在更广泛的非线性模型集合中估计条件期望（例如，[[非参数回归]]）。&lt;br /&gt;
&lt;br /&gt;
回归分析主要用于两个概念上不同的目的。首先，回归分析广泛用于[[预测]]和[[预测]]，在这方面与[[机器学习]]领域有着重要的重叠。其次，在某些情况下，回归分析可以用来推断自变量和因变量之间的[[因果关系|因果关系]]。重要的是，回归本身只揭示了在固定数据集中因变量与一系列自变量之间的关系。要分别使用回归进行预测或推断因果关系，研究者必须仔细论证为何现有关系对新情境具有预测力，或为何两变量之间的关系具有因果解释。后者在研究者希望使用[[观察性研究|观察数据]]估计因果关系时尤其重要。&amp;lt;ref name=&amp;quot;Freedman2009&amp;quot;&amp;gt;{{cite book|author=David A. Freedman|title=Statistical Models: Theory and Practice|url=https://books.google.com/books?id=fW_9BV5Wpf8C&amp;amp;q=%22regression+analysis%22|date=27 April 2009|publisher=Cambridge University Press|isbn=978-1-139-47731-4}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;R. Dennis Cook; Sanford Weisberg [https://www.jstor.org/stable/270724 Criticism and Influence Analysis in Regression], &amp;#039;&amp;#039;Sociological Methodology&amp;#039;&amp;#039;, Vol. 13. (1982), pp. 313–361&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==历史==&lt;br /&gt;
最早的回归形式是[[最小二乘法]]，由[[阿德里安-马里·勒让德|勒让德]]于1805年发表,&amp;lt;ref name=&amp;quot;Legendre&amp;quot;&amp;gt;[[阿德里安-马里·勒让德|A.M.勒让德]]。[https://books.google.com/books?id=FRcOAAAAQAAJ &amp;#039;&amp;#039;Nouvelles méthodes pour la détermination des orbites des comètes&amp;#039;&amp;#039;], Firmin Didot, Paris, 1805。 “Sur la Méthode des moindres quarrés”作为附录出现。&amp;lt;/ref&amp;gt; 以及[[卡尔·弗里德里希·高斯|高斯]]于1809年发表。&amp;lt;ref name=&amp;quot;Gauss&amp;quot;&amp;gt;第1章：Angrist, J. D., &amp;amp; Pischke, J. S. (2008)。 &amp;#039;&amp;#039;Mostly Harmless Econometrics: An Empiricist&amp;#039;s Companion&amp;#039;&amp;#039;。普林斯顿大学出版社。&amp;lt;/ref&amp;gt; 勒让德和高斯都将该方法应用于根据天文观测确定绕太阳运行的天体（主要是彗星，但后来也包括新发现的小行星&amp;lt;!-- 勒让德的第一个例子应用于[[C/1769 P1]]（梅西耶） --&amp;gt;）的轨道问题。高斯于1821年发表了最小二乘法理论的进一步发展,&amp;lt;ref name=&amp;quot;Gauss2&amp;quot;&amp;gt;C.F. 高斯。[https://books.google.com/books?id=ZQ8OAAAAQAAJ&amp;amp;q=Theoria+combinationis+observationum+erroribus+minimis+obnoxiae &amp;#039;&amp;#039;Theoria combinationis observationum erroribus minimis obnoxiae&amp;#039;&amp;#039;]。 (1821/1823)&amp;lt;/ref&amp;gt; 包括[[高斯-马尔可夫定理]]的一个版本。&lt;br /&gt;
&lt;br /&gt;
“回归”这个术语是由[[Francis Galton]]在19世纪创造的，用来描述一个生物现象。这个现象是，高个祖先的后代的身高往往会回归（即[[regression toward the mean]]）到一个正常的平均水平。&amp;lt;ref&amp;gt;&lt;br /&gt;
{{cite book&lt;br /&gt;
| last = Mogull&lt;br /&gt;
| first = Robert G.&lt;br /&gt;
| title = Second-Semester Applied Statistics&lt;br /&gt;
| publisher = Kendall/Hunt Publishing Company&lt;br /&gt;
| year = 2004&lt;br /&gt;
| page = 59&lt;br /&gt;
| isbn = 978-0-7575-1181-3&lt;br /&gt;
}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last=Galton | first=Francis | journal=Statistical Science | year=1989 | title=Kinship and Correlation (reprinted 1989) | volume=4 | jstor=2245330 | pages=80–86 | issue=2 | doi=10.1214/ss/1177012581| doi-access=free }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
对于Galton而言，回归只有这种生物学意义，&amp;lt;ref&amp;gt;[[Francis Galton]]. &amp;quot;Typical laws of heredity&amp;quot;, Nature 15 (1877), 492–495, 512–514, 532–533. &amp;#039;&amp;#039;(Galton uses the term &amp;quot;reversion&amp;quot; in this paper, which discusses the size of peas.)&amp;#039;&amp;#039;&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;Francis Galton. Presidential address, Section H, Anthropology. (1885) &amp;#039;&amp;#039;(Galton uses the term &amp;quot;regression&amp;quot; in this paper, which discusses the height of humans.)&amp;#039;&amp;#039;&amp;lt;/ref&amp;gt; 但他的工作后来被[[Udny Yule]]和[[Karl Pearson]]扩展到更一般的统计背景中。&amp;lt;ref&amp;gt;{{cite journal | doi=10.2307/2979746 | last=Yule | first=G. Udny | author-link=G. Udny Yule | title=On the Theory of Correlation | journal=Journal of the Royal Statistical Society | year= 1897 | pages=812&amp;amp;ndash;54 | jstor=2979746 | volume=60 | issue=4 | url=https://zenodo.org/record/1449703 }}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | doi=10.1093/biomet/2.2.211 | author-link=Karl Pearson | last=Pearson | first=Karl |author2=Yule, G.U. |author3=Blanchard, Norman |author4= Lee, Alice  | title=The Law of Ancestral Heredity | journal=[[Biometrika]] | year=1903 | jstor=2331683 | pages=211–236 | volume=2 | issue=2 | url=https://zenodo.org/record/1431601 }}&amp;lt;/ref&amp;gt; 在Yule和Pearson的工作中，响应变量和解释变量的[[joint distribution]]被假定为[[Normal distribution|高斯分布]]。这一假设在[[Ronald A. Fisher|R.A. Fisher]]1922年和1925年的作品中被削弱。&amp;lt;ref&amp;gt;{{cite journal | last=Fisher | first=R.A. | title=The goodness of fit of regression formulae, and the distribution of regression coefficients | journal=Journal of the Royal Statistical Society | volume=85 | pages=597–612 | year=1922 | doi=10.2307/2341124 | pmc=1084801 | jstor=2341124 | issue=4 }}&amp;lt;/ref&amp;gt;&amp;lt;ref name=&amp;quot;FisherR1954Statistical&amp;quot;&amp;gt;{{Cite book&lt;br /&gt;
| author = Ronald A. Fisher&lt;br /&gt;
| title = Statistical Methods for Research Workers&lt;br /&gt;
| publisher = Oliver and Boyd&lt;br /&gt;
| location = [[Edinburgh]]&lt;br /&gt;
| year = 1954&lt;br /&gt;
| edition = Twelfth&lt;br /&gt;
| url = https://archive.org/details/statisticalmethoe7fish&lt;br /&gt;
| isbn = 978-0-05-002170-5&lt;br /&gt;
| author-link = Ronald A. Fisher&lt;br /&gt;
| url-access = registration&lt;br /&gt;
}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal | last=Aldrich | first=John | journal=Statistical Science | year=2005 | title=Fisher and Regression | volume=20 | issue=4 | pages=401&amp;amp;ndash;417 | jstor=20061201 | doi=10.1214/088342305000000331| doi-access=free }}&amp;lt;/ref&amp;gt; Fisher假设响应变量的[[conditional distribution]]是高斯的，但联合分布不必是。在这方面，Fisher的假设更接近于高斯在1821年的公式化。&lt;br /&gt;
&lt;br /&gt;
在20世纪50年代和60年代，经济学家使用[[Calculator#Precursors to the electronic calculator|电动桌面计算器]]来计算回归。在1970年之前，有时需要长达24小时才能得到一次回归的结果。&amp;lt;ref&amp;gt;Rodney Ramcharan. [ Regressions: Why Are Economists Obessessed with Them?] March 2006. Accessed 2011-12-03.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
回归方法仍然是一个活跃的研究领域。在最近几十年中，已经为[[robust regression]]、涉及相关响应的回归（如[[time series]]和[[growth curve (statistics)|生长曲线]]）、预测变量（独立变量）或响应变量是曲线、图像、图表或其他复杂数据对象的回归、适应各种类型缺失数据的回归方法、[[nonparametric regression]]、[[Bayesian statistics|贝叶斯]]回归方法、预测变量被误差测量的回归、预测变量多于观测的回归，以及与回归的[[causal inference]]相关的新方法开发出来。&lt;br /&gt;
&lt;br /&gt;
==回归模型==&lt;br /&gt;
在实践中，研究人员首先选择他们想要估计的模型，然后使用他们选择的方法（例如，[[ordinary least squares]]）来估计该模型的参数。回归模型涉及以下几个部分：&lt;br /&gt;
*&amp;#039;&amp;#039;&amp;#039;未知参数&amp;#039;&amp;#039;&amp;#039;，通常表示为一个[[scalar (physics)|标量]]或[[Euclidean vector|向量]][math]\beta[/math]。&lt;br /&gt;
*&amp;#039;&amp;#039;&amp;#039;独立变量&amp;#039;&amp;#039;&amp;#039;，这些在数据中观测到，通常表示为向量[math]X_i[/math]（其中[math]i[/math]表示数据的一行）。&lt;br /&gt;
*&amp;#039;&amp;#039;&amp;#039;因变量&amp;#039;&amp;#039;&amp;#039;，这些在数据中观测到，通常使用标量[math]Y_i[/math]表示。&lt;br /&gt;
*&amp;#039;&amp;#039;&amp;#039;误差项&amp;#039;&amp;#039;&amp;#039;，这些在数据中并未直接观测到，通常使用标量[math]e_i[/math]表示。&lt;br /&gt;
&lt;br /&gt;
在各种[[List of fields of application of statistics|统计应用领域]]中，不同的术语被用来代替[[dependent and independent variables]]。&lt;br /&gt;
&lt;br /&gt;
大多数回归模型提出：[math]Y_i[/math]是[math]X_i[/math]和[math]\beta[/math]的函数（&amp;#039;&amp;#039;&amp;#039;回归函数&amp;#039;&amp;#039;&amp;#039;），其中[math]e_i[/math]代表一个[[Errors and residuals|附加误差项]]，可能代表[math]Y_i[/math]的未建模决定因素或随机统计噪声：&lt;br /&gt;
&lt;br /&gt;
:[math]Y_i = f (X_i, \beta) + e_i[/math]&lt;br /&gt;
&lt;br /&gt;
研究人员的目标是估计与数据最为吻合的函数[math]f(X_i, \beta)[/math]。要进行回归分析，必须指定函数[math]f[/math]的形式。有时这个函数的形式是基于不依赖于数据的[math]Y_i[/math]与[math]X_i[/math]之间关系的知识。如果没有这样的知识，就会选择一个灵活或方便的形式作为[math]f[/math]。例如，一个简单的单变量回归可能提出[math]f(X_i, \beta) = \beta_0 + \beta_1 X_i[/math]，这表明研究者认为[math]Y_i = \beta_0 + \beta_1 X_i + e_i[/math]是对生成数据的统计过程的合理近似。&lt;br /&gt;
&lt;br /&gt;
一旦研究人员确定了他们偏好的[[statistical model|统计模型]]，不同形式的回归分析提供了估计参数[math]\beta[/math]的工具。例如，[[least squares|最小二乘法]]（包括其最常见的变体，[[ordinary least squares|普通最小二乘法]]）找到使误差平方和[math]\sum_i (Y_i - f(X_i, \beta))^2[/math]最小的[math]\beta[/math]的值。一个给定的回归方法最终会提供[math]\beta[/math]的估计值，通常记为[math]\hat{\beta}[/math]，以区别于生成数据的真实（未知）参数值。使用这个估计值，研究者可以使用&amp;#039;&amp;#039;拟合值&amp;#039;&amp;#039;[math]\hat{Y_i} = f(X_i,\hat{\beta})[/math]进行预测或评估模型在解释数据方面的准确性。研究者对估计值[math]\hat{\beta}[/math]或预测值[math]\hat{Y_i}[/math]的兴趣是否内在，取决于上下文和他们的目标。如[[ordinary least squares|普通最小二乘法]]中所述，最小二乘法之所以被广泛使用，是因为估计的函数[math]f(X_i, \hat{\beta})[/math]近似于[[conditional expectation|条件期望]][math]E(Y_i|X_i)[/math]。&amp;lt;ref name=&amp;quot;Gauss&amp;quot; /&amp;gt;然而，其他变体（例如，[[least absolute deviations|最小绝对偏差法]]或[[quantile regression|分位数回归法]]）在研究人员希望建模其他函数[math]f(X_i,\beta)[/math]时是有用的。&lt;br /&gt;
&lt;br /&gt;
需要注意的是，估计回归模型必须有足够的数据。例如，假设一个研究者可以访问[math]N[/math]行数据，包括一个因变量和两个自变量：[math](Y_i, X_{1i}, X_{2i})[/math]。进一步假设研究者希望通过[[least squares|最小二乘法]]估计一个双变量线性模型：[math]Y_i = \beta_0 + \beta_1 X_{1i} + \beta_2 X_{2i} + e_i[/math]。如果研究者只能访问[math]N=2[/math]个数据点，那么他们可以找到无限多个[math](\hat{\beta}_0, \hat{\beta}_1, \hat{\beta}_2)[/math]的组合，这些组合同样能很好地解释数据：任何满足[math]\hat{Y}_i = \hat{\beta}_0 + \hat{\beta}_1 X_{1i} + \hat{\beta}_2 X_{2i}[/math]的组合，都会导致[math]\sum_i \hat{e}_i^2 = \sum_i (\hat{Y}_i - (\hat{\beta}_0 + \hat{\beta}_1 X_{1i} + \hat{\beta}_2 X_{2i}))^2 = 0[/math]，因此都是合理的解决方案，可以最小化平方[[Errors and residuals|残差]]之和。为了理解为什么有无限多个选项，请注意，[math]N=2[/math]个方程的系统需要为3个未知数求解，这使得系统[[Underdetermined system|不确定]]。或者，人们可以想象无限多个三维平面穿过[math]N=2[/math]个固定点。&lt;br /&gt;
&lt;br /&gt;
更一般地说，要估计一个带有[math]k[/math]个不同参数的[[least squares|最小二乘法]]模型，必须有[math]N \geq k[/math]个不同的数据点。如果[math]N &amp;gt; k[/math]，那么通常不存在一组参数能完美地拟合数据。数量[math]N-k[/math]在回归分析中经常出现，被称为模型中的[[Degrees of freedom (statistics)|自由度]]。此外，要估计最小二乘法模型，自变量[math](X_{1i}, X_{2i}, ..., X_{ki})[/math]必须是[[Linear independence|线性独立]]的：不能通过加和乘以其余自变量来重构任何一个自变量。如[[ordinary least squares|普通最小二乘法]]中所讨论的，这个条件确保了[math]X^{T}X[/math]是一个[[invertible matrix|可逆矩阵]]，因此存在唯一的解[math]\hat{\beta}[/math]。&lt;br /&gt;
&lt;br /&gt;
==潜在假设==&lt;br /&gt;
{{more citations needed section|date=December 2020}}&lt;br /&gt;
本身，回归只是一种使用数据的计算。为了将回归的输出解释为衡量现实世界关系的有意义的统计量，研究人员通常依赖于一些经典的[[statistical assumption|统计假设]]。这些假设通常包括：&lt;br /&gt;
&lt;br /&gt;
*样本代表了整个人群。&lt;br /&gt;
*自变量测量没有误差。&lt;br /&gt;
*模型偏差的期望值为零，条件是协变量：[math]E(e_i | X_i) = 0[/math]&lt;br /&gt;
*残差[math]e_i[/math]的方差在观察中是恒定的（[[homoscedasticity|同方差性]]）。&lt;br /&gt;
*残差[math]e_i[/math]相互之间是[[uncorrelated|不相关]]的。从数学上讲，误差的[[Covariance matrix|方差-协方差矩阵]]是[[Diagonal matrix|对角线]]的。&lt;br /&gt;
&lt;br /&gt;
为了使最小二乘估计器具有理想的特性，只需满足少数几个条件：特别是，[[高斯-马尔可夫定理|高斯-马尔可夫]]假设意味着参数估计将是[[估计偏差|无偏]]的、[[一致性估计器|一致]]的，并且在线性无偏估计器类别中是[[有效性（统计学）|有效]]的。实践者们开发了多种方法，在现实世界环境中保持这些理想特性的全部或部分，因为这些经典假设不太可能完全成立。例如，对[[误差-变量模型|误差-变量]]进行建模可以得到合理的估计，即使自变量测量时存在误差。[[异方差一致性标准误差]]允许[math]e_i[/math]的方差在[math]X_i[/math]的不同值上发生变化。数据子集内存在的或遵循特定模式的相关误差可以使用“群集标准误差、地理加权回归”或[[纽伊-韦斯特估计器|纽伊-韦斯特]]标准误差等技术来处理。当数据行对应于空间中的位置时，如何在地理单元内对[math]e_i[/math]进行建模的选择可能会产生重要后果。&amp;lt;ref&amp;gt;{{cite book|title=地理加权回归：空间变化关系的分析|last1=Fotheringham|first1=A. Stewart|last2=Brunsdon|first2=Chris|last3=Charlton|first3=Martin|publisher=John Wiley|year=2002|isbn=978-0-471-49616-8|edition=重印|location=英格兰奇切斯特}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{cite journal|last=Fotheringham|first=AS|author2=Wong, DWS|date=1991年1月1日|title=多元统计分析中的可变区域单元问题|journal=环境与规划A|volume=23|issue=7|pages=1025–1044|doi=10.1068/a231025|s2cid=153979055}}&amp;lt;/ref&amp;gt; [[计量经济学]]的子领域主要集中于开发技术，允许研究人员在现实世界设置中得出合理的实际结论，其中经典假设并不完全成立。&lt;br /&gt;
&lt;br /&gt;
==线性回归==&lt;br /&gt;
{{Main|线性回归}}&lt;br /&gt;
{{Hatnote|See [[简单线性回归]]以了解这些公式的推导和一个数值示例}}&lt;br /&gt;
在线性回归中，模型规定是，因变量[math] y_i [/math]是&amp;#039;&amp;#039;参数&amp;#039;&amp;#039;的[[线性组合]]（但不必是&amp;#039;&amp;#039;自变量&amp;#039;&amp;#039;的线性）。例如，在对[math] n [/math]个数据点进行建模的[[简单线性回归]]中，有一个自变量：[math] x_i [/math]，和两个参数，[math]\beta_0[/math]和[math]\beta_1[/math]：&lt;br /&gt;
&lt;br /&gt;
:直线：[math]y_i=\beta_0 +\beta_1 x_i +\varepsilon_i,\quad i=1,\dots,n.\![/math]&lt;br /&gt;
&lt;br /&gt;
在多元线性回归中，有多个自变量或自变量的函数。&lt;br /&gt;
&lt;br /&gt;
在前面的回归中添加一个[math]x_i^2[/math]项得到：&lt;br /&gt;
&lt;br /&gt;
:抛物线：[math]y_i=\beta_0 +\beta_1 x_i +\beta_2 x_i^2+\varepsilon_i,\ i=1,\dots,n.\![/math]&lt;br /&gt;
&lt;br /&gt;
这仍然是线性回归；尽管右侧表达式在自变量[math]x_i[/math]中是二次的，但在参数[math]\beta_0[/math]、[math]\beta_1[/math]和[math]\beta_2[/math]中是线性的。&lt;br /&gt;
&lt;br /&gt;
在这两种情况下，[math]\varepsilon_i[/math]是一个误差项，下标[math]i[/math]索引了特定的观测。&lt;br /&gt;
&lt;br /&gt;
回到直线情况：给定一个来自总体的随机样，我们估计总体参数并获得样本线性回归模型：&lt;br /&gt;
&lt;br /&gt;
:math&amp;gt; \widehat{y}_i = \widehat{\beta}_0 + \widehat{\beta}_1 x_i. [/math]&lt;br /&gt;
&lt;br /&gt;
[[统计学中的误差和残差|残差]]，[math] e_i = y_i - \widehat{y}_i [/math]，是模型预测的因变量值[math] \widehaty}_i[/math]与因变量真实值[math]y_i[/math]之间的差异。估计的一种方法是[[普通最小二乘法]]。该方法获得的参数估计是最小化[[统计学中的误差和残差|残差]]平方和，[[残差平方和|SSR]]：&lt;br /&gt;
&lt;br /&gt;
:[math]SSR=\sum_{i=1^n e_i^2[/math]&lt;br /&gt;
&lt;br /&gt;
最小化这个函数得到一组[[线性最小二乘（数学）|正规方程]]，这是参数中的一组同时线性方程，通过解这些方程得到参数估计值，[math]\widehat{\beta}_0, \widehat{\beta}_1[/math]。&lt;br /&gt;
&lt;br /&gt;
[[文件:Linear regression.svg|缩略图|竖向=1.3|数据集上线性回归的示意图]]&lt;br /&gt;
&lt;br /&gt;
在简单回归的情况下，最小二乘估计的公式是&lt;br /&gt;
&lt;br /&gt;
:[math]\widehat{\beta}_1=\frac{\sum(x_i-\bar{x})(y_i-\bar{y})}{\sum(x_i-\bar{x})^2}[/math]&lt;br /&gt;
:[math]\widehat{\beta}_0=\bar{y}-\widehat{\beta}_1\bar{x}[/math]&lt;br /&gt;
&lt;br /&gt;
其中[math]\bar{x}[/math]是[math]x[/math]值的[[算术平均数|平均值]]（平均数），[math]\bar{y}[/math]是[math]y[/math]值的平均值。&lt;br /&gt;
&lt;br /&gt;
在假设总体误差项具有恒定方差的情况下，该方差的估计值由下式给出：&lt;br /&gt;
&lt;br /&gt;
: [math] \hat{\sigma}^2_\varepsilon = \frac{SSR}{n-2}[/math]&lt;br /&gt;
&lt;br /&gt;
这被称为回归的[[均方误差]]（MSE）。分母是样本大小减去从同一数据估计的模型参数数量，[math](n-p)[/math]用于[math]p[/math]个[[回归量]]，或者[math](n-p-1)[/math]如果使用了截距。&amp;lt;ref&amp;gt;Steel, R.G.D, and Torrie, J. H., &amp;#039;&amp;#039;统计学原理与程序，特别是生物科学。&amp;#039;&amp;#039;, [[麦格劳-希尔]], 1960年，第288页。&amp;lt;/ref&amp;gt; 在这种情况下，[math]p=1[/math]，所以分母是[math]n-2[/math]。&lt;br /&gt;
&lt;br /&gt;
参数估计值的[[标准误差（统计学）|标准误差]]由下式给出&lt;br /&gt;
&lt;br /&gt;
:[math]\hat\sigma_{\beta_1}=\hat\sigma_{\varepsilon} \sqrt{\frac{1}{\sum(x_i-\bar x)^2}}[/math]&lt;br /&gt;
&lt;br /&gt;
:[math]\hat\sigma_{\beta_0}=\hat\sigma_\varepsilon \sqrt{\frac{1}{n} + \frac{\bar{x}^2}{\sum(x_i-\bar x)^2}}=\hat\sigma_{\beta_1} \sqrt{\frac{\sum x_i^2}{n}}. [/math]&lt;br /&gt;
&lt;br /&gt;
在进一步假设人口误差项呈正态分布的情况下，研究者可以使用这些估计的标准误差来创建置信区间并进行关于人口参数的假设检验。&lt;br /&gt;
&lt;br /&gt;
===广义线性模型===&lt;br /&gt;
{{Hatnote|对于衍生方法，参见[[线性最小二乘法]]}}&lt;br /&gt;
{{Hatnote|对于数值示例，参见[[线性回归]]}}&lt;br /&gt;
在更一般的多元回归模型中，存在[math]p[/math]个独立变量：&lt;br /&gt;
&lt;br /&gt;
: [math] y_i = \beta_1 x_{i1} + \beta_2 x_{i2} + \cdots + \beta_p x_{ip} + \varepsilon_i, \, [/math]&lt;br /&gt;
&lt;br /&gt;
其中[math]x_{ij}[/math]是第[math]i[/math]次观测中的第[math]j[/math]个独立变量。&lt;br /&gt;
如果第一个独立变量对于所有的[math]i[/math]都取值为1，即[math]x_{i1} = 1[/math]，那么[math]\beta_1[/math]称为回归截距。&lt;br /&gt;
&lt;br /&gt;
最小二乘参数估计是从[math]p[/math]个正态方程中获得的。残差可以写成&lt;br /&gt;
&lt;br /&gt;
:[math]\varepsilon_i=y_i -  \hat\beta_1 x_{i1} - \cdots - \hat\beta_p x_{ip}.[/math]&lt;br /&gt;
&lt;br /&gt;
正态方程为&lt;br /&gt;
&lt;br /&gt;
:[math]\sum_{i=1}^n \sum_{k=1}^p x_{ij}x_{ik}\hat \beta_k=\sum_{i=1}^n x_{ij}y_i,\  j=1,\dots,p.\,[/math]&lt;br /&gt;
&lt;br /&gt;
在矩阵表示法中，正态方程写为&lt;br /&gt;
&lt;br /&gt;
:[math]\mathbf{(X^\top X )\hat{\boldsymbol{\beta}}= {}X^\top Y},\,[/math]&lt;br /&gt;
&lt;br /&gt;
其中[math]\mathbf X[/math]的[math]ij[/math]元素是[math]x_{ij}[/math]，列向量[math]Y[/math]的[math]i[/math]元素是[math]y_i[/math]，[math]\hat \boldsymbol \beta[/math]的[math]j[/math]元素是[math]\hat \beta_j[/math]。因此[math]\mathbf X[/math]是[math]n \times p[/math]，[math]Y[/math]是[math]n \times 1[/math]，[math]\hat \boldsymbol \beta[/math]是[math]p \times 1[/math]。解为&lt;br /&gt;
&lt;br /&gt;
:[math]\mathbf{\hat{\boldsymbol{\beta}}= (X^\top X )^{-1}X^\top Y}.[/math]&lt;br /&gt;
&lt;br /&gt;
===诊断===&lt;br /&gt;
{{main|回归诊断}}&lt;br /&gt;
{{Category see also|Regression diagnostics}}&lt;br /&gt;
一旦构建了回归模型，确认模型的拟合优度和估计参数的统计显著性可能很重要。常用的拟合优度检验包括决定系数，对残差模式的分析和假设检验。可以通过对整体拟合的F检验，然后是对单个参数的t检验来检查统计显著性。&lt;br /&gt;
&lt;br /&gt;
对这些诊断测试的解释主要依赖于模型的假设。虽然对残差的检查可以用来否定一个模型，但如果违反了模型的假设，t检验或F检验的结果有时难以解释。例如，如果误差项不呈正态分布，在小样本中估计的参数将不会遵循正态分布，从而使推理复杂化。然而，在相对较大的样本中，可以援引中心极限定理，使假设检验可以使用渐近近似进行。&lt;br /&gt;
&lt;br /&gt;
===有限依赖变量===&lt;br /&gt;
&lt;br /&gt;
[[Limited dependent variable|有限依赖变量]]，即只能在一定范围内变化的响应变量，通常出现在计量经济学中。&lt;br /&gt;
&lt;br /&gt;
响应变量可能是非连续的（“限制”在实数线的某个子集上）。对于二元（零或一）变量，如果分析以最小二乘线性回归进行，则该模型被称为线性概率模型。用于二元因变量的非线性模型包括Probit模型和Logit模型。多元Probit模型是估计几个二元因变量与一些自变量之间联合关系的标准方法。对于有两个以上值的分类变量，有多项Logit模型。对于有两个以上值的有序变量，有有序Logit模型和有序Probit模型。当因变量仅有时被观察到时，可以使用截尾回归模型，而当样本不是从感兴趣的人群中随机选择时，可以使用Heckman校正类型的模型。这些程序的替代方法是基于分类变量之间的多元相关性（或多元序列相关性）的线性回归。这些程序在对人群中变量分布的假设上有所不同。如果变量为正值且低值，并且代表某一事件发生的重复，则可以使用像泊松回归或负二项式模型这样的计数模型。&lt;br /&gt;
&lt;br /&gt;
==非线性回归==&lt;br /&gt;
{{Main|非线性回归}}&lt;br /&gt;
&lt;br /&gt;
当模型函数在参数上不是线性的时，必须通过迭代程序最小化平方和。这引入了许多复杂性，这些复杂性在线性和非线性最小二乘法之间的差异中总结。&lt;br /&gt;
&lt;br /&gt;
==预测（内插和外推）== {{anchor|Prediction|Interpolation|Extrapolation|Interpolation and extrapolation}}==&lt;br /&gt;
{{further|Predicted response|Prediction interval}}&lt;br /&gt;
&lt;br /&gt;
[[File:CurveWeightHeight.png|thumb|upright=1.5|In the middle, the interpolated straight line represents the best balance between the points above and below this line. The dotted lines represent the two extreme lines. The first curves represent the estimated values. The outer curves represent a prediction for a new measurement.&amp;lt;ref&amp;gt;{{cite book |last=Rouaud |first=Mathieu |title=Probability, Statistics and Estimation|year=2013 |page=60 |url=http://www.incertitudes.fr/book.pdf }}&amp;lt;/ref&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
在中间，内插的直线代表了该线上下点的最佳平衡。虚线代表两个极端线。第一个曲线代表估计值。外部曲线代表对新测量的预测。&amp;lt;ref&amp;gt;{{cite book |last=Rouaud |first=Mathieu |title=Probability, Statistics and Estimation|year=2013 |page=60 |url= }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
回归模型预测给定X变量已知值的Y变量值。在用于模型拟合的数据集范围内的预测被非正式地称为内插。超出这一数据范围的预测被称为外推。执行外推强烈依赖于回归假设。外推超出数据的程度越远，模型由于假设与样本数据或真实值之间的差异而失败的空间就越大。&lt;br /&gt;
&lt;br /&gt;
一个&amp;#039;&amp;#039;[[prediction interval|预测区间]]&amp;#039;&amp;#039;可能伴随着点预测来表示不确定性。这类区间在独立变量的值移动到观测数据所覆盖范围之外时，往往会迅速扩大。&lt;br /&gt;
&lt;br /&gt;
由于这些原因和其他原因，有些人倾向于认为进行外推可能是不明智的。[&amp;lt;ref&amp;gt;Chiang, C.L, (2003) &amp;#039;&amp;#039;Statistical methods of analysis&amp;#039;&amp;#039;, World Scientific. {{isbn|981-238-310-7}} - [https://books.google.com/books?id=BuPNIbaN5v4C&amp;amp;dq=regression+extrapolation&amp;amp;pg=PA274 page 274 section 9.7.4 &amp;quot;interpolation vs extrapolation&amp;quot;]&amp;lt;/ref&amp;gt;]&lt;br /&gt;
&lt;br /&gt;
然而，这并不涵盖可能会犯的所有建模错误：特别是假设&amp;#039;&amp;#039;Y&amp;#039;&amp;#039;与&amp;#039;&amp;#039;X&amp;#039;&amp;#039;之间关系的特定形式。一个恰当进行的回归分析将包括评估所假设形式与观测数据的匹配程度，但它只能在实际可用的独立变量值范围内进行。这意味着任何外推特别依赖于关于回归关系结构形式的假设。如果这种知识包括因变量不能超出某一值域的事实，即使观察到的数据集没有特别靠近此类边界的值，这也可以在选择模型时利用。选择回归的适当功能形式这一步在考虑外推时可能有重大影响。至少，它可以确保由拟合模型产生的任何外推是“现实的”（或与已知情况相符）。&lt;br /&gt;
&lt;br /&gt;
==功率和样本量计算==&lt;br /&gt;
关于观测数与模型中独立变量数之间的关系，目前没有普遍认可的方法。Good和Hardin提出的一种方法是[math]N=m^n[/math]，其中[math]N[/math]是样本量，[math]n[/math]是独立变量的数量，[math]m[/math]是如果模型只有一个独立变量时，达到所需精度所需的观测次数。&amp;lt;ref&amp;gt;{{cite book |last1=Good |first1=P. I. |author1-link=Phillip Good|last2=Hardin |first2=J. W. |title=Common Errors in Statistics (And How to Avoid Them)|publisher=Wiley|edition=3rd|location=Hoboken, New Jersey|year=2009|page=211|isbn=978-0-470-45798-6}}&amp;lt;/ref&amp;gt; 例如，一个研究者使用包含1000名病人的数据集建立线性回归模型([math]N[/math])。如果研究者决定需要五次观测来精确定义一条直线([math]m[/math])，那么模型能支持的独立变量的最大数量是4，因为&lt;br /&gt;
&lt;br /&gt;
: [math]\frac{\log 1000}{\log5}\approx4.29 [/math]。&lt;br /&gt;
&lt;br /&gt;
==其他方法==&lt;br /&gt;
虽然回归模型的参数通常使用最小二乘法估计，但还使用过其他方法，包括：&lt;br /&gt;
* [[Bayesian method|贝叶斯方法]]，例如[[Bayesian linear regression|贝叶斯线性回归]]&lt;br /&gt;
* 百分比回归，用于减少“百分比”错误被认为更合适的情况。&amp;lt;ref&amp;gt;{{cite journal| ssrn=1406472 |title=Least Squares Percentage Regression |last=Tofallis |first=C. |journal=Journal of Modern Applied Statistical Methods |volume=7 |year=2009 |pages=526–534| doi=10.2139/ssrn.1406472|url=https://digitalcommons.wayne.edu/cgi/viewcontent.cgi?article=1466&amp;amp;context=jmasm |hdl=2299/965 |hdl-access=free }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
* [[Least absolute deviations|最小绝对偏差]]，在异常值存在时更为稳健，导致[[quantile regression|分位数回归]]&lt;br /&gt;
* [[Nonparametric regression|非参数回归]]，需要大量观测并且计算密集&lt;br /&gt;
* [[Scenario optimization|场景优化]]，导致[[interval predictor model|区间预测模型]]&lt;br /&gt;
* 距离度量学习，通过在给定输入空间中搜索有意义的距离度量来学习。&amp;lt;ref&amp;gt;{{cite journal |url=http://pages.cs.wisc.edu/~huangyz/caip09_Long.pdf |title=Human age estimation by metric learning for regression problems |author=YangJing Long |journal=Proc. International Conference on Computer Analysis of Images and Patterns |year=2009 |pages=74–82 |url-status=dead |archive-url= |archive-date=2010-01-08 }}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== 软件 ==&lt;br /&gt;
{{Main list|List of statistical software|统计软件列表}}&lt;br /&gt;
&lt;br /&gt;
所有主要的统计软件包都能进行[[least squares|最小二乘]]回归分析和推断。[[Simple linear regression|简单线性回归]]和使用最小二乘的多元回归可以在一些[[spreadsheet|电子表格]]应用程序和部分计算器上完成。虽然许多统计软件包可以执行各种类型的非参数和稳健回归，但这些方法的标准化程度较低。不同的软件包实现不同的方法，且具有特定名称的方法可能在不同的包中有不同的实现。专门的回归软件已为调查分析和神经成像等领域开发。&lt;br /&gt;
&lt;br /&gt;
== 另行参见 ==&lt;br /&gt;
{{Portal|Mathematics}}&lt;br /&gt;
{{Div col}}&lt;br /&gt;
* [[Anscombe&amp;#039;s quartet]]&lt;br /&gt;
* [[Curve fitting]]&lt;br /&gt;
* [[Estimation theory]]&lt;br /&gt;
* [[Forecasting]]&lt;br /&gt;
* [[Fraction of variance unexplained]]&lt;br /&gt;
* [[Function approximation]]&lt;br /&gt;
* [[Generalized linear model]]&lt;br /&gt;
* [[Kriging]] (a linear least squares estimation algorithm)&lt;br /&gt;
* [[Local regression]]&lt;br /&gt;
* [[Modifiable areal unit problem]]&lt;br /&gt;
* [[Multivariate adaptive regression spline]]&lt;br /&gt;
* [[Multivariate normal distribution]]&lt;br /&gt;
* [[Pearson correlation coefficient]]&lt;br /&gt;
* [[Quasi-variance]]&lt;br /&gt;
* [[Prediction interval]]&lt;br /&gt;
* [[Regression validation]]&lt;br /&gt;
* [[Robust regression]]&lt;br /&gt;
* [[Segmented regression]]&lt;br /&gt;
* [[Signal processing]]&lt;br /&gt;
* [[Stepwise regression]]&lt;br /&gt;
* [[Taxicab geometry]]&lt;br /&gt;
* [[Linear trend estimation]]&lt;br /&gt;
  {{Div col end}}&lt;br /&gt;
&lt;br /&gt;
==引用==&lt;br /&gt;
{{Reflist}}&lt;br /&gt;
&lt;br /&gt;
==延伸阅读==&lt;br /&gt;
* [[William Kruskal|William H. Kruskal]] and [[Judith Tanur|Judith M. Tanur]], ed. (1978), &amp;quot;Linear Hypotheses,&amp;quot; &amp;#039;&amp;#039;International Encyclopedia of Statistics&amp;#039;&amp;#039;. Free Press,  v. 1,&lt;br /&gt;
  :Evan J. Williams, &amp;quot;I. Regression,&amp;quot; pp. 523–41.&lt;br /&gt;
  :[[Julian C. Stanley]], &amp;quot;II. Analysis of Variance,&amp;quot; pp. 541–554.&lt;br /&gt;
* [[D.V. Lindley|Lindley, D.V.]] (1987). &amp;quot;Regression and correlation analysis,&amp;quot; [[New Palgrave: A Dictionary of Economics]], v. 4, pp.&amp;amp;nbsp;120–23.&lt;br /&gt;
* Birkes, David and [[Yadolah Dodge|Dodge, Y.]], &amp;#039;&amp;#039;Alternative Methods of Regression&amp;#039;&amp;#039;. {{isbn|0-471-56881-3}}&lt;br /&gt;
* Chatfield, C. (1993) &amp;quot;[https://amstat.tandfonline.com/doi/abs/10.1080/07350015.1993.10509938 Calculating Interval Forecasts],&amp;quot; &amp;#039;&amp;#039;Journal of Business and Economic Statistics,&amp;#039;&amp;#039; &amp;#039;&amp;#039;&amp;#039;11&amp;#039;&amp;#039;&amp;#039;. pp.&amp;amp;nbsp;121–135.&lt;br /&gt;
* {{cite book&lt;br /&gt;
  |title = Applied Regression Analysis&lt;br /&gt;
  |edition = 3rd&lt;br /&gt;
  |last1= Draper |first1=N.R. |last2=Smith |first2=H.&lt;br /&gt;
  |publisher = John Wiley&lt;br /&gt;
  |year = 1998&lt;br /&gt;
  |isbn = 978-0-471-17082-2}}&lt;br /&gt;
* Fox, J. (1997).  &amp;#039;&amp;#039;Applied Regression Analysis, Linear Models and Related Methods.&amp;#039;&amp;#039; Sage&lt;br /&gt;
* Hardle, W., &amp;#039;&amp;#039;Applied Nonparametric Regression&amp;#039;&amp;#039; (1990), {{isbn|0-521-42950-1}}&lt;br /&gt;
* {{cite journal|doi=10.1002/for.3980140502|title=Prediction intervals for growth curve forecasts|journal=Journal of Forecasting|volume=14|issue=5|pages=413–430|year=1995|last1=Meade|first1=Nigel|last2=Islam|first2=Towhidul}}&lt;br /&gt;
* A. Sen, M. Srivastava, &amp;#039;&amp;#039;Regression Analysis &amp;amp;mdash; Theory, Methods, and Applications&amp;#039;&amp;#039;, Springer-Verlag, Berlin, 2011 (4th printing).&lt;br /&gt;
* T. Strutz: &amp;#039;&amp;#039;Data Fitting and Uncertainty (A practical introduction to weighted least squares and beyond)&amp;#039;&amp;#039;. Vieweg+Teubner, {{isbn|978-3-8348-1022-9}}.&lt;br /&gt;
* Stulp, Freek, and Olivier Sigaud. &amp;#039;&amp;#039;Many Regression Algorithms, One Unified Model: A Review.&amp;#039;&amp;#039; Neural Networks, vol. 69, Sept. 2015, pp.&amp;amp;nbsp;60–79. https://doi.org/10.1016/j.neunet.2015.05.005.&lt;br /&gt;
* Malakooti, B. (2013). [https://books.google.com/books?id=tvc8AgAAQBAJ&amp;amp;q=%22regression+analysis%22 Operations and Production Systems with Multiple Objectives]. John Wiley &amp;amp; Sons.&lt;br /&gt;
* {{cite journal |&lt;br /&gt;
  doi=10.7717/peerj-cs.623|&lt;br /&gt;
  title= The coefficient of determination R-squared is more informative than SMAPE, MAE, MAPE, MSE and RMSE in regression analysis evaluation|&lt;br /&gt;
  year=2021 |&lt;br /&gt;
  last1= Chicco |&lt;br /&gt;
  first1=Davide |&lt;br /&gt;
  last2= Warrens |&lt;br /&gt;
  first2=Matthijs J. |&lt;br /&gt;
  first3=Giuseppe|&lt;br /&gt;
  last3=Jurman|&lt;br /&gt;
  journal= PeerJ Computer Science |&lt;br /&gt;
  volume=7 |&lt;br /&gt;
  issue=e623 |&lt;br /&gt;
  pages=e623|&lt;br /&gt;
  pmid= 34307865|&lt;br /&gt;
  pmc= 8279135|&lt;br /&gt;
  doi-access = free}}&lt;br /&gt;
&lt;br /&gt;
==外部链接==&lt;br /&gt;
{{Commons category|Regression analysis}}&lt;br /&gt;
* {{springer|title=Regression analysis|id=p/r080620}}&lt;br /&gt;
* [http://jeff560.tripod.com/r.html Earliest Uses: Regression] – basic history and references&lt;br /&gt;
* [https://spss-tutor.com/multiple-regressions.php What is multiple regression used for?] – Multiple regression&lt;br /&gt;
* [http://www.vias.org/simulations/simusoft_regrot.html Regression of Weakly Correlated Data] – how linear regression mistakes can appear when Y-range is much smaller than X-range&lt;br /&gt;
&lt;br /&gt;
{{Differentiable computing}}&lt;br /&gt;
{{least squares and regression analysis}}&lt;br /&gt;
{{Statistics|correlation|state=collapsed}}&lt;br /&gt;
{{Quantitative forecasting methods}}&lt;br /&gt;
{{Public health}}&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Regression Analysis}}&lt;br /&gt;
[[Category:Regression analysis| ]]&lt;/div&gt;</summary>
		<author><name>Zeroclanzhang</name></author>
	</entry>
</feed>