神说,要有正态分布,就有了正态分布。

神看正态分布是好的,就让随机误差服从了正态分布。

— 创世纪—数理统计

1. 正态分布,熟悉的陌生人

学过基础统计学的同学大都对正态分布非常熟悉。这个钟形的分布曲线不但形状优雅,它对应的密度函数写成数学表达式

$$ \displaystyle f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{{(x-\mu})^2}{2\sigma^2}} $$

也非常具有数学的美感。其标准化后的概率密度函数

$$ \displaystyle f(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} $$

更加的简洁漂亮,两个最重要的数学常量 \(\pi\)\(e\) 都出现在这公式之中。在我个人的审美之中,它也属于 top-N 的最美丽的数学公式之一,如果有人问我数理统计领域哪个公式最能让人感觉到上帝的存在,那我一定投正态分布的票。因为这个分布戴着神秘的面纱,在自然界中无处不在,让你在纷繁芜杂的数据背后看到隐隐的秩序。

normal_curve

正态分布曲线

正态分布又通常被称为高斯分布,在科学领域,冠名权那是一个很高的荣誉。2002年以前去过德国的兄弟们还会发现,德国1991年至2001年间发行的的一款10马克的纸币上印着高斯(Carl Friedrich Gauss, 1777-1855)的头像和正态密度曲线,而1977年东德发行的20马克的可流通纪念钢镚上,也印着正态分布曲线和高斯的名字。正态分布被冠名高斯分布,我们也容易认为是高斯发现了正态分布,其实不然,不过高斯对于正态分布的历史地位的确立是起到了决定性的作用。

10dm_with_gauss_curve 10dm_with_gauss_curve_detail 20-mark-gauss

德国马克和纪念币上的高斯头像和正态分布曲线

正态曲线虽然看上去很美,却不是一拍脑袋就能想到的。我们在本科学习数理统计的时候,课本一上来介绍正态分布就给出分布密度函数,却从来不说明这个密度函数是通过什么原理推导出来的。所以我一直搞不明白数学家当年是怎么找到这个概率分布曲线的,又是怎么发现随机误差服从这个奇妙的分布的。我们在实践中大量的使用正态分布,却对这个分布的来龙去脉知之甚少,正态分布真是让人感觉既熟悉又陌生。直到我读研究生的时候,我的导师给我介绍了陈希儒院士的《数理统计学简史》这本书,看了之后才了解了正态分布曲线从发现到被人们重视进而广泛应用,也是经过了几百年的历史。

正态分布的这段历史是很精彩的,我们通过讲一系列的故事来揭开她的神秘面纱。

2.邂逅,正态曲线的首次发现

第一个故事和概率论的发展密切相关,主角是棣莫弗(Abraham de Moivre, 1667-1754) 和拉普拉斯 (Pierre-Simon Laplace 1749-1827)。拉普拉斯是个大科学家,被称为法国的牛顿;棣莫弗名气可能不算很大,不过大家应该都应该很熟悉这个名字,因为我们在高中数学学复数的时候都学过棣莫弗公式 \((\cos\theta + i \sin\theta)^n = \cos(n\theta) + i \sin(n\theta).\)而棣莫弗所写的《机遇论》(The doctrine of chances)是概率论发展历史中很重要的一本书。牛顿对棣莫弗十分欣赏,遇到学生向他请教概率方面的问题时,他就说:“这样的问题应该去找棣莫弗,他对这些问题的研究比我深入得多。”

abraham-de-moivre laplace

棣莫弗和拉普拉斯

古典概率论发源于赌博,惠更斯(Christiaan Huygens, 1629-1695)、帕斯卡(Blaise Pascal, 1623-1662)、费马(Pierre de Fermat, 1601-1665)、雅可比·贝努利(Jacob Bernoulli, 1654-1705)都是古典概率的奠基人,他们那会研究的概率问题大都来自赌桌上,最早的概率论问题是赌徒梅累在1654年向帕斯卡提出的如何分赌金的问题。统计学中的总体均值之所以被称为期望 (Expectation), 就是源自惠更斯、帕斯卡这些人研究平均情况下一个赌徒在赌桌上可以期望自己赢得多少钱。

有一天一个哥们,也许是个赌徒,向棣莫弗提了一个和赌博相关的问题:A、B 两人在赌场里赌博,A、B各自的获胜概率是\(p, q=1-p\), 赌 \(n\) 局。两人约定:若 A 赢的局数 \(X > np\), 则 A 付给赌场 \(X-np\)元;若 \(X<np\),则B 付给赌场 \(np-X\) 元。 问赌场挣钱的期望值是多少。

问题并不复杂, 本质上是一个二项分布,若 \(np\) 为整数,棣莫弗求出最后的理论结果是

$$ 2npq b(n, p, np)$$

其中 \( b(n,p,i) = \binom{n}{i}p^iq^{n-i}\) 是常见的二项概率。 但是对具体的 \(n\), 因为其中的二项公式中有组合数,要把这个理论结果实际计算出数值结果可不是件容易的事, 这就驱动棣莫弗寻找近似计算的方法。

与此相关联的另一个问题,是遵从二项分布的随机变量 \( X \sim B(n,p)\), 求X落在二项分布中心点一定范围的概率 \(P_d = P(|X – np|\le d)\)

对于 \(p=1/2\) 的情形, 棣莫弗做了一些计算并得到了一些近似结果,但是还不够漂亮,幸运的是棣莫弗和斯特林(James Stirling, 1692-1770)处在同一个时代, 而且二人之间有联系,斯特林公式是在数学分析中必学的一个重要公式

$$ \displaystyle n! \approx \sqrt{2\pi n} \left(\frac{n}{e}\right)^n .$$

事实上斯特林公式的雏形是棣莫弗最先得到的,但斯特林改进了这个公式,改进的结果为棣莫弗所用。1733 年,棣莫弗很快利用斯特林公式进行计算并取得了重要的进展。考虑\(n\)是偶数的情形,二项概率为

$$b(n, \frac{1}{2}, i) = \binom{n}{i}\left(\frac{1}{2}\right)^n$$

以下把\(b(n, \frac{1}{2}, i)\)简记为\(b(i)\), 通过斯特林公式做一些简单的计算容易得到,

$$ \displaystyle b\left(\frac{n}{2}\right) \approx \sqrt{\frac{2}{\pi n}}, $$

$$ \displaystyle \frac{b\left(\frac{n}{2}+d\right)}{b\left(\frac{n}{2}\right)} \approx e^{-\frac{2d^2}{n}}, $$

于是有

$$ \displaystyle b\left(\frac{n}{2}+d\right) \approx \frac{2}{\sqrt{2 \pi n}}e^{-\frac{2d^2}{n}}. $$

使用上式的结果,并在二项概率累加求和的过程中近似的使用定积分代替求和,很容易就能得到

\begin{eqnarray} \begin{array}{lll} \displaystyle P\left(\left|\frac{X}{n} – \frac{1}{2}\right| \le \frac{c}{\sqrt{n}}\right) & = & \displaystyle \sum_{-c\sqrt{n} \le i \le c\sqrt{n}}b\left(\frac{n}{2}+i\right) \\ & \approx & \displaystyle \sum_{-c\sqrt{n} \le i \le c\sqrt{n}} \frac{2}{\sqrt{2 \pi n}}e^{-\frac{2i^2}{n}} \\ & = & \displaystyle \sum_{-2c \le \frac{2i}{\sqrt{n}} \le 2c} \frac{1}{\sqrt{2 \pi}}e^{-\frac{1}{2}(\frac{2i}{\sqrt{n}})^2} \frac{2}{\sqrt{n}} \\ & \approx &\displaystyle \int_{-2c}^{2c} \frac{1}{\sqrt{2\pi}} e^{-x^2/2} dx . \end{array} \end{eqnarray}

看,正态分布的密度函数的形式在积分公式中出现了!这也就是我们在数理统计课本上学到的一个重要结论:二项分布的极限分布是正态分布。

以上只是讨论了 \(p=1/2\) 的情形, 棣莫弗也对 \(p \ne 1/2\)做了一些计算,后来拉普拉斯对 \(p \ne 1/2\) 的情况做了更多的分析,并把二项分布的正态近似推广到了任意 \(p\) 的情况。 这是第一次正态密度函数被数学家刻画出来,而且是以二项分布的极限分布的形式被推导出来的。 熟悉基础概率统计的同学们都知道这个结果其实叫棣莫弗-拉普拉斯中心极限定理。

**[棣莫弗-拉普拉斯中心极限定理]**设随机变量 \(X_n (n=1,2,\cdots)\) 服从参数为 \(n,p\) 的二项分布,则对任意的 \(x\), 恒有

$$ \lim_{n\rightarrow\infty}P\left( \frac{X_n – np}{\sqrt{np(1-p)}} \le x \right) = \int_{-\infty}^x \frac{1}{\sqrt{2\pi}} e^{\frac{-t^2}{2}}dt . $$

我们在大学学习数理统计的时候,学习的过程都是先学习正态分布,然后才学习中心极限定理。而学习到正态分布的时候,直接就描述了其概率密度的数学形式,虽然数学上很漂亮,但是容易困惑数学家们是如何凭空就找到这个分布的。读了陈希孺的《数理统计学简史》之后,我才明白正态分布的密度形式首次发现是在棣莫弗-拉普拉斯的中心极限定理中。数学家研究数学问题的进程很少是按照我们数学课本编排的顺序推进的,现代的数学课本都是按照数学内在的逻辑进行组织编排的,虽然逻辑结构上严谨优美,却把数学问题研究的历史痕迹抹得一干二净。DNA 双螺旋结构的发现者之一詹姆斯·沃森(James D. Watson, 1928-) 在他的名著《DNA 双螺旋》序言中说:“ Science seldom proceeds in the straightforward logical manner imagined by outsiders. (科学的发现很少会像门外汉所想象的一样,按照直接了当合乎逻辑的方式进行的。)”

棣莫弗给出他的发现后40年(大约是1770年), 拉普拉斯建立了中心极限定理较一般的形式,中心极限定理随后又被其他数学家们推广到了其它任意分布的情形,而不限于二项分布。后续的统计学家发现,一系列的重要统计量,在样本量 \(N\) 趋于无穷的时候, 其极限分布都有正态的形式, 这构成了数理统计学中大样本理论的基础。

棣莫弗在二项分布的计算中瞥见了正态曲线的模样,不过他并没有能展现这个曲线的美妙之处。棣莫弗的这个工作当时并没有引起人们足够的重视,原因在于棣莫弗 不是个统计学家,从未从统计学的角度去考虑其工作的意义。 正态分布(当时也没有被命名为正态分布) 在当时也只是以极限分布的形式出现,并没有在统计学,尤其是误差分析中发挥作用。这也就是正态分布最终没有被冠名 棣莫弗分布的重要原因。 那高斯做了啥工作导致统计学家把正态分布的这顶桂冠戴在了他的头上呢?这先得从最小二乘法的发展说起。

3. 最小二乘法,数据分析的瑞士军刀

第二个故事的主角是欧拉(Leonhard Euler, 1707-1783)、拉普拉斯、勒让德 (Adrien-Marie Legendre, 1752–1833) 和高斯, 故事发生的时间是18世纪中到19世纪初。17、18 世纪是科学发展的黄金年代,微积分的发展和牛顿万有引力定律的建立,直接的推动了天文学和测地学的迅猛发展。当时的大科学家们都在考虑许多天文学上的问题,几个典型的问题如下:

  • 土星和木星是太阳系中的大行星,由于相互吸引对各自的运动轨道产生了影响,许多大数学家,包括欧拉和拉普拉斯都在基于长期积累的天文观测数据计算土星和木星的运行轨道。
  • 勒让德承担了一个政府给的重要任务,测量通过巴黎的子午线的长度。
  • 海上航行经纬度的定位。主要是通过对恒星和月面上的一些定点的观测来确定经纬度。

这些天文学和测地学的问题,无不涉及到数据的多次测量、分析与计算;17、18世纪的天文观测,也积累了大量的数据需要进行分析和计算。很多年以前,学者们就已经经验性的认为,对于有误差的测量数据,多次测量取算术平均是比较好的处理方法。虽然缺乏理论上的论证,也不断的受到一些人的质疑,取算术平均作为一种异常直观的方式,已经被使用了千百年, 在多年积累的数据的处理经验中也得到相当程度的验证,被认为是一种良好的数据处理方法。

以上涉及的问题,我们直接关心的目标量往往无法直接观测,但是一些相关的量是可以观测到的,而通过建立数学模型,最终可以解出我们关心的量。这些问题都可以用如下数学模型描述:我们想估计的量是 \(\beta_0,\cdots,\beta_p\), 另有若干个可以测量的量 \(x_1,\cdots,x_p, y\), 这些量之间有线性关系

$$ y = \beta_0 + \beta_1x_1 + \cdots + \beta_px_p $$

如何通过多组观测数据求解出参数\(\beta_0,\cdots,\beta_p\)呢? 欧拉和拉普拉斯采用的的方法都是求解如下线性方程组

\begin{eqnarray} \left\{ \begin{array}{lll} y_1 = \beta_0 + \beta_1x_{11} + \cdots + \beta_px_{p1} \\ y_2 = \beta_0 + \beta_1x_{12} + \cdots + \beta_px_{p2} \\ \vdots \\ y_n = \beta_0 + \beta_1x_{1n} + \cdots + \beta_px_{pn} . \end{array} \right. \end{eqnarray}

但是面临的一个问题是,有 \(n\) 组观测数据,\(p + 1\) 个变量, 如果 \(n > p + 1\), 则得到的线性矛盾方程组,无法直接求解。 所以欧拉和拉普拉斯采用的方法都是通过对数据的一定的观察,把\(n\)个线性方程分为 \(p+1\)组,然后把每个组内的方程线性求和后归并为一个方程,从而就把\(n\)个方程的方程组化为\(p+1\)个方程的方程组,进一步解方程求解参数。这些方法初看有一些道理,但是都过于经验化, 无法形成统一处理这一类问题的通用解决框架。

以上求解线性矛盾方程的问题在现在的本科生看来都不困难,这就是统计学中的线性回归问题,直接用最小二乘法就解决了。可是即便如欧拉、拉普拉斯这些数学大牛,当时也未能对这些问题提出有效的解决方案。可见在科学研究中,要想在观念上有所突破并不容易。有效的最小二乘法是勒让德在 1805 年发表的,基本思想就是认为测量中有误差,所以所有方程的累积误差为

累积误差 = \(\sum(\)观测值 – 理论值 \()^2\)

我们求解出导致累积误差最小的参数

\begin{eqnarray} \label{least-square-error} \begin{array}{lll} \hat{\boldsymbol\beta}& = & \displaystyle \arg\min_{\boldsymbol {\beta}} \sum_{i=1}^n e_i^2 \\ & = & \displaystyle \arg\min_{\boldsymbol\beta} \sum_{i=1}^n\Bigl[y_i – (\beta_0 + \beta_1x_{1i} + \cdots + \beta_px_{pi})\Bigr]^2 . \end{array} \end{eqnarray}

legendre

勒让德

勒让德在论文中对最小二乘法的优良性做了几点说明:

  1. 最小二乘法使得误差平方和最小,并在各个方程的误差之间建立了一种平衡,从而防止某一个极端误差取得支配地位;
  2. 计算中只要求偏导后求解线性方程组,计算过程明确便捷;
  3. 最小二乘法可以导出算术平均值作为估计值。

对于最后一点,推理如下:假设真值为 \(\theta\), \(x_1, \cdots, x_n\)\(n\)次测量值, 每次测量的误差为\(e_i = x_i – \theta \),按最小二乘法,误差累积为

$$ L(\theta) = \sum_{i=1}^n e_i^2 = \sum_{i=1}^n (x_i – \theta)^2 $$

求解\(\theta\)使得\(L(\theta)\)达到最小,正好是算术平均 \(\overline{x} = \frac{\sum_{i=1}^n x_i}{n} \)

由于算术平均是一个历经考验的方法,而以上的推理说明,算术平均是最小二乘法的一个特例,所以从另一个角度说明了最小二乘法的优良性,使我们对最小二乘法更加有信心。

最小二乘法发表之后很快得到了大家的认可接受,并迅速的在数据分析实践中被广泛使用。不过历史上又有人把最小二乘法的发明归功于高斯,这又是怎么一回事呢。高斯在1809 年也发表了最小二乘法,并且声称自己已经使用这个方法多年。高斯发明了小行星定位的数学方法,并在数据分析中使用最小二乘法进行计算,准确的预测了谷神星的位置。

扯了半天最小二乘法,没看出和正态分布有任何关系啊,离题了吧?单就最小二乘法本身,虽然很实用,不过看上去更多的算是一个代数方法,虽然可以推导出最优解,对于解的误差有多大,无法给出有效的分析,而这个就是正态分布粉墨登场发挥作用的地方。勒让德提出的最小二乘法,确实是一把在数据分析领域披荆斩棘的好刀,但是刀刃还是不够锋利;而这把刀的打造后来至少一半功劳被归到高斯,是因为高斯不但独自的给出了造刀的方法,而且把最小二乘这把刀的刀刃磨得无比锋利,把最小二乘法打造成了一把瑞士军刀。高斯拓展了最小二乘法,把正态分布和最小二乘法联系在一起,并使得正态分布在统计误差分析中确立了自己的地位,否则正态分布就不会被称为高斯分布了。 那高斯这位神人是如何把正态分布引入到误差分析之中,打造最小二乘法这把瑞士军刀的呢?

4. 众里寻她千百度,误差分布曲线的确立

第三个故事有点长,主角是高斯和拉普拉斯,故事的主要内容是寻找随机误差分布的规律。

天文学是第一个被测量误差困扰的学科,从古代至18世纪天文学一直是应用数学最发达的领域,到18世纪,天文学的发展积累了大量的天文学数据需要分析计算,应该如何来处理数据中的观测误差成为一个很棘手的问题。我们在数据处理中经常使用平均的常识性法则,千百年来的数据使用经验说明算术平均能够消除误差,提高精度。算术平均有如此的魅力,道理何在,之前没有人做过理论上的证明。算术平均的合理性问题在天文学的数据分析工作中被提出来讨论:测量中的随机误差应该服从怎样的概率分布?算术平均的优良性和误差的分布有怎样的密切联系?

伽利略在他著名的《关于两个主要世界系统的对话》中,对误差的分布做过一些定性的描述,主要包括:

  1. 观测数据存在误差
  2. 误差是对称分布的;
  3. 大的误差出现频率低,小的误差出现频率高。

用数学的语言描述,也就是说误差分布的密度函数 \(f(x)\)关于0对称分布,概率密度随 \(|x|\) 增加而减小,这两个定性的描述都很符合常识。

许多天文学家和数学家开始了寻找误差分布曲线的尝试。 天文学家辛普森(Thomas Simpson, 1710-1761) 先走出了有意义的一步。设真值为 \(\theta$, $x_1, \cdots, x_n\) 为n次测量值, 每次测量的误差为\( e_i = x_i – \theta \),若用算术平均 \(\overline{x} = \frac{\sum_{i=1}^n x_i}{n} \)去估计\(\theta\), 其误差为 \(\overline{e} = \frac{\sum_{i=1}^n e_i}{n} \)。 辛普森证明了, 对于如下的一个概率分布,

simpson-error-curve

辛普森的误差分布曲线

有如下结论

$$P(|\overline{e}| < x) \ge P(|e_i|<x) . $$

也就是说,\(|\overline{e}|\) 相比于\(|e_i|\)取小值的机会更大。 辛普森的这个工作很粗糙,但是这是第一次在一个特定情况下,从概率论的角度严格证明了算术平均的优良性。

从 1772-1774 年, 拉普拉斯也加入到了寻找误差分布密度函数的队伍中。拉普拉斯假定误差分布密度函数\(f(x)\)对称且满足

$$ -f'(x) = mf(x) $$

由此可求得分布密度函数为

\begin{equation} \label{laplace-error-curve} f(x) = \frac{m}{2} e^{-m|x|} . \end{equation}

这个概率密度函数现在被称为拉普拉斯分布。

laplace-error-curve

拉普拉斯的误差分布曲线

以该函数作为误差分布,拉普拉斯开始考虑如何基于测量的结果去估计未知参数的值。拉普拉斯可以算是一个贝叶斯主义者,他的参数估计的原则和现代贝叶斯方法非常相似:假设先验分布是均匀的,计算出参数的后验分布后,取后验分布的中值点,即$1/2$分位点,作为参数估计值。可是基于这个误差分布密度函数做了一些计算之后,拉普拉斯发现计算过于复杂,最终没能给出什么有用的结果。

拉普拉斯可是概率论的大牛,写过在概率发展历史中极有影响力的《分析概率论》,不过以我的数学审美,实在无法理解拉普拉斯这样的牛人怎么找了一个零点不可导的函数作为误差的分布密度函数,拉普拉斯最终还是没能搞定误差分布的问题。

现在轮到高斯登场了,高斯在数学史中的地位极高,年轻的时候号称数学王子,后来被称为数学家中的老狐狸,数学家阿贝尔 (Niels Henrik Abel, 1802-1829) 对他的评论是 :“高斯像一只狐狸,用尾巴将沙地上的足迹抹去(He is like the fox, who effaces his tracks in the sand with his tail) 。” 我们的数学大师陈省身把黎曼(Georg Friedrich Bernhard Riemann,1826-1866) 和庞加莱(Jules Henri Poincaré, 1854-1912)称为数学家中的菩萨,而称自己为罗汉;高斯是黎曼的导师,数学圈里有些教授把高斯称为数学家中的佛。 在数学家中既能仰望理论数学的星空,又能脚踏应用数学的实地的可不多见,高斯是数学家中少有的顶”天“立”地“的人物,它既对纯理论数学有深刻的洞察力,又极其重视数学在实践中的应用。 在误差分布的处理中,高斯以极其简单的手法确立了随机误差的概率分布,其结果成为数理统计发展史上的一块里程碑。

高斯的介入首先要从天文学界的一个事件说起。1801年1月,天文学家朱塞普·皮亚齐 (Giuseppe Piazzi, 1746-1826)发现了一颗从未见过的光度8等的星在移动,这颗现在被称作谷神星(Ceres)的小行星在夜空中出现6个星期,扫过八度角后就在太阳的光芒下没了踪影,无法观测。而留下的观测数据有限,难以计算出他的轨道,天文学家也因此无法确定这颗新星是彗星还是行星,这个问题很快成了学术界关注的焦点。高斯当时已经是很有名望的年轻数学家了,这个问题引起了他的兴趣。高斯以其卓越的数学才能创立了一种崭新的行星轨道的计算方法,一个小时之内就计算出了谷神星的轨道,并预言了他在夜空中出现的时间和位置。 1801年12月31 日夜,德国天文爱好者奥伯斯(Heinrich Olbers, 1758-1840),在高斯预言的时间里,用望远镜对准了这片天空。果然不出所料,谷神星出现了!

高斯为此名声大震,但是高斯当时拒绝透露计算轨道的方法,原因可能是高斯认为自己的方法的理论基础还不够成熟,而高斯一向治学严谨、精益求精,不轻易发表没有思考成熟的理论。直到1809年高斯系统地完善了相关的数学理论后,才将他的方法公布于众,而其中使用的数据分析方法,就是以正态误差分布为基础的最小二乘法。那高斯是如何推导出误差分布为正态分布的?让我们看看高斯是如何猜测上帝的意图的。

设真值为\(\theta\), \(x_1, \cdots, x_n\)\(n\)次独立测量值, 每次测量的误差为\( e_i = x_i – \theta \),假设误差\(e_i\)的密度函数为 \(f(e)\), 则测量值的联合概率为\(n\)个误差的联合概率,记为

\begin{align*} L(\theta) & = L(\theta;x_1,\cdots,x_n)=f(e_1)\cdots f(e_n) \\ & = f(x_1-\theta)\cdots f(x_n-\theta) \end{align*}

但是高斯不采用贝叶斯的推理方式,而是直接取使\(L(\theta)\)达到最大值的 \(\hat{\theta}=\hat{\theta}(x_1,\cdots,x_n)\) 作为\(\theta\)的估计值,即

$$ \hat{\theta}= \arg\max_{\theta} L(\theta) .$$

现在我们把\(L(\theta)\) 称为样本的似然函数,而得到的估计值\( \hat{\theta}\) 称为极大似然估计。高斯首次给出了极大似然的思想,这个思想后来被统计学家费希尔系统的发展成为参数估计中的极大似然估计理论。

数学家波利亚(George Pólya, 1887-1985)说过:“要成为一个好的数学家,……,你必须首先是一个好的猜想家(To be a good mathematician,…, you must be a good guesser)。”历史上一流的数学家都是伟大的猜想家。高斯接下来的想法特别牛,他开始揣度上帝的意图,而这充分体现了高斯的数学天才。高斯把整个问题的思考模式倒过来:既然千百年来大家都认为算术平均是一个好的估计,那我就认为极大似然估计导出的就应该是算术平均!所以高斯猜测上帝在创世纪中的旨意就是:

误差分布导出的极大似然估计 = 算术平均值

然后高斯去找误差密度函数 \(f\) 以迎合这一点。即寻找这样的概率分布密度函数 \(f\), 使得极大似然估计正好是算术平均 \(\hat{\theta} = \overline{x}\)。而高斯应用数学技巧求解这个函数\(f\), 高斯证明(证明不难,后续给出),所有的概率密度函数中,唯一满足这个性质的就是

$$ f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{x^2}{2\sigma^2}} $$

瞧,正态分布的密度函数 \(N(0, \sigma^2)\) 被高斯他老人家给解出来了!

进一步,高斯基于这个误差分布的密度函数对最小二乘法给出了一个很漂亮的解释。对于最小二乘公式中涉及的每个误差 \(e_i\), 由于误差服从概率分布 \(N(0, \sigma^2)\), 则\((e_1, \cdots, e_n)\) 的概率为 $$\frac{1}{(\sqrt{2\pi}\sigma)^n}\exp\left\{-\frac{1}{2\sigma^2} \sum_{i=1}^n e_i^2 \right\} .$$ 要使得这个概率最大,必须使得\(\sum_{i=1}^n e_i^2 \) 取最小值,这正好就是最小二乘法的要求。

高斯所拓展的最小二乘法成为了19世纪统计学的最重要成就,它在19世纪统计学的重要性就相当于18世纪的微积分之于数学。而勒让德和高斯的关于最小二乘法的发明权之争,成了数学史上仅次于牛顿、莱布尼茨微积分发明权的争端。相比于勒让德1805年给出的最小二乘法描述,高斯基于误差正态分布的最小二乘理论显然更高一筹,高斯的工作中既提出了极大似然估计的思想,又解决了误差的概率密度分布的问题,由此我们可以对误差大小的影响进行统计度量了。高斯的这项工作对后世的影响极大,而正态分布也因此被冠名高斯分布。估计高斯本人当时是完全没有意识到他的这个工作给现代数理统计学带来的深刻影响。高斯在数学上的贡献特多,去世前他是要求给自己的墓碑上雕刻上正十七边形,以说明他在正十七边形尺规作图上的杰出工作。而后世的德国钞票和钢镚上是以正态密度曲线来纪念高斯,这足以说明高斯的这项工作在当代科学发展中的分量。

17、18世纪科学界流行的做法,是尽可能从某种简单明了的准则(first principle)出发进行逻辑推导。高斯设定了准则“最大似然估计应该导出优良的算术平均”,并导出了误差服从正态分布,推导的形式上非常简洁优美。但是高斯给的准则在逻辑上并不足以让人完全信服,因为算术平均的优良性当时更多的是一个经验直觉,缺乏严格的理论支持。高斯的推导存在循环论证的味道:因为算术平均是优良的,推出误差必须服从正态分布;反过来,又基于正态分布推导出最小二乘法和算术平均,来说明最小二乘法和算术平均的优良性。这陷入了一个鸡生蛋蛋生鸡的怪圈,逻辑上算术平均的优良性到底有没有自行成立的理由呢?

高斯的文章发表之后,拉普拉斯很快得知了高斯的工作。拉普拉斯看到,正态分布既可以从抛钢镚产生的序列和中生成出来,又可以被优雅的作为误差分布定律,这难道是偶然现象?拉普拉斯不愧为概率论的大牛,他马上将误差的正态分布理论和中心极限定理联系起来,提出了元误差解释。他指出如果误差可以看成许多微小量的叠加,则根据他的中心极限定理,随机误差理所应当是高斯分布。而20世纪中心极限定理的进一步发展,也给这个解释提供了更多的理论支持。因此以这个解释为出发点,高斯的循环论证的圈子就可以打破。 估计拉普拉斯悟出这个结论之后一定想撞墙,自己辛辛苦苦寻寻觅觅了这么久的误差分布曲线就在自己的眼皮底下,自己却长年视而不见,被高斯占了先机。

至此,误差分布曲线的寻找尘埃落定,正态分布在误差分析中确立了自己的地位,并在整个19世纪不断的开疆扩土,直至在统计学中鹤立鸡群,傲世其它一切概率分布;而高斯和拉普拉斯的工作,为现代统计学的发展开启了一扇大门。

在整个正态分布被发现与应用的历史中,棣莫弗、拉普拉斯、高斯各有贡献,拉普拉斯从中心极限定理的角度解释它,高斯把它应用在误差分析中,殊途同归。正态分布被人们发现有这么好的性质,各国人民都争抢它的冠名权。因为拉普拉斯是法国人,所以当时在法国被称为拉普拉斯分布;而高斯是德国人, 所以在德国叫做高斯分布;第三中立国的人民称他为拉普拉斯-高斯分布。后来法国的大数学家庞加莱建议改用正态分布这一中立名称, 而随后统计学家卡尔·皮尔森使得这个名称被广泛接受:

Many years ago I called the Laplace-Gaussian curve the normal curve, which name, while it avoids an international question of priority, has the disadvantage of leading people to believe that all other distributions of frequency are in one sense or another “abnormal”.

—Karl Pearson (1920)

不过因为高斯在数学家中的名气实在是太大, 正态分布的桂冠还是更多地被戴在了高斯的脑门上,目前数学界通行的用语是正态分布、高斯分布, 两者并用。

正态分布在高斯的推动下,迅速在测量误差分析中被广泛使用,然而早期也仅限于测量误差的分析中,其重要性远没有被自然科学和社会科学领域中的学者们所认识,那正态分布是如何从测量误差分析的小溪,冲向自然科学和社会科学的汪洋大海的呢?

5. 曲径通幽处,禅房花木深

在介绍正态分布的后续发展之前,我们来多讲一点数学,也许有些人会觉得枯燥,不过高斯曾经说过:“数学是上帝的语言”;所以要想更加深入的理解正态分布的美,唯有借助于上帝的语言。

造物主造物的准则往往是简单明了的,只是在纷繁芜杂的万物之中,我们要发现并领会它并非易事。之前提到过,17、18世纪科学界流行的做法,是尽可能从某种简单明了的准则出发作为科学探求的起点;而后来的数学家和物理学家们的研究发现,屡次从一些给定的简单的准则出发, 我们总是被引领到了正态分布的家门口,这让人感觉到正态分布的美妙。

达尔文的表弟高尔顿是生物学家兼统计学家,他对正态分布非常的推崇与赞美:”我几乎不曾见过像误差呈正态分布这么激发人们无穷想象的宇宙秩序“。当代两位伟大的概率学家列维(Paul Pierre L_é_vy, 1886-1971) 和卡克(Mark Kac, 1914-1984) 都曾经说过,正态分布是他们切入概率论的初恋情人,具有无穷的魅力。如果古希腊人知道正态分布,想必奥林匹斯山的神殿里会多出一个正态女神,由她来掌管世间的混沌。

要拉下正态分布的神秘面纱展现她的美丽,需要高深的概率论知识,本人在数学方面知识浅薄,不能胜任。只能在极为有限的范围内尝试掀开她的面纱的一角。棣莫弗和拉普拉斯以抛钢镚的序列求和为出发点,沿着一条小径第一次把我们领到了正态分布的家门口,这条路叫做中心极限定理。而这条路上风景秀丽,许多概率学家都为之倾倒。这条路在二十世纪被概率学家们越拓越宽,成为了通往正态曲线的一条康庄大道。而数学家和物理学家们发现:条条小路通正态。著名的物理学家杰恩斯(Edwin Thompson Jaynes, 1922-1998) 在他的名著《概率论沉思录(Probability Theory: the Logic of Science)》中,描绘了四条通往正态分布的小径;曲径通幽处,禅房花木深,让我们一起来欣赏一下这四条小径上的风景吧。

5.1 高斯(1809)的推导

第一条小径是高斯找到的,高斯以如下准则作为小径的出发点

误差分布导出的极大似然估计 = 算术平均值

设真值为 \(\theta\), \(x_1, \cdots, x_n\)为n次独立测量值, 每次测量的误差为\( e_i = x_i – \theta \),假设误差\(e_i\)的密度函数为 \(f(e)\), 则测量值的联合概率为\(n\)个误差的联合概率,记为

\begin{align*} L(\theta) &= L(\theta;x_1,\cdots,x_n)=f(e_1)\cdots f(e_n) \\ & = f(x_1-\theta)\cdots f(x_n-\theta) \end{align*}

为求极大似然估计,令

$$\frac{d \log L(\theta)}{d \theta} = 0$$

整理后可以得到

$$ \sum_{i=1}^n \frac{f'(x_i-\theta)}{f(x_i-\theta)} = 0 $$

\(g(x) = \frac{f'(x)}{f(x)}\),

$$ \sum_{i=1}^n g(x_i-\theta) = 0 $$

由于高斯假设极大似然估计的解就是算术平均 \(\bar{x}\),把解代入上式,可以得到

\begin{equation} \sum_{i=1}^n g(x_i-\bar{x}) = 0 \quad  (1) \end{equation}

(1)式中取 \(n=2\), 有

$$g(x_1-\bar{x}) + g(x_2-\bar{x}) = 0$$

由于此时有 \( x_1-\bar{x} = -(x_2-\bar{x})\), 并且 \(x_1, x_2\) 是任意的,由此得到

$$ g(-x) = -g(x) $$

(1)式中再取 \(n=m+1\), 并且要求 \(x_1=\cdots=x_m=-x, x_{m+1} = mx\), 则有 \(\bar{x} = 0\), 并且

$$ \sum_{i=1}^n g(x_i-\bar{x}) = mg(-x) + g(mx) $$

所以得到

$$g(mx) = mg(x)$$

而满足上式的唯一的连续函数就是 \(g(x)=cx\), 从而进一步可以求解出

$$f(x) = Me^{cx^2}$$

由于\(f(x)\)是概率密度函数,把\(f(x)\) 正规化一下就得到均值为\(0\)的正态分布密度函数

\(N(0,\sigma^2)\)

5.2 赫歇尔(1850)和麦克斯韦(1860) 的推导

第二条小径是天文学家赫歇尔(John Frederick William Herschel, 1792-1871)和物理学家麦克斯韦(James Clerk Maxwell, 1831-1879) 发现的。 1850年,天文学家赫歇尔在对星星的位置进行测量的时候,需要考虑二维的误差分布,为了推导这个误差的概率密度分布

\(p(x,y)\),赫歇尔设置了两个准则:

  1. \(x\) 轴和 \(y\) 轴的误差是相互独立的,即随机误差在正交的方向上相互独立
  2. 误差的概率分布在空间上具有旋转对称性,即误差的概率分布和角度没有关系

这两个准则对于赫歇尔考虑的实际测量问题看起来都很合理。由第一条准则,可以得到 \(p(x,y)\) 应该具有如下形式

$$ p(x,y) = f(x) * f(y) $$

把这个函数转换为极坐标,在极坐标下的概率密度函数设为 \(g(r,\theta)\), 有

$$ p(x,y) = p(rcos\theta, rsin\theta) = g(r,\theta)$$

由第二条准则, \(g(r,\theta)\) 具有旋转对称性,也就是应该和 \(\theta\) 无关, 所以 \(g(r,\theta)=g(r)\), 综上所述,我们可以得到

$$ f(x)f(y) = g(r) = g(\sqrt{x^2+y^2}) $$

\(y=0\), 得到 \(g(x) = f(x)f(0)\), 所以上式可以转换为

$$ \log\left[\frac{f(x)}{f(0)}\right] + \log\left[\frac{f(y)}{f(0)}\right]= \log\left[\frac{f(\sqrt{x^2+y^2})}{f(0)}\right] $$

\(\log\left[\frac{f(x)}{f(0)}\right] = h(x) \), 则有

$$ h(x) + h(y) = h(\sqrt{x^2+y^2}) $$

从这个函数方程中可以解出 \(h(x) = ax^2\), 从而可以得到 \(f(x)\) 的一般形式如下

$$ f(x) = \sqrt{\frac{\alpha}{\pi}} e^{-\alpha x^2} $$

\(f(x)\) 就是正态分布 \(N(0, 1/\sqrt{2\alpha)}\), 从而 \(p(x,y)\) 就是标准二维正态

分布的密度函数

$$ p(x,y) = \frac{\alpha}{\pi} e^{-\alpha (x^2+y^2)}. $$

1860 年,伟大的物理学家麦克斯韦在考虑气体分子的运动速度分布的时候,在三维空间中基于类似的准则推导出了气体分子运动的分布是正态分布 \(\rho(v_x,v_y,v_z)\propto\exp\{-\alpha(v_x^2+v_y^2+v_z^2)\}\)。这就是著名的麦克斯韦分子速率分布定律。大家还记得我们在普通物理中学过的麦克斯韦-波尔兹曼气体速率分布定律吗?

\begin{eqnarray} \label{maxwell} \begin{array}{lll} F(v) & = & \displaystyle \left(\frac{m}{2\pi kT}\right)^{3/2} e^{-\frac{mv^2}{2kT}} \\ & = & \displaystyle \left(\frac{m}{2\pi kT}\right)^{1/2} e^{-\frac{mv_x^2}{2kT}} \times \left(\frac{m}{2\pi kT}\right)^{1/2} e^{-\frac{mv_y^2}{2kT}} \times \left(\frac{m}{2\pi kT}\right)^{1/2} e^{-\frac{mv_z^2}{2kT}} . \end{array} \end{eqnarray}

所以这个分布其实是三个正态分布的乘积, 你的物理老师是否告诉过你其实这个分布就是三维正态分布?

赫歇尔-麦克斯韦推导的神妙之处在于,没有利用任何概率论的知识,只是基于空间几何的不变性,就推导出了正态分布。美国诺贝尔奖物理学家费曼(Richard Feymann,1918-1988) 每次看到一个有 \(\pi\)的数学公式的时候,就会问:圆在哪里?这个推导中使用到了 \(x^2+y^2\), 也就是告诉我们正态分布密度公式中有个\(\pi\), 其根源在于二维正态分布中的等高线恰好是个圆。

5.3 兰登(1941)的推导

第三条道是一位电气工程师兰登(Vernon D. Landon)给出的。1941 年, 兰登研究通信电路中的噪声电压,通过分析经验数据他发现噪声电压的分布模式很相似,不同的是分布的层级,而这个层级可以使用方差 \(\sigma^2\) 来刻画。因此他推理认为噪声电压的分布密度函数形式是 \(p(x;\sigma^2)\)。假设原来的电压为X, 累加了一个相对其方差 \(\sigma\)而言很微小的误差扰动 \(\epsilon\)\(\epsilon\) 的概率密度是 \(q(e)\), 那么新的噪声电压是 \(X’ = X + \epsilon\)。 兰登提出了如下的准则

  1. 随机噪声具有稳定的分布模式
  2. 累加一个微小的随机噪声,不改变其稳定的分布模式,只改变分布的层级(用方差度量)

用数学的语言描述: 如果

$$X \sim p(x;\sigma^2), \epsilon \sim q(e), X’= X+\epsilon$$ 

则有

$$X’ \sim p(x;\sigma^2 + var(\epsilon))$$

现在我们来推导函数\(p(x;\sigma^2)\) 应该长成啥样。按照两个随机变量和的分布的计算方式, \(X’\)的分布密度函数将是 \(X\) 的分布密度函数和 \(\epsilon\)的分布密度函数的卷积,即有

$$ f(x’) = \int p(x’-e; \sigma^2)q(e)de $$

\(p(x’-e; \sigma^2)\)\(x’\)处做泰勒级数展开(为了方便,展开后把自变量由\(x’\) 替换为 \(x\)), 上式可以展开为

$$ f(x) = p(x; \sigma^2) – \frac{\partial p(x; \sigma^2)}{\partial x} \int eq(e)de +\frac{1}{2} \frac{\partial^2 p(x; \sigma^2)}{\partial x^2} \int e^2q(e)de + \cdots$$

\(p(x; \sigma^2)\)简记为\(p\),则有

$$ f(x) = p – \frac{\partial p}{\partial x} \overline{\epsilon} +\frac{1}{2} \frac{\partial^2 p}{\partial x^2}\overline{\epsilon^2} + o(\overline{\epsilon^2})$$

对于微小的随机扰动 \(\epsilon\), 我们认为他取正值或者负值是对称的,所以 \(\overline{\epsilon} = 0 \)。所以有

\begin{equation} \label{landon-x} f(x) = p + \frac{1}{2} \frac{\partial^2 p}{\partial x^2}\overline{\epsilon^2} + o(\overline{\epsilon^2}) \quad (2) \end{equation}

对于新的噪声电压 \(X’ = X + \epsilon\), 方差由\(\sigma^2\) 增加为 \(\sigma^2 + var(\epsilon) = \sigma^2 + \overline{\epsilon^2}\),所以按照兰登的分布密度函数模式不变的假设, 新的噪声电压的分布密度函数应该为 \(f(x) = p(x; \sigma^2 + \overline{\epsilon^2})\)。把\(p(x; \sigma^2 + \overline{\epsilon^2})\)\(\sigma^2\) 处做泰勒级数展开,得到

\begin{equation} \label{landon-sigma} f(x) = p + \frac{\partial p}{\partial \sigma^2}\overline{\epsilon^2} + o(\overline{\epsilon^2})  \quad (3) \end{equation}

比较 (2) 和 (3) 这两个式子,可以得到如下偏微分方程

$$ \frac{1}{2} \frac{\partial^2 p}{\partial x^2} = \frac{\partial p}{\partial \sigma^2} $$

而这个方程就是物理上著名的扩散方程(diffusion equation),求解该方程就得到

$$ p(x; \sigma^2) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{x^2}{2\sigma^2}} $$

又一次,我们推导出了正态分布!

杰恩斯对于这个推导的评价很高,认为兰登 的推导本质上给出了自然界的噪音形成过程。他指出这个推导这基本上就是中心极限定理的增量式版本,相比于中心极限定理是一次性累加所有的因素,兰登 的推导是每次在原有的分布上去累加一个微小的扰动。而在这个推导中,我们看到,正态分布具有相当好的稳定性;只要数据中正态的模式已经形成,他就容易继续保持正态分布,无论外部累加的随机噪声 \(q(e)\) 是什么分布,正态分布就像一个黑洞一样把这个累加噪声吃掉。

5.4 基于最大熵的推导

还有一条小径是基于最大熵原理的, 物理学家杰恩斯在最大熵原理上有非常重要的贡献,他在《概率论沉思录》里面对这个方法有描述和证明,没有提到发现者,我不确认这条道的发现者是否是杰恩斯本人。

熵在物理学中由来已久,信息论的创始人香农(Claude Elwood Shannon, 1916-2001)把这个概念引入了信息论,学习机器学习的同学们都知道目前机器学习中有一个非常好用的分类算法叫最大熵分类器。要想把熵和最大熵的来龙去脉说清楚可不容易,不过这条道的风景是相当独特的,杰恩斯对这条道也是偏爱有加。

对于一个概率分布 \(p(x)\), 我们定义他的熵为

$$H(p) = -\int p(x)\log p(x) dx$$

如果给定一个分布密度函数 \(p(x)\) 的均值 \(\mu\) 和方差 \(\sigma^2\)(给定均值和方差这个条件,也可以描述为给定一阶原点矩和二阶原点矩,这两个条件是等价的), 则在所有满足这两个限制的概率分布中,熵最大的概率分布 \(p(x|\mu, \sigma^2)\) 就是正态分布 \(N(\mu, \sigma^2)\)

这个结论的推导数学上稍微有点复杂,不过如果已经猜到了给定限制条件下最大熵的分布是正态分布,要证明这个猜测却是很简单的,证明的思路如下。

考虑两个概率分布 \(p(x)\)\(q(x)\),使用不等式 \(\log x \le (x-1) \), 得

$$ \int p(x) \log \frac{q(x)}{p(x)} dx \le \int p(x) (\frac{q(x)}{p(x)} – 1) dx = \int q(x) dx – \int p(x) dx = 0 $$

于是

$$ \int p(x) \log \frac{q(x)}{p(x)} dx = \int p(x) \log\frac{1}{p(x)}dx + \int p(x) \log q(x) dx \le 0 $$

所以

\begin{equation} H(p) \le -\int p(x) \log q(x) dx \end{equation}

熟悉信息论的同学都知道,这个式子是信息论中的很著名的结论:一个概率分布的熵总是小于相对熵。上式要取等号当且仅当\(q(x)=p(x)\)

对于 \(p(x)\), 在给定的均值 \(\mu\) 和方差 \(\sigma^2\)下, 我们取\(q(x)=N(\mu,\sigma^2)\), 则可以得到

\begin{eqnarray} \begin{array}{lll} H(p) & \le &\displaystyle – \int p(x) \log \left\{ \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac{{(x-\mu})^2}{2\sigma^2}}\right\} dx \\ & = & \displaystyle \int p(x) \left\{ \frac{(x-\mu)^2}{2\sigma^2} + \log \sqrt{2\pi}\sigma \right\} dx \\ & = & \displaystyle \frac{1}{2\sigma^2} \int p(x)(x-\mu)^2 dx + \log \sqrt{2\pi}\sigma \end{array} \end{eqnarray}

由于 \(p(x)\) 的均值方差有如下限制

$$ \int p(x) (x-\mu)^2 dx = \sigma^2$$

于是

$$ H(p) \le \frac{1}{2\sigma^2}\sigma^2 + \log \sqrt{2\pi}\sigma = \frac{1}{2} + \log \sqrt{2\pi}\sigma $$

而当\(p(x)=N(\mu, \sigma^2)\)的时候,上式可以取到等号,这就证明了结论。

杰恩斯显然对正态分布具有这样的性质极为赞赏,因为这从信息论的角度证明了正态分布的优良性。而我们可以看到,正态分布熵的大小,取决于方差的大小。 这也容易理解, 因为正态分布的均值和密度函数的形状无关,正态分布的形状是由其方差决定的,而熵的大小反应概率分布中的信息量,显然和密度函数的形状相关。

好的,风景欣赏暂时告一段落。所谓“横看成岭侧成峰,远近高低各不同”,正态分布给人们提供了多种欣赏角度和想象空间。法国菩萨级别的大数学家庞加莱对正态分布说过一段有意思的话,引用来作为这个小节的结束:

Physicists believe that the Gaussian law has been proved in mathematics while mathematicians think that it was experimentally established in physics.

物理学家认为高斯分布已经在数学上得到证明,而数学家则认为高斯分布在物理试验中得到确认。

—— Henri Poincaré

发表/查看评论