更改

添加2,954字节 、 2020年10月14日 (三) 23:31
创建页面,内容为“==参数估计的一般方法== 大部分参数估计方法,都是在取某种极值。例如最小二乘法要最小化误差的平方和 <math>S = \sum_{i=1}^{…”
==参数估计的一般方法==

大部分参数估计方法,都是在取某种极值。例如最小二乘法要最小化误差的平方和

<math>S = \sum_{i=1}^{n} r_i^2</math>, <math> r_i = y_i - f(x_i, \beta)</math>

使用矩阵表达就是<math>f (x_i, \beta) = {x_i}^T \beta </math>, 其中<math>\frac{\partial S}{\partial \beta_j} = 0 </math> 可以导出 <math>\hat \beta = (X^T X)^{-1}X^T y</math>

最大似然估计要最大化似然概率 (R. A. Fisher 1920)

<math>p(H_i|E) \sim p(E|H_i)</math>

贝叶斯估计要最大化贝叶斯概率 (T. Bayes, 1736)

<math>p(H_i|E) = \frac{p(E|H_i)p(H_i)}{\sum_j p(E|H_j)p(H_j)}</math>

实际上,最大似然估计可以看做是贝叶斯估计在先验分布为均匀分布情况下的特例。


[[File:parameter estimation.png|300px]]


以此类推,我们可以制造出各种新的估计方法,如最小化KS statistic等。

==单变量分布参数估计:正态分布==

假设有满足正态分布的一堆数据点{7.5,4.0,5.1,3.6,4.7,7.7,3.8,6.3,4.8,5.5},求参数。

推导正态分布的MLE estimator如下:

[[File:parameter estimation2.png|600px]]


从以上结果中我们不仅可以得到参数的最大似然估计结果<math> \mu=5.3</math>,<math>\sigma=1.5</math>,还可以求得该估计结果对应的似然概率<math>2.5 * 10^{-8} </math>。实际上,任意代入两个参数,我们都可以求出产生观察到的数据集的似然概率。

刚才的数据实际上是由<math> \mu=5</math>,<math>\sigma=2</math>的理想正态分布生成。

这个案例让我们对参数空间的概念有了更深刻的认识:概率分布函数与观测所得数据之间只存在概率意义上的对应,而不是严格地一一对应的。这解释了为什么为什么我们需要寻找BLUE的estimator以及用P值等指标来做goodness-of-fit评价。

[[File:parameter estimation3.png|600px]]


<syntaxhighlight lang="python">
import numpy
import random
import scipy.stats as stats
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
from matplotlib.colors import BoundaryNorm
import numpy as np



</syntaxhighlight>

==单变量分布参数估计:幂律分布==

[[File:parameter estimation5.png|600px]]

[[File:parameter estimation6.png|700px]]

[[File:parameter estimation7.png|600px]]

==双变量线性回归参数估计==

[[File:parameter estimation4.png|500px]]

我们发现,在误差项为正态分布时,最大似然估计和最小二乘估计是等价的。但最大似然的思路非常清晰干净,而且可以直接推导出来,不需要记住Pearson相关等一大堆公式。

==双变量logistic回归参数估计==

请阅读这篇文章:

[http://czep.net/stat/mlelr.pdf Maximum Likelihood Estimation of Logistic Regression Models: Theory and Implementation]

并使用python实现对logistic回归的参数估计

[[category:旧词条迁移]]
113

个编辑