“二项分布”的版本间的差异
(→弧线法) |
|||
第436行: | 第436行: | ||
− | 基本近似通常随着 n 的增加而改进(至少20) ,当 p 不接近0或1时更好。经验法则可以用来判断 n 是否足够大,p的极值是否远离0或1: | + | 基本近似通常随着 n 的增加而改进(至少20) ,当 p 不接近0或1时更好。经验法则可以用来判断 n 是否足够大,p的极值是否远离0或1:<ref name="Katz1978">{{cite journal |last1=Katz |first1=D. |displayauthors=1 |first2=J. |last2=Baptista |first3=S. P. |last3=Azen |first4=M. C. |last4=Pike |year=1978 |title=Obtaining confidence intervals for the risk ratio in cohort studies |journal=Biometrics |volume=34 |issue=3 |pages=469–474 |doi=10.2307/2530610 |jstor=2530610 }}</ref> |
− | |||
− | |||
这个结果最早是由卡兹 Katz和合著者在1978年得出的。<ref name="Katz1978">{{cite journal |last1=Katz |first1=D. |displayauthors=1 |first2=J. |last2=Baptista |first3=S. P. |last3=Azen |first4=M. C. |last4=Pike |year=1978 |title=Obtaining confidence intervals for the risk ratio in cohort studies |journal=Biometrics |volume=34 |issue=3 |pages=469–474 |doi=10.2307/2530610 |jstor=2530610 }}</ref> | 这个结果最早是由卡兹 Katz和合著者在1978年得出的。<ref name="Katz1978">{{cite journal |last1=Katz |first1=D. |displayauthors=1 |first2=J. |last2=Baptista |first3=S. P. |last3=Azen |first4=M. C. |last4=Pike |year=1978 |title=Obtaining confidence intervals for the risk ratio in cohort studies |journal=Biometrics |volume=34 |issue=3 |pages=469–474 |doi=10.2307/2530610 |jstor=2530610 }}</ref> | ||
− | |||
− | |||
令''X'' ~ B(''n'',''p''<sub>1</sub>)和''Y'' ~ B(''m'',''p''<sub>2</sub>)独立,''T'' = (''X''/''n'')/(''Y''/''m'')。 | 令''X'' ~ B(''n'',''p''<sub>1</sub>)和''Y'' ~ B(''m'',''p''<sub>2</sub>)独立,''T'' = (''X''/''n'')/(''Y''/''m'')。 | ||
− | 例如,假设从大群体中随机抽取了 n 个人,然后询问他们是否同意某种说法。同意的人的比例取决于样本。如果 n 组人群被重复随机地取样,其比例将遵循一个近似正态分布,均值等于总体中一致性的真实比例 p,标准差<math>\sigma = \sqrt{\frac{p(1-p)}{n}}</math> | + | 例如,假设从大群体中随机抽取了 n 个人,然后询问他们是否同意某种说法。同意的人的比例取决于样本。如果 n 组人群被重复随机地取样,其比例将遵循一个近似正态分布,均值等于总体中一致性的真实比例 p,标准差:<math>\sigma = \sqrt{\frac{p(1-p)}{n}}</math> |
则log(''T'')近似正态分布,均值为log(''p''<sub>1</sub>/''p''<sub>2</sub>),方差为((1/''p''<sub>1</sub>) - 1)/''n'' + ((1/''p''<sub>2</sub>) - 1)/''m''。 | 则log(''T'')近似正态分布,均值为log(''p''<sub>1</sub>/''p''<sub>2</sub>),方差为((1/''p''<sub>1</sub>) - 1)/''n'' + ((1/''p''<sub>2</sub>) - 1)/''m''。 | ||
− | |||
− | |||
− | |||
===条件二项式=== | ===条件二项式=== |
2021年8月8日 (日) 22:24的版本
参数 | [math]\displaystyle{ n \in \{0, 1, 2, \ldots\} }[/math] – --- 试验次数; [math]\displaystyle{ p \in [0,1] }[/math] – -- 每个试验的成功概率; [math]\displaystyle{ q = 1 - p }[/math] |
支持 | [math]\displaystyle{ k \in \{0, 1, \ldots, n\} }[/math] – --- 成功的数量 |
概率质量函数 | [math]\displaystyle{ \binom{n}{k} p^k q^{n-k} }[/math] |
累积分布函数 | [math]\displaystyle{ I_{q}(n - k, 1 + k) }[/math] |
平均值 = | [math]\displaystyle{ np }[/math] |
中位数 | [math]\displaystyle{ \lfloor np \rfloor }[/math] 或 [math]\displaystyle{ \lceil np \rceil }[/math] |
模 | [math]\displaystyle{ \lfloor (n + 1)p \rfloor }[/math] 或 [math]\displaystyle{ \lceil (n + 1)p \rceil - 1 }[/math] |
方差 | [math]\displaystyle{ npq }[/math] |
偏度 | [math]\displaystyle{ \frac{q-p}{\sqrt{npq}} }[/math] |
峰度 | [math]\displaystyle{ \frac{1-6pq}{npq} }[/math] |
熵 | [math]\displaystyle{ \frac{1}{2} \log_2 (2\pi enpq) + O \left( \frac{1}{n} \right) }[/math] |
矩量母函数 | [math]\displaystyle{ (q + pe^t)^n }[/math] |
特征函数 = | [math]\displaystyle{ (q + pe^{it})^n }[/math] |
概率母函数 | [math]\displaystyle{ G(z) = [q + pz]^n }[/math] |
费雪信息量 | [math]\displaystyle{ g_n(p) = \frac{n}{pq} }[/math] (对于固定的 [math]\displaystyle{ n }[/math]) |
在概率论和统计学中,参数为n和p的二项分布是n个独立实验序列中成功次数的离散概率分布 discrete probability distribution ,每个实验结果是一个 是/否问题,每个实验都有布尔值结果: 成功/是/正确/1 (概率为 p)或失败/否/错误/0 (概率为 q = 1 − p)。
一个单一的结果为成功或失败的实验也被称为伯努利试验 Bernoulli trial或伯努利实验 Bernoulli experiment ,一系列伯努利实验结果被称为伯努利过程 Bernoulli process ; 对于一个单一的实验,即n = 1,这个二项分布是一个伯努利分布 Bernoulli distribution。二项分布是统计显著性 statistical significance 的二项检验 binomial test 的基础。
二项分布经常被用来模拟大小为n的样本中的成功数量,这些样本是从大小为N的种群中有放回地抽取的。如果抽样没有把抽取的个体放回总体中,抽样就不是独立的,所以得到的分布是一个超几何分布 hypergeometric distribution ,而不是二项分布。然而,对于N远大于n的情况,二项分布仍然是一个很好的近似,并且被广泛使用。
定义
概率质量函数
一般来说,如果随机变量 random variable X服从参数n ∈ ℕ且 p ∈ [0,1]的二项分布,记作X ~ B(n, p)。在n个独立的伯努利试验中获得k次成功的概率由概率质量函数给出:
[math]\displaystyle{ f(k,n,p) = \Pr(k;n,p) = \Pr(X = k) = \binom{n}{k}p^k(1-p)^{n-k} }[/math]
对于k = 0, 1, 2, ..., n,其中
[math]\displaystyle{ \binom{n}{k} =\frac{n!}{k!(n-k)!} }[/math]
是二项式系数 binomial coefficient,因此有了分布的名字。这个公式可以理解为,K次成功发生在概率为pk的情况下,n − k次失败发生在概率为(1 − p)n − k的情况下。然而,k次成功可以发生在n个试验中的任何一个,并且在n个试验序列中有[math]\displaystyle{ \binom{n}{k} }[/math]种k次试验成功的不同分配方法。
在创建二项分布概率的参考表时,通常表中最多填充到n/2的值。这是因为对于k > n/2,概率可以通过它的补来计算。
[math]\displaystyle{ f(k,n,p)=f(n-k,n,1-p). }[/math].
把表达式f(k, n, p)看作k的函数,存在一个k值使它达到最大。这个k 值可以通过计算得到。
[math]\displaystyle{ \frac{f(k+1,n,p)}{f(k,n,p)}=\frac{(n-k)p}{(k+1)(1-p)} }[/math]
并且与1相比较。总有一个整数M满足[1]
[math]\displaystyle{ (n+1)p-1 \leq M \lt (n+1)p. }[/math].
f(k, n, p)对k < M 是单调递增的,对k > M 是单调递减的,但(n + 1)p是整数的情况除外。在这种情况下,有(n + 1)p 和 (n + 1)p −1 两个值使f达到最大。M 是伯努利试验最有可能的结果(也就是说,发生的可能性最大,尽管仍然存在不发生的情况) ,被称为模。
例子
假设抛出一枚有偏硬币 biased coin 时,正面朝上的概率为0.3。在6次抛掷中恰好看到4个正面的概率是
[math]\displaystyle{ f(4,6,0.3) = \binom{6}{4}0.3^4 (1-0.3)^{6-4}= 0.059535. }[/math].
累积分布函数
累积分布函数可以表达为:
[math]\displaystyle{ F(k;n,p) = \Pr(X \le k) = \sum_{i=0}^{\lfloor k \rfloor} {n\choose i}p^i(1-p)^{n-i}, }[/math] ,
[math]\displaystyle{ \lfloor k\rfloor }[/math]是k的向下取整 round down,即小于或等于k的最大整数。
在正则化不完全的beta函数 regularized incomplete beta function 下,它也可以表示如下: [2]
[math]\displaystyle{ \begin{align}
F(k;n,p) & = \Pr(X \le k) \\
&= I_{1-p}(n-k, k+1) \\
& = (n-k) {n \choose k} \int_0^{1-p} t^{n-k-1} (1-t)^k \, dt.
\end{align} }[/math]
这相当于F分布 F-distribution的累积分布函数: [3]
[math]\displaystyle{ F(k;n,p) = F_{F\text{-distribution}}\left(x=\frac{1-p}{p}\frac{k+1}{n-k};d_1=2(n-k),d_2=2(k+1)\right). }[/math]
下面给出了累积分布函数的一些闭式界 closed-form bounds 。
属性
期望值和方差
如果X ~ B(n, p),即X是一个服从二项分布的随机变量,n 是实验的总数,p 是每个实验得到成功结果的概率,那么X的期望值是:
[math]\displaystyle{ \operatorname{E}[X] = np. }[/math]。
这是由于期望值的线性性 linearity,以及X是n个相同的伯努利随机变量的线性组合,每个变量都有期望值p。换句话说,如果[math]\displaystyle{ X_1, \ldots, X_n }[/math]是参数p的相同的(且独立的)伯努利随机变量,那么
[math]\displaystyle{ X = X_1 + \cdots + X_n }[/math]
[math]\displaystyle{ \operatorname{E}[X] = \operatorname{E}[X_1 + \cdots + X_n] = \operatorname{E}[X_1] + \cdots + \operatorname{E}[X_n] = p + \cdots + p = np. }[/math]
方差是:
[math]\displaystyle{ \operatorname{Var}(X) = np(1 - p). }[/math]
这也是因为独立随机变量和的方差是方差之和。
高阶矩
前6个中心矩由
[math]\displaystyle{ \begin{align} \mu_1 &= 0, \\ \mu_2 &= np(1-p),\\ \mu_3 &= np(1-p)(1-2p),\\ \mu_4 &= np(1-p)(1+(3n-6)p(1-p)),\\ \mu_5 &= np(1-p)(1-2p)(1+(10n-12)p(1-p)),\\ \mu_6 &= np(1-p)(1-30p(1-p)(1-4p(1-p))+5np(1-p)(5-26p(1-p))+15n^2 p^2 (1-p)^2). \end{align} }[/math]
模
通常二项式B(n, p)分布的模等于[math]\displaystyle{ \lfloor (n+1)p\rfloor }[/math],其中[math]\displaystyle{ \lfloor\cdot\rfloor }[/math]是向下取整函数 floor function 。然而,当(n + 1)p是整数且p不为0或1时,二项分布有两种模: (n + 1)p和(n + 1)p − 1。当p等于0或1时,对应的模为0或n。这些情况可总结如下:
[math]\displaystyle{ \text{mode} =
\begin{cases}
\lfloor (n+1)\,p\rfloor & \text{if }(n+1)p\text{ is 0 or a noninteger}, \\
(n+1)\,p\ \text{ and }\ (n+1)\,p - 1 &\text{if }(n+1)p\in\{1,\dots,n\}, \\
n & \text{if }(n+1)p = n + 1.
\end{cases} }[/math]
证明: 让
[math]\displaystyle{ f(k)=\binom nk p^k q^{n-k}. }[/math]
当[math]\displaystyle{ p=0 }[/math],只有[math]\displaystyle{ f(0) }[/math]有一个非零值,[math]\displaystyle{ f(0)=1 }[/math]。当[math]\displaystyle{ p=1 }[/math],我们发现当[math]\displaystyle{ k\neq n }[/math],[math]\displaystyle{ f(n)=1 }[/math]且[math]\displaystyle{ f(k)=0 }[/math]。这证明了[math]\displaystyle{ p=0 }[/math]时模为0,[math]\displaystyle{ p=1 }[/math]时模为[math]\displaystyle{ n }[/math]。
当[math]\displaystyle{ 0 \lt p \lt 1 }[/math]。我们发现
[math]\displaystyle{ \frac{f(k+1)}{f(k)} = \frac{(n-k)p}{(k+1)(1-p)} }[/math].
由此可见
[math]\displaystyle{ \begin{align} k \gt (n+1)p-1 \Rightarrow f(k+1) \lt f(k) \\ k = (n+1)p-1 \Rightarrow f(k+1) = f(k) \\ k \lt (n+1)p-1 \Rightarrow f(k+1) \gt f(k) \end{align} }[/math]
所以当[math]\displaystyle{ (n+1)p-1 }[/math]是一个整数时,[math]\displaystyle{ (n+1)p-1 }[/math]和[math]\displaystyle{ (n+1)p }[/math]是一个模。在[math]\displaystyle{ (n+1)p-1\notin Z }[/math]的情况下,只有[math]\displaystyle{ \lfloor (n+1)p-1\rfloor+1=\lfloor (n+1)p\rfloor }[/math]是模。[4]
中位数
一般来说,没有单一的公式可以找到一个二项分布的中位数,甚至可能不是唯一的。然而,几个特殊的结果是已经确定的:
- 任何中位数m都必须满足⌊np⌋ ≤ m ≤ ⌈np⌉。[7]
- 中位数m不能离均值太远。|m − np| ≤ min{ ln 2, max{p, 1 − p}
- [math]\displaystyle{ F(k;n,p) \geq \frac{1}{\sqrt{8n\tfrac{k}{n}(1-\tfrac{k}{n})}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right), }[/math]
- 中位数是唯一的并且等于m = round(np),此时|m − np| ≤ min{p, 1 − p}([math]\displaystyle{ ''p'' = {{sfrac|1|2}} }[/math]和 n 是奇数的情况除外)
这意味着更简单但更宽松的界限
- [math]\displaystyle{ F(k;n,p) \geq \frac1{\sqrt{2n}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right). }[/math]
对于p = 1/2且n是奇数,任意m满足 (n − 1) ≤ m ≤ (n + 1)是一个二项分布的中位数。如果p = 1/2且n 是偶数,那么m = n/2是唯一的中位数:
- [math]\displaystyle{ F(k;n,p) \geq \frac1{\sqrt{2n}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right); }[/math]
当p = 1/2并且n为偶数,k ≥ 3n/8时, 可以使分母为常数。
尾部边界
对于k≤np,可以得出累积分布函数左尾的上界[math]\displaystyle{ F(k;n,p)=Pr(X \le k) }[/math],即最多存在k次成功的概率。由于[math]\displaystyle{ Pr(X \ge k) = F(n-k;n,1-p) }[/math],这些界限也可以看作是k≥np的累积分布函数右尾的边界。
- [math]\displaystyle{ F(k;n,\tfrac{1}{2}) \geq \frac{1}{15} \exp\left(- 16n \left(\frac{1}{2} -\frac{k}{n}\right)^2\right). \! }[/math]
霍夫丁不等式 Hoeffding's inequality 得到简单的边界
- [math]\displaystyle{ F(k;n,p) \leq \exp\left(-2 n\left(p-\frac{k}{n}\right)^2\right), \! }[/math]
然而,这并不是很严格。特别是,当p=1时,有F(k;n,p) = 0(对于固定的k,n与k < n),但是Hoeffding的约束评价为一个正的常数。
当 n 已知时,参数 p 可以使用成功的比例来估计:[math]\displaystyle{ \widehat{p} = \frac{x}{n} }[/math]。可以利用极大似然估计 maximum likelihood estimator 和 矩方法 method of moments来求出该估计量。Lehmann-scheffé 定理证明了该估计量是无偏的一致的且方差最小的,因为该估计量是基于一个极小充分完备统计量 sufficient and complete statistic(即: x).它在概率和均方误差 MSE方面也是一致的。
可以从切尔诺夫界 Chernoff bound中得到一个更清晰的边界。
利用 Beta分布作为共轭先验分布 conjugate prior distribution 时,也存在p的封闭形式的贝叶斯估计 Bayes estimator 。当使用一个通用[math]\displaystyle{ \operatorname{Beta}(\alpha, \beta) }[/math]作为先验时,后验均值估计量为: [math]\displaystyle{ \widehat{p_b} = \frac{x+\alpha}{n+\alpha+\beta} }[/math]。贝叶斯估计是渐近有效的,当样本容量趋近无穷大(n →∞)时,它趋近极大似然估计解。贝叶斯估计是有偏的(偏多少取决于先验) ,可接受的且一致的概率。
- [math]\displaystyle{ F(k;n,p) \leq \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right) }[/math]
对于使用标准均匀分布作为非信息性的先验概率的特殊情况([math]\displaystyle{ \operatorname{Beta}(\alpha=1, \beta=1) = U(0,1) }[/math]),后验均值估计变为[math]\displaystyle{ \widehat{p_b} = \frac{x+1}{n+2} }[/math] (后验模式应只能得出标准估计量)。这种方法被称为继承法则 the rule of succession ,它是18世纪皮埃尔-西蒙·拉普拉斯 Pierre-Simon Laplace提出的。
其中D(a || p)是参数为a和p的相对熵,即Bernoulli(a)和Bernoulli(p)概率分布的差值:
当估计用非常罕见的事件和一个小的n (例如,如果x = 0) ,那么使用标准估计会得到[math]\displaystyle{ \widehat{p} = 0 }[/math],这有时是不现实的和我们不希望看到的。在这种情况下,有各种可供选择的估计值。一种方法是使用贝叶斯估计,得到:[math]\displaystyle{ \widehat{p_b} = \frac{1}{n+2} }[/math])。另一种方法是利用从3个规则获得的置信区间的上界: [math]\displaystyle{ \widehat{p_{\text{rule of 3}}} = \frac{3}{n}) }[/math]
- [math]\displaystyle{ D(a\parallel p)=(a)\log\frac{a}{p}+(1-a)\log\frac{1-a}{1-p}. \! }[/math]
渐近地,这个边界是相当严格的;详见[8]。
即使对于非常大的 n 值,均值的实际分布是非正态的。针对这一问题,提出了几种估计置信区间的方法。
我们还可以得到尾部[math]\displaystyle{ F(k;n,p) }[/math]的下界,即反集中界anti-concentration bounds 。通过用斯特林公式 Stirling's formula对二项式系数进行近似,可以看出:
- [math]\displaystyle{ F(k;n,p) \geq \frac{1}{\sqrt{8n\tfrac{k}{n}(1-\tfrac{k}{n})}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right), }[/math]
在下面的置信区间等式中,这些变量具有以下含义:
这意味着更简单但更松散的约束。
- [math]\displaystyle{ F(k;n,p) \geq \frac1{\sqrt{2n}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right). }[/math]
当p = 1/2并且n为偶数,k ≥ 3n/8时, 可以使分母为常数
- [math]\displaystyle{ F(k;n,\tfrac{1}{2}) \geq \frac{1}{15} \exp\left(- 16n \left(\frac{1}{2} -\frac{k}{n}\right)^2\right). \! }[/math]
- [math]\displaystyle{ \widehat{p\,} \pm z \sqrt{ \frac{ \widehat{p\,} ( 1 -\widehat{p\,} )}{ n } } }[/math]
统计推断
可以加上0.5/n 的连续校正。
参数估计
Beta分布 贝叶斯推断
当n已知时,参数p可以用成功的比例来估计:[math]\displaystyle{ \widehat{p} = \frac{x}{n}. }[/math]。这个估计是用极大似然估计法和矩估计方法来计算的。这个估计是无偏的、一致的且有最小的方差,由Lehmann-Scheffé定理证明,因为它是基于最小充分完备统计量(即:x)。它的概率和均方误差(MSE)也是一致估计。
- [math]\displaystyle{ \tilde{p}\pm z\sqrt{\frac{\tilde{p}(1 - \tilde{p})}{ n + z^2 }} }[/math] .
利用 Beta分布作为共轭先验分布时,也存在p的封闭形式的贝叶斯估计。当使用一个通用[math]\displaystyle{ \operatorname{Beta}(\alpha, \beta) }[/math]作为先验时,后验均值估计量为: [math]\displaystyle{ \widehat{p_b} = \frac{x+\alpha}{n+\alpha+\beta} }[/math]。贝叶斯估计是渐近有效的,当样本容量趋近无穷大(n →∞)时,它趋近极大似然估计(MLE)解。贝叶斯估计是有偏的(偏多少取决于先验) ,可接受的且一致的概率。
这里p的估计被修改为
对于使用标准均匀分布作为非信息性的先验概率的特殊情况([math]\displaystyle{ \operatorname{Beta}(\alpha=1, \beta=1) = U(0,1) }[/math]),后验均值估计变为[math]\displaystyle{ \widehat{p_b} = \frac{x+1}{n+2} }[/math] (后验模式应只能得出标准估计量)。这种方法被称为继承法则,它是18世纪 Pierre-Simon Laplace提出的。
- [math]\displaystyle{ \tilde{p}= \frac{ n_1 + \frac{1}{2} z^2}{ n + z^2 } }[/math]
当估计值p时非常罕见,而且很小(例如:如果x=0),那么使用标准估计器会得到[math]\displaystyle{ \widehat{p} = 0, }[/math],这有时是不现实的,也是不可取的。在这种情况下,有几种不同的可替代的估计方法。[9]一种方法是使用贝叶斯估计,得到: [math]\displaystyle{ \widehat{p_b} = \frac{1}{n+2} }[/math])。另一种方法是利用从3个规则获得的置信区间的上界: [math]\displaystyle{ \widehat{p_{\text{rule of 3}}} = \frac{3}{n} }[/math])
值信区间
- [math]\displaystyle{ \sin^2 \left(\arcsin \left(\sqrt{\widehat{p\,}}\right) \pm \frac{z}{2\sqrt{n}} \right). }[/math]
即使对于相当大的n值,平均数的实际分布是显著非正态的,[10]由于这个问题,人们提出了几种估计置信区间的方法。
在下面的置信区间公式中,变量具有以下含义
- n1是n中的成功次数,即试验的总次数。
- [math]\displaystyle{ \widehat{p\,} = \frac{n_1}{n} }[/math]是成功的比例。
下列公式中的符号在两个地方不同于以前的公式:
- [math]\displaystyle{ z }[/math]是标准正态分布 standard normal distribution 的[math]\displaystyle{ 1 - \tfrac{1}{2}\alpha }[/math]分位数(即概率)对应的目标错误率 [math]\displaystyle{ \alpha }[/math]。例如,95%的置信度 confidence level 的错误率为[math]\displaystyle{ \alpha }[/math] = 0.05,因此 [math]\displaystyle{ 1 - \tfrac{1}{2}\alpha }[/math] = 0.975 并且[math]\displaystyle{ z }[/math] = 1.96.
Wald 法
- [math]\displaystyle{ \frac{p}{z^2}{2n}\widehat{p\,}+\frac{z^2}{2n}+z }[/math]
阿格里斯蒂-库尔方法
- [math]\displaystyle{ \frac{z^2}{4 n^2} }[/math][11]
- [math]\displaystyle{ \tilde{p} \pm z \sqrt{ \frac{ \tilde{p} ( 1 - \tilde{p} )}{ n + z^2 } } . }[/math]
- [math]\displaystyle{ 1 + \frac{z^2}{n} }[/math]
这里p的估计量被修改为
- [math]\displaystyle{ \tilde{p}= \frac{ n_1 + \frac{1}{2} z^2}{ n + z^2 } }[/math]
确切的(克洛佩尔-皮尔森)方法是最保守的。
弧线法
设X ~ B(n,p1)和Y ~ B(m,p2)是独立的。设T = (X/n)/(Y/m)。[12]
然后log(T)近似服从正态分布,均值为log(p1/p2)和方差为[math]\displaystyle{ ((1/p1) − 1)/n + ((1/p2) − 1)/m }[/math]。
- [math]\displaystyle{ \sin^2 \left(\arcsin \left(\sqrt{\widehat{p\,}}\right) \pm \frac{z}{2\sqrt{n}} \right). }[/math]
威尔逊法
如果X ~ B(n, p)和Y | X ~ B(X, q) (给定Y的条件分布 X) ,则Y是服从Y ~ B(n, pq)的简单二项随机变量。
例如,想象一下把 n 个球扔到一个篮子UX里,然后把击中的球扔到另一个篮子UY里。如果 p 是击中 UX 的概率,那么X ~ B(n, p)是击中 UX 的球数。如果 q 是击中 UY 的概率,那么击中 UY的球数是Y ~ B(X, q),那么Y ~ B(n, pq)。
下面的公式中的符号与前面的公式有两个不同之处[13]
- 首先,zx在下式中的解释略有不同:它的普通含义是标准正态分布x-th的分位数,而不是(1 − x)-th分位数的简写。
- 其次,这个公式没有使用加减法来定义两个界限。相反,我们可以使用[math]\displaystyle{ z = z_{/alpha / 2} }[/math]得到下限,或者使用[math]\displaystyle{ z = z_{1 - \alpha/2} }[/math]得到上限。例如:对于95%的置信度,误差为[math]\displaystyle{ alpha }[/math] = 0.05,所以用[math]\displaystyle{ z = z_{/alpha/2} = z_{0.025} = - 1.96 }[/math]得到下限,用[math]\displaystyle{ z = z_{1 - \alpha/2} = z_{0.975} = 1.96 }[/math]得到上限。
由于X [math]\displaystyle{ \sim B(n, p) }[/math]和Y [math]\displaystyle{ \sim B(X, q) }[/math],由全概率公式 the law of total probability ,
- [math]\displaystyle{ \widehat{p\,} + \frac{z^2}{2n} + z }[/math]
- [math]\displaystyle{ \frac{\widehat{p\,}(1 - \widehat{p\,})}{n} }[/math]
由于[math]\displaystyle{ \tbinom{n}{k} \tbinom{k}{m} = \tbinom{n}{m} \tbinom{n-m}{k-m} }[/math],上述方程可表示为
- [math]\displaystyle{ \frac{z^2}{4 n^2} }[/math]
对[math]\displaystyle{ p ^ k = p ^ m p ^ { k-m } }[/math]进行分解,从总和中取出所有不依赖于 k 的项,现在就得到了结果
- [math]\displaystyle{ 1 + \frac{z^2}{n} }[/math]
比较
因此[math]\displaystyle{ Y \sim B(n, pq) }[/math]为所需值。
最精确的二项式比例置信区间#Clopper–Pearson区间方法是最保守的。[10]
Wald法虽然是教科书上普遍推荐的方法,但却是最偏颇的方法。
伯努利分布是二项分布的一个特例,其中n = 1。在符号上,X ~ B(1, p)与X ~ Bernoulli(p)具有相同的意义。反之,任何二项分布B(n, p)是 n 个伯努利试验和的分布,每个试验的概率 p 相同。
相关分布
二项式之和
二项分布是泊松二项分布的一个特例,也叫一般二项分布,它是 n 个独立的不同的伯努利试验B(pi)和的分布。
如果X ~ B(n, p)和Y ~ B(m, p)是独立的二项式变量,概率相同且为p,那么X + Y又是一个二项式变量,其分布是Z=X+Y ~ B(n+m, p)。
二项式n = 6 and p = 0.5的概率质量函数和正态概率密度函数近似
如果 n 足够大,那么分布的偏斜就不会太大。在这种情况下,通过正态分布给出B(n, p)的合理近似
但是,如果X和Y的概率p不一样,那么和的方差将是小于二项式变量的方差的分布为[math]\displaystyle{ B(n+m, \bar{p}).\, }[/math]。
两个二项式分布的比值
通过适当的连续性修正,可以简单地改进这种基本近似。
基本近似通常随着 n 的增加而改进(至少20) ,当 p 不接近0或1时更好。经验法则可以用来判断 n 是否足够大,p的极值是否远离0或1:[14]
这个结果最早是由卡兹 Katz和合著者在1978年得出的。[14]
令X ~ B(n,p1)和Y ~ B(m,p2)独立,T = (X/n)/(Y/m)。
例如,假设从大群体中随机抽取了 n 个人,然后询问他们是否同意某种说法。同意的人的比例取决于样本。如果 n 组人群被重复随机地取样,其比例将遵循一个近似正态分布,均值等于总体中一致性的真实比例 p,标准差:[math]\displaystyle{ \sigma = \sqrt{\frac{p(1-p)}{n}} }[/math]
则log(T)近似正态分布,均值为log(p1/p2),方差为((1/p1) - 1)/n + ((1/p2) - 1)/m。
条件二项式
如果X ~ B(n, p)和Y | 'X ~ B(X, q)('Y的条件分布,给定 。 X),则Y是一个简单的二项式随机变量,其分布为Y ~ B(n, pq)。
当试验数量趋于无穷大,而np 保持不变或者至少 p 趋于零时,二项分布收敛到泊松分布。因此,如果 n 是足够大,p 足够小的话,参数为λ = np的泊松分布可以作为二项分布B(n, p)的近似。根据两个经验法则,如果n ≥ 20和p ≤ 0.05,或者如果n ≥ 100 and np ≤ 10,则这个近似是好的。
例如,想象将n个球扔到一个篮子里UX,然后把击中的球扔到另一个篮子里UY。如果p是击中UX的概率,那么X ~ B(n, p)就是击中UX的球数。如果q是击中UY的概率,那么击中UY的球数是Y ~ B(X, q),因此Y ~ B(n, pq)。
关于泊松近似的准确性,参见 Novak,ch.4,及其中的参考资料。
由于[math]\displaystyle{ X \sim B(n, p) }[/math]和[math]\displaystyle{ Y \sim B(X, q) }[/math],由全概率公式,
- [math]\displaystyle{ P(p;\alpha,\beta) =\frac{p^{\alpha-1}(1-p)^{\beta-1}}{\mathrm{B}(\alpha,\beta)}. }[/math]
- [math]\displaystyle{ P (p; alpha,beta) = frac { p ^ { alpha-1}(1-p) ^ { beta-1}{ mathrm { b }(alpha,beta)}}. }[/math]
给定一个一致性先验,给定观察到成功结果的独立事件成功概率的后验分布是一个beta分布。
由于[math]\displaystyle{ \tbinom{n}{k} \tbinom{k}{m} = \tbinom{n}{m} \tbinom{n-m}{k-m}, }[/math]上式可表示为
将 [math]\displaystyle{ p^k = p^m p^{k-m} }[/math] 进行分解,并将所有不依赖于 [math]\displaystyle{ k }[/math] 的项从总和中抽出,即可得到
边缘分布 marginal distribution 是二项分布较完善的随机数产生方法。
一种从二项分布中产生随机样本的方法是使用反演算法 inversion algorithm 。要做到这一点,我们必须计算从到的所有值的概率。(为了包含整个样本空间,这些概率的和应该接近于1。)然后,通过使用伪随机数生成器来生成介于0和1之间的样本,可以使用在第一步计算出的概率将计算出的样本转换成离散数。
将 [math]\displaystyle{ i = k - m }[/math] 代入上述表达式后,我们得到了
这个分布是由雅各布伯努利 Jacob Bernoulli推导出来的。他考虑了p = r/(r + s)的情形,其中 p 是成功的概率,r 和 s 是正整数。早些时候,布莱斯 · 帕斯卡 Blaise Pascal考虑过p = 1/2的情况。
请注意,上述的和(括号内)等于[math]\displaystyle{ (p - pq + 1 - p)^{n-m} }[/math]由二项式定理 binomial theorem得出。将此代入最终得到
伯努利分布
伯努利分布是二项分布的特例,其中n = 1.从符号上看,X ~ B(1, p)与X ~ Bernoulli(p)具有相同的意义。相反,任何二项分布,B(n, p)是n个伯努利试验的和的分布,每个概率p相同。[15]
泊松二项分布
二项分布是泊松二项分布或广义二项分布的特例,它是n个独立的不相同的伯努利试验之和的分布。B(pi) [16]
- ↑ Feller, W. (1968). An Introduction to Probability Theory and Its Applications (Third ed.). New York: Wiley. p. 151 (theorem in section VI.3). https://archive.org/details/introductiontopr01wfel.
- ↑ Wadsworth, G. P. (1960). Introduction to Probability and Random Variables. New York: McGraw-Hill. p. 52. https://archive.org/details/introductiontopr0000wads.
- ↑ Jowett, G. H. (1963). "The Relationship Between the Binomial and F Distributions". Journal of the Royal Statistical Society D. 13 (1): 55–57. doi:10.2307/2986663. JSTOR 2986663.
- ↑ See also Nicolas, André (January 7, 2019). "Finding mode in Binomial distribution". Stack Exchange.
- ↑ Neumann, P. (1966). "Über den Median der Binomial- and Poissonverteilung". Wissenschaftliche Zeitschrift der Technischen Universität Dresden (in German). 19: 29–33.
{{cite journal}}
: CS1 maint: unrecognized language (link) - ↑ Lord, Nick. (July 2010). "Binomial averages when the mean is an integer", The Mathematical Gazette 94, 331-332.
- ↑ Kaas, R.; Buhrman, J.M. (1980). "Mean, Median and Mode in Binomial Distributions". Statistica Neerlandica. 34 (1): 13–18. doi:10.1111/j.1467-9574.1980.tb00681.x.
- ↑ Arratia, R.; Gordon, L. (1989). "Tutorial on large deviations for the binomial distribution". Bulletin of Mathematical Biology. 51 (1): 125–131. doi:10.1007/BF02458840. PMID 2706397. S2CID 189884382.
- ↑ Razzaghi, Mehdi (2002). "On the estimation of binomial success probability with zero occurrence in sample". Journal of Modern Applied Statistical Methods. 1 (2): 326–332. doi:10.22237/jmasm/1036110000.
- ↑ 10.0 10.1 Brown, Lawrence D.; Cai, T. Tony; DasGupta, Anirban (2001), "Interval Estimation for a Binomial Proportion", Statistical Science, 16 (2): 101–133, CiteSeerX 10.1.1.323.7752, doi:10.1214/ss/1009213286, retrieved 2015-01-05
- ↑ Agresti, Alan; Coull, Brent A. (May 1998), "Approximate is better than 'exact' for interval estimation of binomial proportions" (PDF), The American Statistician, 52 (2): 119–126, doi:10.2307/2685469, JSTOR 2685469, retrieved 2015-01-05
- ↑ Pires, M. A. (2002). "Confidence intervals for a binomial proportion: comparison of methods and software evaluation". In Klinke, S.; Ahrend, P.; Richter, L.. Proceedings of the Conference CompStat 2002. Short Communications and Posters. https://www.math.tecnico.ulisboa.pt/~apires/PDFs/AP_COMPSTAT02.pdf.
- ↑ Wilson, Edwin B. (June 1927), "Probable inference, the law of succession, and statistical inference" (PDF), Journal of the American Statistical Association, 22 (158): 209–212, doi:10.2307/2276774, JSTOR 2276774, archived from the original (PDF) on 2015-01-13, retrieved 2015-01-05
- ↑ 14.0 14.1 Katz, D.; Baptista, J.; Azen, S. P.; Pike, M. C. (1978). "Obtaining confidence intervals for the risk ratio in cohort studies". Biometrics. 34 (3): 469–474. doi:10.2307/2530610. JSTOR 2530610.
{{cite journal}}
: Unknown parameter|displayauthors=
ignored (help) - ↑ Taboga, Marco. "Lectures on Probability Theory and Mathematical Statistics". statlect.com. Retrieved 18 December 2017.
- ↑ Wang, Y. H. (1993). "On the number of successes in independent trials" (PDF). Statistica Sinica. 3 (2): 295–312. Archived from the original (PDF) on 2016-03-03.
编者推荐
知乎文章
本条目由南风翻译,Smile审校,不是海绵宝宝编辑,如有问题,欢迎在讨论页面进行讨论。
本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。