Skip to content

Commit 181c5a2

Browse files
committed
修改习题4.2的公式证明
1 parent a50303b commit 181c5a2

File tree

1 file changed

+13
-6
lines changed

1 file changed

+13
-6
lines changed

docs/chapter4/chapter4.md

Lines changed: 13 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -24,13 +24,20 @@
2424
## 习题4.2
2525
  用贝叶斯估计法推出朴素贝叶斯法中的慨率估计公式(4.10)及公式(4.11)
2626

27-
**解答:**
27+
**解答:**
2828
**第1步:**证明公式(4.11):$\displaystyle P(Y=c_k) = \frac{\displaystyle \sum_{i=1}^N I(y_i=c_k) + \lambda}{N+K \lambda}$
29-
加入先验概率,在没有任何信息的情况下,可以假设先验概率为均匀概率(即每个事件的概率是相同的)。
30-
可得$\displaystyle p=\frac{1}{K} \Leftrightarrow pK-1=0\quad(1)$
31-
根据习题4.1得出先验概率的极大似然估计是$\displaystyle pN - \sum_{i=1}^N I(y_i=c_k) = 0\quad(2)$
32-
存在参数$\lambda$使得$(1) \cdot \lambda + (2) = 0$
33-
所以有$$\lambda(pK-1) + pN - \sum_{i=1}^N I(y_i=c_k) = 0$$可得$\displaystyle P(Y=c_k) = \frac{\displaystyle \sum_{i=1}^N I(y_i=c_k) + \lambda}{N+K \lambda}$,公式(4.11)得证。
29+
假设$P_\lambda(Y=c_i)=\theta_i,i=1,2,\cdots,K$是随机变量,且$\theta_i,i=1,2,\cdots,K$的先验分布是服从参数为$\lambda$的Dirichlet分布:
30+
$$P(\theta_1,\theta_2,\cdots,\theta_K|\lambda)=\frac{1}{B(\lambda)}\prod_{i=1}^{K}\theta_i^{\lambda-1}\quad(1)$$
31+
考虑训练数据集$T={(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)}$,记$\displaystyle M_i=\sum_{j=1}^NI(y_i=c_i)$,其中$i=1,2,\cdots-K$为随机变量。
32+
令$\theta=(\theta_1,\theta_2,\cdots,\theta_K),M=(M_1,M_2,\cdots,M_K)$,用上述数据集改进先验分布(1),得到后验分布:
33+
$$P(\theta|M)=\frac{P(M|\theta) \cdot P(\theta)}{\int P(M|\theta)P(\theta)d\theta}\quad(2)$$
34+
其中(2)式的分母$\int P(M|\theta)P(\theta)d\theta$是一个定值,与$\theta$无关。假设$P(M|\theta)$服从多项分布:
35+
$$P(M|\theta)=\theta_1^{M_1}\cdot\theta_2^{M_2}\cdots\theta_K^{M_K}\quad(3)$$
36+
将(1),(3)式代入(2)式中,可得:
37+
$$P(\theta|M) \propto \prod_{i=1}^{K}\theta_i^{\lambda+M_i-1} $$
38+
由上式可知,后验概率$P(\theta|M)$也服从Dirichlet分布,因此$P_\lambda(Y=c_i)$取随机变量$\theta_i$的期望,即
39+
$$P(Y=c_k) = E(\theta) = \frac{M_i+\lambda}{N+K\lambda}=\frac{\displaystyle \sum_{i=1}^N I(y_i=c_k) + \lambda}{N+K \lambda}$$
40+
公式(4.11)得证。
3441

3542
----
3643

0 commit comments

Comments
 (0)