Skip to content

Commit b4c21f0

Browse files
authored
Merge pull request apachecn#467 from linbinone/dev
更新
2 parents 1c19316 + f37b146 commit b4c21f0

File tree

2 files changed

+49
-2
lines changed

2 files changed

+49
-2
lines changed

README.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@
1515
* -- 感谢 [群小哥哥:Wizard Zhang](https://github.com/wizardforcel) 生成的电子书[《机器学习实战-ApacheCN.pdf》](https://github.com/apachecn/AiLearning/blob/master/books/机器学习实战-ApacheCN.pdf)
1616
* **视频已更新完成,如果你觉得有价值,请帮忙点 Star【后续组织学习活动:sklearn、kaggle、 Pytorch 和 tensorflow】**
1717
* -- 视频网站:优酷 /bilibili / Acfun / 网易云课堂,可直接在线播放。(最下方有相应链接)
18-
* -- [群小哥哥:红色石头的机器学习之路](https://github.com/RedstoneWill): [台湾大学林轩田机器学习基石课程 - **系列学习笔记**](https://mp.weixin.qq.com/s/xb0i55zIQVzCiSZALbvncg)
18+
* -- [群小哥哥:红色石头](https://github.com/RedstoneWill): [台湾大学林轩田机器学习笔记](https://github.com/apachecn/ntu-hsuantienlin-ml)
1919
* 推荐一个[机器学习笔记](https://feisky.xyz/machine-learning): https://feisky.xyz/machine-learning
2020
* 推荐一个[liuhuanyong大佬](https://github.com/liuhuanyong)整理的nlp全面知识体系: <https://liuhuanyong.github.io>
2121

@@ -506,4 +506,4 @@ GPL-3.0 © [ApacheCN](https://github.com/apachecn)
506506

507507
* ApacheCN 组织资源: <https://github.com/apachecn/home>
508508

509-
> 欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远
509+
> 欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远

blog/linear-logistic-mle.md

Lines changed: 47 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,47 @@
1+
# 线性回归和逻辑回归的 MLE 视角
2+
3+
## 线性回归
4+
5+
令 $z = w^T x + b$,得到:
6+
7+
$y = z + \epsilon, \, \epsilon \sim N(0, \sigma^2)$
8+
9+
于是:
10+
11+
$y|x \sim N(z, \sigma^2)$
12+
13+
为啥是 $y|x$,因为判别模型的输出只能是 $y|x$。
14+
15+
它的概率密度函数:
16+
17+
$f_{Y|X}(y)=\frac{1}{\sqrt{2 \pi} \sigma} \exp(\frac{-(y -z)^2}{2\sigma^2}) \\ = A \exp(-B (y - z)^2), \, A, B > 0$
18+
19+
计算损失函数:
20+
21+
$L = -\sum_i \log f_{Y|X}(y^{(i)}) \\ = -\sum_i(\log A - B(y^{(i)} - z^{(i)})^2) \\ = B \sum_i(y^{(i)} - z^{(i)})^2 + C$
22+
23+
所以 $\min L$ 就相当于 $\min (y^{(i)} - z^{(i)})^2$。结果和最小二乘是一样的。
24+
25+
## 逻辑回归
26+
27+
令 $z = w^T x + b, a = \sigma(z)$,我们观察到在假设中:
28+
29+
$P(y=1|x) = a \\ P(y=0|x) = 1 - a$
30+
31+
也就是说:
32+
33+
$y|x \sim B(1, a)$
34+
35+
> 其实任何二分类器的输出都是伯努利分布。因为变量只能取两个值,加起来得一,所以只有一种分布。
36+
37+
它的概率质量函数(因为是离散分布,只有概率质量函数,不过无所谓):
38+
39+
$p_{Y|X}(y) = a^y(1-a)^{1-y}$
40+
41+
然后计算损失函数:
42+
43+
$L = -\sum_i \log p_{Y|X}(y^{(i)}) \\ = -\sum_i(y^{(i)} \log a^{(i)} + (1-y^{(i)})\log(1-a^{(i)}))$
44+
45+
和交叉熵是一致的。
46+
47+
可以看出,在线性回归的场景下,MLE 等价于最小二乘,在逻辑回归的场景下,MLE 等价于交叉熵。但不一定 MLE 在所有模型中都是这样。

0 commit comments

Comments
 (0)