Skip to content

Commit d02438c

Browse files
committed
添加10道【机器学习】【自然语言处理】面试题
1 parent 409e5f0 commit d02438c

File tree

3 files changed

+38
-1
lines changed

3 files changed

+38
-1
lines changed

docs/机器学习.md

Lines changed: 30 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -264,7 +264,7 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
264264
- [支持向量机(SVM)入门理解与推导](https://blog.csdn.net/sinat_20177327/article/details/79729551)
265265
- [数据挖掘领域十大经典算法之—SVM算法(超详细附代码)](https://blog.csdn.net/fuqiuai/article/details/79483057)
266266

267-
### LR 与 SVM的区别
267+
### LR 与 SVM的区别和联系
268268

269269
**相同点**
270270

@@ -927,6 +927,35 @@ CART在生成子树时,是选择一个特征一个取值作为切分点,生
927927
- [如何轻松愉快地理解条件随机场(CRF)?](https://www.jianshu.com/p/55755fc649b1)
928928
- [一文理解条件随机场CRF](https://zhuanlan.zhihu.com/p/70067113)
929929

930+
### HMM、MEMM vs CRF 对比?
931+
932+
1)HMM是有向图模型,是生成模型;HMM有两个假设:一阶马尔科夫假设和观测独立性假设;但对于序列标注问题不仅和单个词相关,而且和观察序列的长度,单词的上下文,等等相关。
933+
934+
2)MEMM(最大熵马尔科夫模型)是有向图模型,是判别模型;MEMM打破了HMM的观测独立性假设,MEMM考虑到相邻状态之间依赖关系,且考虑整个观察序列,因此MEMM的表达能力更强;但MEMM会带来标注偏置问题:由于局部归一化问题,MEMM倾向于选择拥有更少转移的状态。这就是标记偏置问题。
935+
936+
![img](https://pic3.zhimg.com/80/v2-7a5e998530e0d9c5f146d27603e6e496_hd.jpg)最大熵模型(MEMM)
937+
938+
![img](https://pic3.zhimg.com/80/v2-610ca7a9b504936bfba136c464ebe81a_hd.jpg)
939+
940+
3)CRF模型解决了标注偏置问题,去除了HMM中两个不合理的假设,当然,模型相应得也变复杂了。
941+
942+
HMM、MEMM和CRF的优缺点比较:
943+
944+
a)与HMM比较。CRF没有HMM那样严格的独立性假设条件,因而可以容纳任意的上下文信息。特征设计灵活(与ME一样)
945+
946+
b)与MEMM比较。由于CRF计算全局最优输出节点的条件概率,它还克服了最大熵马尔可夫模型标记偏置(Label-bias)的缺点。
947+
948+
c)与ME比较。CRF是在给定需要标记的观察序列的条件下,计算整个标记序列的联合概率分布,而不是在给定当前状态条件下,定义下一个状态的状态分布.
949+
950+
> 首先,CRF,HMM(隐马模型),MEMM(最大熵隐马模型)都常用来做序列标注的建模,像分词、词性标注,以及命名实体标注
951+
> 隐马模型一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择
952+
> 最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。
953+
> 条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。
954+
955+
**参考资料**
956+
957+
- [HMM、MEMM vs CRF 对比?](https://zhuanlan.zhihu.com/p/57153934)
958+
930959
## 主成分分析(PCA)
931960

932961
### 基本原理

docs/深度学习.md

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -388,6 +388,10 @@ $$
388388

389389
- [ ] TODO
390390

391+
#### Sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
392+
393+
- [ ] TODO
394+
391395
### tanh
392396

393397
- [ ] TODO

docs/自然语言处理.md

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -163,6 +163,10 @@
163163

164164
- [ ] TODO
165165

166+
### elmo、GPT、bert三者之间有什么区别?(elmo vs GPT vs bert)
167+
168+
- [ ] TODO
169+
166170
## XLNet
167171

168172
### 基本原理

0 commit comments

Comments
 (0)