File tree Expand file tree Collapse file tree 3 files changed +38
-1
lines changed Expand file tree Collapse file tree 3 files changed +38
-1
lines changed Original file line number Diff line number Diff line change @@ -264,7 +264,7 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
264
264
- [ 支持向量机(SVM)入门理解与推导] ( https://blog.csdn.net/sinat_20177327/article/details/79729551 )
265
265
- [ 数据挖掘领域十大经典算法之—SVM算法(超详细附代码)] ( https://blog.csdn.net/fuqiuai/article/details/79483057 )
266
266
267
- ### LR 与 SVM的区别
267
+ ### LR 与 SVM的区别和联系
268
268
269
269
** 相同点**
270
270
@@ -927,6 +927,35 @@ CART在生成子树时,是选择一个特征一个取值作为切分点,生
927
927
- [ 如何轻松愉快地理解条件随机场(CRF)?] ( https://www.jianshu.com/p/55755fc649b1 )
928
928
- [ 一文理解条件随机场CRF] ( https://zhuanlan.zhihu.com/p/70067113 )
929
929
930
+ ### HMM、MEMM vs CRF 对比?
931
+
932
+ 1)HMM是有向图模型,是生成模型;HMM有两个假设:一阶马尔科夫假设和观测独立性假设;但对于序列标注问题不仅和单个词相关,而且和观察序列的长度,单词的上下文,等等相关。
933
+
934
+ 2)MEMM(最大熵马尔科夫模型)是有向图模型,是判别模型;MEMM打破了HMM的观测独立性假设,MEMM考虑到相邻状态之间依赖关系,且考虑整个观察序列,因此MEMM的表达能力更强;但MEMM会带来标注偏置问题:由于局部归一化问题,MEMM倾向于选择拥有更少转移的状态。这就是标记偏置问题。
935
+
936
+ ![ img] ( https://pic3.zhimg.com/80/v2-7a5e998530e0d9c5f146d27603e6e496_hd.jpg ) 最大熵模型(MEMM)
937
+
938
+ ![ img] ( https://pic3.zhimg.com/80/v2-610ca7a9b504936bfba136c464ebe81a_hd.jpg )
939
+
940
+ 3)CRF模型解决了标注偏置问题,去除了HMM中两个不合理的假设,当然,模型相应得也变复杂了。
941
+
942
+ HMM、MEMM和CRF的优缺点比较:
943
+
944
+ a)与HMM比较。CRF没有HMM那样严格的独立性假设条件,因而可以容纳任意的上下文信息。特征设计灵活(与ME一样)
945
+
946
+ b)与MEMM比较。由于CRF计算全局最优输出节点的条件概率,它还克服了最大熵马尔可夫模型标记偏置(Label-bias)的缺点。
947
+
948
+ c)与ME比较。CRF是在给定需要标记的观察序列的条件下,计算整个标记序列的联合概率分布,而不是在给定当前状态条件下,定义下一个状态的状态分布.
949
+
950
+ > 首先,CRF,HMM(隐马模型),MEMM(最大熵隐马模型)都常用来做序列标注的建模,像分词、词性标注,以及命名实体标注
951
+ > 隐马模型一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择
952
+ > 最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。
953
+ > 条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。
954
+
955
+ ** 参考资料**
956
+
957
+ - [ HMM、MEMM vs CRF 对比?] ( https://zhuanlan.zhihu.com/p/57153934 )
958
+
930
959
## 主成分分析(PCA)
931
960
932
961
### 基本原理
Original file line number Diff line number Diff line change 388
388
389
389
- [ ] TODO
390
390
391
+ #### Sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
392
+
393
+ - [ ] TODO
394
+
391
395
### tanh
392
396
393
397
- [ ] TODO
Original file line number Diff line number Diff line change 163
163
164
164
- [ ] TODO
165
165
166
+ ### elmo、GPT、bert三者之间有什么区别?(elmo vs GPT vs bert)
167
+
168
+ - [ ] TODO
169
+
166
170
## XLNet
167
171
168
172
### 基本原理
You can’t perform that action at this time.
0 commit comments