@@ -101,6 +101,7 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
101
101
- [ 【机器学习】逻辑回归(Logistic Regression)] ( https://www.cnblogs.com/Belter/p/6128644.html )
102
102
- [ 机器学习算法--逻辑回归原理介绍] ( https://blog.csdn.net/chibangyuxun/article/details/53148005 )
103
103
- [ 逻辑回归算法面经] ( https://zhuanlan.zhihu.com/p/46591702 )
104
+ - [ Logistic Regression 模型简介] ( https://tech.meituan.com/2015/05/08/intro-to-logistic-regression.html )
104
105
105
106
### 为什么逻辑回归模型要使用 sigmoid 函数
106
107
@@ -112,6 +113,18 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
112
113
113
114
- [ 为什么逻辑回归 模型要使用 sigmoid 函数] ( https://blog.csdn.net/weixin_39881922/article/details/80366324 )
114
115
116
+ ### LR可以用核函数么?
117
+
118
+ - [ ] TODO
119
+
120
+ ### 逻辑斯蒂回归能否解决非线性分类问题?
121
+
122
+ - [ ] TODO
123
+
124
+ ** 参考资料**
125
+
126
+ - [ 逻辑斯蒂回归能否解决非线性分类问题?] ( https://www.zhihu.com/question/29385169 )
127
+
115
128
## 线性回归
116
129
117
130
### 基本原理
@@ -691,6 +704,10 @@ CART在生成子树时,是选择一个特征一个取值作为切分点,生
691
704
692
705
- [ ] TODO
693
706
707
+ ### 随机森林和 GBDT的区别
708
+
709
+ - [ ] TODO
710
+
694
711
## XGBoost
695
712
696
713
### 基本原理
@@ -801,12 +818,14 @@ TODO
801
818
** 参考资料**
802
819
803
820
- [ Singular_value_decomposition] ( https://en.wikipedia.org/wiki/Singular_value_decomposition )
804
-
805
821
- [ 关于SVD(Singular Value Decomposition)的那些事儿] ( https://www.cnblogs.com/tgycoder/p/6266786.html )
806
-
807
822
- [ 奇异值分解(SVD)原理与在降维中的应用] ( https://www.cnblogs.com/pinard/p/6251584.html )
808
823
- [ 第14章 利用SVD简化数据] ( https://www.cnblogs.com/apachecnxy/p/7640987.html )
809
824
825
+ ### 手撕 SVD
826
+
827
+ - [ ] TODO
828
+
810
829
### 特征值和SVD的区别
811
830
812
831
- [ ] TODO
@@ -1178,6 +1197,18 @@ L2正则化参数
1178
1197
1179
1198
从上述公式可以看到,λ越大,θj衰减得越快。另一个理解可以参考图2,λ越大,L2圆的半径越小,最后求得代价函数最值时各参数也会变得很小。
1180
1199
1200
+ ### 机器学习中常常提到的正则化到底是什么意思?
1201
+
1202
+ - [ ] TODO
1203
+
1204
+ ** 参考资料**
1205
+
1206
+ - [ 机器学习中常常提到的正则化到底是什么意思?] ( https://www.zhihu.com/question/20924039 )
1207
+
1208
+ ### 为什么 L2 正则化可以防止过拟合?
1209
+
1210
+ - [ ] TODO
1211
+
1181
1212
## 过拟合和欠拟合
1182
1213
1183
1214
### 基本原理
@@ -1292,5 +1323,9 @@ L2正则化参数
1292
1323
1293
1324
- [ 机器学习中常常提到的正则化到底是什么意思?] ( https://www.zhihu.com/question/20924039 )
1294
1325
1326
+ ## 聚类算法中的距离度量有哪些?
1327
+
1328
+ - [ ] TODO
1329
+
1295
1330
## TODO
1296
1331
0 commit comments