File tree Expand file tree Collapse file tree 6 files changed +144
-86
lines changed Expand file tree Collapse file tree 6 files changed +144
-86
lines changed Original file line number Diff line number Diff line change 2
2
3
3
# 传统图像处理
4
4
5
- ## 001 颜色空间介绍
5
+ ## 颜色空间
6
6
7
7
- ** RGB**
8
8
- ** HSI**
9
9
- ** CMYK**
10
10
- ** YUV**
11
11
12
- ## 002 高斯滤波
12
+ ## 高斯滤波
13
13
14
14
> 先引入两个问题。
15
15
> 1.图像为什么要滤波?
75
75
- [ 简单易懂的高斯滤波] ( https://www.jianshu.com/p/73e6ccbd8f3f )
76
76
- [ 图像滤波之高斯滤波介绍] ( https://www.cnblogs.com/qiqibaby/p/5289977.html )
77
77
78
- ## 003 腐蚀和膨胀
78
+ ## 腐蚀和膨胀
79
79
80
80
- [ ] TODO
81
81
82
- ## 004 开运算和闭运算
82
+ ## 开运算和闭运算
83
83
84
84
- [ ] TODO
85
85
86
- ## 005 线性插值
86
+ ## 线性插值
87
87
88
88
- [ ] TODO
89
89
90
- ## 006 双线性插值
90
+ ## 双线性插值
91
91
92
92
- [ ] TODO
93
93
94
- ## 007 仿射变换
94
+ ## 仿射变换
95
95
96
96
- [ ] TODO
97
97
98
- ## 008 透视变换
98
+ ## 透视变换
99
99
100
100
- [ ] TODO
101
101
102
- ## 009 介绍常见的边缘检测算子
102
+ ## 常见的边缘检测算子
103
103
104
104
- [ ] TODO
105
105
106
- ## 010 介绍Sobel算法
106
+ ## Sobel算法
107
107
108
108
- [ ] TODO
109
109
110
- ## 011 介绍Canny算法
110
+ ## Canny算法
111
111
112
112
- [ ] TODO
113
113
114
- ## 012 Hough变换原理(直线和圆检测)
114
+ ## Hough变换原理(直线和圆检测)
115
115
116
116
- [ ] TODO
117
117
118
- ## 013 找轮廓(findCountours)
118
+ ## 找轮廓(findCountours)
119
119
120
120
- [ ] TODO
121
121
122
- ## 014 单应性(homography)原理
122
+ ## 单应性(homography)原理
123
123
124
124
TODO
125
125
126
- ## 015 二维高斯滤波能否分解成一维操作
126
+ ## 二维高斯滤波能否分解成一维操作
127
127
128
128
答:可以分解。
129
129
@@ -135,19 +135,15 @@ TODO
135
135
136
136
- [ 快速高斯滤波、高斯模糊、高斯平滑(二维卷积分步为一维卷积)] ( https://blog.csdn.net/qq_36359022/article/details/80188873 )
137
137
138
- ## 016 介绍HOG算法
138
+ ## HOG算法
139
139
140
140
- [ ] TODO
141
141
142
- ## 017 怎么理解图像的频率
142
+ ## 双边滤波
143
143
144
144
- [ ] TODO
145
145
146
- ## 018 双边滤波
147
-
148
- - [ ] TODO
149
-
150
- ## 019 图像中的低频信息和高频信息
146
+ ## 图像中的低频信息和高频信息
151
147
152
148
图像频率:图像中灰度变化剧烈程度的指标
153
149
@@ -164,49 +160,49 @@ TODO
164
160
165
161
- [ 理解图像中的低频分量和高频分量] ( https://blog.csdn.net/Chaolei3/article/details/79443520 )
166
162
167
- ## 020 引导滤波
163
+ ## 引导滤波
168
164
169
165
** 参考资料**
170
166
171
167
- [ 【拜小白opencv】33-平滑处理6——引导滤波/导向滤波(Guided Filter)] ( https://blog.csdn.net/sinat_36264666/article/details/77990790 )
172
168
173
- ## 021 介绍分水岭算法
169
+ ## 分水岭算法
174
170
175
171
- [ ] TODO
176
172
177
- ## 022 介绍RANSAC算法
173
+ ## RANSAC算法
178
174
179
175
- [ ] TODO
180
176
181
- ## 023 介绍Bundle Adjustment(BA)算法
177
+ ## Bundle Adjustment(BA)算法
182
178
183
179
- [ ] TODO
184
180
185
- ## 024 介绍L -M算法
181
+ ## L -M算法
186
182
187
183
- [ ] TODO
188
184
189
- ## 025 介绍SIFT算法
185
+ ## SIFT算法
190
186
191
187
- [ ] TODO
192
188
193
- ## 026 介绍SURF算法
189
+ ## SURF算法
194
190
195
191
- [ ] TODO
196
192
197
- ## 027 介绍ORB算法
193
+ ## ORB算法
198
194
199
195
- [ ] TODO
200
196
201
- ## 028 介绍LSD算法
197
+ ## LSD算法
202
198
203
199
- [ ] TODO
204
200
205
- ## 029 介绍LBP算法
201
+ ## LBP算法
206
202
207
203
- [ ] TODO
208
204
209
- ## 030 如何求一张图片的均值?
205
+ ## 如何求一张图片的均值?
210
206
211
207
- [ ] TODO
212
208
Original file line number Diff line number Diff line change @@ -682,14 +682,23 @@ CART在生成子树时,是选择一个特征一个取值作为切分点,生
682
682
- [ XGBoost——机器学习(理论+图解+安装方法+python代码)] ( https://blog.csdn.net/huacha__/article/details/81029680 )
683
683
- [ 一文读懂机器学习大杀器 XGBoost 原理] ( http://blog.itpub.net/31542119/viewspace-2199549/ )
684
684
685
- ## Adaboost、GBDT与XGBoost的区别
685
+ ### Adaboost、GBDT与XGBoost的区别
686
686
687
687
- [ ] TODO
688
688
689
689
** 参考资料**
690
690
691
691
- [ Adaboost、GBDT与XGBoost的区别] ( https://blog.csdn.net/hellozhxy/article/details/82143554 )
692
692
693
+ ## 高斯混合模型(GMM)
694
+
695
+ - [ ] TODO
696
+
697
+ ** 参考资料**
698
+
699
+ - [ 深度理解高斯混合模型(GMM)] ( http://blog.sina.com.cn/s/blog_a36a563e0102y2ec.html )
700
+ - [ 高斯混合模型(GMM)] ( https://blog.csdn.net/m_buddy/article/details/80432384 )
701
+
693
702
## 马尔科夫随机场(MRF)
694
703
695
704
### 基本原理
@@ -738,6 +747,15 @@ PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA
738
747
- [ PCA的数学原理(转)] ( https://zhuanlan.zhihu.com/p/21580949 )
739
748
- [ 第13章 利用 PCA 来简化数据] ( https://www.cnblogs.com/apachecnxy/p/7640976.html )
740
749
750
+ ## 线性判别分析(LDA)
751
+
752
+ TODO
753
+
754
+ ** 参考资料**
755
+
756
+ - [ 线性判别分析LDA原理总结] ( https://www.cnblogs.com/pinard/p/6244265.html )
757
+ - [ LDA原理小结] ( https://blog.csdn.net/qq_16137569/article/details/82385050 )
758
+
741
759
## 奇异值分解(SVD)
742
760
743
761
### 基本原理
@@ -1198,11 +1216,11 @@ L2正则化参数
1198
1216
1199
1217
- [ ] TODO
1200
1218
1201
- ## Sigmoid
1219
+ ## Softmax
1202
1220
1203
1221
- [ ] TODO
1204
1222
1205
- ## Softmax
1223
+ ### Softmax是和什么loss function配合使用?
1206
1224
1207
1225
- [ ] TODO
1208
1226
Original file line number Diff line number Diff line change @@ -154,6 +154,10 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
154
154
155
155
- [ Batch Normalization原理与实战] ( https://zhuanlan.zhihu.com/p/34879333 )
156
156
157
+ ### 手写 BN
158
+
159
+ - [ ] TODO
160
+
157
161
### BN可以防止过拟合么?
158
162
159
163
- [ ] TODO
292
296
$$
293
297
- [ ] TODO
294
298
295
- ## 常见的激活函数及其特点
299
+ ## 激活函数
296
300
297
301
- [ ] TODO
298
302
301
305
- [ What is activate function?] ( https://yogayu.github.io/DeepLearningCourse/03/ActivateFunction.html )
302
306
- [ 资源 | 从ReLU到Sinc,26种神经网络激活函数可视化] ( https://mp.weixin.qq.com/s/7DgiXCNBS5vb07WIKTFYRQ )
303
307
304
- ### ReLU及其变体
308
+ ### Sigmoid
309
+
310
+ - [ ] TODO
311
+
312
+ ### tanh
305
313
306
314
- [ ] TODO
307
315
308
- ### 激活函数relu为什么比sigmoid和tanh好?
316
+ ### ReLU
317
+
318
+ - [ ] TODO
319
+
320
+ ReLU 相关变体
321
+
322
+ #### ReLU激活函数为什么比sigmoid和tanh好?
323
+
324
+ - [ ] TODO
325
+
326
+ #### ReLU激活函数为什么能解决梯度消失问题?
327
+
328
+ - [ ] TODO
329
+
330
+ ## Dropout
331
+
332
+ - [ ] TODO
333
+
334
+ ** 参考资料**
335
+
336
+ - [ 理解dropout] ( https://blog.csdn.net/stdcoutzyx/article/details/49022443 )
337
+
338
+ ### Drop 在训练和测试的区别
309
339
310
340
- [ ] TODO
311
341
@@ -530,6 +560,29 @@ identity mapping顾名思义,就是指本身,也就是公式中的x,而res
530
560
531
561
- [ ResNeXt算法详解] ( https://blog.csdn.net/u014380165/article/details/71667916 )
532
562
563
+ ## Inception(V1-V4)
564
+
565
+ ### InceptionV1
566
+
567
+ - [ ] TODO
568
+
569
+ ### InceptionV2
570
+
571
+ - [ ] TODO
572
+
573
+ ### InceptionV3
574
+
575
+ - [ ] TODO
576
+
577
+ ### InceptionV4
578
+
579
+ - [ ] TODO
580
+
581
+ ** 参考资料**
582
+
583
+ - [ 一文概览Inception家族的「奋斗史」] ( https://baijiahao.baidu.com/s?id=1601882944953788623&wfr=spider&for=pc )
584
+ - [ inception-v1,v2,v3,v4----论文笔记] ( https://blog.csdn.net/weixin_39953502/article/details/80966046 )
585
+
533
586
## DenseNet
534
587
535
588
- [ ] TODO
@@ -1078,14 +1131,6 @@ MobileNetv1:在depthwise separable convolutions(参考Xception)方法的
1078
1131
1079
1132
- [ ] TODO
1080
1133
1081
- ## Dropout原理(在训练和测试的区别)
1082
-
1083
- - [ ] TODO
1084
-
1085
- ** 参考资料**
1086
-
1087
- - [ 理解dropout] ( https://blog.csdn.net/stdcoutzyx/article/details/49022443 )
1088
-
1089
1134
## 学习率如何调整
1090
1135
1091
1136
- [ ] TODO
Original file line number Diff line number Diff line change 2
2
3
3
# 自然语言处理
4
4
5
- ## 001 列出几种文本特征提取算法
5
+ ## 列出几种文本特征提取算法
6
6
7
7
答:文档频率、信息增益、互信息、X^2统计、TF-IDF
8
8
9
- ## 002 RNN为什么会梯度消失?
9
+ ## RNN为什么会梯度消失?
10
10
11
11
- [ ] TODO
12
12
13
- ## 003 LSTM怎么能解决梯度消失问题?
13
+ ## LSTM怎么能解决梯度消失问题?
14
14
15
15
- [ ] TODO
16
16
17
- ## 004 深度学习如何提取query特征?
17
+ ## 深度学习如何提取query特征?
18
18
19
19
- [ ] TODO
20
20
21
- ## 005 如何利用深度学习计算语义相似度?
21
+ ## 如何利用深度学习计算语义相似度?
22
22
23
23
- [ ] TODO
24
24
25
- ## 006 介绍一下Word2vec,CBOW和Skip-gram的区别是什么?
25
+ ## 介绍一下Word2vec,CBOW和Skip-gram的区别是什么?
26
26
27
27
- [ ] TODO
28
28
29
- ## 007 GRU和LSTM、RNN的区别是什么?
29
+ ## GRU和LSTM、RNN的区别是什么?
30
30
31
31
- [ ] TODO
32
32
33
- ## 008 LSTM用来解决RNN的什么问题?
33
+ ## LSTM用来解决RNN的什么问题?
34
34
35
35
- [ ] TODO
36
36
37
- ## 009 如何判断word2vec的效果好坏?
37
+ ## 如何判断word2vec的效果好坏?
38
38
39
39
- [ ] TODO
40
40
You can’t perform that action at this time.
0 commit comments