Skip to content

Commit 1f7e306

Browse files
committed
添加若干道【深度学习】【机器学习】【计算机视觉】面试题
1 parent e1a4144 commit 1f7e306

File tree

6 files changed

+144
-86
lines changed

6 files changed

+144
-86
lines changed

docs/传统图像处理.md

Lines changed: 29 additions & 33 deletions
Original file line numberDiff line numberDiff line change
@@ -2,14 +2,14 @@
22

33
# 传统图像处理
44

5-
## 001 颜色空间介绍
5+
## 颜色空间
66

77
- **RGB**
88
- **HSI**
99
- **CMYK**
1010
- **YUV**
1111

12-
## 002 高斯滤波
12+
## 高斯滤波
1313

1414
> 先引入两个问题。
1515
> 1.图像为什么要滤波?
@@ -75,55 +75,55 @@
7575
- [简单易懂的高斯滤波](https://www.jianshu.com/p/73e6ccbd8f3f)
7676
- [图像滤波之高斯滤波介绍](https://www.cnblogs.com/qiqibaby/p/5289977.html)
7777

78-
## 003 腐蚀和膨胀
78+
## 腐蚀和膨胀
7979

8080
- [ ] TODO
8181

82-
## 004 开运算和闭运算
82+
## 开运算和闭运算
8383

8484
- [ ] TODO
8585

86-
## 005 线性插值
86+
## 线性插值
8787

8888
- [ ] TODO
8989

90-
## 006 双线性插值
90+
## 双线性插值
9191

9292
- [ ] TODO
9393

94-
## 007 仿射变换
94+
## 仿射变换
9595

9696
- [ ] TODO
9797

98-
## 008 透视变换
98+
## 透视变换
9999

100100
- [ ] TODO
101101

102-
## 009 介绍常见的边缘检测算子
102+
## 常见的边缘检测算子
103103

104104
- [ ] TODO
105105

106-
## 010 介绍Sobel算法
106+
## Sobel算法
107107

108108
- [ ] TODO
109109

110-
## 011 介绍Canny算法
110+
## Canny算法
111111

112112
- [ ] TODO
113113

114-
## 012 Hough变换原理(直线和圆检测)
114+
## Hough变换原理(直线和圆检测)
115115

116116
- [ ] TODO
117117

118-
## 013 找轮廓(findCountours)
118+
## 找轮廓(findCountours)
119119

120120
- [ ] TODO
121121

122-
## 014 单应性(homography)原理
122+
## 单应性(homography)原理
123123

124124
TODO
125125

126-
## 015 二维高斯滤波能否分解成一维操作
126+
## 二维高斯滤波能否分解成一维操作
127127

128128
答:可以分解。
129129

@@ -135,19 +135,15 @@ TODO
135135

136136
- [快速高斯滤波、高斯模糊、高斯平滑(二维卷积分步为一维卷积)](https://blog.csdn.net/qq_36359022/article/details/80188873)
137137

138-
## 016 介绍HOG算法
138+
## HOG算法
139139

140140
- [ ] TODO
141141

142-
## 017 怎么理解图像的频率
142+
## 双边滤波
143143

144144
- [ ] TODO
145145

146-
## 018 双边滤波
147-
148-
- [ ] TODO
149-
150-
## 019 图像中的低频信息和高频信息
146+
## 图像中的低频信息和高频信息
151147

152148
图像频率:图像中灰度变化剧烈程度的指标
153149

@@ -164,49 +160,49 @@ TODO
164160

165161
- [理解图像中的低频分量和高频分量](https://blog.csdn.net/Chaolei3/article/details/79443520)
166162

167-
## 020 引导滤波
163+
## 引导滤波
168164

169165
**参考资料**
170166

171167
- [【拜小白opencv】33-平滑处理6——引导滤波/导向滤波(Guided Filter)](https://blog.csdn.net/sinat_36264666/article/details/77990790)
172168

173-
## 021 介绍分水岭算法
169+
## 分水岭算法
174170

175171
- [ ] TODO
176172

177-
## 022 介绍RANSAC算法
173+
## RANSAC算法
178174

179175
- [ ] TODO
180176

181-
## 023 介绍Bundle Adjustment(BA)算法
177+
## Bundle Adjustment(BA)算法
182178

183179
- [ ] TODO
184180

185-
## 024 介绍L-M算法
181+
## L-M算法
186182

187183
- [ ] TODO
188184

189-
## 025 介绍SIFT算法
185+
## SIFT算法
190186

191187
- [ ] TODO
192188

193-
## 026 介绍SURF算法
189+
## SURF算法
194190

195191
- [ ] TODO
196192

197-
## 027 介绍ORB算法
193+
## ORB算法
198194

199195
- [ ] TODO
200196

201-
## 028 介绍LSD算法
197+
## LSD算法
202198

203199
- [ ] TODO
204200

205-
## 029 介绍LBP算法
201+
## LBP算法
206202

207203
- [ ] TODO
208204

209-
## 030 如何求一张图片的均值?
205+
## 如何求一张图片的均值?
210206

211207
- [ ] TODO
212208

docs/机器学习.md

Lines changed: 21 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -682,14 +682,23 @@ CART在生成子树时,是选择一个特征一个取值作为切分点,生
682682
- [XGBoost——机器学习(理论+图解+安装方法+python代码)](https://blog.csdn.net/huacha__/article/details/81029680)
683683
- [一文读懂机器学习大杀器 XGBoost 原理](http://blog.itpub.net/31542119/viewspace-2199549/)
684684

685-
## Adaboost、GBDT与XGBoost的区别
685+
### Adaboost、GBDT与XGBoost的区别
686686

687687
- [ ] TODO
688688

689689
**参考资料**
690690

691691
- [Adaboost、GBDT与XGBoost的区别](https://blog.csdn.net/hellozhxy/article/details/82143554)
692692

693+
## 高斯混合模型(GMM)
694+
695+
- [ ] TODO
696+
697+
**参考资料**
698+
699+
- [深度理解高斯混合模型(GMM)](http://blog.sina.com.cn/s/blog_a36a563e0102y2ec.html)
700+
- [高斯混合模型(GMM)](https://blog.csdn.net/m_buddy/article/details/80432384)
701+
693702
## 马尔科夫随机场(MRF)
694703

695704
### 基本原理
@@ -738,6 +747,15 @@ PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA
738747
- [PCA的数学原理(转)](https://zhuanlan.zhihu.com/p/21580949)
739748
- [第13章 利用 PCA 来简化数据](https://www.cnblogs.com/apachecnxy/p/7640976.html)
740749

750+
## 线性判别分析(LDA)
751+
752+
TODO
753+
754+
**参考资料**
755+
756+
- [线性判别分析LDA原理总结](https://www.cnblogs.com/pinard/p/6244265.html)
757+
- [LDA原理小结](https://blog.csdn.net/qq_16137569/article/details/82385050)
758+
741759
## 奇异值分解(SVD)
742760

743761
### 基本原理
@@ -1198,11 +1216,11 @@ L2正则化参数
11981216

11991217
- [ ] TODO
12001218

1201-
## Sigmoid
1219+
## Softmax
12021220

12031221
- [ ] TODO
12041222

1205-
## Softmax
1223+
### Softmax是和什么loss function配合使用?
12061224

12071225
- [ ] TODO
12081226

docs/深度学习.md

Lines changed: 56 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -154,6 +154,10 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
154154

155155
- [Batch Normalization原理与实战](https://zhuanlan.zhihu.com/p/34879333)
156156

157+
### 手写 BN
158+
159+
- [ ] TODO
160+
157161
### BN可以防止过拟合么?
158162

159163
- [ ] TODO
@@ -292,7 +296,7 @@ $$
292296
$$
293297
- [ ] TODO
294298

295-
## 常见的激活函数及其特点
299+
## 激活函数
296300

297301
- [ ] TODO
298302

@@ -301,11 +305,37 @@ $$
301305
- [What is activate function?](https://yogayu.github.io/DeepLearningCourse/03/ActivateFunction.html)
302306
- [资源 | 从ReLU到Sinc,26种神经网络激活函数可视化](https://mp.weixin.qq.com/s/7DgiXCNBS5vb07WIKTFYRQ)
303307

304-
### ReLU及其变体
308+
### Sigmoid
309+
310+
- [ ] TODO
311+
312+
### tanh
305313

306314
- [ ] TODO
307315

308-
### 激活函数relu为什么比sigmoid和tanh好?
316+
### ReLU
317+
318+
- [ ] TODO
319+
320+
ReLU 相关变体
321+
322+
#### ReLU激活函数为什么比sigmoid和tanh好?
323+
324+
- [ ] TODO
325+
326+
#### ReLU激活函数为什么能解决梯度消失问题?
327+
328+
- [ ] TODO
329+
330+
## Dropout
331+
332+
- [ ] TODO
333+
334+
**参考资料**
335+
336+
- [理解dropout](https://blog.csdn.net/stdcoutzyx/article/details/49022443)
337+
338+
### Drop 在训练和测试的区别
309339

310340
- [ ] TODO
311341

@@ -530,6 +560,29 @@ identity mapping顾名思义,就是指本身,也就是公式中的x,而res
530560

531561
- [ResNeXt算法详解](https://blog.csdn.net/u014380165/article/details/71667916)
532562

563+
## Inception(V1-V4)
564+
565+
### InceptionV1
566+
567+
- [ ] TODO
568+
569+
### InceptionV2
570+
571+
- [ ] TODO
572+
573+
### InceptionV3
574+
575+
- [ ] TODO
576+
577+
### InceptionV4
578+
579+
- [ ] TODO
580+
581+
**参考资料**
582+
583+
- [一文概览Inception家族的「奋斗史」](https://baijiahao.baidu.com/s?id=1601882944953788623&wfr=spider&for=pc)
584+
- [inception-v1,v2,v3,v4----论文笔记](https://blog.csdn.net/weixin_39953502/article/details/80966046)
585+
533586
## DenseNet
534587

535588
- [ ] TODO
@@ -1078,14 +1131,6 @@ MobileNetv1:在depthwise separable convolutions(参考Xception)方法的
10781131

10791132
- [ ] TODO
10801133

1081-
## Dropout原理(在训练和测试的区别)
1082-
1083-
- [ ] TODO
1084-
1085-
**参考资料**
1086-
1087-
- [理解dropout](https://blog.csdn.net/stdcoutzyx/article/details/49022443)
1088-
10891134
## 学习率如何调整
10901135

10911136
- [ ] TODO

docs/自然语言处理.md

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -2,39 +2,39 @@
22

33
# 自然语言处理
44

5-
## 001 列出几种文本特征提取算法
5+
## 列出几种文本特征提取算法
66

77
答:文档频率、信息增益、互信息、X^2统计、TF-IDF
88

9-
## 002 RNN为什么会梯度消失?
9+
## RNN为什么会梯度消失?
1010

1111
- [ ] TODO
1212

13-
## 003 LSTM怎么能解决梯度消失问题?
13+
## LSTM怎么能解决梯度消失问题?
1414

1515
- [ ] TODO
1616

17-
## 004 深度学习如何提取query特征?
17+
## 深度学习如何提取query特征?
1818

1919
- [ ] TODO
2020

21-
## 005 如何利用深度学习计算语义相似度?
21+
## 如何利用深度学习计算语义相似度?
2222

2323
- [ ] TODO
2424

25-
## 006 介绍一下Word2vec,CBOW和Skip-gram的区别是什么?
25+
## 介绍一下Word2vec,CBOW和Skip-gram的区别是什么?
2626

2727
- [ ] TODO
2828

29-
## 007 GRU和LSTM、RNN的区别是什么?
29+
## GRU和LSTM、RNN的区别是什么?
3030

3131
- [ ] TODO
3232

33-
## 008 LSTM用来解决RNN的什么问题?
33+
## LSTM用来解决RNN的什么问题?
3434

3535
- [ ] TODO
3636

37-
## 009 如何判断word2vec的效果好坏?
37+
## 如何判断word2vec的效果好坏?
3838

3939
- [ ] TODO
4040

0 commit comments

Comments
 (0)