Skip to content

Commit 00bb354

Browse files
committed
添加 40 道【深度学习】【计算机视觉】【自然语言处理】等方向的面试题
1 parent d1318bf commit 00bb354

File tree

6 files changed

+132
-32
lines changed

6 files changed

+132
-32
lines changed

README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@
1717
- :fireworks: [深度学习框架](docs/深度学习框架.md)
1818
- :pencil2: [面试经验](docs/面试经验.md)
1919
- :bulb: [面试技巧](docs/面试技巧.md)
20-
- :mega: [其它](docs/其它.md)
20+
- :mega: [其它(计算机网络/Linux等)](docs/其它.md)
2121

2222
![](docs/imgs/DLIB-Mindmap.png)
2323

docs/机器学习.md

Lines changed: 36 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -245,6 +245,10 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
245245

246246
综上,我们可以看出来软间隔分类法加入ζ 参数,使得最优分类超平面不会受到离群点的影响,不会向离群点靠近或远离,相当于我们去求解排除了离群点之后,样本点已经线性可分的情况下的硬间隔分类问题,所以两者的对偶问题是一致的。
247247

248+
### 支持向量中的向量是指什么?
249+
250+
- [ ] TODO
251+
248252
### 手推SVM
249253

250254
**参考资料**
@@ -256,7 +260,7 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
256260
- [支持向量机(SVM)入门理解与推导](https://blog.csdn.net/sinat_20177327/article/details/79729551)
257261
- [数据挖掘领域十大经典算法之—SVM算法(超详细附代码)](https://blog.csdn.net/fuqiuai/article/details/79483057)
258262

259-
### LR与SVM的区别
263+
### LR 与 SVM的区别
260264

261265
**相同点**
262266

@@ -363,15 +367,15 @@ http://www.zhihu.com/question/26768865/answer/34078149
363367
- [svm常用核函数及选择核函数的方法](https://blog.csdn.net/ningyanggege/article/details/84072842)
364368
- [SVM由浅入深的尝试(五)核函数的理解](https://www.jianshu.com/p/e07932472257?utm_campaign)
365369

366-
### SVM的对偶问题
370+
### SVM 的对偶问题
367371

368372
- [ ] TODO
369373

370-
### SMO算法原理
374+
### SMO 算法原理
371375

372376
- [ ] TODO
373377

374-
### SVM中的优化技术有哪些
378+
### SVM 中的优化技术有哪些
375379

376380
- [ ] TODO
377381

@@ -383,6 +387,14 @@ http://www.zhihu.com/question/26768865/answer/34078149
383387

384388
- [ ] TODO
385389

390+
### 软间隔和硬间隔
391+
392+
- [ ] TODO
393+
394+
### Hinge Loss
395+
396+
- [ ] TODO
397+
386398
## 梯度提升树(GBDT)
387399

388400
### 基本原理
@@ -568,7 +580,7 @@ until 簇不发生变化或达到最大迭代次数
568580
- [深入理解K-Means聚类算法](https://blog.csdn.net/taoyanqi8932/article/details/53727841)
569581
- [数据挖掘领域十大经典算法之—K-Means算法(超详细附代码)](https://blog.csdn.net/fuqiuai/article/details/79458331)
570582

571-
### 手撕 KMeans
583+
### 手撕 K-Means
572584

573585
- [ ] TODO
574586

@@ -671,6 +683,14 @@ Boosting:各个预测函数只能顺序生成,因为后一个模型参数需
671683

672684
- [数据挖掘领域十大经典算法之—EM算法](https://blog.csdn.net/fuqiuai/article/details/79484421)
673685

686+
### E 步和 M 步的具体步骤
687+
688+
- [ ] TODO
689+
690+
### E 中的期望是什么?
691+
692+
- [ ] TODO
693+
674694
## 决策树
675695

676696
### 基本原理
@@ -1347,7 +1367,7 @@ L2正则化参数
13471367
- 增加网络复杂度
13481368
- 使用集成学习方法,如Bagging
13491369

1350-
## 精确率(precision)和召回率(recall
1370+
## 精确率(Precision)和召回率(Recall
13511371

13521372
- [ ] TODO
13531373

@@ -1370,6 +1390,10 @@ L2正则化参数
13701390

13711391
- [ ] TODO
13721392

1393+
### 手撕 AUC 曲面面积代码
1394+
1395+
- [ ] TODO
1396+
13731397
## 梯度弥散和梯度爆炸
13741398

13751399
- [ ] TODO
@@ -1432,5 +1456,11 @@ L2正则化参数
14321456

14331457
- [ ] TODO
14341458

1459+
常见的距离度量:欧氏距离、曼哈顿距离、夹角余弦、切比雪夫距离、汉明距离
1460+
1461+
## KL 散度和交叉熵的区别
1462+
1463+
- [ ] TODO
1464+
14351465
## TODO
14361466

docs/深度学习.md

Lines changed: 45 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -149,7 +149,9 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
149149

150150
- [ ] TODO
151151

152-
## 感受野计算
152+
## 感受野
153+
154+
### 感受野计算
153155

154156
- [ ] TODO
155157

@@ -160,15 +162,19 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
160162
- [如何计算感受野(Receptive Field)——原理](https://zhuanlan.zhihu.com/p/31004121)
161163

162164

163-
## 卷积神经网络的感受野
165+
### 卷积神经网络的感受野
164166

165167
- [ ] TODO
166168

167169
**参考资料**
168170

169171
- [卷积神经网络的感受野](https://zhuanlan.zhihu.com/p/44106492)
170172

171-
## Xavier 权重初始化方法
173+
## 权重初始化方法
174+
175+
- [ ] TODO
176+
177+
### Xavier
172178

173179
- [ ] TODO
174180

@@ -210,6 +216,18 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
210216

211217
- [ ] TODO
212218

219+
### BN 有哪些参数?
220+
221+
- [ ] TODO
222+
223+
### BN 的反向传播推导
224+
225+
- [ ] TODO
226+
227+
### BN 在训练和测试的区别?
228+
229+
- [ ] TODO
230+
213231
## Weight Normalization(WN)
214232

215233
- [ ] TODO
@@ -234,7 +252,7 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
234252

235253
- [BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结](https://blog.csdn.net/liuxiao214/article/details/81037416)
236254

237-
## 深度学习优化算法
255+
## 优化算法
238256

239257
- 随机梯度下降(SGD)
240258
- Mini-Batch
@@ -257,19 +275,19 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
257275
- [Adam 究竟还有什么问题 —— 深度学习优化算法概览(二)](https://zhuanlan.zhihu.com/p/37269222)
258276
- [An overview of gradient descent optimization algorithms](http://ruder.io/optimizing-gradient-descent/)
259277

260-
## 梯度下降法
278+
### 梯度下降法
261279

262280
- [ ] TODO
263281

264-
## mini-batch梯度下降法
282+
### mini-batch梯度下降法
265283

266284
- [ ] TODO
267285

268-
## 随机梯度下降法
286+
### 随机梯度下降法
269287

270288
- [ ] TODO
271289

272-
## 动量梯度下降法(Momentum)
290+
### 动量梯度下降法(Momentum)
273291

274292
- [ ] TODO
275293

@@ -278,7 +296,7 @@ if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
278296

279297
- [简述动量Momentum梯度下降](https://blog.csdn.net/yinruiyang94/article/details/77944338)
280298

281-
## RMSprop
299+
### RMSprop
282300

283301
$$
284302
S_{dW}=\beta S_{dW}+\left ( 1-\beta \right )dW^{2}
@@ -294,8 +312,7 @@ $$
294312

295313
- [ ] TODO
296314

297-
298-
## Adam
315+
### Adam
299316

300317
Adam算法结合了Momentum和RMSprop梯度下降法,是一种极其常见的学习算法,被证明能有效适用于不同神经网络,适用于广泛的结构。
301318
$$
@@ -401,6 +418,14 @@ ReLU 相关变体
401418

402419
- [ ] TODO
403420

421+
### Cross Entropy Loss
422+
423+
- [ ] TODO
424+
425+
### Hinge Loss
426+
427+
- [ ] TODO
428+
404429
## 1*1 卷积有什么作用?
405430

406431
- [ ] TODO
@@ -901,6 +926,10 @@ ROI-Pooing的作用是为了将不同大小的Roi映射(重采样)成统一
901926

902927
- [ ] TODO
903928

929+
## 反卷积
930+
931+
TODO
932+
904933
## 组卷积(group convolution)
905934

906935
- [ ] TODO
@@ -1111,7 +1140,7 @@ MobileNetv1:在depthwise separable convolutions(参考Xception)方法的
11111140

11121141
- [ ] TODO
11131142

1114-
### ShuffkeNetV1
1143+
### ShuffleNetV1
11151144

11161145
- [ ] TODO
11171146

@@ -1223,6 +1252,10 @@ BN最早被认为通过降低所谓**Internal Covariate Shift**,这种想法
12231252

12241253
- [如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?](https://www.zhihu.com/question/326034346/answer/708331566)
12251254

1255+
## 多标签分类怎么解决?
1256+
1257+
- [ ] TODO
1258+
12261259
## TODO
12271260

12281261

docs/自然语言处理.md

Lines changed: 9 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -34,6 +34,10 @@
3434

3535
## LSTM
3636

37+
### LSTM 基本原理
38+
39+
- [ ] TODO
40+
3741
### LSTM 怎么能解决梯度消失问题?
3842

3943
- [ ] TODO
@@ -42,7 +46,11 @@
4246

4347
- [ ] TODO
4448

45-
### LSTM 和 GRU区别
49+
### LSTM 和 GRU 区别
50+
51+
- [ ] TODO
52+
53+
### RNN、LSTM 和 GRU公式与结构图
4654

4755
- [ ] TODO
4856

docs/计算机视觉.md

Lines changed: 20 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1124,6 +1124,22 @@ NMS_demo.py:<https://github.com/humengdoudou/object_detection_mAP/blob/master/
11241124
- [NMS也能玩出花样来……](https://zhuanlan.zhihu.com/p/28129034)
11251125
- [目标检测之非极大值抑制(NMS)各种变体](https://zhuanlan.zhihu.com/p/50126479)
11261126

1127+
## R-CNN 系列
1128+
1129+
### R-CNN
1130+
1131+
- [ ] TODO
1132+
1133+
### Fast R-CNN
1134+
1135+
- [ ] TODO
1136+
1137+
### Faster R-CNN
1138+
1139+
- [ ] TODO
1140+
1141+
#### Faster R-CNN 为什么用smooth l1 loss,和l2有什么区别?
1142+
11271143
## SSD 算法
11281144

11291145
- [ ] TODO
@@ -1158,6 +1174,10 @@ NMS_demo.py:<https://github.com/humengdoudou/object_detection_mAP/blob/master/
11581174

11591175
- [YOLOv1,YOLOv2,YOLOv3解读](<https://blog.csdn.net/hancoder/article/details/87994678>)
11601176

1177+
## DeepLab系列(V1-V3+)
1178+
1179+
- [ ] TODO
1180+
11611181
## U-Net神经网络为什么会在医学图像分割表现好?
11621182

11631183
**参考资料**

docs/面试经验.md

Lines changed: 21 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -75,7 +75,18 @@
7575

7676
## 2020届
7777

78-
> Date:2019-07-13
78+
> Date:2019-07-17
79+
80+
- [ ] [头条抖音互娱-图形图像一二三面](https://www.nowcoder.com/discuss/207369)
81+
- [ ] [字节跳动提前批算法工程师面经](https://www.nowcoder.com/discuss/207092)
82+
- [ ] [算法岗笔经面经记录(偏CV方向)](https://www.nowcoder.com/discuss/202732)
83+
- [ ] [Google面试经验](https://www.nowcoder.com/discuss/205633)
84+
- [ ] [铁牌退役ACM选手的春招实习日记(大数据方向)](https://www.nowcoder.com/discuss/154263)
85+
- [ ] [2019求职记录(定期更新,更新到7月现在)](https://www.nowcoder.com/discuss/202381)
86+
- [ ] [oppo提前批机器学习岗面经](https://www.nowcoder.com/discuss/205955)
87+
- [ ] [成都oppo机器学习算法工程师面经+还愿](https://www.nowcoder.com/discuss/205841)
88+
89+
- [ ] [多益游戏研发工程师面经](https://www.nowcoder.com/discuss/205561)
7990

8091
- [ ] [腾讯光子技术中心 日常实习CV方向面筋](https://www.nowcoder.com/discuss/206089)
8192
- [ ] [bigo 图像增强算法面试](https://www.nowcoder.com/discuss/202709)
@@ -115,17 +126,15 @@
115126
- [ ] [旷视(face++)算法实习生面经](https://zhuanlan.zhihu.com/p/61221469)
116127
- [ ] [我的春招实习结束了,详细算法面经](https://www.nowcoder.com/discuss/163388)
117128
- [ ] [字节跳动自然语言处理面经-半凉等offer](https://www.nowcoder.com/discuss/170907)
118-
- [ ] [旷视face++算法面经19.03](https://www.nowcoder.com/discuss/167336)
119-
- [ ] [算法春招上岸,心路历程(内含部分公司面经)](https://www.nowcoder.com/discuss/170673)
120-
- [ ] [360公司2018秋招算法精英面经分享~](https://www.nowcoder.com/discuss/154590)
121-
- [ ] [腾讯算法岗实习烫经](https://www.nowcoder.com/discuss/169896)
122-
- [ ] [海康威视 算法 一面面经](https://www.nowcoder.com/discuss/168907)
123-
- [ ] [旷视face++算法面经19.03](https://www.nowcoder.com/discuss/167336)
124-
- [ ] [格灵深瞳算法实习生电话面试凉经](https://www.nowcoder.com/discuss/167238)
125-
- [ ] [腾讯WXG事业群暑期实习三轮面经(已拿offer)](https://www.nowcoder.com/discuss/169164)
126-
- [ ] [收到第一个实习offer,开心!](https://www.nowcoder.com/discuss/169201)
127-
- [ ] [字节跳动算法岗面经](https://zhuanlan.zhihu.com/p/60570461)
128-
- [ ] [华为算法实习生一面面经](https://www.nowcoder.com/discuss/166606)
129+
- [x][算法春招上岸,心路历程(内含部分公司面经)](https://www.nowcoder.com/discuss/170673)
130+
- [x] [360公司2018秋招算法精英面经分享~](https://www.nowcoder.com/discuss/154590)
131+
- [x] [腾讯算法岗实习烫经](https://www.nowcoder.com/discuss/169896)
132+
- [x] [海康威视 算法 一面面经](https://www.nowcoder.com/discuss/168907)
133+
- [x] [旷视face++算法面经19.03](https://www.nowcoder.com/discuss/167336)
134+
- [x] [格灵深瞳算法实习生电话面试凉经](https://www.nowcoder.com/discuss/167238)
135+
- [x] [收到第一个实习offer,开心!](https://www.nowcoder.com/discuss/169201)
136+
- [x] [字节跳动算法岗面经](https://zhuanlan.zhihu.com/p/60570461)
137+
- [x] [华为算法实习生一面面经](https://www.nowcoder.com/discuss/166606)
129138
- [x] [腾讯后台一面面经 + 更新二面面经](https://www.nowcoder.com/discuss/162246)
130139
- [x] [蚂蚁金服机器学习实习生一面凉经](https://www.nowcoder.com/discuss/165483)
131140
- [x] [腾讯数据分析实习生一面凉经](https://www.nowcoder.com/discuss/163386)

0 commit comments

Comments
 (0)