Skip to content

Commit 14bd93f

Browse files
committed
添加 10 道【深度学习】【自然语言处理】等方向面试题
1 parent 00bb354 commit 14bd93f

File tree

5 files changed

+31
-11
lines changed

5 files changed

+31
-11
lines changed

docs/强化学习.md

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -146,6 +146,10 @@
146146

147147
- [ ] TODO
148148

149+
## value-based方法学习的目标是什么?
150+
151+
- [ ] TODO
152+
149153
## 强化学习 DQN,DDQN,AC,DDPG 的区别
150154

151155
- [ ] TODO

docs/机器学习.md

Lines changed: 9 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -103,7 +103,7 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
103103
- [逻辑回归算法面经](https://zhuanlan.zhihu.com/p/46591702)
104104
- [Logistic Regression 模型简介](https://tech.meituan.com/2015/05/08/intro-to-logistic-regression.html)
105105

106-
### 为什么逻辑回归模型要使用 sigmoid 函数?
106+
### 为什么 LR 要使用 sigmoid 函数?
107107

108108
1.广义模型推导所得
109109
2.满足统计的最大熵模型
@@ -113,22 +113,26 @@ $$J(\phi(z),y;w)=-yln(\phi(z))-(1-y)ln(1-\phi(z))$$
113113

114114
- [为什么逻辑回归 模型要使用 sigmoid 函数](https://blog.csdn.net/weixin_39881922/article/details/80366324)
115115

116-
### LR可以用核函数么
116+
### LR 可以用核函数么
117117

118118
- [ ] TODO
119119

120-
### 为什么logistic回归用交叉熵损失而不是平方损失
120+
### 为什么 LR 用交叉熵损失而不是平方损失
121121

122122
- [ ] TODO
123123

124-
### 逻辑斯蒂回归能否解决非线性分类问题
124+
### LR 能否解决非线性分类问题
125125

126126
- [ ] TODO
127127

128128
**参考资料**
129129

130130
- [逻辑斯蒂回归能否解决非线性分类问题?](https://www.zhihu.com/question/29385169)
131131

132+
### LR为什么要离散特征?
133+
134+
- [ ] TODO
135+
132136
## 线性回归
133137

134138
### 基本原理
@@ -430,7 +434,7 @@ Adaboost采用迭代的思想,每次迭代只训练一个弱分类器,训练
430434
- [数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)](https://blog.csdn.net/fuqiuai/article/details/79482487)
431435
- [聊聊Adaboost,从理念到硬核推导](https://zhuanlan.zhihu.com/p/62037189)
432436

433-
### GBDT 和 AdaBoost区别
437+
### GBDT 和 AdaBoost 区别
434438

435439
- [ ] TODO
436440

docs/深度学习.md

Lines changed: 9 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -312,6 +312,10 @@ $$
312312

313313
- [ ] TODO
314314

315+
### Adagrad
316+
317+
- [ ] TODO
318+
315319
### Adam
316320

317321
Adam算法结合了Momentum和RMSprop梯度下降法,是一种极其常见的学习算法,被证明能有效适用于不同神经网络,适用于广泛的结构。
@@ -678,7 +682,11 @@ identity mapping顾名思义,就是指本身,也就是公式中的x,而res
678682

679683
- [ ] TODO
680684

681-
### 为什么DenseNet比ResNet好?
685+
### 为什么 DenseNet 比 ResNet 好?
686+
687+
- [ ] TODO
688+
689+
### 为什么 DenseNet 比 ResNet 更耗显存?
682690

683691
- [ ] TODO
684692

docs/自然语言处理.md

Lines changed: 5 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -87,7 +87,7 @@
8787

8888
- [ ] TODO
8989

90-
### 词向量如何训练的?(word2vector)
90+
### word2vec如何训练的?
9191

9292
- [ ] TODO
9393

@@ -119,6 +119,10 @@
119119

120120
- [ ] TODO
121121

122+
## Sentence Embedding
123+
124+
- [ ] TODO
125+
122126
## SeqSeq
123127

124128
- [ ] TODO

docs/面试经验.md

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -122,10 +122,10 @@
122122
- [ ] [2020届NLP小渣渣实习及秋招面试记录](https://zhuanlan.zhihu.com/p/62902811)
123123
- [ ] [字节跳动实习算法岗面经](https://www.nowcoder.com/discuss/174565)
124124
- [ ] [20届-视觉算法-暑期实习-菜鸡的心酸历程](https://www.nowcoder.com/discuss/173292)
125-
- [ ] [腾讯算法实习面试总结——论面试官虐我的一百种方式](https://www.nowcoder.com/discuss/163996)
126-
- [ ] [旷视(face++)算法实习生面经](https://zhuanlan.zhihu.com/p/61221469)
127-
- [ ] [我的春招实习结束了,详细算法面经](https://www.nowcoder.com/discuss/163388)
128-
- [ ] [字节跳动自然语言处理面经-半凉等offer](https://www.nowcoder.com/discuss/170907)
125+
- [x] [腾讯算法实习面试总结——论面试官虐我的一百种方式](https://www.nowcoder.com/discuss/163996)
126+
- [x] [旷视(face++)算法实习生面经](https://zhuanlan.zhihu.com/p/61221469)
127+
- [x] [我的春招实习结束了,详细算法面经](https://www.nowcoder.com/discuss/163388)
128+
- [x] [字节跳动自然语言处理面经-半凉等offer](https://www.nowcoder.com/discuss/170907)
129129
- [x][算法春招上岸,心路历程(内含部分公司面经)](https://www.nowcoder.com/discuss/170673)
130130
- [x] [360公司2018秋招算法精英面经分享~](https://www.nowcoder.com/discuss/154590)
131131
- [x] [腾讯算法岗实习烫经](https://www.nowcoder.com/discuss/169896)

0 commit comments

Comments
 (0)