Skip to content

Commit 6436b52

Browse files
committed
add posts and fix rss url.
1 parent 0f8ffec commit 6436b52

13 files changed

+1675
-1
lines changed

content/posts/go/go-tips-defer.md

Lines changed: 143 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,143 @@
1+
---
2+
title: "Go 群友提问:学习 defer 时很懵逼,这道不会做!"
3+
date: 2021-04-05T16:10:51+08:00
4+
images:
5+
tags:
6+
- go
7+
- 面试题
8+
---
9+
10+
大家好,我是煎鱼。
11+
12+
前几天在读者交流群里看到一位小伙伴,在向大家咨询 Go 相关的技术问题。
13+
疑问是:“**各位大佬,我在学习 defer 遇到闭包的时候很懵逼,谁比较明白,能指点?**
14+
15+
![](https://image.eddycjy.com/36e2b86b536909f265b84db24dcd80c6.jpg)
16+
17+
## 疑问
18+
19+
他的疑问是下面这道 Go 语言的 defer 题目,大家一起看看:
20+
21+
```
22+
func main() {
23+
var whatever [6]struct{}
24+
for i := range whatever {
25+
defer func() {
26+
fmt.Println(i)
27+
}()
28+
}
29+
}
30+
```
31+
请自己先想一下输出的结果答案是什么。
32+
33+
这位小伙伴按自己的理解后,认为应当输出 xx。但最终的输出结果,可能与其思考的有所偏差,一时想不通。
34+
35+
### 解惑
36+
37+
这段程序的输出结果是:
38+
39+
```
40+
5
41+
5
42+
5
43+
5
44+
5
45+
5
46+
```
47+
48+
为什么全是 5,为什么不是 0, 1, 2, 3, 4, 5 这样的输出结果呢?
49+
50+
其根本原因是**闭包**所导致的,有两点原因:
51+
-`for` 循环结束后,局部变量 `i` 的值已经是 5 了,并且 `defer `的闭包是直接引用变量的 i。
52+
- 结合`defer` 关键字的特性,可得知会在 `main` 方法主体结束后再执行。
53+
54+
结合上述,最终输出的结果是已经自增完毕的 5。
55+
56+
### 进一步思考
57+
58+
既然了解了为什么,我们再变形一下。再看看另外一种情况,代码如下:
59+
60+
```
61+
func main() {
62+
var whatever [6]struct{}
63+
for i := range whatever {
64+
defer func(i int) {
65+
fmt.Println(i)
66+
}(i)
67+
}
68+
}
69+
```
70+
71+
与第一个案例不同,我们这回把变量 `i` 传了进去。那么他的输出结果是什么呢?
72+
73+
这段程序的输出结果是:
74+
75+
```
76+
5
77+
4
78+
3
79+
2
80+
1
81+
0
82+
```
83+
84+
为什么是 5, 4, 3, 2, 1, 0 呢,为什么不是 0, 1, 2, 3, 4, 5?(难道煎鱼敲错了吗?)
85+
86+
其根本原因在于两点:
87+
-`for` 循环时,局部变量 `i` 已经传入进 `defer func` 中 ,属于值传递。其值在 `defer` 语句声明时的时候就已经确定下来了。
88+
- 结合 `defer` 关键字的特性,是按**先进后出**的顺序来执行的。
89+
90+
结合上述,最终输出的结果是 5, 4, 3, 2, 1, 0。
91+
92+
## 下一个疑问
93+
94+
没过一会,这位小伙伴又有了新的感悟。抛出了新的示例问题,如下:
95+
96+
```
97+
func f1() (r int) {
98+
defer func() {
99+
r++
100+
}()
101+
return 0
102+
}
103+
104+
func f2() (r int) {
105+
t := 5
106+
defer func() {
107+
t = t + 5
108+
}()
109+
return t
110+
}
111+
112+
func f3() (r int) {
113+
defer func(r int) {
114+
r = r + 5
115+
}(r)
116+
return 1
117+
}
118+
```
119+
120+
主函数:
121+
122+
```
123+
func main() {
124+
println(f1())
125+
println(f2())
126+
println(f3())
127+
}
128+
```
129+
130+
请自己先想一下输出的结果答案是什么。
131+
132+
133+
这段程序的输出结果是:
134+
135+
```
136+
1
137+
5
138+
1
139+
```
140+
141+
为什么是 1, 5, 1 呢,而不是 0, 10, 5,又或是其他答案?
142+
143+
欢迎大家在**下方评论区留言讨论和分享解题的思路**,一起思考和进步。

content/posts/go/go-tips-gmp-p.md

Lines changed: 133 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,133 @@
1+
---
2+
title: "再见 Go 面试官:GMP 模型,为什么要有 P?"
3+
date: 2021-04-05T16:15:20+08:00
4+
images:
5+
tags:
6+
- go
7+
- 面试题
8+
---
9+
10+
大家好,我是煎鱼。
11+
12+
最近金三银四,是面试的季节。在我的 Go 读者交流群里出现了许多小伙伴在讨论自己面试过程中所遇到的一些 Go 面试题。
13+
14+
今天的主角,是 Go 面试的万能题 GMP 模型的延伸题(疑问),那就是 ”**GMP 模型,为什么要有 P**?“
15+
16+
进一步推敲问题的背后,其实这个面试题本质是想问:”**GMP 模型,为什么不是 G 和 M 直接绑定就完了,还要搞多一个 P 出来,那么麻烦,为的是什么,是要解决什么问题吗**?“
17+
18+
这篇文章煎鱼就带你一同探索,GM、GMP 模型的变迁是因为什么原因。
19+
20+
## GM 模型
21+
22+
在 Go1.1 之前 Go 的调度模型其实就是 GM 模型,也就是没有 P。
23+
24+
今天带大家一起回顾过去的设计。
25+
26+
### 解密 Go1.0 源码
27+
28+
我们了解一个东西的办法之一就是看源码,和煎鱼一起看看 Go1.0.1 的[调度器源码](https://github.com/golang/go/blob/go1.0.1/src/pkg/runtime/proc.c)的核心关键步骤:
29+
30+
```c
31+
static void
32+
schedule(G *gp)
33+
{
34+
...
35+
schedlock();
36+
if(gp != nil) {
37+
...
38+
switch(gp->status){
39+
case Grunnable:
40+
case Gdead:
41+
// Shouldn't have been running!
42+
runtime·throw("bad gp->status in sched");
43+
case Grunning:
44+
gp->status = Grunnable;
45+
gput(gp);
46+
break;
47+
}
48+
49+
gp = nextgandunlock();
50+
gp->readyonstop = 0;
51+
gp->status = Grunning;
52+
m->curg = gp;
53+
gp->m = m;
54+
...
55+
runtime·gogo(&gp->sched, 0);
56+
}
57+
```
58+
59+
- 调用 `schedlock` 方法来获取全局锁。
60+
- 获取全局锁成功后,将当前 Goroutine 状态从 Running(正在被调度) 状态修改为 Runnable(可以被调度)状态。
61+
- 调用 `gput` 方法来保存当前 Goroutine 的运行状态等信息,以便于后续的使用;
62+
- 调用 `nextgandunlock` 方法来寻找下一个可运行 Goroutine,并且释放全局锁给其他调度使用。
63+
- 获取到下一个待运行的 Goroutine 后,将其的运行状态修改为 Running。
64+
- 调用 `runtime·gogo` 方法,将刚刚所获取到的下一个待执行的 Goroutine 运行起来。
65+
66+
### 思考 GM 模型
67+
68+
通过对 Go1.0.1 的调度器源码剖析,我们可以发现一个比较有趣的点。那就是调度器本身(schedule 方法),在正常流程下,是不会返回的,也就是不会结束主流程。
69+
70+
![G-M模型简图](https://image.eddycjy.com/89f9533b4d59bacaa8fcadc47a690059.jpg)
71+
72+
他会不断地运行调度流程,GoroutineA 完成了,就开始寻找 GoroutineB,寻找到 B 了,就把已经完成的 A 的调度权交给 B,让 GoroutineB 开始被调度,也就是运行。
73+
74+
当然了,也有被正在阻塞(Blocked)的 G。假设 G 正在做一些系统、网络调用,那么就会导致 G 停滞。这时候 M(系统线程)就会被会重新放内核队列中,等待新的一轮唤醒。
75+
76+
### GM 模型的缺点
77+
78+
这么表面的看起来,GM 模型似乎牢不可破,毫无缺陷。但为什么要改呢?
79+
80+
在 2012 年时 Dmitry Vyukov 发表了文章《[Scalable Go Scheduler Design Doc](https://docs.google.com/document/d/1TTj4T2JO42uD5ID9e89oa0sLKhJYD0Y_kqxDv3I3XMw/edit)》,目前也依然成为各大研究 Go 调度器文章的主要对象,其在文章内讲述了整体的原因和考虑,下述内容将引用该文章。
81+
82+
当前(代指 Go1.0 的 GM 模型)的 Goroutine 调度器限制了用 Go 编写的并发程序的可扩展性,尤其是高吞吐量服务器和并行计算程序。
83+
84+
实现有如下的问题:
85+
- 存在单一的全局 mutex(Sched.Lock)和集中状态管理:
86+
- mutex 需要保护所有与 goroutine 相关的操作(创建、完成、重排等),导致锁竞争严重。
87+
- Goroutine 传递的问题:
88+
- goroutine(G)交接(G.nextg):工作者线程(M's)之间会经常交接可运行的 goroutine。
89+
- 上述可能会导致延迟增加和额外的开销。每个 M 必须能够执行任何可运行的 G,特别是刚刚创建 G 的 M。
90+
- 每个 M 都需要做内存缓存(M.mcache):
91+
- 会导致资源消耗过大(每个 mcache 可以吸纳到 2M 的内存缓存和其他缓存),数据局部性差。
92+
- 频繁的线程阻塞/解阻塞:
93+
- 在存在 syscalls 的情况下,线程经常被阻塞和解阻塞。这增加了很多额外的性能开销。
94+
95+
## GMP 模型
96+
97+
为了解决 GM 模型的以上诸多问题,在 Go1.1 时,Dmitry Vyukov 在 GM 模型的基础上,新增了一个 P(Processor)组件。并且实现了 Work Stealing 算法来解决一些新产生的问题。
98+
99+
![](https://image.eddycjy.com/fb4c6c92c93af3bc2dfc4f13dc167cdf.png)
100+
101+
GMP 模型,在上一篇文章《Go 群友提问:Goroutine 数量控制在多少合适,会影响 GC 和调度?》中已经讲解过了。
102+
103+
觉得不错的小伙伴可以关注一下,这里就不再复述了。
104+
105+
### 带来什么改变
106+
107+
加了 P 之后会带来什么改变呢?我们再更显式的讲一下。
108+
109+
- 每个 P 有自己的本地队列,大幅度的减轻了对全局队列的直接依赖,所带来的效果就是锁竞争的减少。而 GM 模型的性能开销大头就是锁竞争。
110+
111+
- 每个 P 相对的平衡上,在 GMP 模型中也实现了 Work Stealing 算法,如果 P 的本地队列为空,则会从全局队列或其他 P 的本地队列中窃取可运行的 G 来运行,减少空转,提高了资源利用率。
112+
113+
### 为什么要有 P
114+
115+
这时候就有小伙伴会疑惑了,如果是想实现本地队列、Work Stealing 算法,那为什么不直接在 M 上加呢,M 也照样可以实现类似的组件。为什么又再加多一个 P 组件?
116+
117+
结合 M(系统线程) 的定位来看,若这么做,有以下问题:
118+
119+
- 一般来讲,M 的数量都会多于 P。像在 Go 中,M 的数量默认是 10000,P 的默认数量的 CPU 核数。另外由于 M 的属性,也就是如果存在系统阻塞调用,阻塞了 M,又不够用的情况下,M 会不断增加。
120+
121+
- M 不断增加的话,如果本地队列挂载在 M 上,那就意味着本地队列也会随之增加。这显然是不合理的,因为本地队列的管理会变得复杂,且 Work Stealing 性能会大幅度下降。
122+
123+
- M 被系统调用阻塞后,我们是期望把他既有未执行的任务分配给其他继续运行的,而不是一阻塞就导致全部停止。
124+
125+
因此使用 M 是不合理的,那么引入新的组件 P,把本地队列关联到 P 上,就能很好的解决这个问题。
126+
127+
## 总结
128+
129+
今天这篇文章结合了整个 Go 语言调度器的一些历史情况、原因分析以及解决方案说明。
130+
131+
”GMP 模型,为什么要有 P“ 这个问题就像是一道系统设计了解,因为现在很多人为了应对面试,会硬背 GMP 模型,或者是泡面式过了一遍。而理解其中真正背后的原因,才是我们要去学的要去理解。
132+
133+
知其然知其所以然,才可破局。

0 commit comments

Comments
 (0)