Skip to content

Commit 2c1b3ba

Browse files
zhangrui-wolfJunjun2016MengzhangLI
authored
Correct docs (open-mmlab#696)
* Correct get_started.md * Correct dataset_prepare.md * Correct model_zoo.md * Correct train.md * Correct inference.md * Correct config.md * Correct customize_datasets.md * Correct data_pipeline.md * Correct customize_models.md * Correct training_tricks.md * Correct customize_runtime.md * Correct useful_tools.md and translate "model serving" * Fix typos * fix lint * Modify the content of useful_tools.md to meet the requirements, and modify some of the content by referring to the Chinese documentation of mmcls. * Modify the use_tools.md file based on feedback. Adjusted some translations according to "English-Chinese terminology comparison". * Modify get_start.md . Adjusted some translations according to "English-Chinese terminology comparison". * Modify dataset_prepare.md. * Modify the English version and the Chinese version of model_zoo.md. Adjusted some translations according to "English-Chinese terminology comparison". * Modify train.md. Adjusted some translations according to "English-Chinese terminology comparison". * Modify inference.md. Adjusted some translations according to "English-Chinese terminology comparison". * Modify config.md. Adjusted some translations according to "English-Chinese terminology comparison". * Modify customize_datasets.md. * Modify data_pipeline.md. Adjusted some translations according to "English-Chinese terminology comparison". The main corrected term is: pipeline. * Modify customize_models.md. * Modify training_tricks.md. * Modify customize_runtime.md. Adjusted some translations according to "English-Chinese terminology comparison". * fix full point usage in items * fix typo * fix typo * fix typo * fix typo * Update useful_tools.md Co-authored-by: Junjun2016 <[email protected]> Co-authored-by: MengzhangLI <[email protected]>
1 parent ee66167 commit 2c1b3ba

12 files changed

+161
-137
lines changed

docs/model_zoo.md

Lines changed: 16 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -131,6 +131,22 @@ Please refer to [CGNet](https://github.com/open-mmlab/mmsegmentation/blob/master
131131

132132
Please refer [Mixed Precision (FP16) Training](https://github.com/open-mmlab/mmsegmentation/blob/master/configs/fp16) for details.
133133

134+
### U-Net
135+
136+
Please refer to [U-Net](https://github.com/open-mmlab/mmsegmentation/blob/master/configs/unet/README.md) for details.
137+
138+
### ViT
139+
140+
Please refer to [ViT](https://github.com/open-mmlab/mmsegmentation/blob/master/configs/vit/README.md) for details.
141+
142+
### Swin
143+
144+
Please refer to [Swin](https://github.com/open-mmlab/mmsegmentation/blob/master/configs/swin/README.md) for details.
145+
146+
### SETR
147+
148+
Please refer to [SETR](https://github.com/open-mmlab/mmsegmentation/blob/master/configs/setr/README.md) for details.
149+
134150
## Speed benchmark
135151

136152
### Hardware

docs_zh-CN/dataset_prepare.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -97,7 +97,7 @@ Pascal VOC 2012 可以在 [这里](http://host.robots.ox.ac.uk/pascal/VOC/voc201
9797
python tools/convert_datasets/voc_aug.py data/VOCdevkit data/VOCdevkit/VOCaug --nproc 8
9898
```
9999

100-
关于如何拼接数据集 (concatenate) 并一起训练它们,更多细节请参考 [拼接连接 数据集](https://github.com/open-mmlab/mmsegmentation/blob/master/docs/tutorials/new_dataset.md#concatenate-dataset)
100+
关于如何拼接数据集 (concatenate) 并一起训练它们,更多细节请参考 [拼接连接数据集](https://github.com/open-mmlab/mmsegmentation/blob/master/docs/tutorials/new_dataset.md#concatenate-dataset)
101101

102102
### ADE20K
103103

@@ -146,7 +146,7 @@ python tools/convert_datasets/drive.py /path/to/training.zip /path/to/test.zip
146146

147147
### HRF
148148

149-
首先,下载 [healthy.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/healthy.zip), [glaucoma.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/glaucoma.zip), [diabetic_retinopathy.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/diabetic_retinopathy.zip), [healthy_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/healthy_manualsegm.zip), [glaucoma_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/glaucoma_manualsegm.zip) 以及 [diabetic_retinopathy_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/diabetic_retinopathy_manualsegm.zip).
149+
首先,下载 [healthy.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/healthy.zip) [glaucoma.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/glaucoma.zip), [diabetic_retinopathy.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/diabetic_retinopathy.zip), [healthy_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/healthy_manualsegm.zip), [glaucoma_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/glaucoma_manualsegm.zip) 以及 [diabetic_retinopathy_manualsegm.zip](https://www5.cs.fau.de/fileadmin/research/datasets/fundus-images/diabetic_retinopathy_manualsegm.zip)
150150

151151
为了将 HRF 数据集转换成 MMSegmentation 格式,您需要运行如下命令:
152152

@@ -158,7 +158,7 @@ python tools/convert_datasets/hrf.py /path/to/healthy.zip /path/to/healthy_manua
158158

159159
### STARE
160160

161-
首先,下载 [stare-images.tar](http://cecas.clemson.edu/~ahoover/stare/probing/stare-images.tar), [labels-ah.tar](http://cecas.clemson.edu/~ahoover/stare/probing/labels-ah.tar)[labels-vk.tar](http://cecas.clemson.edu/~ahoover/stare/probing/labels-vk.tar).
161+
首先,下载 [stare-images.tar](http://cecas.clemson.edu/~ahoover/stare/probing/stare-images.tar), [labels-ah.tar](http://cecas.clemson.edu/~ahoover/stare/probing/labels-ah.tar)[labels-vk.tar](http://cecas.clemson.edu/~ahoover/stare/probing/labels-vk.tar)
162162

163163
为了将 STARE 数据集转换成 MMSegmentation 格式,您需要运行如下命令:
164164

docs_zh-CN/get_started.md

Lines changed: 26 additions & 20 deletions
Original file line numberDiff line numberDiff line change
@@ -25,30 +25,32 @@
2525
| 0.7.0 | mmcv-full>=1.1.2, <1.2.0 |
2626
| 0.6.0 | mmcv-full>=1.1.2, <1.2.0 |
2727

28-
注意: 如果您已经安装好 mmcv, 您首先需要运行 `pip uninstall mmcv`。如果 mmcv 和 mmcv-full 同时被安装,会报错 `ModuleNotFoundError`
28+
注意: 如果您已经安装好 mmcv, 您首先需要运行 `pip uninstall mmcv`
29+
如果 mmcv 和 mmcv-full 同时被安装,会报错 `ModuleNotFoundError`
2930

3031
## 安装
3132

32-
a. 创建一个 conda 虚拟环境并激活它
33+
a. 创建一个 conda 虚拟环境并激活它
3334

3435
```shell
3536
conda create -n open-mmlab python=3.7 -y
3637
conda activate open-mmlab
3738

3839
```
3940

40-
b. 按照[官方教程](https://pytorch.org/) 安装 PyTorch 和 totchvision
41-
这里我们使用 PyTorch1.6.0 和 CUDA10.1
42-
您也可以切换至其他版本
41+
b. 按照[官方教程](https://pytorch.org/) 安装 PyTorch 和 totchvision
42+
这里我们使用 PyTorch1.6.0 和 CUDA10.1
43+
您也可以切换至其他版本
4344

4445
```shell
4546
conda install pytorch=1.6.0 torchvision cudatoolkit=10.1 -c pytorch
4647
```
4748

48-
c. 按照 [官方教程](https://mmcv.readthedocs.io/en/latest/#installation) 安装 [MMCV](https://mmcv.readthedocs.io/en/latest/)
49-
`mmcv``mmcv-full` 和 MMSegmentation 均兼容,但对于 CCNet 和 PSANet,`mmcv-full` 里的 CUDA 运算是必须的。
49+
c. 按照 [官方教程](https://mmcv.readthedocs.io/en/latest/#installation)
50+
安装 [MMCV](https://mmcv.readthedocs.io/en/latest/)
51+
`mmcv``mmcv-full` 和 MMSegmentation 均兼容,但对于 CCNet 和 PSANet,`mmcv-full` 里的 CUDA 运算是必须的
5052

51-
**在 Linux 下安装 mmcv:**
53+
**在 Linux 下安装 mmcv**
5254

5355
通过运行
5456

@@ -59,9 +61,9 @@ pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.5
5961
可以安装好 mmcv-full (PyTorch 1.5 和 CUDA 10.1) 版本。
6062
其他 PyTorch 和 CUDA 版本的 MMCV 安装请参照[这里](https://mmcv.readthedocs.io/en/latest/#install-with-pip)
6163

62-
**在 Windows 下安装 mmcv (有风险):**
64+
**在 Windows 下安装 mmcv (有风险)**
6365

64-
对于 Windows, MMCV 的安装需要本地 C++ 编译工具, 例如 cl.exe. 请添加编译工具至 %PATH%.
66+
对于 Windows MMCV 的安装需要本地 C++ 编译工具 例如 cl.exe 请添加编译工具至 %PATH%
6567

6668
如果您已经在电脑上安装好Windows SDK 和 Visual Studio,cl.exe 的一个典型路径看起来如下:
6769

@@ -87,7 +89,7 @@ pip install mmcv
8789

8890
当前,mmcv-full 并不完全在 windows 上支持。
8991

90-
d. 安装 MMSegmentation.
92+
d. 安装 MMSegmentation
9193

9294
```shell
9395
pip install mmsegmentation # 安装最新版本
@@ -109,11 +111,14 @@ pip install -e . # 或者 "python setup.py develop"
109111

110112
注意:
111113

112-
1. 当在 windows 下训练和测试模型时,请确保路径下所有的'\\' 被替换成 '/'。在 python 代码里可以使用`.replace('\\', '/')`处理路径的字符串。
113-
2. `version+git_hash` 也将被保存进 meta 训练模型里,即0.5.0+c415a2e。
114-
3. 当 MMsegmentation 以 `dev` 模式被安装时,本地对代码的修改将不需要重新安装即可产生作用。
115-
4. 如果您想使用 `opencv-python-headless` 替换 `opencv-python`,您可以在安装 MMCV 前安装它。
116-
5. 一些依赖项是可选的。简单的运行 `pip install -e .` 将仅安装最必要的一些依赖。为了使用可选的依赖项如`cityscapessripts`,要么手动使用 `pip install -r requirements/optional.txt` 安装,要么专门从pip下安装(即 `pip install -e .[optional]`, 其中选项可设置为 `all`, `tests`, `build`, 和 `optional`).
114+
1. 当在 windows 下训练和测试模型时,请确保路径下所有的'\\' 被替换成 '/',
115+
在 python 代码里可以使用`.replace('\\', '/')`处理路径的字符串
116+
2. `version+git_hash` 也将被保存进 meta 训练模型里,即0.5.0+c415a2e
117+
3. 当 MMsegmentation 以 `dev` 模式被安装时,本地对代码的修改将不需要重新安装即可产生作用
118+
4. 如果您想使用 `opencv-python-headless` 替换 `opencv-python`,您可以在安装 MMCV 前安装它
119+
5. 一些依赖项是可选的。简单的运行 `pip install -e .` 将仅安装最必要的一些依赖。为了使用可选的依赖项如`cityscapessripts`
120+
要么手动使用 `pip install -r requirements/optional.txt` 安装,要么专门从pip下安装(即 `pip install -e .[optional]`
121+
其中选项可设置为 `all`, `tests`, `build`, 和 `optional`)
117122

118123
### 完成的安装脚本
119124

@@ -135,9 +140,10 @@ mkdir data
135140
ln -s $DATA_ROOT data
136141
```
137142

138-
#### Windows(有风险)
143+
#### Windows (有风险)
139144

140-
这里便是一个完整安装 MMSegmentation 的脚本,使用 conda 并链接了数据集的路径(以您的数据集路径为 %DATA_ROOT% 来安装)。注意:它必须是一个绝对路径。
145+
这里便是一个完整安装 MMSegmentation 的脚本,使用 conda 并链接了数据集的路径(以您的数据集路径为 %DATA_ROOT% 来安装)。
146+
注意:它必须是一个绝对路径。
141147

142148
```shell
143149
conda create -n open-mmlab python=3.7 -y
@@ -196,7 +202,7 @@ for frame in video:
196202

197203
当您完成 MMSegmentation 的安装时,上述代码应该可以成功运行。
198204

199-
我们还提供一个 demo 脚本去可视化单张图片
205+
我们还提供一个 demo 脚本去可视化单张图片
200206

201207
```shell
202208
python demo/image_demo.py ${IMAGE_FILE} ${CONFIG_FILE} ${CHECKPOINT_FILE} [--device ${DEVICE_NAME}] [--palette-thr ${PALETTE}]
@@ -209,4 +215,4 @@ python demo/image_demo.py demo/demo.jpg configs/pspnet/pspnet_r50-d8_512x1024_40
209215
checkpoints/pspnet_r50-d8_512x1024_40k_cityscapes_20200605_003338-2966598c.pth --device cuda:0 --palette cityscapes
210216
```
211217

212-
推理的 demo 文档可在此查询:[demo/inference_demo.ipynb](../demo/inference_demo.ipynb).
218+
推理的 demo 文档可在此查询:[demo/inference_demo.ipynb](../demo/inference_demo.ipynb)

docs_zh-CN/inference.md

Lines changed: 12 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
## 使用预训练模型推理
22

3-
我们提供测试脚本来评估完整数据集(Cityscapes, PASCAL VOC, ADE20k 等) 上的结果,同时为了使其他项目的整合更容易,也提供一些高级 API。
3+
我们提供测试脚本来评估完整数据集(Cityscapes, PASCAL VOC, ADE20k 等)上的结果,同时为了使其他项目的整合更容易,也提供一些高级 API。
44

55
### 测试一个数据集
66

@@ -20,41 +20,41 @@ python tools/test.py ${配置文件} ${检查点文件} [--out ${结果文件}]
2020

2121
可选参数:
2222

23-
- `RESULT_FILE`: pickle 格式的输出结果的文件名,如果不专门指定,结果将不会被专门保存成文件
24-
- `EVAL_METRICS`: 在结果里将被评估的指标这主要取决于数据集, `mIoU` 对于所有数据集都可获得,像 Cityscapes 数据集可以通过 `cityscapes` 命令来专门评估,就像标准的 `mIoU`一样
25-
- `--show`: 如果被指定,分割结果将会在一张图像里画出来并且在另一个窗口展示它仅仅是用来调试与可视化,并且仅针对单卡 GPU 测试请确认 GUI 在您的环境里可用,否则您也许会遇到报错 `cannot connect to X server`
26-
- `--show-dir`: 如果被指定,分割结果将会在一张图像里画出来并且保存在指定文件夹里它仅仅是用来调试与可视化,并且仅针对单卡GPU测试使用该参数时,您的环境不需要 GUI
27-
- `--eval-options`: 评估时的可选参数,当设置 `efficient_test=True` 时,它将会保存中间结果至本地文件里以节约 CPU 内存请确认您本地硬盘有足够的存储空间(大于20GB)
23+
- `RESULT_FILE`: pickle 格式的输出结果的文件名,如果不专门指定,结果将不会被专门保存成文件
24+
- `EVAL_METRICS`: 在结果里将被评估的指标这主要取决于数据集, `mIoU` 对于所有数据集都可获得,像 Cityscapes 数据集可以通过 `cityscapes` 命令来专门评估,就像标准的 `mIoU`一样
25+
- `--show`: 如果被指定,分割结果将会在一张图像里画出来并且在另一个窗口展示它仅仅是用来调试与可视化,并且仅针对单卡 GPU 测试请确认 GUI 在您的环境里可用,否则您也许会遇到报错 `cannot connect to X server`
26+
- `--show-dir`: 如果被指定,分割结果将会在一张图像里画出来并且保存在指定文件夹里它仅仅是用来调试与可视化,并且仅针对单卡GPU测试使用该参数时,您的环境不需要 GUI
27+
- `--eval-options`: 评估时的可选参数,当设置 `efficient_test=True` 时,它将会保存中间结果至本地文件里以节约 CPU 内存请确认您本地硬盘有足够的存储空间(大于20GB)
2828

2929
例子:
3030

3131
假设您已经下载检查点文件至文件夹 `checkpoints/` 里。
3232

33-
1. 测试 PSPNet 并可视化结果。按下任何键会进行到下一张图
33+
1. 测试 PSPNet 并可视化结果。按下任何键会进行到下一张图
3434

3535
```shell
3636
python tools/test.py configs/pspnet/pspnet_r50-d8_512x1024_40k_cityscapes.py \
3737
checkpoints/pspnet_r50-d8_512x1024_40k_cityscapes_20200605_003338-2966598c.pth \
3838
--show
3939
```
4040

41-
2. 测试 PSPNet 并保存画出的图以便于之后的可视化
41+
2. 测试 PSPNet 并保存画出的图以便于之后的可视化
4242

4343
```shell
4444
python tools/test.py configs/pspnet/pspnet_r50-d8_512x1024_40k_cityscapes.py \
4545
checkpoints/pspnet_r50-d8_512x1024_40k_cityscapes_20200605_003338-2966598c.pth \
4646
--show-dir psp_r50_512x1024_40ki_cityscapes_results
4747
```
4848

49-
3. 在数据集 PASCAL VOC (不保存测试结果) 上测试 PSPNet 并评估 mIoU
49+
3. 在数据集 PASCAL VOC (不保存测试结果) 上测试 PSPNet 并评估 mIoU
5050

5151
```shell
5252
python tools/test.py configs/pspnet/pspnet_r50-d8_512x1024_20k_voc12aug.py \
5353
checkpoints/pspnet_r50-d8_512x1024_20k_voc12aug_20200605_003338-c57ef100.pth \
5454
--eval mAP
5555
```
5656

57-
4. 使用4卡 GPU 测试 PSPNet,并且在标准 mIoU 和 cityscapes 指标里评估模型
57+
4. 使用4卡 GPU 测试 PSPNet,并且在标准 mIoU 和 cityscapes 指标里评估模型
5858

5959
```shell
6060
./tools/dist_test.sh configs/pspnet/pspnet_r50-d8_512x1024_40k_cityscapes.py \
@@ -64,7 +64,7 @@ python tools/test.py ${配置文件} ${检查点文件} [--out ${结果文件}]
6464

6565
注意:在 cityscapes mIoU 和我们的 mIoU 指标会有一些差异 (~0.1%) 。因为 cityscapes 默认是根据类别样本数的多少进行加权平均,而我们对所有的数据集都是采取直接平均的方法来得到 mIoU。
6666

67-
5. 在 cityscapes 数据集上4卡 GPU 测试 PSPNet, 并生成 png 文件以便提交给官方评估服务器
67+
5. 在 cityscapes 数据集上4卡 GPU 测试 PSPNet, 并生成 png 文件以便提交给官方评估服务器
6868

6969
首先,在配置文件里添加内容: `configs/pspnet/pspnet_r50-d8_512x1024_40k_cityscapes.py`
7070

@@ -86,7 +86,7 @@ python tools/test.py ${配置文件} ${检查点文件} [--out ${结果文件}]
8686
您会在文件夹 `./pspnet_test_results` 里得到生成的 png 文件。
8787
您也许可以运行 `zip -r results.zip pspnet_test_results/` 并提交 zip 文件给 [evaluation server](https://www.cityscapes-dataset.com/submit/)。
8888

89-
6. 在 Cityscapes 数据集上使用 CPU 高效内存选项来测试 DeeplabV3+ `mIoU` 指标 (没有保存测试结果)
89+
6. 在 Cityscapes 数据集上使用 CPU 高效内存选项来测试 DeeplabV3+ `mIoU` 指标 (没有保存测试结果)
9090

9191
```shell
9292
python tools/test.py \

docs_zh-CN/model_zoo.md

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -4,16 +4,16 @@
44

55
* 我们默认使用 4 卡分布式训练
66
* 所有 PyTorch 风格的 ImageNet 预训练网络由我们自己训练,和 [论文](https://arxiv.org/pdf/1812.01187.pdf) 保持一致。
7-
我们的 ResNet 网络是基于 ResNetV1c 的变种,在这里输入层的 7x7 卷积被 3个 3x3 取代
7+
我们的 ResNet 网络是基于 ResNetV1c 的变种,在这里输入层的 7x7 卷积被 3个 3x3 取代
88
* 为了在不同的硬件上保持一致,我们以 `torch.cuda.max_memory_allocated()` 的最大值作为 GPU 占用率,同时设置 `torch.backends.cudnn.benchmark=False`
9-
注意,这通常比 `nvidia-smi` 显示的要少
10-
* 我们以网络 forward 和后处理的时间加和作为推理时间,除去数据加载时间。我们使用脚本 `tools/benchmark.py` 来获取推理时间,它在 `torch.backends.cudnn.benchmark=False` 的设定下,计算 200 张图片的平均推理时间
11-
* 在框架中,有两种推理模式
9+
注意,这通常比 `nvidia-smi` 显示的要少
10+
* 我们以网络 forward 和后处理的时间加和作为推理时间,除去数据加载时间。我们使用脚本 `tools/benchmark.py` 来获取推理时间,它在 `torch.backends.cudnn.benchmark=False` 的设定下,计算 200 张图片的平均推理时间
11+
* 在框架中,有两种推理模式
1212
* `slide` 模式(滑动模式):测试的配置文件字段 `test_cfg` 会是 `dict(mode='slide', crop_size=(769, 769), stride=(513, 513))`.
13-
在这个模式下,从原图中裁剪多个小图分别输入网络中进行推理。小图的大小和小图之间的距离由 `crop_size``stride` 决定,重合区域会进行平均
14-
* `whole` 模式 (全图模式):测试的配置文件字段 `test_cfg` 会是 `dict(mode='whole')`. 在这个模式下,全图会被直接输入到网络中进行推理。
15-
对于 769x769 下训练的模型,我们默认使用 `slide` 进行推理,其余模型用 `whole` 进行推理
16-
* 对于输入大小为 8x+1 (比如769),我们使用 `align_corners=True`。其余情况,对于输入大小为 8x+1 (比如 512,1024),我们使用 `align_corners=False`
13+
在这个模式下,从原图中裁剪多个小图分别输入网络中进行推理。小图的大小和小图之间的距离由 `crop_size``stride` 决定,重合区域会进行平均
14+
* `whole` 模式 (全图模式)测试的配置文件字段 `test_cfg` 会是 `dict(mode='whole')`. 在这个模式下,全图会被直接输入到网络中进行推理。
15+
对于 769x769 下训练的模型,我们默认使用 `slide` 进行推理,其余模型用 `whole` 进行推理
16+
* 对于输入大小为 8x+1 (比如769),我们使用 `align_corners=True`。其余情况,对于输入大小为 8x+1 (比如 512,1024),我们使用 `align_corners=False`
1717

1818
## 基线
1919

@@ -149,4 +149,4 @@ Please refer [Mixed Precision (FP16) Training](https://github.com/open-mmlab/mms
149149
| [CASILVision](https://github.com/CSAILVision/semantic-segmentation-pytorch) | 1.15 | N/A |
150150
| [vedaseg](https://github.com/Media-Smart/vedaseg) | 0.95 | 1.25 |
151151

152-
注意:DeepLabV3+ 的输出步长为 8
152+
注意:DeepLabV3+ 的输出步长为 8

docs_zh-CN/train.md

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -31,15 +31,15 @@ python tools/train.py ${配置文件} [可选参数]
3131

3232
可选参数可以为:
3333

34-
- `--no-validate` (**不推荐**): 训练时代码库默认会在每 k 轮迭代后在验证集上进行评估,如果不需评估使用命令 `--no-validate`
35-
- `--work-dir ${工作路径}`: 在配置文件里重写工作路径文件夹
36-
- `--resume-from ${检查点文件}`: 继续使用先前的检查点 (checkpoint) 文件(可以继续训练过程)
37-
- `--load-from ${检查点文件}`: 从一个检查点 (checkpoint) 文件里加载权重(对另一个任务进行精调)
34+
- `--no-validate` (**不推荐**): 训练时代码库默认会在每 k 轮迭代后在验证集上进行评估,如果不需评估使用命令 `--no-validate`
35+
- `--work-dir ${工作路径}`: 在配置文件里重写工作路径文件夹
36+
- `--resume-from ${检查点文件}`: 继续使用先前的检查点 (checkpoint) 文件(可以继续训练过程)
37+
- `--load-from ${检查点文件}`: 从一个检查点 (checkpoint) 文件里加载权重(对另一个任务进行精调)
3838

3939
`resume-from``load-from` 的区别:
4040

41-
- `resume-from` 加载出模型权重和优化器状态包括迭代轮数等
42-
- `load-from` 仅加载模型权重,从第0轮开始训练
41+
- `resume-from` 加载出模型权重和优化器状态包括迭代轮数等
42+
- `load-from` 仅加载模型权重,从第0轮开始训练
4343

4444
### 使用多个机器训练
4545

0 commit comments

Comments
 (0)