6.1.4.6. YOLOV3检测模型训练

这篇教程以YOLOv3-MobileNetv1为例,告诉大家如何在`Pascal-VOC`上完成浮点 和定点模型的训练。

PascalVOC 是图像检测,图像分割等比赛中最常用的基础数据集。这里我们 使用2007和2012的两届的训练数据集作为实验的训练集,使用2007的验证集 作为实验的验证集。 原始数据集可以从这个地址下载:https://pjreddie.com/projects/pascal-voc-dataset-mirror/。获取的数据集格式如下:

VOCtrainval_06-Nov-2007.tar
VOCtrainval_11-May-2012.tar
VOCtest_06-Nov-2007.tar

YOLO系列的目标检测算法已经成为目标检测历史中重要的组成部分。YOLOv3 是YOLO系列目标检测算法的第三版,与之前的算法相比,尤其是针对小目标, 精度有显著的提升。

这里我们使用YOLOv3-MobileNetv1的例子来详细介绍在PascalVOC上训练目标检测的整个流程。

6.1.4.6.1. 训练流程

如果你只是想简单的把YOLOv3的内容训练起来,那么可以首先阅读一下这一章的内容。和其他任务一样,对于所有的训练,评测任务, HAT 统一采用 tools + config 的形式来完成。在准备好原始数据集之后,可以通过下面的流程, 方便的完成整个训练的流程。

datasets/voc_packer 的脚本中,利用 torchvision 提供的默认公开数据集处理方 法直接将原始的公开数据集转成 Numpy 或者 Tensor 的格式,最后将得到的 数据统一用 msgpack 相关的方法压缩到 LMDB 的文件中。

这个过程可以很方便通过下面的脚本完成数据集打包:

python3 tools/datasets/voc_packer.py --src-data-dir ${data-dir} --split-name trainval --num-workers 10 --pack-type lmdb

python3 tools/datasets/voc_packer.py --src-data-dir ${data-dir} --split-name test --num-workers 10 --pack-type lmdb

在完成数据集打包之后,可以得到含有 PascalVOC 的压缩数据集。

通常在定义好一个模型之后,尤其是一些公版模型,我们会有检查计算量的需求。 HAT 通过 calops 的工具来计算模型的计算量,执行方法如下:

python3 tools/calops.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py

这种计算量的统计工具,是可以同时支持浮点和定点模型的。

下一步就可以开始训练。训练也可以通过下面的脚本来完成,在训练之前需 要确认配置中数据集路径是否已经切换到已经打包好的数据集路径,同时一般 训练检测需要提供在ImageNet上训练好的backbone模型,检查对应的路径是否 设置正确即可。

训练可以直接通过如下的脚本来完成:

python3 tools/train.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage float

python3 tools/train.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage qat

python3 tools/train.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage int_infer

这两个脚本分别完成浮点模型和定点模型的训练,其中定点模型的训练依赖于 上一步浮点训练产出的浮点模型。

在完成训练之后,可以得到训练完成的浮点模型或定点模型。和训练方法类似, 我们可以用相同方法来对训好的模型做指标验证。

python3 tools/predict.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage float --ckpt ${float-checkpoint-path}

python3 tools/predict.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage qat --ckpt ${qat-checkpoint-path}

python3 tools/predict.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --stage int_infer --ckpt ${int-infer-checkpoint-path}

另外,我们还提供和上板完全一致的精度验证方法,通过下面的方式完成:

python3 tools/align_bpu_validation.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --dataset voc

与其他的 HAT 提供的量化模型类似,YOLOV3也可以通过编译部署在地平线的芯片上。同样这个流程也可以用compile脚本来完成。

python3 tools/compile_perf.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py

最后,我们可以利用训练好模型做预测和可视化,这个流程可以通过infer脚本来完成。

python3 tools/infer.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py --dataset voc --input-size 416x416x3 --input-images ${img-path} --input-format yuv --is-plot

其他stage的模型infer情况可以依次类推。

以上就是从数据准备到生成量化可部署模型的YOLOv3的全过程。

6.1.4.6.2. 训练细节

6.1.4.6.2.1. 网络结构

HATYOLOv3 的模型搭建中,我们可以直接使用下面的dict来构建浮 点的检测模型,用户可以方便的修改其中的参数或者key类型,来达到配置网络的目的。

YOLOv3的网络模型一共被分为5个部分,包括backbone,neck,head, postprocess,losses。其中postprocess主要作用于验证阶段的后处理, 而losses主要是作为训练阶段的损失函数。

data_shape = (3, 416, 416)
num_classes = 20
anchors = [
    [(116, 90), (156, 198), (373, 326)],
    [(30, 61), (62, 45), (59, 119)],
    [(10, 13), (16, 30), (33, 23)],
]

model = dict(
    type="YOLOV3",
    backbone=dict(
        type="MobileNetV1",
        alpha=1.0,
        include_top=False,
    ),
    neck=dict(
        type="YOLOv3Neck",
        backbone_idx=[-1, -2, -3],
        in_channels_list=[1024, 512, 256],
        out_channels_list=[512, 256, 128],
    ),
    head=dict(
        type="YOLOv3Head",
        neck_idx=[-3, -2, -1],
        in_channels_list=[1024, 512, 256],
        num_classes=num_classes,
        anchors=anchors,
    ),
    loss=dict(
        type="YOLOV3Loss",
        num_classes=num_classes,
        anchors=anchors,
        img_size=data_shape,
        ignore_thresh=0.7,
        loss_xy=dict(type=torch.nn.BCELoss, size_average=False),
        loss_wh=dict(type=torch.nn.MSELoss, size_average=False),
        loss_conf=dict(type=torch.nn.BCELoss, size_average=False),
        loss_cls=dict(type=torch.nn.BCELoss, size_average=False),
        lambda_loss=[2.5, 2.5, 1.0, 1.0],
    ),
    postprocess=dict(
        type="YOLOV3PostProcess",
        anchors=anchors,
        num_classes=num_classes,
        img_size=data_shape,
        score_thresh=0.01,
        nms_thresh=0.45,
        topK=400,
    ),
)

网络的主体部分由 MobileNetv1 的backbone, YOLOv3-FPN 的neck,以及多个 分辨率的head组成。训练阶段的损失函数包含训练Target的生成和4个Loss函数组成, 而验证阶段的后处理是常见的按照类别做NMS的操作。

6.1.4.6.2.2. 数据增强

和其他网络的训练过程类似,跑在 BPU 上的模型使用的是 YUV444 的图像输入,而一般的训练图像输 入都采用 RGB 的形式,所以 HAT 提供 BgrToYuv444 的数据增强来将 RGB 转到 YUV444 的格式。归一化对于深度学习模型训练是必须的。

除此之外,常见的检测数据增强这里也会使用,如使用 DetColorAug 来做颜色 上的数据增强。同时 DetExpand 会对图片和Labels做随机的扩充,而 MinIoURadomCrop 可以对图片和Labels做随机的crop。 FlipLeftRight 可以做随机的翻转再 配合 Resize 统一调整到训练的尺寸上。

dataset=dict(
    type="PascalVOCFromLMDB",
    data_path="./data/voc/trainval_lmdb",
    num_samples=16551,
    transforms=[
        dict(type="DetColorAug"),
        dict(type="DetExpand", ratio_range=(1, 4)),
        dict(
            type="MinIoURandomCrop",
            min_ious=(0.4, 0.5, 0.6, 0.7, 0.8, 0.9)
        ),
        dict(type="DetFlipLeftRight"),
        dict(type="DetResize", size=data_shape[1:]),
        dict(type="BgrToYuv444", rgb_input=True),
        dict(type="Normalize", mean=128.0, std=128.0),
    ],
)

验证集上的数据增强则简单很多,主要是 DetReize 和颜色空间的转换。

dataset=dict(
    type="PascalVOCFromLMDB",
    data_path="./data/voc/test_lmdb",
    num_samples=4952,
    transforms=[
        dict(type="DetResize", size=data_shape[1:]),
        dict(type="BgrToYuv444", rgb_input=True),
        dict(type="Normalize", mean=128.0, std=128.0),
    ]
)

数据增强是现在深度学习模型训练中必不可少的方法,以上就是训练VOC检测 的过程中,YOLOv3采用的数据增强方法。

6.1.4.6.2.3. 训练策略

检测模型训练过程中,使用预训练的backbone模型已经成为一种通用的方法。 这里我们使用 Checkpoint 的callback来做预训练模型的加载,注意这里的 allow_miss和ignore_extra一定设置为False,False可以确保模型能够差异化的加载。

这里使用 Step 的学习策略,适当延长epoch的训练长度对模型有会有微弱的提升。

float_trainer = dict(
    type='distributed_data_parallel_trainer',
    model=model,
    model_convert_pipeline=dict(
        type="ModelConvertPipeline",
        converters=[
            dict(
                type="LoadCheckpoint",
                checkpoint_path=(
                    "./tmp_pretrained_models/mobilenetv1_cls/float-checkpoint-best.pth.tar"  # noqa: E501
                ),
                allow_miss=True,
                ignore_extra=True,
            ),
        ],
    ),
    data_loader=data_loader,
    optimizer=dict(
        type=torch.optim.SGD,
        params={"weight": dict(weight_decay=5e-4)},
        lr=0.001,
        momentum=0.9,
    ),
    batch_processor=batch_processor,
    num_epochs=200,
    device=None,
    callbacks=[
        stat_callback,
        dict(
            type="StepDecayLrUpdater",
            warmup_by='epoch',
            warmup_len=4,
            step_log_interval=100,
            lr_decay_id=[160, 180],
            lr_decay_factor=0.1,
        ),
        val_callback,
        ckpt_callback,
    ],
    sync_bn=True,
    train_metrics=None,
    val_metrics=[
        dict(type="VOC07MApMetric", num_classes=num_classes),
    ],
)

6.1.4.6.2.4. 量化训练

关于量化训练中的关键步骤,比如准备浮点模型、算子替换、插入量化和反量化节点、设置量化参数以及算子的融合等, 请阅读《Horizon Plugin PyTorch》手册中的 浮点模型准备算子融合 两节中的内容。这里主要讲一下 HAT 的检测中如何定义和使用量化模型。

在模型准备的好情况下,包括量化已有的一些模块完成之后, HAT 在训练脚本 中统一使用下面的脚本将浮点模型映射到定点模型上来。

model.fuse_model()
model.set_qconfig()
horizon.quantization.prepare_qat(model, inplace=True)

YOLOv3 的量化训练策略除了学习率和epoch训练长度之外,其他的和浮点训练 基本上完全对齐。 YOLOv3 的学习率可以很小,同时训练长度也可以不用很长。

6.1.4.6.2.5. 模型检查和编译

对于 HAT 来说,量化模型的意义在于可以在 BPU 上直接运行。因此, 对于量化模型的检查和编译是必须的。我们在训练脚本中提供可以对模型 检查的接口,可以让用户定义好量化模型之后,先检查能否在 BPU 上正常 运行,目前该检查在启动train.py脚本训练quantize=True的模型时会默认打开。

在训练完成之后, compile 的工具用来将量化模型编译成可以上板运行的 hbm 文件,同时该工具也能预估在BPU上的运行性能,可以采用以下脚本:

python3 tools/compile_perf.py --config configs/detection/yolov3/pascalvoc_mobilenetv1.py