手记

Detectron平台下实现Cityperson数据库的使用

Detectron平台做检测的应该都知道,网上关于配置的教程也很多,应该使用的挺多的。该平台对COCO数据集支持良好。
Cityperson数据集,在16年CVPR上被提出,是张姗姗一波人在cityscapes数据集上进行标注得到的行人检测数据集。做行人检测的应该都不陌生。论文地址数据库地址张姗姗提供的数据库地址
这篇文章中,我将详细介绍如何在Detectron平台下实现Cityperson数据集的训练和测试。

首先下载Cityperson数据集,网站上提供了很多的下载选项,下载需要注册。对于行人检测任务,下载这两个文件就行了:

  1. train+val图片

  2. cityperson标注
    需要说明的是,目前cityperson只公布了训练和验证数据集,没有公布测试数据。希望尽早公布吧。

接下来要做两个工作,一个是数据库的转换,另外一个是detectron平台相应代码的修改。
首先说数据库的转换吧:

这里我是将cityperson数据集转换成coco集之后用来训练的。虽然detectron平台对citysapes数据集有支持,但是似乎不是行人检测这一块的。没有过多的研究,如果有同样在做这类似工作的小伙伴,欢迎通过各种方法联系我,因为我确实也没弄得太清楚。

cityperson数据集的标注文件,是每一个图片对应一个标注json文件,而coco的标注格式,可以参考官网上的说明,需要强调的就是他是整个集对应一个json文件,每一个图片对应一个唯一的图片编号。

因为不能看到coco集下具体的形式,为了快速解决这个问题,我决定用现有的代码实现。在github上面搜索了一下做数据库转换的代码。发现只有这个:cityperson2voc,拿下来试了一下,确实可以用。具体的使用方法参照代码中的说明即可。现在我们得到了一个voc形式的cityperson数据集。其实detectron平台对voc也支持,但是我看了一下代码。他支持的voc数据集仍然需要一个总体的json标注文件,而不是传统的voc那样每一个图片对应的xml文件。这时需要使用voc到coco的转换工具了,这样的转换工具,github上也有现成的,可以拿来直接用。不过对于转换过来的cityperson数据集,需要对代码进行一点点修改:
代码地址
修改部分如下面注释;

#!/usr/bin/python# pip install lxmlimport sysimport osimport jsonimport xml.etree.ElementTree as ET


START_BOUNDING_BOX_ID = 1PRE_DEFINE_CATEGORIES = {}# If necessary, pre-define category and its id#  PRE_DEFINE_CATEGORIES = {"aeroplane": 1, "bicycle": 2, "bird": 3, "boat": 4,
                         #  "bottle":5, "bus": 6, "car": 7, "cat": 8, "chair": 9,
                         #  "cow": 10, "diningtable": 11, "dog": 12, "horse": 13,
                         #  "motorbike": 14, "person": 15, "pottedplant": 16,
                         #  "sheep": 17, "sofa": 18, "train": 19, "tvmonitor": 20}def get(root, name):
    vars = root.findall(name)    return varsdef get_and_check(root, name, length):
    vars = root.findall(name)    if len(vars) == 0:        raise NotImplementedError('Can not find %s in %s.'%(name, root.tag))    if length > 0 and len(vars) != length:        raise NotImplementedError('The size of %s is supposed to be %d, but is %d.'%(name, length, len(vars)))    if length == 1:
        vars = vars[0]    return varsdef get_filename_as_int(filename):
    try:
        filename = os.path.splitext(filename)[0]######################这里加一行###########################
        filename = filename.split('_')[1] + filename.split('_')[2]        return int(filename)    except:        raise NotImplementedError('Filename %s is supposed to be an integer.'%(filename))def convert(xml_list, xml_dir, json_file):
    list_fp = open(xml_list, 'r')
    json_dict = {"images":[], "type": "instances", "annotations": [],                 "categories": []}
    categories = PRE_DEFINE_CATEGORIES
    bnd_id = START_BOUNDING_BOX_ID    for line in list_fp:
        line = line.strip()
        print("Processing %s"%(line))
        xml_f = os.path.join(xml_dir, line)
        tree = ET.parse(xml_f)
        root = tree.getroot()
        path = get(root, 'path')        if len(path) == 1:
            filename = os.path.basename(path[0].text)        elif len(path) == 0:
            filename = get_and_check(root, 'filename', 1).text        else:            raise NotImplementedError('%d paths found in %s'%(len(path), line))        ## The filename must be a number
        image_id = get_filename_as_int(filename)
        size = get_and_check(root, 'size', 1)
        width = int(get_and_check(size, 'width', 1).text)
        height = int(get_and_check(size, 'height', 1).text)
        image = {'file_name': filename, 'height': height, 'width': width,                 'id':image_id}
        json_dict['images'].append(image)        ## Cruuently we do not support segmentation
        #  segmented = get_and_check(root, 'segmented', 1).text
        #  assert segmented == '0'
        for obj in get(root, 'object'):
            category = get_and_check(obj, 'name', 1).text            if category not in categories:
                new_id = len(categories)
                categories[category] = new_id
            category_id = categories[category]
            bndbox = get_and_check(obj, 'bndbox', 1)########################下面部分改成######################
            #xmin = int(get_and_check(bndbox, 'xmin', 1).text) - 1
            #ymin = int(get_and_check(bndbox, 'ymin', 1).text) - 1
            #xmax = int(get_and_check(bndbox, 'xmax', 1).text)
            #ymax = int(get_and_check(bndbox, 'ymax', 1).text)
            xmin = int(float(get_and_check(bndbox, 'xmin', 1).text)) - 1
            ymin = int(float(get_and_check(bndbox, 'ymin', 1).text)) - 1
            xmax = int(float(get_and_check(bndbox, 'xmax', 1).text))
            ymax = int(float(get_and_check(bndbox, 'ymax', 1).text))            assert(xmax > xmin)            assert(ymax > ymin)
            o_width = abs(xmax - xmin)
            o_height = abs(ymax - ymin)
            ann = {'area': o_width*o_height, 'iscrowd': 0, 'image_id':
                   image_id, 'bbox':[xmin, ymin, o_width, o_height],                   'category_id': category_id, 'id': bnd_id, 'ignore': 0,                   'segmentation': []}
            json_dict['annotations'].append(ann)
            bnd_id = bnd_id + 1

    for cate, cid in categories.items():
        cat = {'supercategory': 'none', 'id': cid, 'name': cate}
        json_dict['categories'].append(cat)
    json_fp = open(json_file, 'w')
    json_str = json.dumps(json_dict)
    json_fp.write(json_str)
    json_fp.close()
    list_fp.close()if __name__ == '__main__':    if len(sys.argv) <= 1:
        print('3 auguments are need.')
        print('Usage: %s XML_LIST.txt XML_DIR OUTPU_JSON.json'%(sys.argv[0]))
        exit(1)

    convert(sys.argv[1], sys.argv[2], sys.argv[3])

理由说明:
修改1:原代码针对的是voc数据库,读取了图片文件名的编号作为coco集下图片的id,但是对于cityperson数据集,文件名的格式和voc不同,所以需要稍作处理。
修改2:cityperson和voc中bbox的数据格式不同,在这里会报数据转换的错,先将其转换为float再转为int可以快速解决问题。

运行该代码还需要提供一个xml文件的目录txt,很多方法实现了。如果不想写程序的话,去imageset文件下找到train和test文件的目录txt,使用文本编辑器替换的方式,再每一个项目末尾加上.xml即可。

至此,cityperson数据集的转换工作已经完成。将其链接到Detectron文件夹下的detectron/datasets/data下,我们开始修改Detectron平台的代码,这里参照了博客Caffe2 - (十九) 基于 Detectron 的 DeepFashion 服装 bbox 检测实现

首先修改detectron/datasets/dataset_catalog.py文件,用于添加新的数据集:
按照之前的格式,在DATASETS中增加两项:

    'cityperson_train': {
        IM_DIR:
            _DATA_DIR + '/cityperson/data/JPEGImages',
        ANN_FN:
            _DATA_DIR + '/cityperson/data/cityperson_train.json'
    },    'cityperson_val': {
        IM_DIR:
            _DATA_DIR + '/cityperson/data/JPEGImages',
        ANN_FN:
            _DATA_DIR + '/cityperson/data/cityperson_val.json'
    },
    },

然后修改网络文件:
configs/getting_started/tutorial_1gpu_e2e_faster_rcnn_R-50-FPN.yaml
只需要修改三项:

NUM_CLASSES: 2 # 一个类别 + 一个background 类TRAIN:DATASETS: ('cityperson_train',)
 TEST:DATASETS: ('cityperson_val',)

这时应该已经可以开始训练了,

python tools/train_net.py --cfg ./configs/getting_started/tutorial_1gpu_e2e_faster_rcnn_R-50-FPN.yaml OUTPUT_DIR ./detectron-output

我印象中前面某个位置会报错,需要将cityperson中的jpg图片转换为png图片,用下面的指令即可:

$ ls -1 *.jpg | xargs -n 1 bash -c 'convert "$0" "${0%.jpg}.png"'

在1080ti下单张卡训练大概是两个小时,不得不感叹相比与caffe,caffe2很快了。
训练完成后,会报没有验证函数的错。对啊,就是没有。这一块我目前正在解决,不过可以使用coco默认的测试函数算一下,虽然和行人检测中常用的MR-FPPI不相同,不过也可以反应一下训练效果。不过从我的实验来看,训练算成功了,但是效果不太理想。接下来会去找问题。也欢迎大家和我讨论。
将验证函数默认为coco,需要修改detectron/core/config.py下的项

_C.TEST.FORCE_JSON_DATASET-EVAL = Ture

当然你也可以和demo一样,可视化一下检测结果:
修改tools/infer_simple.py

dummy_coco_dataset = dummy_datasets.get_cityperson_dataset()

然后在detectron/datasets/dummy_datasets.py中增加函数:

def get_cityperson_dataset():
    ds = AttrDict()
    classes = ['__background__', 'ped',  ]
    ds.classes = {i: name for i, name in enumerate(classes)}    return ds

然后仿照demo运行infer_simple.py就行了。



作者:chenyue_tju
链接:https://www.jianshu.com/p/1d431d5d5451


0人推荐
随时随地看视频
慕课网APP

热门评论

楼主,数据集还在吗,能否通过邮箱1412540386@qq.com给我发一份,谢谢,主要因为现在那个官网根本注册不了,无法下载......

楼主有cityperson数据集吗,可以给我发一份吗?1135718080@qq.com谢谢。官方给的数据库链接现在不能用啦

查看全部评论