继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

8.SSD目标检测之二:制作自己的训练集

青春有我
关注TA
已关注
手记 1199
粉丝 205
获赞 1008

最近秋色甚好,一场大风刮散了雾霾,难得几天的好天气,周末回家在大巴上看着高速两旁夕阳照射下黄澄澄的树叶,晕车好像也好了很多。
特地周六赶回来为了周末去拍点素材,周日天气也好,去了陕师大拍了照片和视频。
说正经的,如何来制作数据集。

1.采集照片。

这个不用说,首先是要找照片,如果要训练自己的模型的话,数据采集这里也基本是要亲力亲为的,我自己是想检测无人机,所以百度搜了一部分图片,自己把无人机飞起来然后用相机再拍了一些,去掉一些重复的,最终150张照片。
单反的分辨率已经调到最低但是还是有3000 * 2000,而且无人机飞的较高的话我焦距有限,拍到的照片无人机占比很小。
所以我对照片进行了重新裁剪,这一部分是用lightroom来做的,结束之后全部导出,大小限制在1m。
然后对照片进行重命名,这部分后来发现是不用做的,图片命名为任意名称其实都是可以的,不过为了和VOC2007的数据集保持一致,还是做了重新命名,规则是六位数,最后面是序号,前面不够的话补零。
这个在python里面做的话就比较简单了,用5个零的字符串00000加上索引index,然后最后取末六个字符就可以了。
简单代码:

import osimport cv2import timeimport matplotlib.pyplot as plt#原图路径和保存图片的路径imgPath="C:\\Users\\zhxing\\Desktop\\VOCtrainval_06-Nov-2007\\VOCdevkit\\MyDate\\JPEGImages\\img\\"savePath="C:\\Users\\zhxing\\Desktop\\VOCtrainval_06-Nov-2007\\VOCdevkit\\MyDate\\JPEGImages\\"imgList=os.listdir(imgPath)for i in range(1,len(imgList)):
    img=cv2.imread(imgPath+imgList[i])
    str_tmp="000000"+str(i)
    cv2.imwrite(savePath+str_tmp[-6:]+".jpg",img)      #后六位命名print("done!!")

2.标记照片。

标记的话用软件:LabelImg。
链接:https://pan.baidu.com/s/15Tkwstfumzq8gn5Jb3Vj1Q    提取码:y1d2
使用方法也比较简单,首先在data文件夹下的txt文件下写上所有类别的名称,用英文。
然后打开软件,对每一张照片进行画框,贴标签,保存xml操作。

webp

结合快捷键其实很快:

A: prev imageD: next imageW:creat rectbox
ctrl+s: save xml

图像中有几个目标就标定几个目标,每个目标标签都需要指定,我的类别只有一类所以标记起来挺快的,大概一个小时左右就标记完成了。

3.用xml文件来生成.tfrecord文件。

这个是必须的,tensorflow版本的SSD代码需要使用 .tfrecord文件来做为训练文件(如果是自己写模型的话用矩阵也是可以的)。
需要提前新建tfrecords_文件夹
代码:
需要改的地方主要是各个文件夹以及每个 .tfrecord文件包含xml文件的个数,这个自己设置就好了,跑的非常之快,几秒钟就完事。

import osimport sysimport randomimport numpy as npimport tensorflow as tfimport xml.etree.ElementTree as ET  # 操作xml文件#labelsVOC_LABELS = {    'none': (0, 'Background'),    'DJI': (1, 'Product')
}#标签和图片所在的文件夹DIRECTORY_ANNOTATIONS = "Annotations\\"DIRECTORY_IMAGES = "JPEGImages\\"# 随机种子.RANDOM_SEED = 4242SAMPLES_PER_FILES = 10  # 每个.tfrecords文件包含几个.xml样本def int64_feature(value):
    if not isinstance(value, list):
        value = [value]    return tf.train.Feature(int64_list=tf.train.Int64List(value=value))def float_feature(value):
    if not isinstance(value, list):
        value = [value]    return tf.train.Feature(float_list=tf.train.FloatList(value=value))def bytes_feature(value):
    if not isinstance(value, list):
        value = [value]    return tf.train.Feature(bytes_list=tf.train.BytesList(value=value))# 图片处理def _process_image(directory, name):
    #读取照片
    filename = directory + DIRECTORY_IMAGES + name + '.jpg'
    image_data = tf.gfile.FastGFile(filename, 'rb').read()    #读取xml文件
    filename = os.path.join(directory, DIRECTORY_ANNOTATIONS, name + '.xml')
    tree = ET.parse(filename)
    root = tree.getroot()

    size = root.find('size')
    shape = [int(size.find('height').text),
             int(size.find('width').text),
             int(size.find('depth').text)]
    bboxes = []
    labels = []
    labels_text = []
    difficult = []
    truncated = []    for obj in root.findall('object'):
        label = obj.find('name').text
        labels.append(int(VOC_LABELS[label][0]))
        labels_text.append(label.encode('ascii'))  # 变为ascii格式

        if obj.find('difficult'):
            difficult.append(int(obj.find('difficult').text))        else:
            difficult.append(0)        if obj.find('truncated'):
            truncated.append(int(obj.find('truncated').text))        else:
            truncated.append(0)

        bbox = obj.find('bndbox')
        a = float(bbox.find('ymin').text) / shape[0]
        b = float(bbox.find('xmin').text) / shape[1]
        a1 = float(bbox.find('ymax').text) / shape[0]
        b1 = float(bbox.find('xmax').text) / shape[1]
        a_e = a1 - a

        b_e = b1 - b        if abs(a_e) < 1 and abs(b_e) < 1:
            bboxes.append((a, b, a1, b1))    return image_data, shape, bboxes, labels, labels_text, difficult, truncated# 转化样例def _convert_to_example(image_data, labels, labels_text, bboxes, shape,
                        difficult, truncated):
    xmin = []
    ymin = []
    xmax = []
    ymax = []    for b in bboxes:        assert len(b) == 4
        [l.append(point) for l, point in zip([ymin, xmin, ymax, xmax], b)]

    image_format = b'JPEG'
    example = tf.train.Example(features=tf.train.Features(feature={        'image/height': int64_feature(shape[0]),        'image/width': int64_feature(shape[1]),        'image/channels': int64_feature(shape[2]),        'image/shape': int64_feature(shape),        'image/object/bbox/xmin': float_feature(xmin),        'image/object/bbox/xmax': float_feature(xmax),        'image/object/bbox/ymin': float_feature(ymin),        'image/object/bbox/ymax': float_feature(ymax),        'image/object/bbox/label': int64_feature(labels),        'image/object/bbox/label_text': bytes_feature(labels_text),        'image/object/bbox/difficult': int64_feature(difficult),        'image/object/bbox/truncated': int64_feature(truncated),        'image/format': bytes_feature(image_format),        'image/encoded': bytes_feature(image_data)}))    return exampledef _add_to_tfrecord(dataset_dir, name, tfrecord_writer):
    image_data, shape, bboxes, labels, labels_text, difficult, truncated = \
        _process_image(dataset_dir, name)
    example = _convert_to_example(image_data, labels, labels_text,
                                  bboxes, shape, difficult, truncated)
    tfrecord_writer.write(example.SerializeToString())def _get_output_filename(output_dir, name, idx):
    return '%s/%s_%03d.tfrecord' % (output_dir, name, idx)def run(dataset_dir, output_dir, name='voc_2007_train', shuffling=False):
    if not tf.gfile.Exists(dataset_dir):
        tf.gfile.MakeDirs(dataset_dir)

    path = os.path.join(dataset_dir, DIRECTORY_ANNOTATIONS)
    filenames = sorted(os.listdir(path))  # 排序

    if shuffling:
        random.seed(RANDOM_SEED)
        random.shuffle(filenames)

    i = 0
    fidx = 0
    while i < len(filenames):        # Open new TFRecord file.
        tf_filename = _get_output_filename(output_dir, name, fidx)        with tf.python_io.TFRecordWriter(tf_filename) as tfrecord_writer:
            j = 0
            while i < len(filenames) and j < SAMPLES_PER_FILES:
                sys.stdout.write(' Converting image %d/%d \n' % (i + 1, len(filenames)))  # 终端打印,类似print
                sys.stdout.flush()  # 缓冲
                filename = filenames[i]
                img_name = filename[:-4]
                _add_to_tfrecord(dataset_dir, img_name, tfrecord_writer)
                i += 1
                j += 1
            fidx += 1
    print('\nFinished converting the Pascal VOC dataset!')# 原数据集路径,输出路径以及输出文件名,要根据自己实际做改动dataset_dir = "C:\\Users\\zhxing\\Desktop\\VOCtrainval_06-Nov-2007\\VOCdevkit\\MyDate\\"output_dir = "./tfrecords_"name = "voc_train"def main(_):
    run(dataset_dir, output_dir, name)if __name__ == '__main__':
    tf.app.run()

大概生成这样的文件就可以了:


webp



作者:和蔼的zhxing
链接:https://www.jianshu.com/p/78734e653d65
x


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP