Keras/Tensorflow+python+yolo3训练自己的数据集

Keras/Tensorflow+python+yolo3训练自己的数据集代码:https://github.com/qqwweee/keras-yolo3修改yolov3.cfg文件:https://blog.csdn.net/lilai619/article/details/79695109本文介绍如何制作数据集、修改代码、不加载预权重从头跑自己的训练数据一、简单回顾一下yolo原理:   1、端到端,输入图像,一次性输出每个栅格预测的一种或多种物体   2、坐…

大家好,又见面了,我是你们的朋友全栈君。

代码:https://github.com/qqwweee/keras-yolo3

修改yolov3.cfg文件:https://blog.csdn.net/lilai619/article/details/79695109

写文章不易,转载请表明本文出处:https://blog.csdn.net/Patrick_Lxc/article/details/80615433

本文介绍如何制作数据修改代码不加载预权重从头跑自己的训练数据

一、简单回顾一下yolo原理:

    1、端到端,输入图像,一次性输出每个栅格预测的一种或多种物体

    2、坐标x,y代表了预测的bounding box的中心与栅格边界的相对值。

         坐标w,h代表了预测的bounding box的width、height相对于整幅图像(或者栅格)width,height的比例。

        Keras/Tensorflow+python+yolo3训练自己的数据集

    3、

每个格子可以预测B个bounding box,但是最终只选择只选择IOU最高的bounding box作为物体检测输出,即每个格子最多只预测出一个物体。当物体占画面比例较小,如图像中包含畜群或鸟群时,每个格子包含多个物体,但却只能检测出其中一个。

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文:
https://www.cnblogs.com/makefile/p/YOLOv3.html ©
康行天下
每个格子可以预测B个bounding box,但是最终只选择只选择IOU最高的bounding box作为物体检测输出,即每个格子最多只预测出一个物体。当物体占画面比例较小,如图像中包含畜群或鸟群时,每个格子包含多个物体,但却只能检测出其中一个

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文:
https://www.cnblogs.com/makefile/p/YOLOv3.html ©
康行天下
每个格子可以预测B个bounding box,但是最终只选择只选择IOU最高的bounding box作为物体检测输出,即每个格子最多只预测出一个物体。当物体占画面比例较小,如图像中包含畜群或鸟群时,每个格子包含多个物体,但却只能检测出其中一个。

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文:
https://www.cnblogs.com/makefile/p/YOLOv3.html ©
康行天下
每个格子可以预测B个bounding box,但是最终只选择只选择IOU最高的bounding box作为物体检测输出,

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文:
https://www.cnblogs.com/makefile/p/YOLOv3.html ©
康行天下

每个格子可以输出B个bounding box
Keras/Tensorflow+python+yolo3训练自己的数据集,但是最终只会输出IOU占比最高的bounding box   作为输出,所以, 一个格子只能预测一个类别。

    4、loss=i=0s2coordErr+iouErr+clsErr  

        考虑各项权重:λcoord = 5, λnoobj = 0.5。因为不包含物体的框较多,需要弱化对应的权重影响,不然会导致包含物体的框贡献低,训练不稳定甚至发散。

Keras/Tensorflow+python+yolo3训练自己的数据集

    5、如果想一个格子预测多个类别,需要Anchors. –yolo2

二、如何使用yolo3,训练自己的数据集进行目标检测

    第一步:下载VOC2007数据集,把所有文件夹里面的东西删除,保留所有文件夹的名字。

    像这样

Keras/Tensorflow+python+yolo3训练自己的数据集

    第二步:把你所有的图片都复制到JPEGImages里面

    像这样:

Keras/Tensorflow+python+yolo3训练自己的数据集

    第三步:生成Annotations下的文件

    工具:LabelImg ,链接:https://pan.baidu.com/s/1GJFYcFm5Zlb-c6tIJ2N4hw 密码:h0i5

    像这样:

Keras/Tensorflow+python+yolo3训练自己的数据集

    第四步:生成ImageSets/Main/4个文件。在VOC2007下建个文件test.py,然后运行

    像这样:

Keras/Tensorflow+python+yolo3训练自己的数据集

    test.py代码:

import os
import random

trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'Annotations' txtsavepath = 'ImageSets\Main' total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('ImageSets/Main/test.txt', 'w')
ftrain = open('ImageSets/Main/train.txt', 'w')
fval = open('ImageSets/Main/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'  if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

    第五步:生成yolo3所需的train.txt,val.txt,test.txt

    VOC2007数据集制作完成,但是,yolo3并不直接用这个数据集,开心么?

    需要的运行voc_annotation.py ,classes以三个颜色为例,你的数据集记得改

    Keras/Tensorflow+python+yolo3训练自己的数据集

    运行之后,会在主目录下多生成三个txt文件,

    像这样:

Keras/Tensorflow+python+yolo3训练自己的数据集Keras/Tensorflow+python+yolo3训练自己的数据集手动删除2007_,Keras/Tensorflow+python+yolo3训练自己的数据集

    第六步:修改参数文件yolo3.cfg

    注明一下,这个文件是用于转换官网下载的.weights文件用的。训练自己的网络并不需要去管他。详见readme

Keras/Tensorflow+python+yolo3训练自己的数据集

    IDE里直接打开cfg文件,ctrl+f搜 yolo, 总共会搜出3个含有yolo的地方,睁开你的卡姿兰大眼睛,3个yolo!!

    每个地方都要改3处,filters:3*(5+len(classes));

                                    classes: len(classes) = 3,这里以红、黄、蓝三个颜色为例

                                    random:原来是1,显存小改为0

    Keras/Tensorflow+python+yolo3训练自己的数据集

    第七步:修改model_data下的文件,放入你的类别,coco,voc这两个文件都需要修改。

    像这样:

   Keras/Tensorflow+python+yolo3训练自己的数据集Keras/Tensorflow+python+yolo3训练自己的数据集

    第八步:修改代码,准备训练。代码以yolo3模型为目标,tiny_yolo不考虑。

    为什么说这篇文章是从头开始训练?代码原作者在train.py做了两件事情:

    1、会加载预先对coco数据集已经训练完成的yolo3权重文件,

    像这样:Keras/Tensorflow+python+yolo3训练自己的数据集

    2、冻结了开始到最后倒数第N层(源代码为N=-2),

   像这样: Keras/Tensorflow+python+yolo3训练自己的数据集

   但是,你和我想训练的东西,coco里没有啊,所以,就干脆从头开始训练吧

    对train.py做了一下修改,直接复制替换原文件就可以了,细节大家自己看吧,直接运行,loss达到10几的时候效果就可以了

    train.py:

""" Retrain the YOLO model for your own dataset. """ import numpy as np
import keras.backend as K
from keras.layers import Input, Lambda
from keras.models import Model
from keras.callbacks import TensorBoard, ModelCheckpoint, EarlyStopping

from yolo3.model import preprocess_true_boxes, yolo_body, tiny_yolo_body, yolo_loss
from yolo3.utils import get_random_data


def _main():
    annotation_path = 'train.txt'  log_dir = 'logs/000/'  classes_path = 'model_data/voc_classes.txt'  anchors_path = 'model_data/yolo_anchors.txt'  class_names = get_classes(classes_path)
    anchors = get_anchors(anchors_path)
    input_shape = (416,416) # multiple of 32, hw  model = create_model(input_shape, anchors, len(class_names) )
    train(model, annotation_path, input_shape, anchors, len(class_names), log_dir=log_dir)

def train(model, annotation_path, input_shape, anchors, num_classes, log_dir='logs/'):  model.compile(optimizer='adam', loss={
 
   'yolo_loss': lambda y_true, y_pred: y_pred})
    logging = TensorBoard(log_dir=log_dir)
    checkpoint = ModelCheckpoint(log_dir + "ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5",
        monitor='val_loss', save_weights_only=True, save_best_only=True, period=1)
    batch_size = 10
    val_split = 0.1
    with open(annotation_path) as f:
        lines = f.readlines()
    np.random.shuffle(lines)
    num_val = int(len(lines)*val_split)
    num_train = len(lines) - num_val
    print('Train on {} samples, val on {} samples, with batch size {}.'.format(num_train, num_val, batch_size))

    model.fit_generator(data_generator_wrap(lines[:num_train], batch_size, input_shape, anchors, num_classes),
            steps_per_epoch=max(1, num_train//batch_size),
            validation_data=data_generator_wrap(lines[num_train:], batch_size, input_shape, anchors, num_classes),
            validation_steps=max(1, num_val//batch_size),
            epochs=500,
            initial_epoch=0)
    model.save_weights(log_dir + 'trained_weights.h5')  def get_classes(classes_path):  with open(classes_path) as f:
        class_names = f.readlines()
    class_names = [c.strip() for c in class_names]
    return class_names

def get_anchors(anchors_path):  with open(anchors_path) as f:
        anchors = f.readline()
    anchors = [float(x) for x in anchors.split(',')]
    return np.array(anchors).reshape(-1, 2)

def create_model(input_shape, anchors, num_classes, load_pretrained=False, freeze_body=False,
            weights_path='model_data/yolo_weights.h5'):  K.clear_session() # get a new session  image_input = Input(shape=(None, None, 3))
    h, w = input_shape
    num_anchors = len(anchors)
    y_true = [Input(shape=(h//{
 
 0:32, 1:16, 2:8}[l], w//{
 
 0:32, 1:16, 2:8}[l], \
        num_anchors//3, num_classes+5)) for l in range(3)]

    model_body = yolo_body(image_input, num_anchors//3, num_classes)
    print('Create YOLOv3 model with {} anchors and {} classes.'.format(num_anchors, num_classes))

    if load_pretrained:
        model_body.load_weights(weights_path, by_name=True, skip_mismatch=True)
        print('Load weights {}.'.format(weights_path))
        if freeze_body:
            # Do not freeze 3 output layers.  num = len(model_body.layers)-7
            for i in range(num): model_body.layers[i].trainable = False  print('Freeze the first {} layers of total {} layers.'.format(num, len(model_body.layers)))

    model_loss = Lambda(yolo_loss, output_shape=(1,), name='yolo_loss',
        arguments={
 
 'anchors': anchors, 'num_classes': num_classes, 'ignore_thresh': 0.5})(
        [*model_body.output, *y_true])
    model = Model([model_body.input, *y_true], model_loss)
    return model
def data_generator(annotation_lines, batch_size, input_shape, anchors, num_classes):  n = len(annotation_lines)
    np.random.shuffle(annotation_lines)
    i = 0
    while True:
        image_data = []
        box_data = []
        for b in range(batch_size):
            i %= n
            image, box = get_random_data(annotation_lines[i], input_shape, random=True)
            image_data.append(image)
            box_data.append(box)
            i += 1
        image_data = np.array(image_data)
        box_data = np.array(box_data)
        y_true = preprocess_true_boxes(box_data, input_shape, anchors, num_classes)
        yield [image_data, *y_true], np.zeros(batch_size)

def data_generator_wrap(annotation_lines, batch_size, input_shape, anchors, num_classes):
    n = len(annotation_lines)
    if n==0 or batch_size<=0: return None  return data_generator(annotation_lines, batch_size, input_shape, anchors, num_classes)

if __name__ == '__main__':
    _main()    

第九步:预测图片。修改了yolo.py下的预测图片的函数,将检测的图片都储存在了outdir里


''' def detect_img(yolo):  while True:  img = input('Input image filename:')  try:  image = Image.open(img)  except:  print('Open Error! Try again!')  continue  else:  r_image = yolo.detect_image(image)  r_image.show()  yolo.close_session() ''' import glob
def detect_img(yolo):
    path = "D:\VOCdevkit\VOC2007\JPEGImages\*.jpg"  outdir = "D:\\VOCdevkit\VOC2007\SegmentationClass"  for jpgfile in glob.glob(path):
        img = Image.open(jpgfile)
        img = yolo.detect_image(img)
        img.save(os.path.join(outdir, os.path.basename(jpgfile)))
    yolo.close_session()

最终效果图:红绿灯检测,100张图片作为训练集

    
Keras/Tensorflow+python+yolo3训练自己的数据集

    Keras/Tensorflow+python+yolo3训练自己的数据集

明天写yolo2和yolo3的具体原理。立牌坊。。。又开始打嗝了,醉了,一直打着嗝写完了这篇介绍,想起高中的时候,最长时间打嗝打了两天,想死。

    

分割—————————————–

网站禁止我给你评论回复了, 你看这,6.25回复:

先声明一下,quick start的步骤:
1、Download YOLOv3 weights from YOLO website.
2、Convert the Darknet YOLO model to a Keras model.(因为官网给出的是darknet的权重文件,所以需要转换成Keras需要的形式)
3、Run YOLO detection.
依次对应:
1、wget https://pjreddie.com/media/files/yolov3.weights
2、python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5
3、python yolo.py   OR   python yolo_video.py [video_path] [output_path(optional)]
理解以上的步骤之后,回答您的问题:
对于已经存在于coco数据集80个种类之中的一类,就不要自己训练了,官网权重训练的很好了已经;
对于不存在coco数据集的一种,无视convert.py, 无视.cfg文件,不要预加载官方权重,直接用我的train.py代码进行训练就可以了。你预加载官方权重,再去训练一个全新的物种,个人认为是浪费资源完全没意义的

   

    

    

   

    

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/148008.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • arm按键控制led灯闪烁(嵌入式按键实验报告)

    实验六键盘控制LED灯实验1实验目的(1)通过实验掌握中断式键盘控制与设计方法;(2)熟练编写S3C2410中断服务程序。2实验设备(1)S3C2410嵌入式开发板,JTAG仿真器。(2)软件:PC机操作系统WindowsXP,ADS1.2集成开发环境,仿真器驱动程序,超级终端通讯程序。3实验内容编写中断处理程序,处理一个键盘中断,并在串口打印中断及按键显示信息。4实验步骤(1)参照模板工程,新…

  • 噪声熵和损失熵的定义_归一化信噪比

    噪声熵和损失熵的定义_归一化信噪比利用K-L散度(相对熵)确定VMD分解信号的K值和惩罚因子alpha,得到一组信号分量;计算各个分量的样本熵,根据样本熵的值,选取出噪声主导分量和有效分量;对噪声主导信号进行非局部均值(NLM)去噪;将去噪后的信号分量与剩余的有效信号分量进行重构得到去噪信号。

  • 双因素身份认证系统的技术特点_mfa多因素认证

    双因素身份认证系统的技术特点_mfa多因素认证一般的状况下,用户通常使用的网络登录办法为:用户名称+密码。在密码为静态的状况下,将会产生某些问题,比如为了维护密码安全性,必须严格规定密码的长度、复杂性(例如:中英文数字夹杂,大小写间隔,长度须超过8个字符以上)及定期更换的频率。  用户为了方便记忆,常常习惯使用特殊的数字,例如家人的生日、自己的生日、身高体重、电话或门牌号码等,此种方法极不安全。  只要利用黑客工具,如字典攻击法等便能在短时间

    2022年10月24日
  • JQuery的安装与下载教程

    JQuery的安装与下载教程网页中添加jQuery可以通过多种方法在网页中添加jQuery。您可以使用以下方法:从jquery.com下载jQuery库 从CDN中载入jQuery,如从Google中加载jQuery下载jQuery有两个版本的jQuery可供下载:Productionversion-用于实际的网站中,已被精简和压缩。 Developmentversion-用于测试和开发(未压缩,是可读的代码)以上两个版本都可以从jquery.com中下载。…

  • 自动编码器重建图像及Python实现

    自动编码器重建图像及Python实现自动编码器简介自动编码器(一下简称AE)属于生成模型的一种,目前主流的生成模型有AE及其变种和生成对抗网络(GANs)及其变种。随着深度学习的出现,AE可以通过网络层堆叠形成深度自动编码器来实现数据降维。通过编码过程减少隐藏层中的单元数量,可以以分层的方式实现降维,在更深的隐藏层中获得更高级的特征,从而在解码过程中更好的重建数据。自动编码器原理自动编码器是通过无监督学习训练的神经网络,实际上…

  • 17 -Flask构建弹幕微电影网站- 电影播放及评论弹幕收藏实现

    17 -Flask构建弹幕微电影网站- 电影播放及评论弹幕收藏实现

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号