yolo

CentOS 6.5搭建SVN服务器

Deadly 提交于 2019-12-08 13:31:09
折腾了两天,试过各种方法,终于......勉强能用了 Apache那个还是有问题 通过网页访问 弹出 输入用户名 和 密码 依然登陆不进去。。。 先总结一下 centos6.5搭建svn服务器的步骤吧: 1. 安装svn yum install subversion 2. 创建svn版本库目录 mkdir –p /var/svn/svnrepos 3 创建版本库 svnadmin create /var/svn/svnrepos 4. 进入conf目录(该svn版本库配置文件) authz 是权限控制文件 passwd 是账号密码文件 svnserve.conf svn服务配置文件 5. 设置账号密码 vi passwd 在[users]块中添加用户名和密码,格式 账号=密码 如 yolo = yolo123 6. 设置权限 vi authz 在末尾添加如下代码: [/] yolo=rw 意思是版本库的根目录yolo对其有读写权限 7 修改svnserve.conf文件 vi svnserve.conf 在[general]下添加下面如下代码 anon-access= none #匿名用户不可用, 注意:若设为可读(read)会出现无法访问版本日志 auth-access= write #授权用户可写 password-db= passwd #使用哪个文件作为账号文件 authz

Fine-tuning and transfer learning by the example of YOLO

十年热恋 提交于 2019-12-08 03:15:22
问题 I have a general question regarding fine-tuning and transfer learning, which came up when I tried to figure out how to best get yolo to detect my custom object (being hands). I apologize for the long text possibily containing lots of false information. I would be glad if someone had the patience to read it and help me clear my confusion. After lots of googling, I learned that many people regard fine-tuning to be a sub-class of transfer learning while others believe that they are to different

How to correctly run Cuda toolkit in Ubuntu in the WSL (eventually to be used for YOLO)?

爱⌒轻易说出口 提交于 2019-12-07 12:33:57
问题 I followed the tutorial here from the Medium: https://medium.com/@GuruAtWork/setup-fastai-ubuntu-on-windows-10-44ca50b13a9 I was following it well until a MinGW was used for command lines. I am not sure how they went about doing this as the only way I could get nvcc to work is with sudo apt install nvidia-cuda-toolkit . However, this does not seem to complete the same thing as their tool kit is installed as if the exe was just run with Windows. However, that, of course, doesn't work with the

第十一讲--课时26--object detection

会有一股神秘感。 提交于 2019-12-06 18:43:32
图片中可能含有多个物体需要分类和定位,数量不确定 方案一 sliding windows 计算量太大,不被使用 方案二 region proposals regions是固定算法选择的,不经过学习。而且计算量还是大 fast R-CNN 选取region之后再投影到卷积层 fast R-CNN已经很快了,但是,对于test time,region proposals的时间限制了模型速度。 faster R-CNN 自己用网络去选取region(在卷积后的层上) ---------------------------------------------------------------------------------------------------------------------------------- YOLO/SSD(single shot detection) ##下图的对比已经不再绝对,YOLO已经很准确了## Dense Captioning 对每个bounding box进行image captioning ------------------------------------------------------------------------------------------------------------------------------

Python实现YOLO目标检测

跟風遠走 提交于 2019-12-05 18:18:06
作者:R语言和Python学堂 链接:https://www.jianshu.com/p/35cfc959b37c 1. 什么是目标检测? YOLO目标检测的一个示例 啥是目标检测? 拿上图 (用YOLOv3检测) 来说, 目标检测 (Object Detection) 就是将图片中的物体用一个个矩形框框出来,并且识别出每个框中的物体是啥,而且最好的话是能够将图片的所有物体都框出来。 再来看下YOLOv3在视频上的效果: 总之,目标检测本质上包含两个任务: 物体识别 和 物体定位 。 2. 目标检测技术的概述 目前,基于深度学习(deep learning)的目标检测技术效果是最好的,这些技术模型可以分成三类: R-CNN系列,包括R-CNN,Fast R-CNN,以及Faster R-CNN Single Shot Detector (SSD) You Only Look Once (YOLO)系列,其中YOLOv3是今天的主角 下面来简单说一下这些模型,SSD这里就不介绍了,感兴趣的话可自行去了解。 R-CNN系列 Faster R-CNN的基本原理 上图是Faster R-CNN模型的原理简图,技术细节可参考下面所提及的相关文章。 R-CNN系列的演化路径为:R-CNN → Fast R-CNN → Faster R-CNN R-CNN 是第一个基于深度学习的目标检测模型

【目标检测实战】目标检测实战之一--手把手教你LMDB格式数据集制作!

天大地大妈咪最大 提交于 2019-12-05 12:05:07
文章目录 1 目标检测简介 2 lmdb数据制作 2.1 VOC数据制作 2.2 lmdb文件生成 lmdb格式的数据是在使用caffe进行目标检测或分类时,使用的一种数据格式。这里我主要以目标检测为例讲解lmdb格式数据的制作。 1 目标检测简介 【1】 目标检测主要有两个任务: 判断图像中对象的类别 类别的位置 【2】 目标检测需要的数据: 训练所需的图像数据,可以是jpg、png等图片格式 图像数据对应的类别信息和类别框的位置信息。 2 lmdb数据制作 caffe一般使用lmdb格式的数据,在制作数据之前,我们需要对数据进行标注,可以使用labelImg对图像进行标注( https://github.com/tzutalin/labelImg ),这里就不多赘述数据标注的问题。总之,我们得到了图像的标注Annotations数据。lmdb数据制作,首先需要将annotations数据和图像数据制作为VOC格式,然后将其生成LMDB文件即可。下边是详细的步骤: 2.1 VOC数据制作 这里我以caffe环境的Mobilenet+YOLOv3模型的代码为例( https://github.com/eric612/MobileNet-YOLO ),进行lmdb数据制作,并且也假设你已经对其配置编译成功(如没成功,可以参考博文进行配置),所以我们的根目录为:caffe

You Only Look Once Unified, Real-Time Object Detection(你只需要看一次统一的,实时的目标检测)

萝らか妹 提交于 2019-12-05 07:00:33
我们提出了一种新的目标检测方法YOLO。先前的目标检测工作重新利用分类器来执行检测。相反,我们将目标检测作为一个回归问题来处理空间分离的边界框和相关的类概率。单个神经网络在一次评估中直接从完整图像预测包围盒和类概率。由于整个检测管道是一个单一的网络,因此可以直接对检测性能进行端到端的优化。 我们的统一架构速度非常快。我们的基本YOLO模型以每秒45帧的速度实时处理图像。另一个更小版本的网络Fast YOLO每秒处理155帧,同时仍然可以实现其他实时检测器的两倍。与最先进的检测系统相比,YOLO定位误差更大,但在背景下预测误报的可能性较小。最后,YOLO学习对象的一般表示。当从自然图像推广到其他领域(如艺术作品)时,它优于其他检测方法,包括DPM和R-CNN。 来源: https://www.cnblogs.com/2008nmj/p/11912332.html

基于CNN目标检测方法(RCNN,Fast-RCNN,Faster-RCNN,Mask-RCNN,YOLO,SSD)行人检测

十年热恋 提交于 2019-12-04 12:17:53
一、研究意义 卷积神经网络(CNN)由于其强大的特征提取能力,近年来被广泛用于计算机视觉领域。1998年Yann LeCun等提出的LeNet-5网络结构,该结构使得卷积神经网络可以端到端的训练,并应用于文档识别。LeNet-5结构是CNN最经典的网络结构,而后发展的卷积神经网络结构都是由此版本衍生而来。 在过去六年中,由于深度学习和卷积网络的发展和进步,基于图像的目标检测和分类能力已经大大提高。而目标检测是计算机视觉领域一个重要的研究方向,是众多高级任务的必备前提,包括场景理解,事件识别等。目前,目标检测也广泛用于安全监控,自动驾驶,人机交互,增强现实等众多领域。目标检测对计算机视觉和产业界实际应用都有十分重要的意义。 然而, 由于视角、遮挡、姿态等因素引起目标发生形变, 导致目标检测成为一个具有挑战性的任务。设计高准确率高效率的目标检测算法仍具有重大意义。 二、研究现状 如今, 基于卷积神经网络的目标检测已经超越传统目标检测方法, 成为当前目标检测的主流方法。本文根据卷积神经网络的使用方式,将基于卷积神经网络的目标检测分为两大类: 基于分类的卷积神经网络目标检测和基于回归的卷积神经网络目标检测。 1. 基于分类的卷积神经网络目标检测 基于分类的CNN也可以成为two-stage检测算法,传统目标检测方法包含预处理、窗口滑动、特 征提取、特征选择、特征分类、后处理等步骤

yolo系列阅读笔记(v1-v3)

只谈情不闲聊 提交于 2019-12-04 11:28:54
yolov1 模型输出的概率建模 图片首先被分割为S*S的网格(grid cell)。如果一个bbox的中心落在一个网格里,则该网格负责检测该物体。(对于pascal数据集,S定为7) 每个网格预测B个bbox及其confidence score,confidence定义为Pr(Object)∗IOU。 若该网格内没有物体,score应当是0;否则score被希望等于IOU(即如果网格不包含目标中心,则Pr(Object)=0,否则=1)。这个score反应了置信度,此处置信度是指模型预测的box是否真的包含目标(即第一项)以及模型自己认为box的准确度(即第二项)。 每个bbox包含5个预测值,分别为x,y,w,h和score。(x,y)坐标是box中心相对于网格边界(?),(w,h)是相对于整幅图像。score代预测box与真实值的iou。(iou不是能通过xywh直接算出来吗?) 每个cell同时还预测C个类别概率,即 \[ \begin{equation} \operatorname{Pr}\left(\text { Class }_{i} | \text { Object }\right) \end{equation} \] 根据条件概率公式,有: \[ \operatorname{Pr}\left(\text { Class }_{i} \text { |Object

Darknet YOLO image size

自闭症网瘾萝莉.ら 提交于 2019-12-04 04:46:53
I am trying to train custom object classifier in Darknet YOLO v2 https://pjreddie.com/darknet/yolo/ I gathered a dataset for images most of them are 6000 x 4000 px and some lower resolutions as well. Do I need to resize the images before training to be squared ? I found that the config uses: [net] batch=64 subdivisions=8 height=416 width=416 channels=3 momentum=0.9 decay=0.0005 angle=0 saturation = 1.5 exposure = 1.5 hue=.1 thats why I was wondering how to use it for different sizes of data sets. You don't have to resize it, because Darknet will do it instead of you! It means you really don't