软硬件环境
-
ubuntu 18.04 64bit -
anaconda with 3.7 -
nvidia gtx 1070Ti -
cuda 10.1 -
pytorch 1.5 -
YOLOv5
前言
YOLOv4还没有退热,YOLOv5就已经来了!
6月9日,Ultralytics公司开源了YOLOv5,离上一次YOLOv4发布不到50天,不过这一次的YOLOv5是基于PyTorch实现的,而不是之前版本的darknet!
根据官方给出的数字,YOLOv5的速度最快可以达到每秒140帧(FPS),但是权重文件只有YOLOv4的1/9,而且准确度更高。本次的发布的YOLOv5并不是一个单独的模型,而是一个模型家族,包括了YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,要求Python 3.7和PyTorch 1.5以上版本。
关于YOLOv5这个版本,大家可以看看知乎中的讨论,链接放在文末的参考资料中
安装GPU环境
请参考之前的文章
-
ubuntu安装cuda -
windows 10安装cuda和cudnn
安装pytorch的GPU版本
来到官网 https://pytorch.org/get-started/locally/,根据自己的环境,进行选择,网站会给出相应的安装命令。我这里的环境是linux、pip、cuda 10.1

conda create -n pytorch python=3.7conda activate pytorchpip install torch==1.5.0+cu101 torchvision==0.6.0+cu101 -f https://download.pytorch.org/whl/torch_stable.htmlpip install ipython
安装完pytorch后,我们在ipython中查看安装的结果
(pytorch) xugaoxiang@1070Ti:~/Works/github/yolov5$ ipythonPython 3.7.7 (default, May 7 2020, 21:25:33)Type 'copyright', 'credits' or 'license' for more informationIPython 7.15.0 -- An enhanced Interactive Python. Type '?' for help.In [1]: import torchIn [2]: torch.cuda.is_available()Out[2]: True
说明GPU版本的pytorch安装成功
YOLOv5测试
首先还是把源码clone到本地
git clone https://github.com/ultralytics/yolov5.gitpip install -U -r requirements.txt
接下来到站点https://drive.google.com/drive/folders/1Drs_Aiu7xx6S-ix95f9kNsA6ueKRpN2J或者CSDN下载频道下载权重文件,权重文件保存在weights文件夹下
下面就可以开始测试了
首先使用项目中自带的测试图片看看效果,命令是
python detect.py
默认情况下,脚本会去读取inference/images下的所有图片并进行目标检测,带有目标框的结果图片保存在inference/out下。如果是只检测某一张图片的话,可以执行命令python detect.py --source test.jpg


为了对比测试,我们把YOLO之前版本的测试图片也跑了一遍

上图中马匹的检出率跟YOLOv4是一样的,满意

上图中右上角的垃圾桶没有被检出,这点不及YOLOv4
detect.py脚本同样支持视频的检测,包括本地摄像头、本地视频文件、m3u8播放地址和rtsp实时流,地址都是跟在参数--source后面
本地摄像头使用下面的命令
python detect.py --source 0

python detect.py --source "rtsp://user:password@192.168.1.100:554/cam/realmonitor?channel=1&subtype=1"

可以看到,使用1070Ti显卡,fps在80左右
如果你有多块显卡,可以选择具体使用哪块显示进行检测,0表示第一块,1表示第二块,cpu表示不使用gpu
python detect.py --device 0
detect.py中的参数很多,可以使用python detect.py -h进行查看
(base) xugaoxiang@1070Ti:~/Works/github/yolov5$ python detect.py -husage: detect.py [-h] [--weights WEIGHTS] [--source SOURCE] [--output OUTPUT][--img-size IMG_SIZE] [--conf-thres CONF_THRES][--iou-thres IOU_THRES] [--fourcc FOURCC] [--device DEVICE][--view-img] [--save-txt] [--classes CLASSES [CLASSES ...]][--agnostic-nms] [--augment]optional arguments:-h, --help show this help message and exit--weights WEIGHTS model.pt path--source SOURCE source--output OUTPUT output folder--img-size IMG_SIZE inference size (pixels)--conf-thres CONF_THRESobject confidence threshold--iou-thres IOU_THRESIOU threshold for NMS--fourcc FOURCC output video codec (verify ffmpeg support)--device DEVICE cuda device, i.e. 0 or 0,1,2,3 or cpu--view-img display results--save-txt save results to *.txt--classes CLASSES [CLASSES ...]filter by class--agnostic-nms class-agnostic NMS--augment augmented inference
以上测试都是基于yolov5s.pt权重文件,其它的权重请自行测试,指定--weights参数
参考资料
-
https://github.com/ultralytics/yolov5 -
https://github.com/AlexeyAB/darknet -
https://www.zhihu.com/question/399884529
本文分享自微信公众号 - 迷途小书童的Note(Dev_Club)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。
来源:oschina
链接:https://my.oschina.net/u/4883419/blog/4832222