代码运行
根据github所给指导一步一步进行,如果曾经下载好coco数据集,在data/config.py
108行以下修改数据集的目录,并且在run_coco_eval.py
16行修改验证集annotation文件的路径。
验证
有以下三种评估方式:
first
python eval.py --trained_model=weights/yolact_base_54_800000.pth
以上命令不使用coco数据集自带的模型评估COCOEval,而是使用自己定义的评估函数。
second
python eval.py --trained_model=weights/yolact_base_54_800000.pth --output_coco_json
python run_coco_eval.py
首先通过第一条命令生成’./results/bbox_detections.json’ and ‘./results/mask_detections.json’ 两个文件,第一个文件保存的是网络输出的预测框(坐标、类别及分数),然后通过第二条命令利用COCOEval来评估模型,可以看出和第一条命令的评估结果相差无几。
third
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --display
上述命令可以自定义分数阈值,凡是低于该阈值的都会被过滤,其次也可以选取前多少个作为要评估的输出。
处理图片
# 处理指定图片,通过plt显示结果
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=my_image.png
# 处理一张图片,结果存入另一张照片
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=input_image.png:output_image.png
#处理一个文件夹中所有图片
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --images=path/to/input/folder:path/to/output/folder
训练
根据指导下载好权重并放到weights/文件夹下。
# 默认batchsize是8,resnet101_backbone
python train.py --config=yolact_base_config
来源:CSDN
作者:Hanawh
链接:https://blog.csdn.net/qq_36530992/article/details/103969774