coco

​“非洲用户的付费意愿并不低”——专访四达时代研发总监张亮

雨燕双飞 提交于 2020-08-15 04:40:08
2018 年世界杯前, StarTimesOn App 在非洲正式上线,全程直播 32 个球队的 64 场比赛,获得了广泛的关注和大量用户。目前StarTimesOn App除了转播体育赛事,还有 140 多个国际顶级的直播频道,以及数万小时的影视剧内容。 然而在非洲的网络条件下,交付良好的视频播放体验绝非易事,所以这几年张亮的工作就是从各个角度探索问题的解决方案,以保障非洲地区的视频播放体验。 采访讲师: 张亮 ,四达时代研发总监,毕业于北京科技大学,拥有超过十年的视频处理与CDN行业经验,对视频关键技术和大型系统架构设计有较深入的理解,近几年专注于海外弱网下的视频播放体验优化。目前主要负责“StarTimes On视频基础平台”的建设与技术管理工作。 LiveVideoStack:请您简单为读者介绍一下“StarTimesOn视频基础平台”及其亮点。 张亮: StarTimesOn视频基础平台包含了视频处理、视频分发、用户请求调度、视频QoE与QoS分析四大模块,每一部分均为非洲的独特挑战量身定制。 说到亮点,首先应该是 0-RTT起播的特性 ,用户在播放视频之前无需与后台和CDN进行多次交互,而是直接下载视频内容开始播放,这个特点使用户免受高RTT带来的首屏时间较长问题。 在 视频处理 部分,我们针对非洲相对较差的网络环境,设计了针对性的转码算法和封装格式

Detectron2 入门 | 二

雨燕双飞 提交于 2020-08-15 04:20:41
作者|facebookresearch 编译|Flin 来源|Github Detectron2入门 本文档简要介绍了detectron2中内置命令行工具的用法。 有关涉及使用API​​进行实际编码的教程,请参阅我们的Colab Notebook( https://colab.research.google.com/drive/16jcaJoc6bCFAQ96jDe2HwtXj7BMD_-m5 ) ,其中涵盖了如何对现有模型进行推断,以及如何在自定义数据集上训练内置模型。 有关更高级的教程,请参阅我们的文档( https://detectron2.readthedocs.io/tutorials/extend.html )。 预训练模型的推理演示 从模型Zoo( https://github.com/facebookresearch/detectron2/blob/master/MODEL_ZOO.md ) 中选择一个模型及其配置文件 ,例如 mask_rcnn_R_50_FPN_3x.yaml 。 我们提供 demo.py 能够运行内置标准模型的工具。使用以下命令运行它: python demo/demo.py --config-file configs/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml \ --input

MyDLNote-Detection: DETR : End-to-End Object Detection with Transformers

喜你入骨 提交于 2020-08-14 08:52:20
End-to-End Object Detection with Transformers [paper] https://arxiv.org/pdf/2005.12872.pdf [github] https://github.com/facebookresearch/detr Abstract We present a new method that views object detection as a direct set prediction problem. 本文做了啥:提出了一种将目标检测看作直接集预测问题的新方法。 Our approach streamlines the detection pipeline, effectively removing the need for many hand-designed components like a non-maximum suppression procedure or anchor generation that explicitly encode our prior knowledge about the task. 本文工作的亮点:简化了检测流程,有效地消除了许多手工设计的组件的需求,比如一个非最大抑制程序或锚的生成,显式地编码了关于任务的先验知识。 The main ingredients of the

毕设日志(3.14)——SAR检测数据集问题

旧时模样 提交于 2020-08-14 01:01:03
做基于深度学习的目标检测问题需要数据集,网上的代码大多数是针对PASCAL VOC以及COCO数据集检测的,然而让我头大的是很难找到针对目标检测的SAR图像数据集。 导师一开始让我了解OpenSARship数据集,该数据集的文件结构如 该数据集并没有打回归框标签,更加适合做分类任务而做目标检测任务则需要自己制作类似VOC和COCO数据集。于是在很多博客上看了制作VOC和COCO数据集的方法。 在知乎文章《用于深度学习SAR图像舰船目标检测的数据集SSDD和SSDD+》中(文章链接https://zhuanlan.zhihu.com/p/58404659),了解到SSDD数据集正是满足需求的现成做SAR目标检测的数据集,并从该作者的另一篇文章《SAR图像舰船目标检测-我们应该做些什么》(文章链接https://zhuanlan.zhihu.com/p/104260766)介绍了其它可用于SAR目标检测的数据集 SAR-Ship-Dataset AIR-SARShip-1.0 ISSID 幸运的是,学长给了我这些数据集的压缩包。 数据集的获取算是初步搞定啦! 来源: oschina 链接: https://my.oschina.net/u/4304002/blog/4300155

CVPR2020夜间行人检测挑战赛两冠一亚:DeepBlueAI获胜方案解读

假如想象 提交于 2020-08-13 19:17:17
  机器之心专栏    作者:罗志鹏(深兰北京AI研发中心)    来自深兰科技北京 AI 研发中心的 DeepBlueAI 团队在 CVPR 2020 夜间行人检测挑战赛中斩落了两个冠军、一个亚军。本文将介绍该团队的解决方案。   近日,由 CVPR 2020 Workshop 举办的 NightOwls Detection Challenge 公布了最终结果。来自深兰科技北京 AI 研发中心的 DeepBlueAI 团队斩获了「单帧行人检测」和「多帧行人检测」两个赛道的冠军,以及「检测单帧中所有物体」赛道的亚军。         本文将为大家介绍 DeepBlueAI 团队的解决方案。    NightOwls 检测挑战赛简介   检测 RGB 摄像机拍摄的夜间场景图片中的行人,是一个非常重要但是未被充分重视的问题,当前最新的视觉检测算法并不能很好地预测出结果。官方 baseline 在 Caltech(著名行人检测数据集)上的 Miss Rate(越小越好)可以达到 7.36%,但在夜间行人数据集上却只能达到 63.99%。   夜间行人检测是许多系统(如安全可靠的自动驾驶汽车)的关键组成部分,但使用计算机视觉方法解决夜间场景的检测问题并未受到太多关注,因此 CVPR 2020 Scalability in Autonomous Driving Workshop

使用pytorch训练自己的Faster-RCNN目标检测模型

谁都会走 提交于 2020-08-13 18:36:01
参考了Mask-RCNN实例分割模型的训练教程: pytorch官方的Mask-RCNN实例分割模型训练教程: TORCHVISION OBJECT DETECTION FINETUNING TUTORIAL 官方Mask-RCNN训练教程的中文翻译: 手把手教你训练自己的Mask R-CNN图像实例分割模型(PyTorch官方教程) 在Mask-RCNN实例分割模型训练的基础上稍作修改即可实现Faster-RCNN目标检测模型的训练 相关网页: torchvision自带的图像分类、语义分割、目标检测、实例分割、关键点检测、视频分类模型: TORCHVISION.MODELS torchvision Github项目地址: https://github.com/pytorch/vision 1. 准备工作 除了需要安装pytorch和torchvision外,还需要安装COCO的API pycocotools windows系统安装pycocotools的方法: Windows下安装pycocotools 导入相关包和模块: import torch import os import numpy as np import cv2 import matplotlib.pyplot as plt from torchvision import datasets, transforms

华为云到底用AI做了什么?从少坐一趟机场摆渡车谈起

让人想犯罪 __ 提交于 2020-08-13 03:24:48
  机器之心原创    作者:张倩    「Everyone’s talking about AI. Huawei is making it happen.」   你坐飞机的时候有没有想过一个问题:「为什么我坐的飞机总是不靠廊桥,还要拿着行李去挤摆渡车?」      通常,相关人员会告诉你:廊桥资源比较珍贵,因此飞机靠桥的几率要低于停在远机位的几率。   其实,这个答案只说出了一部分原因。   随着机场航班数量的不断增加,「靠桥率」成为了衡量机场运行管理水平 的重要指标。要在这个指标上有所提高,除了改善硬件之外,「调度」也是一个突破口。   在国内,深圳机场率先找准了这个「突破口」。   深圳机场的廊桥机位与远机位的比例为 1:3。按照这个比例,很大一部分乘客都需要乘坐摆渡车。那么,如何让更多的航班停靠在廊桥呢?深圳机场给出的解决方案是:AI 智能调度。   在 2018 年之前,深圳机场使用的调度方案主要是人工和系统配合的,每天 1000 多个航班的机位分配需要花掉 4 个小时。从 2018 年 11 月开始,深圳机场开始建设机位资源智能分配系统,2019 年正式上线。该系统将靠桥率提升了 10 个百分点,每个廊桥每天能多保障一个航班,一年之内为 400 万旅客省去了坐摆渡车的麻烦。同时,它还将机位分配的时间缩短为 1 分钟。   在刚刚结束的华为云 TechWave

YOLOv5是真的吗?并不比YOLOv4强,不配这个名字

女生的网名这么多〃 提交于 2020-08-12 15:36:16
   YOLOv4 发布不到 2 个月,一个名叫 YOLOv5 的目标检测框架横空出世,但它真的够格继承 YOLO 之名并沿用社区公认的版本号吗?工程师 Ritesh Kanjee 近日在 Medium 上通过事实与社区观点对此给出了否定答案,并批评了这种「欺世盗名」的行为。      2020 年 4 月 23 日,YOLOv4 发布……   2020 年 6 月 10 日,YOLOv5 又来了……   是不是超厉害?这不正表明我们的研究和科技发展速度超快吗?毕竟这个广受欢迎的目标检测框架的新一代 v4 版本刚发布不久,下一代 v5 版本就横空出世了。YOLOv5 真的这么厉害以至于自成一代?还是说仅仅是个噱头?本文将尽可能客观地研究其中一些相关证据,看看 YOLOv5 究竟是否名副其实?      来自:https://github.com/ultralytics/yolov5   首先简单介绍一下 YOLO。YOLO 是一个实时目标检测框架,其意思是 You Only Look Once(你只看一次)。也就是说待检测的目标图像仅会通过全卷积神经网络(FCNN)一次。碍于篇幅,本文不会介绍 YOLO 的技术细节,感兴趣的读者可参阅机器之心的文章《教程 | 单级式目标检测方法概述:YOLO 与 SSD》及《YOLO v4 它来了:接棒者出现,速度效果双提升》。    事件回顾  

深度残差网络(Deep residual network, ResNet)

让人想犯罪 __ 提交于 2020-08-11 19:49:37
@ 目录 一、前言 二、深度网络的退化问题 三、残差学习 3.1 残差网络原理 3.2 ResNet结构为什么可以解决深度网络退化问题? 3.3 残差单元 3.4 ResNet的网络结构 四、实验结果 ResNet-50 完整代码 参考资料: 一、前言 深度残差网络(Deep residual network, ResNet)的提出是CNN图像史上的一件里程碑事件,让我们先看一下ResNet在ILSVRC和COCO 2015上的战绩: ResNet取得了5项第一,并又一次刷新了CNN模型在ImageNet上的历史, ImageNet分类Top-5误差: 那么ResNet为什么会有如此优异的表现呢?其实ResNet是解决了深度CNN模型难训练的问题,从图2中可以看到14年的VGG才19层,而15年的ResNet多达152层,这在网络深度完全不是一个量级上,所以如果是第一眼看这个图的话,肯定会觉得ResNet是靠深度取胜。事实当然是这样,但是ResNet还有架构上的技巧,这才使得网络的深度发挥出作用,这个技巧就是残差学习(Residual learning)。 论文名称:Deep Residual Learning for Image Recognition 论文作者:Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun 论文地址:

做目标检测,这6篇就够了:CVPR 2020目标检测论文盘点

≯℡__Kan透↙ 提交于 2020-08-11 19:15:22
CVPR 2020 会议上,有哪些目标检测论文值得关注? 选自heartbeat,作者:Derrick Mwiti,机器之心编译,参与:陈萍。 目标检测是计算机视觉中的经典问题之一。凭借大量可用数据、更快的 GPU 和更好的算法,现在我们可以轻松训练计算机以高精度检测出图像中的多个对象。 前不久结束的 CVPR 2020 会议在推动目标检测领域发展方面做出了一些贡献,本文就为大家推荐其中 6 篇有价值的目标检测论文。 论文清单 A Hierarchical Graph Network for 3D Object Detection on Point Clouds HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud Camouflaged Object Detection Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector D2Det: Towards High-Quality Object Detection and Instance Segmentation 1. A