ONNX

从TVMConf 2020看TVM的生态环境

我们两清 提交于 2020-12-16 12:08:36
田海立@CSDN 2020-12-13 TVM在每年12月初举办TVM Conference,今年的会议由于疫情于太平洋时间12/3~4在网上进行,不过由于时差并不利于亚太地区,估计国内在线观看者并不多,现在视频已经在官网( https://tvmconf.org/ )公开。本文不具体介绍内容,仅从参与的厂商有TVM的朋友圈看TVM的生态。 TVMConf 2020有这么几个 专题 :Tutorial / Keynote / Conference / Lightning Talk。 Tutorial 提前一天举行做一个基础的引导; Keynote 主题演讲。第一天上午集中进行简短介绍; Conference 是关键的专题报告,其中有两场Google与Microsoft的是邀请报告; Lightning Talk 是简短的几分钟报告 所以,看TVM的朋友圈,基本上从Conference和Lighting Talk上就基本上能看出来。 从官网拉一下并过滤出Conference的数据: 过滤出Lightning Talk的数据: 里面还有很多大学等研究机构,暂时不统计。可以看到出现在 朋友圈里的工业界 身影: 硬件/IP厂商 :Imagination / Synopsys / ARM / Xilinx / AMD / Bosch 手机soc :MTK / Qualcomm /

RuntimeError: Exporting the operator max_unpool2d to ONNX

…衆ロ難τιáo~ 提交于 2020-10-29 13:35:30
系统:Windows10 CUDA版本:8 9 10.1 10,2 运行平台:Pytorch Torch版本:1.6.0+cu101 报错描述:Pytorch无法导出SegNet到ONNX,不支持max_unpool2d 层,其实是支持的,这锅torch背,极度恶心。 torch.onnx.export(model, image, "DeepLabv3.onnx",export_params=True, verbose=True,operator_export_type=torch.onnx.OperatorExportTypes.ONNX_ATEN_FALLBACK) 来源: oschina 链接: https://my.oschina.net/VenusV/blog/4694113

Opencv DNN加载pytorch转换后的onnx模型

夙愿已清 提交于 2020-10-24 08:34:31
# -*- coding: utf-8 -*- """ Created on Sat Aug 15 01:10:42 2020 @author: LX """ import torch import torchvision import cv2 import onnx import numpy as np import matplotlib.pyplot as plt import timm import os print(torch.__version__) print(cv2.__version__) print(np.__version__) print(onnx.__version__) classes = None class_file = r"E:\ScientificComputing\opencv\sources\samples\data\dnn\classification_classes_ILSVRC2012.txt" with open(class_file, 'rt') as f: classes = f.read().rstrip('\n').split('\n') def init_model(model_name): if model_name=='alexnet': model = torchvision.models.alexnet

onnxruntime加载pytorch图像分类模型

自作多情 提交于 2020-10-24 07:31:53
从pytorch模型导出onnx模型,可以参考笔者的前一篇博文https://blog.csdn.net/ouening/article/details/109245243 使用netron查看onnx模型结构,如下图: 注意输入输出的名称name以及数据类型和维度type 程序 import numpy as np # we're going to use numpy to process input and output data import onnxruntime # to inference ONNX models, we use the ONNX Runtime import onnx from onnx import numpy_helper import urllib . request import json import time from imageio import imread import warnings warnings . filterwarnings ( 'ignore' ) # display images in notebook import matplotlib . pyplot as plt from PIL import Image , ImageDraw , ImageFont onnx_model = r "D:\Files

腾讯、TikTok回应美国禁令;iOS/iPadOS 14 出 Bug;GitHub CLI 1.0 发布|极客头条

若如初见. 提交于 2020-10-02 07:39:18
整理 | 郑丽媛 头图 | CSDN 下载自东方 IC 快来收听极客头条音频版吧,智能播报由出门问问「魔音工坊」提供技术支持。 「极客头条」—— 技术人员的新闻圈! CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。 一分钟速览新闻点! 蚂蚁集团科创板上市申请获批,上市又向前迈了一步 阿里游戏升级为独立事业群,俞永福复出 腾讯、TikTok回应美国禁令 旷视发布深度学习框架天元 1.0 预览版 爱立信 11 亿美元收购美国无线网络公司 Cradlepoint 苹果 Mac 版《堡垒之夜》将停止更新,Epic 开启退款 iOS/iPadOS 14 出 Bug :重启设备会重置邮件与浏览器设置 比尔·盖茨发声,反对美国对中国断供芯片:美国将失去高薪岗位! Oracle 开源 Java 机器学习库 Tribuo Thunderbird 78.2 正式加入对 OpenPGP 的支持 GitHub CLI 1.0 发布 国内要闻 蚂蚁集团科创板上市申请获批,上市又向前迈了一步 9月18日,上交所发布公告,同意蚂蚁集团科创板上市申请。此前,上交所于9月9日表示,科创板上市委将于9月18日召开2020年第77次审议会议,审议蚂蚁首发上会事宜。18日下午,审议结果公告,为“同意蚂蚁科技集团股份有限公司发行上市(首发)”。从递交上市招股书到过会

TensorRT:NvinferPlugin.h

北慕城南 提交于 2020-08-19 13:00:52
版本:5.1.5.0 include NvInfer.h NvInferPlugin.h NvCaffeParser.h NvOnnxConfig.h NvOnnxParser.h NvOnnxParserRuntime.h NvUffParser.h NvUtils.h 说明: 红色标记的:NvInfer.h, NvInferPlugin.h, NvUtils.h是公用的。其他用来支持:Caffe, Onnx和Uff(tensorflow) 功能: Nvidia官方提供的TRT插件的API 0:命名空间:nvidia + infer --- > nvinfer1 不变 namespace nvinfer1 1:枚举变量 Plugin类型 来源: oschina 链接: https://my.oschina.net/u/4352624/blog/4512300

Facebook 加入 Linux 基金会及其董事会

痴心易碎 提交于 2020-08-15 11:06:16
Linux 基金会 在官网宣布, Facebook 以白金级会员身份加入 Linux 基金会 及其董事会。目前AT&T、谷歌、华为、IBM、英特尔、微软、Oracle、腾讯, VMware 都是Linux基金会的白金会员。 Linux 基金会 会员分为白银级、黄金级和白金级,白金级即最高等级,每年需缴纳会费 50 万美元,同时拥有董事会席位。 Facebook 的开源团队负责人 Kathy Kam 成为董事会一员。 Kathy Kam 曾就职于谷歌和微软,拥有 20 年的工程师、产品管理,以及开发者关系领导经验。Linux 基金会表示 Facebook 是 Linux 内核开发的积极参与者,并参与Linux基金会下的众多开源项目如 Presto, GraphQL, Osquery 以及 ONNX项目,一直推动着开源生态的发展。 相关文件下载地址 本地直接下载 来源: oschina 链接: https://my.oschina.net/u/4387561/blog/4496645

腾讯优图开源深度学习推理框架TNN,助力AI开发降本增效

情到浓时终转凉″ 提交于 2020-08-13 18:46:32
从学界到工业界, “ 开源 ” 已经成为AI领域的一个关键词。一方面,它以 “ 授人以渔 ” 的方式为AI构建了一个开放共进的生态环境,帮助行业加速AI应用落地;另一方面,在解决行业实际问题时持续更新和迭代,源源不断地给AI领域输送重要的技术养料和创造力,可以说开源是AI落地和繁荣不可或缺的源动力。 6月1 0 日,腾讯优图实验室宣布正式开源新一代移动端深度学习推理框架 TNN ,通过底层技术优化实现在多个不同平台的轻量部署落地,性能优异、简单易用。基于TNN,开发者能够轻松将深度学习算法移植到手机端高效的执行,开发出人工智能 APP,真正将 AI 带到指尖。 轻量级部署,TNN助力深度学习提速增效 深度学习对算力的巨大需求一直制约着其更广泛的落地,尤其是在移动端,由于手机处理器性能弱、算力无法多机拓展、运算耗时长等因素常常导致发热和高功耗,直接影响到app等应用的用户体验。腾讯优图基于自身在深度学习方面的技术积累,并借鉴业内主流框架优点,推出了针对手机端的高性能、轻量级移动端推理框架TNN。 TNN在设计之初便将移动端高性能融入核心理念,对2017年开源的ncnn框架进行了重构升级。通过GPU深度调优、ARM SIMD深入汇编指令调优、低精度计算等技术手段,在性能上取得了进一步提升。以下是M NN, ncnn, TNN 框架在多款主流平台的实测性能: TNN 在麒麟9 70