opencl

An OpenCL code in MQL5 does not get distributed jobs to each GPU core

做~自己de王妃 提交于 2020-12-05 08:21:47
问题 I have created a GPU based indicator for MetaTrader Terminal platform, using OpenCL and MQL5. I have tried hard that my [ MetaTrader Terminal: Strategy Tester ] optimization job must get transferred on GPU to maximum. Most of the calculations are done by the indicator. Hence, I made changes in the indicator and has completely transferred on GPU. But the real issue arises when I try to go for optimization process in the strategy tester section. The process I see uses both my GPU and CPU but

clGetPlatformIDs Memory Leak

被刻印的时光 ゝ 提交于 2020-12-03 09:47:36
问题 I'm testing my code on Ubuntu 12.04 with NVIDIA hardware. No actual OpenCL processing takes place; but my initialization code is still running. This code calls clGetPlatformIDs. However, Valgrind is reporting a memory leak: ==2718== 8 bytes in 1 blocks are definitely lost in loss record 4 of 74 ==2718== at 0x4C2B6CD: malloc (in /usr/lib/valgrind/vgpreload_memcheck-amd64-linux.so) ==2718== by 0x509ECB6: ??? (in /usr/lib/nvidia-current/libOpenCL.so.1.0.0) ==2718== by 0x50A04E1: ??? (in /usr/lib

clGetPlatformIDs Memory Leak

喜夏-厌秋 提交于 2020-12-03 09:44:30
问题 I'm testing my code on Ubuntu 12.04 with NVIDIA hardware. No actual OpenCL processing takes place; but my initialization code is still running. This code calls clGetPlatformIDs. However, Valgrind is reporting a memory leak: ==2718== 8 bytes in 1 blocks are definitely lost in loss record 4 of 74 ==2718== at 0x4C2B6CD: malloc (in /usr/lib/valgrind/vgpreload_memcheck-amd64-linux.so) ==2718== by 0x509ECB6: ??? (in /usr/lib/nvidia-current/libOpenCL.so.1.0.0) ==2718== by 0x50A04E1: ??? (in /usr/lib

ARM高性能处理平台方案,RK3399方案

╄→尐↘猪︶ㄣ 提交于 2020-11-24 14:48:09
产品简介 GR3399金手指核心板基于瑞芯微(ROCKCHIP)的RK3399( 六核64位)芯片的产品平台。 GR3399开发平台采用国内优秀芯片厂商瑞芯微(ROCKCHIP)的六核64位“服务器级”处理器RK3399;RK3399使用了双“服务器级”核Cortex-A72 + 四核Cortex-A53的大小架构,主频高达2.0GHz,新的内核相比以前的A15/A17/A57核心设计可以提供高达100%的性能提升。 集成ARM Mali-T860 MP4图形处理器,支持OpenGL ES1.1/2.0/3.0/3.1,OpenVG1.1,OpenCL,Directx11,AFBC(帧缓冲压缩),如此强大的GPU可以应用到计算机视觉、机器学习、4K 3D渲染等许多实际应用中,更能支持H.265 HEVC和VP9、H.265编码,4K HDR。 拥有双MIPI-CSI接口和双ISP,PCIe,USB3.0,USB2.0,TypeC等丰富接口。 GR3399开发平台除了采用性能强大的RK3399外,还配备了2GB/4GB DDR3,8GB/16GB/32GB eMMC高速存储器,独立的电源管理系统,强大的网络扩展能力,丰富的显示接口,支持Android7.1,linux,debian等操作系统,性能和体验得到极致的发挥。 GR3399开发平台采用金手指形式核心板+底板方式设计

Docker 安装 detectron2

孤街浪徒 提交于 2020-11-18 20:29:23
系统环境:Ubuntu 16.04.4 安装流程 从 Docker 容器官网 pull 容器镜像文件: nvidia/cuda:10.1-cudnn7-devel $ docker pull nvidia/cuda:10.1-cudnn7-devel 10.1-cudnn7-devel: Pulling from nvidia/cuda 7ddbc47eeb70: Already exists c1bbdc448b72: Already exists 8c3b70e39044: Already exists 45d437916d57: Already exists d8f1569ddae6: Pull complete 85386706b020: Pull complete ee9b457b77d0: Pull complete be4f3343ecd3: Pull complete 30b4effda4fd: Pull complete b398e882f414: Pull complete Digest: sha256:557de4ba2cb674029ffb602bed8f748d44d59bb7db9daa746ea72a102406d3ec Status: Downloaded newer image for nvidia/cuda:10.1-cudnn7-devel

FPGA,你为什么这么牛?

孤街浪徒 提交于 2020-11-02 14:54:54
最近几年,FPGA这个概念越来越多地出现。 例如,比特币挖矿,就有使用基于FPGA的矿机。还有,之前微软表示,将在数据中心里,使用FPGA“代替”CPU,等等。 其实,对于专业人士来说,FPGA并不陌生,它一直都被广泛使用。但是,大部分人还不是太了解它,对它有很多疑问—— FPGA到底是什么?为什么要使用它? 相比 CPU、GPU、ASIC(专用芯片),FPGA有什么特点?…… 今天,带着这一系列的问题,我们一起来—— 揭秘FPGA 。 一、为什么使用 FPGA? 众所周知,通用处理器(CPU)的摩尔定律已入暮年,而机器学习和 Web 服务的规模却在指数级增长。 人们使用定制硬件来加速常见的计算任务,然而日新月异的行业又要求这些定制的硬件可被重新编程来执行新类型的计算任务。 FPGA 正是一种硬件可重构的体系结构。它的英文全称是 Field Programmable Gate Array,中文名是现场可编程门阵列。 FPGA常年来被用作专用芯片(ASIC)的小批量替代品,然而近年来在微软、百度等公司的数据中心大规模部署,以 同时提供强大的计算能力和足够的灵活性 。 不同体系结构性能和灵活性的比较 FPGA 为什么快? 「都是同行衬托得好」。 CPU、GPU 都属于冯·诺依曼结构,指令译码执行、共享内存。 FPGA 之所以比 CPU 甚至 GPU 能效高,本质上是无指令

为什么越来越多的数据中心使用 FPGA ?

别来无恙 提交于 2020-10-29 07:32:20
前几天我们推送了一篇文章: 采用FPGA加速的腾讯云是如何快速做基因测序的 ,可以看到包括腾讯、微软、百度等很多巨头数据中心都采用或者准备采用FPGA,那么为什么FPGA会逐渐被这些巨头所采用?我们找到一篇文章,以微软数据中心采用FPGA来做分析讲解。 原标题:如何评价微软在数据中心使用 FPGA 代替传统 CPU 的做法? 来源:知乎、AI科技评论 作者:李博杰 https://www.zhihu.com/question/24174597/answer/138717507 问题「用 FPGA 代替 CPU」中,这个「代替」的说法不准确。我们并不是不用 CPU 了,而是用 FPGA 加速适合它的计算任务,其他任务仍然在 CPU 上完成,让 FPGA 和 CPU 协同工作。 本回答将涵盖三个问题: 为什么使用 FPGA,相比 CPU、GPU、ASIC(专用芯片)有什么特点? 微软的 FPGA 部署在哪里?FPGA 之间、FPGA 与 CPU 之间是如何通信的? 未来 FPGA 在云计算平台中应充当怎样的角色?仅仅是像 GPU 一样的计算加速卡吗? 一、为什么使用 FPGA? 众所周知,通用处理器(CPU)的摩尔定律已入暮年,而机器学习和 Web 服务的规模却在指数级增长。 人们使用定制硬件来加速常见的计算任务,然而日新月异的行业又要求这些定制的硬件可被重新编程来执行新类型的计算任务

MNN默认优化

前提是你 提交于 2020-10-27 11:14:08
MNN是一个轻量级的深度神经网络推理引擎,在端侧加载深度神经网络模型进行推理预测。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。此外,IoT等场景下也有若干应用。 整体特点 轻量性 • 针对端侧设备特点深度定制和裁剪,无任何依赖,可以方便地部署到移动设备和各种嵌入式设备中。 • iOS平台:armv7+arm64静态库大小5MB左右,链接生成可执行文件增加大小620KB左右,metallib文件600KB左右。 • Android平台:so大小500KB左右,OpenCL库300KB左右,Vulkan库300KB左右。 通用性 • 支持Tensorflow、Caffe、ONNX等主流模型文件格式,支持CNN、RNN、GAN等常用网络。 • 支持 149 个TensorflowOp、47 个CaffeOp、74 个 ONNX Op;各计算设备支持的MNN Op数:CPU 110个,Metal 55个,OpenCL 29个,Vulkan 31个。 • 支持iOS 8.0+、Android 4.3+和具有POSIX接口的嵌入式设备。 • 支持异构设备混合计算,目前支持CPU和GPU,可以动态导入GPU Op插件,替代CPU Op的实现。 高性能 • 不依赖任何第三方计算库