Benchmark

荐读 Meta-Learning in Neural Networks: A survey

醉酒当歌 提交于 2020-04-20 00:27:30
0 前言 Meta Learning是深度学习领域近年来最火的研究方向之一,在这一两年内涌现出了大量的paper,可谓百花齐放!相信有很多想入坑的同学很想了解Meta Learning的整个研究概况及进展,却苦于找不到一篇好的综述。那么现在机会来了,最近来自爱丁堡大学的 Timothy M. Hospedales ​ homepages.inf.ed.ac.uk 老师主笔撰写了一篇非常全面有深度的综述: Meta-Learning in Neural Networks: A Survey ​ arxiv.org 在这篇综述里,作者对Meta Learning这个领域进行了全新系统性进行分类,并且充分分析了Meta Learning在不同应用上的研究进展。下面我们对这篇综述进行一定的解读,希望对感兴趣的朋友有帮助! 1 Meta Learning如何定义? Meta Learning,也称为Learning to Learn,即学会学习,顾名思义就是学会某种学习的技巧,从而在新的任务task上可以学的又快又好。这种学习的技巧我们可以称为Meta-knowledge。Meta Learning和传统的机器学习最大的不同便在于Meta Learning是task level的,即每一个task都可以认为是meta learning的样本。基于这样的定义,我们可以得到Meta

Pika `get` vs. `mget` Benchmark

佐手、 提交于 2020-04-19 08:39:30
0. Background System Info .. root@p1gd0g .PLTJ. OS: CentOS 6.9 Final <><><><> Kernel: x86_64 Linux 2.6.32-696.el6.x86_64 KKSSV' 4KKK LJ KKKL.'VSSKK Uptime: 31d 55m KKV' 4KKKKK LJ KKKKAL 'VKK Packages: 773 V' ' 'VKKKK LJ KKKKV' ' 'V Shell: bash 4.1.2 .4MA.' 'VKK LJ KKV' '.4Mb. Resolution: No X Server . KKKKKA.' 'V LJ V' '.4KKKKK . WM: Not Found .4D KKKKKKKA.'' LJ ''.4KKKKKKK FA. GTK Theme: Slider [GTK2], [GTK3] <QDD ++++++++++++ ++++++++++++ GFD> Disk: 13G / 193G (8%) 'VD KKKKKKKK'.. LJ ..'KKKKKKKK FV CPU: Intel Core (Haswell, IBRS) @ 2x 2.397GHz ' VKKKKK'. .4 LJ K. .'KKKKKV ' RAM: 2069MiB /

redis压力测试工具-----redis-benchmark

五迷三道 提交于 2020-04-18 11:41:23
redis做压测可以用自带的redis-benchmark工具,使用简单 压测命令: redis-benchmark -h 127.0.0.1 -p 6379 -c 50 -n 10000 压测需要一段时间,因为它需要依次压测多个命令的结果,如:get、set、incr、lpush等等,所以我们需要耐心等待,如果只需要压测某个命令,如:get,那么可以在以上的命令后加一个参数-t(红色部分): 1、redis-benchmark -h 127.0.0.1 -p 6086 -c 50 -n 10000 -t get C:\Program Files\Redis>redis-benchmark -h 127.0.0.1 -p 6379 -c 50 -n 10000 -t get ====== GET ====== 10000 requests completed in 0.16 seconds 50 parallel clients 3 bytes payload keep alive: 1 99.53% <= 1 milliseconds 100.00% <= 1 milliseconds 62893.08 requests per second 2、redis-benchmark -h 127.0.0.1 -p 6086 -c 50 -n 10000 -t set C:

论Qt容器与STL

心已入冬 提交于 2020-04-17 18:32:16
论Qt容器与STL https://zhuanlan.zhihu.com/p/24035468 编辑于 2017-02-27 相关阅读 推荐一篇比较全面的介绍QTL的文章: Understand the Qt containers @渡世白玉 对其做了大致的翻译,链接如下: [翻译]理解Qt容器:STL VS QTL(一)--特性总览 [翻译]理解Qt容器:STL VS QTL(二)--迭代器 [翻译]理解Qt容器:STL VS QTL(三)--类型系统 和其他处理 ============================ 定性分析 Qt的容器类具体分析可见官方文档: Container Classes 里面有关于时间复杂度、迭代器等各方面的概述和表格对比。 各个容器的具体实现,可以看代码,或者看容器类文档开头的详细介绍。 QTL比起STL的话,最大的特点是统一用了写时复制技术。缺点是不支持用户自定allocator。 在这里先简单类比下吧,具体数据可以看后面的benchmark QLinkedList —— std::list 两者都是双向链表,两者可以直接互转。 QVector —— std::vector 两者都是动态数组,都是根据sizeof(T)进行连续分配,保证成员内存连续,能够用data()直接取出指针作为c数组使用,两者可以直接互转。 QMap —— std:

PaddlePaddle/PaddleDetection

风格不统一 提交于 2020-04-17 03:42:32
【推荐阅读】微服务还能火多久?>>> English | 简体中文 PaddleDetection PaddleDetection的目的是为工业界和学术界提供丰富、易用的目标检测模型。不仅性能优越、易于部署,而且能够灵活的满足算法研究的需求。 目前检测库下模型均要求使用PaddlePaddle 1.7及以上版本或适当的develop版本。 简介 特性: 易部署: PaddleDetection的模型中使用的核心算子均通过C++或CUDA实现,同时基于PaddlePaddle的高性能推理引擎可以方便地部署在多种硬件平台上。 高灵活度: PaddleDetection通过模块化设计来解耦各个组件,基于配置文件可以轻松地搭建各种检测模型。 高性能: 基于PaddlePaddle框架的高性能内核,在模型训练速度、显存占用上有一定的优势。例如,YOLOv3的训练速度快于其他框架,在Tesla V100 16GB环境下,Mask-RCNN(ResNet50)可以单卡Batch Size可以达到4 (甚至到5)。 支持的模型结构: ResNet ResNet-vd 1 ResNeXt-vd SENet MobileNet HRNet Res2Net Faster R-CNN ✓ ✓ x ✓ ✗ ✗ ✗ Faster R-CNN + FPN ✓ ✓ ✓ ✓ ✗ ✓ ✓ Mask R-CNN ✓ ✓

覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME

烈酒焚心 提交于 2020-04-15 12:53:02
【推荐阅读】微服务还能火多久?>>> 自然语言权威数据集 GLUE 一直是衡量各机构 NLP 预训练技术水平最重要的指标之一。近年来在其榜单之上实现更好的成绩,也成为了科技公司技术提升的体现。不过现有的大多数 NLP 基准仅限于英文任务,无法评价 NLP 模型在其他语言上的能力。 机器之心报道,参与:泽南、蛋酱、杜伟。 近日,来自 CMU、谷歌研究院和 DeepMind 的科学家们提出了覆盖四十种语言的大规模多语言多任务基准 XTREME,希望一举解决这个问题。 自然语言处理(NLP)所面临的其中一个关键性挑战是,构建的系统不仅要在英文中 work,而且要在世界范围内约 6900 种语言中也 work。幸运的是,虽然大多数语言呈现数据稀疏(data sparse)且没有充足可用的数据来自行训练鲁棒的模型,但其中的很多语言共享大量的底层结构。 此外,NLP 领域有很多方法在训练过程中利用到了多语言的共享结构,以克服数据稀疏的问题。但不足的是,大多数这些方法侧重于在多语言中执行特定任务。近几年,得益于深度学习的进展,有更多的方法试图学习通用的多语言表示(如 mBERT、XLM 和 XLM-R),这些方法旨在捕获跨语言间共享且对多任务有用的知识。但在实践中,这类方法的评估却大多侧重于一小部分任务以及相似的语言。 因此,为了鼓励人们在多语言学习领域开展更多研究,谷歌研究院联合 CMU

Redis get vs. mget Benchmark

喜你入骨 提交于 2020-04-14 19:52:36
【推荐阅读】微服务还能火多久?>>> Redis get vs. mget Benchmark 0. Background Scripts #!/bin/bash key="testkey" value="testvalue" int=0 while (($int <= 1024)); do echo -e $key$int $value redis-cli set $key$int $value let "int++" done #!/bin/bash int=0 keys="" while (($int < 64)); do keys="$keys","'testkey$int'" let "int++" done redis-benchmark -n 100000 script load "redis.call('mget'$keys)" System Info [p1gd0g@p1gd0g-pc ~]$ screenfetch ██████████████████ ████████ p1gd0g@p1gd0g-pc ██████████████████ ████████ OS: Manjaro 19.0.2 Kyria ██████████████████ ████████ Kernel: x86_64 Linux 5.4.31-1-MANJARO ████████████

.NET Core 3.1 的REST 和gRPC 性能测试

强颜欢笑 提交于 2020-04-14 00:22:51
【今日推荐】:为什么一到面试就懵逼!>>> 看到越南小哥 的github 上的 Evaluating Performance of REST vs. gRPC , 使用的是.NET Core 3.0 , 今天我把它升级到.NET Core 3.1 同样做了一个测试,文章的结果和他的博客文章是一样的: https://dev.to/thangchung/performance-benchmark-grpc-vs-rest-in-net-core-3-preview-8-45ak 。 在8年前我写过一篇文章: WCF和ASP.NET Web API在应用上的选择 。 现在是2020年了,WCF换成了gRPC, ASP.NET Web API换成了ASP.NET Core Web API, 对外提供标准化的REST服务,内部通信采用gRPC的也是新时代的.NET应用程序的一个好选择,类似于Kubernetes 架构将有效负载格式用于传输协议的方式。 我们来看下.NET Core 3.1下REST和gRPC的性能表现怎么样? 从 https://github.com/geffzhang/RESTvsGRPC 下载代码。在测试机器上安装.NET Core 3.1。 REST API: cd RESTvsGRPC\RestAPI dotnet run -p RestAPI.csproj -c

使用mask scoring RCNN训练自己的数据集

半腔热情 提交于 2020-04-12 17:22:22
本文主要参考下面两篇博文,并在部分细节处做了修改。 https://blog.csdn.net/XX_123_1_RJ/article/details/102733175?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task https://blog.csdn.net/linolzhang/article/details/97833354 一、数据集准备 (训练集验证集测试集的数据分别准备) 1、标注数据集 大多数人会用labelme来标注数据集,然后用labelme将每张标注图片都生成一个json文件。labelme教程网上很多,这里不再赘述。 本人由于原图的标注目标很小,用labelme标注未免不精确,所以先用PS手动标注后再写代码把标注图转换成了labelme格式的json文件。 结果如图: 2、将这些json文件转换成coco格式 这一步我使用如下代码可成功转换。 # -*- coding:utf-8 -*- import os, sys import argparse import json import matplotlib.pyplot as plt import skimage.io as io from labelme

使用mask scoring RCNN训练自己的数据集

。_饼干妹妹 提交于 2020-04-12 17:07:45
本文主要参考下面两篇博文,并在部分细节处做了修改。 https://blog.csdn.net/XX_123_1_RJ/article/details/102733175?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task https://blog.csdn.net/linolzhang/article/details/97833354 一、数据集准备 (训练集验证集测试集的数据分别准备) 1、标注数据集 大多数人会用labelme来标注数据集,然后用labelme将每张标注图片都生成一个json文件。labelme教程网上很多,这里不再赘述。 本人由于原图的标注目标很小,用labelme标注未免不精确,所以先用PS手动标注后再写代码把标注图转换成了labelme格式的json文件。 结果如图: 2、将这些json文件转换成coco格式 这一步我使用如下代码可成功转换。 # -*- coding:utf-8 -*- import os, sys import argparse import json import matplotlib.pyplot as plt import skimage.io as io from labelme