Moco

假期思考题答案

杀马特。学长 韩版系。学妹 提交于 2021-02-10 16:23:05
昨天的文章 假期思考题 答案公布如下: 两个立方体六个面涂的数字分别是 012345 和 012678 ,其中 6 和 9 可以通过调转180°达到互通的目的。 FunTester , 腾讯云年度作者,优秀讲师 | 腾讯云+社区权威认证 ,非著名测试开发,欢迎关注。 2020年FunTester自我总结 如何测试概率型业务接口 测试模型中理解压力测试和负载测试 测试人员如何成为变革的推动者 成为优秀自动化测试工程师的7个步骤 自动化新手要避免的坑(上) 自动化新手要避免的坑(下) moco固定QPS接口升级补偿机制 性能测试如何减少本机误差 命令行如何执行jar包里面的方法 如何mock固定QPS的接口 点击阅读原文,查看公众号历史文章 本文分享自微信公众号 - FunTester(NuclearTester)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina.net/u/3973795/blog/4952040

JAVA 操作 properties 配置文件

怎甘沉沦 提交于 2020-12-26 06:45:29
一、properties配置文件简介      Java中有个比较重要的类Properties(Java.util.Properties),主要用于读取Java的配置文件,各种语言都有自己所支持的配置文件,配置文件中很多变量是经常改变的,这样做也是为了方便用户,让用户能够脱离程序本身去修改相关的变量设置。像Python支持的配置文件是.ini文件,同样,它也有自己读取配置文件的类ConfigParse,方便程序员或用户通过该类的方法来修改.ini配置文件。在Java中,其配置文件常为.properties文件,格式为文本文件,文件的内容的格式是“键=值”的格式,文本注释信息可以用"#"来注释。在properties文件中,可以用井号"#"来作注释:     userLocate=name>email passwordLocate=name>password btnLocate=classname>moco-btn-red      由于properties文件在Java中操作便利,因此编程中经常会用到。   二、Java的Properties类     属性映射(property map):是一种存储键/值对的数据结构。属性映射经常被用来存放配置信息。      它有三个特性:       1. 键和值都是字符串;       2. 键/值对可以很容易地写入文件或从文件读出;   

自动化接口测试(java)

偶尔善良 提交于 2020-12-24 02:35:28
githup地址:https://github.com/SailFan/autoTestMock 包结构: common包 ExtentTestNGIReporterListener.java 为测试报告的监听器 GeneratorSqlmap.java 为mybatis逆向工程的生成类, mybatis可以使用接口的方式直接调用, 也可以通过mapper映射文件(推荐使用), mybatis可以使用手写的方式手写maaper映射文件, 实体, 接口,(灵活, 要什么写什么) 也可以通过mybatis逆向工程的方式来生成mapper, entity, interface, 这样会更方便, 而且错误会更少, 缺少什么映射关系手动补上去就行。 HttpClientTool.java HttpClient工具封装类, 上传文件的post方法未测试, 其他方法测试已通过 MybatisUtil.java mybatis工具类, 用来获取mybatis的session工厂,获取session dao包 mapper的接口以及映射文件 entity包 实体类 loadurl包 里面是用来读取测试url的工具类, 其实可以放到coomon包的, 不过啦, 包不包的无所谓了,反正也懒得改了, 放哪儿都一样 moco包 其实在程序中更应该使用moco api方法的, 像我这种moco

OpenSelfSup: Open-MMLab自监督表征学习代码库

拥有回忆 提交于 2020-11-20 07:08:27
本文转载自知乎,已获作者 授权转载。 https://zhuanlan.zhihu.com/p/148782886 前言 自监督的表征学习领域近几个月来获得了显著的突破,特别是随着Rotation Prediction, DeepCluster, MoCo, SimCLR等简单有效的方法的诞生,大有超越有监督表征学习的趋势。 然而,相信做这个领域的研究者都深有感触: 1)自监督任务复杂而多样,不同方法各有各的专用训练代码,难以结合、复用和改进; 2)评价方案不统一,不同的方法难以在公平环境下对比; 3)动辄百万千万的训练数据量,训练效率是个大问题。 针对这些问题,我们(香港中文大学多媒体实验室和南洋理工大学)开源了一套统一的自监督学习代码库:OpenSelfSup, 链接如下: https://github.com/open-mmlab/OpenSelfSup OpenSelfSup 统一的代码框架和模块化设计 OpenSelfSup使用PyTorch实现,支持基于分类、重建、聚类、memory bank、contrastive learning的多种自监督学习框架, 目前收录了Relative Location, Rotation Prediction, DeepCluster, OnlineDeepCluster, NPID, MoCo, SimCLR

从自监督学习主流方法、最新工作进展,看未来前景研究方向

时间秒杀一切 提交于 2020-10-10 00:28:37
来源: 机器学习算法与自然语言处理 本文约 6000字 ,建议阅读 10分钟。 找到合适的辅助任务,对于自监督学习是最需要解决的问题。 本文作者来自东北大学,他通过整理自监督学习的一系列工作,把主流方法分成三大类,方便大家更全面的了解自监督学习的定义、方法、用途。 与此同时,文中也穿插着几大主流方法的最新工作进展,现在正在探索自监督学习未来前景研究方向的同学,也不妨借鉴一二,说不定能找到灵感哦~ 学习的范式 我们首先来回顾下机器学习中两种基本的学习范式,如图所示,一种是监督学习,一种是无监督学习。 监督学习与无监督学习[1] 监督学习利用大量的标注数据来训练模型,模型的预测和数据的真实标签产生损失后进行反向传播,通过不断的学习,最终可以获得识别新样本的能力。而无监督学习不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类相关的任务。有监督和无监督最主要的区别在于模型在训练时是否需要人工标注的标签信息。 无监督学习中被广泛采用的方式是自动编码器(autoencoder): 深度自编码器[6] 编码器将输入的样本映射到隐层向量,解码器将这个隐层向量映射回样本空间。我们期待网络的输入和输出可以保持一致(理想情况,无损重构),同时隐层向量的维度大大小于输入样本的维度,以此达到了降维的目的,利用学习到的隐层向量再进行聚类等任务时将更加的简单高效。 对于如何学习隐层向量的研究

一行命令跑评测,港中文MMLab开源自监督表征学习代码库

感情迁移 提交于 2020-10-09 05:10:42
   自监督表征学习发展迅速,但也存在诸多问题。近日,香港中文大学多媒体实验室(MMLab)和南洋理工大学的研究者开源了一套统一的自监督学习代码库 OpenSelfSup。    前言   近几个月来自监督表征学习领域获得了显著突破,特别是随着 Rotation Prediction、DeepCluster、MoCo、SimCLR 等简单有效的方法的诞生,自监督表征学习大有超越有监督表征学习的趋势。   然而,做这个领域的研究者都深有感触:1)自监督任务复杂而多样,不同方法各有各的专用训练代码,难以结合、复用和改进;2)评价方案不统一,不同的方法难以在公平环境下对比;3)动辄百万千万的训练数据量,训练效率是个大问题。   针对这些问题,香港中文大学多媒体实验室(MMLab)和南洋理工大学的研究者最近开源了一套统一的自监督学习代码库:OpenSelfSup。   开源地址: https://github.com/open-mmlab/OpenSelfSup    OpenSelfSup    统一的代码框架和模块化设计   OpenSelfSup 使用 PyTorch 实现,支持基于分类、重建、聚类、memory bank、contrastive learning 的多种自监督学习框架,目前收录了 Relative Location、Rotation Prediction

预训练还需要监督信息吗?一文了解无监督训练的优势

不羁岁月 提交于 2020-08-16 23:59:17
  机器之心报道    机器之心编辑部    随着 MoCo 的提出,无监督学习在计算机视觉领域已经取得了不错的效果,其在七项检测分割任务上完胜有监督预训练。这也引起众多研究者的思考:为什么不用标签的学习可以超越有标签的学习呢?近日,来自微软亚洲研究院和香港城市大学的一项研究对此作出了解答。      论文链接:https://arxiv.org/pdf/2006.06606.pdf   利用带有大量人工标注标签的数据集(ImageNet)进行预训练曾经是大多数视觉应用的标准做法。然而,随着 MoCo 在多项检测分割任务上完胜有监督预训练,成本高昂的人工标注似乎不再像以往那么重要。在微软亚洲研究院和香港城市大学的一项研究中,作者从 MoCo 预训练和目标检测的迁移出发,深入探讨了为什么无监督训练在迁移任务上更有优势?结合新的发现,是否有可能改进有监督的预训练?   MoCo 是一种通过区分不同实例 (instance discrimination)的 pretext task 进行无监督训练的方法。此类方法在训练时希望可以将当前实例的特征与其他实例拉开,同时拉近当前实例不同变换(比如裁剪和平移)的特征表示。    透过目标检测观察 MoCo    结论一:公平比较下,无监督的预训练超越有监督   首先,为了确认是否无监督学习在目标检测上存在绝对的优势

如何mock固定QPS的接口

怎甘沉沦 提交于 2020-08-09 20:13:13
在做接口测试的时候,经常会遇到一些接口去调用其他服务接口,或者调用第三方接口。在进行压测的时候就会遇到问题,因为很难隔离掉其他服务和第三方接口的性能变化情况,虽然单独维护一套压测环境可以解决服务调用的问题,但是这需要很多资源和精力投入,并不一定适合每个团队。至于第三方就更难掌握,能够提供一些性能数据就很不错了。 为此我们需要用到 mock 一个固定 QPS 的接口这样的功能。我的解决方案是基于 moco API ,利用本身提供的功能做一些尝试,很不幸失败了,在花费一个小时左右翻阅官方文档和实现Demo以及自己尝试发现这条路走不通。 只能无奈放弃,然后自己拓展这个功能了。采取的方案是 JDK 中的 Semaphore 类控制流量,然后通过创建自定义 ResponseHandler 来完成接口的限流,思路是拿到令牌的请求线程休眠一段时间再去释放令牌完成响应。 经过我的测试误差都在10%以内,如果是测试方案设计得好,误差应该是5%以内,这里有几条规律: 请求线程越多,误差越小 请求次数越多,误差越小 系统充分预热,误差越小 测试过程,改天录个视频给大家分享。 使用Demo HttpServer server = getServer(8088) server.get(urlOnly("/aaa")).response(qps(textRes("faun"), 10)) server

CVPR 2020丨码隆科技提出跨越时空的样本配对,解决深度度量学习痛点

纵然是瞬间 提交于 2020-08-09 11:07:52
     本文介绍的是 CVPR 2020 Oral 论文《Cross-Batch Memory for Embedding Learning》,作者来自码隆科技。本篇论文解读首发于“码隆播报”公众号。    作者 | 码隆科技    编辑 | 丛 末      论文地址:https://arxiv.org/abs/1912.06798   开源地址:https://github.com/MalongTech/research-xbm   本篇论文提出了 XBM 方法,能够用极小的代价,提供巨量的样本对,为 pair-based 的深度度量学习方法取得巨大的效果提升。这种提升难例挖掘效果的方式突破了过去两个传统思路:加权和聚类,并且效果也更加简单、直接,很好地解决了深度度量学习的痛点。XBM 在多个国际通用的图像搜索标准数据库上(比如 SOP、In-Shop 和 VehicleID 等),取得了目前最好的结果。    1    背景和动机   难例挖掘是深度度量学习领域中的核心问题,最近有颇多研究都通过改进采样或者加权方案来解决这一难题,目前主要两种思路:   第一种思路是在 mini-batch 内下功夫,对于 mini-batch 内的样本对,从各种角度去衡量其难度,然后给予难样本对更高权重,比如 N-pairs、Lifted Struture Loss、MS Loss

无需contrastive学习,微软亚研提出基于实例分类的无监督预训练方法

你说的曾经没有我的故事 提交于 2020-07-28 08:14:26
在本文中,微软亚洲研究院的研究员和实习生们提出了一个简单且高效的无监督预训练方法——参数化实例分类(PIC)。和目前最常用的非参数化对比学习方法不同,PIC 采用了类似于有监督图片分类的框架,将每个实例或图片看作一个独立的类别进行实例分类从而进行无监督学习。与 SimCLR 或 MoCo 这类方法相比,PIC 不需要处理潜在的信息泄漏问题,因此结构简单直观。研究者在实验中证明了 PIC 可以在 ImageNet 数据集中取得与这些非参数化对比学习方法相匹配的性能。 机器之心发布,机器之心编辑部。 论文地址: https:// arxiv.org/abs/2006.1461 8 面对着自然世界中越来越多的无标注数据,研究者们都希望找到一种正确的方式,从中学习对于视觉任务有帮助的特征,从而使得各类视觉任务能有进一步的突破,也使各类算法和模型能在实际生产环境中有更加充分的应用。最近的研究已经证明,在一些下游任务上,无监督的视觉特征学习可以取得与有监督学习同等甚至更高的迁移学习性能。 在本文中,微软亚洲研究院的研究员和实习生们提出了一个简单且高效的无监督预训练方法——参数化实例分类(Parametric Instance Classification,简称 PIC)。和目前最常用的非参数化对比学习方法不同,PIC 采用了类似于有监督图片分类的框架