epoch

2020最新Java工程师面试题-ZooKeeper篇(附答案)

一个人想着一个人 提交于 2020-04-21 03:35:50
持续更新内容涵盖:Java、MyBatis、ZooKeeper、Dubbo、Elasticsearch、Memcached、Redis、MySQL、Spring、Spring Boot、Spring Cloud、RabbitMQ、Kafka、 Linux 等技术栈(滴滴滴.会持续更新哦,记得点赞、关注、分享三连击哈). 1. ZooKeeper 面试题? ZooKeeper 是一个开放源码的分布式协调服务,它是集群的管理者,监视着集群 中各个节点的状态根据节点提交的反馈进行下一步合理操作。 最终,将简单易用的接口和性能高效、功能稳定的系统提供给用户。 分布式应用程序可以基于 Zookeeper 实现诸如数据发布/订阅、负载均衡、命名 服务、分布式协调/通知、集群管理、Master 选举、分布式锁和分布式队列等功能. Zookeeper 保证了如下分布式一致性特性 : 1、顺序一致性 2、原子性 3、单一视图 4、可靠性 5、实时性(最终一致性) 客户端的读请求可以被集群中的任意一台机器处理, 如果读请求在节点上注册了 监听器,这个监听器也是由所连接的 zookeeper 机器来处理 。 对于写请求,这些 请求会同时发给其他 zookeeper 机器并且达成一致后,请求才会返回成功. 因此, 随着 zookeeper 的集群机器增多,读请求的吞吐会提高但是写请求的吞吐会下降。

mmdetection(一)安装及训练、测试VOC格式的数据

时间秒杀一切 提交于 2020-04-21 00:28:54
一、安装 https://github.com/open-mmlab/mmdetection/blob/master/docs/INSTALL.md 二、训练自己的数据  1、数据  mmdet的默认格式是coco的,这里就以voc格式为例,data下文件夹摆放位置如图 2、训练 (1)修改configs文件下的文件    可先复制一份,然后自己命名一下。比如retinanet_x101_64x4d_fpn_1x.py,修改的部分主要是dataset settings部分,这部分可直接参考 pascal_voc/faster_rcnn_r50_fpn_1x_voc0712.py(如下);还有一部分是修改该文件下的num_classes(类别数+1) # dataset settings dataset_type = ' VOCDataset ' data_root = ' data/VOCdevkit/ ' img_norm_cfg = dict( mean =[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375], to_rgb= True) train_pipeline = [ dict(type = ' LoadImageFromFile ' ), dict(type = ' LoadAnnotations ' ,

基于PaddlePaddle的强化学习算法DCGAN

喜欢而已 提交于 2020-04-20 18:23:10
简介 生成对抗网络(Generative Adversarial Network[1], 简称GAN) 是一种非监督学习的方式,通过让两个神经网络相互博弈的方法进行学习,该方法由lan Goodfellow等人在2014年提出。生成对抗网络由一个生成网络和一个判别网络组成,生成网络从潜在的空间(latent space)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能的分辨出来。而生成网络则尽可能的欺骗判别网络,两个网络相互对抗,不断调整参数。 生成对抗网络常用于生成以假乱真的图片。此外,该方法还被用于生成影片,三维物体模型等。 DCGAN是将CNN与GAN的一种结合。 其将卷积网络引入到生成式模型当中来做无监督的训练,利用卷积网络强大的特征提取能力来提高生成网络的学习效果,将GAN和卷积网络结合起来,可以解决GAN训练不稳定的问题,利用卷积神经网络作为网络结构进行图像生成,可以得到更加丰富的层次表达。DCGAN的贡献就在于:为CNN的网络拓扑结构设置了一系列的限制来使得它可以稳定的训练; 使用得到的特征表示来进行图像分类,得到比较好的效果来验证生成的图像特征表示的表达能力; 对GAN学习到的filter进行了定性的分析; 展示了生成的特征表示的向量计算特性。

基于PaddlePaddle的Attention Cluster 视频分类模型

烈酒焚心 提交于 2020-04-20 18:09:06
模型简介 Attention Cluster模型为ActivityNet Kinetics Challenge 2017中最佳序列模型。该模型通过带Shifting Opeation的Attention Clusters处理已抽取好的RGB、Flow、Audio特征数据,Attention Cluster结构如下图所示。 Shifting Operation通过对每一个attention单元的输出添加一个独立可学习的线性变换处理后进行L2-normalization,使得各attention单元倾向于学习特征的不同成分,从而让Attention Cluster能更好地学习不同分布的数据,提高整个网络的学习表征能力。 详细内容请参考 Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification 优秀解读博客 https://www.colabug.com/5709529.html 本例采用的是YouTube-8M 2018年更新之后的数据集。使用官方数据集,并将TFRecord文件转化为pickle文件以便PaddlePaddle使用。Youtube-8M数据集官方提供了frame-level和video-level的特征。本例挂靠的数据集为预处理后的数据集,

【论文学习1】Deep Learning with Differential Privacy

南楼画角 提交于 2020-04-20 14:39:56
0.ABSTRACT 本论文的主要创新点: we develop new algorithmic techniques for learning (提出一种新的学习算法技术) a refined analysis of privacy costs within the framework of differential privacy(用差分隐私的框架对隐私成本进行了准确的分析) 1.INTRODUCTION These are the availability of large and representative datasets for training neural networks. These datasets are often crowdsourced, and may contain sensitive information。(这些大的有代表性的数据集是用来训练神经网络的,这些数据集经常是众包并且包含很多敏感信息,可能会泄露隐私) previous work obtains strong results on convex models with smaller numbers of parameters , or treats complex neural networks but with a large privacy loss .

【tensorflow2.0】处理结构化数据-titanic生存预测

感情迁移 提交于 2020-04-18 14:41:24
1、准备数据 import numpy as np import pandas as pd import matplotlib.pyplot as plt import tensorflow as tf from tensorflow.keras import models,layers dftrain_raw = pd.read_csv( ' ./data/titanic/train.csv ' ) dftest_raw = pd.read_csv( ' ./data/titanic/test.csv ' ) dftrain_raw.head( 10) 部分数据: 相关字段说明: Survived:0代表死亡,1代表存活【y标签】 Pclass:乘客所持票类,有三种值(1,2,3) 【转换成onehot编码】 Name:乘客姓名 【舍去】 Sex:乘客性别 【转换成bool特征】 Age:乘客年龄(有缺失) 【数值特征,添加“年龄是否缺失”作为辅助特征】 SibSp:乘客兄弟姐妹/配偶的个数(整数值) 【数值特征】 Parch:乘客父母/孩子的个数(整数值)【数值特征】 Ticket:票号(字符串)【舍去】 Fare:乘客所持票的价格(浮点数,0-500不等) 【数值特征】 Cabin:乘客所在船舱(有缺失) 【添加“所在船舱是否缺失”作为辅助特征】 Embarked

TensorFlow自编码器(AutoEncoder)之MNIST实践

馋奶兔 提交于 2020-04-17 03:00:37
【推荐阅读】微服务还能火多久?>>> 自编码器可以用于降维,添加噪音学习也可以获得去噪的效果。 以下使用单隐层训练mnist数据集,并且共享了对称的权重参数。 模型本身不难,调试的过程中有几个需要注意的地方: 模型对权重参数初始值敏感,所以这里对权重参数w做了一些限制 需要对数据标准化 学习率设置合理(Adam,0.001) 1,建立模型 import numpy as np import tensorflow as tf class AutoEncoder(object): ''' 使用对称结构,解码器重用编码器的权重参数 ''' def __init__ (self, input_shape, h1_size, lr): tf.reset_default_graph() # 重置默认计算图,有时出错后内存还一团糟 with tf.variable_scope( ' auto_encoder ' , reuse= tf.AUTO_REUSE): self.W1 = self.weights(shape=(input_shape, h1_size), name= ' h1 ' ) self.b1 = self.bias(h1_size) self.W2 = tf.transpose(tf.get_variable( ' h1 ' )) # 共享参数,使用其转置 self.b2 =

PaddlePaddle/PGL

≡放荡痞女 提交于 2020-04-17 00:56:02
【推荐阅读】微服务还能火多久?>>> 文档 | 快速开始 | English Paddle Graph Learning (PGL)是一个基于 PaddlePaddle 的高效易用的图学习框架 在最新发布的PGL中引入了异构图的支持,新增MetaPath采样支持异构图表示学习,新增异构图Message Passing机制支持基于消息传递的异构图算法,利用新增的异构图接口,能轻松搭建前沿的异构图学习算法。而且,在最新发布的PGL中,同时也增加了分布式图存储以及一些分布式图学习训练算法,例如,分布式deep walk和分布式graphsage。结合PaddlePaddle深度学习框架,我们的框架基本能够覆盖大部分的图网络应用,包括图表示学习以及图神经网络。 特色:高效性——支持Scatter-Gather及LodTensor消息传递 对比于一般的模型,图神经网络模型最大的优势在于它利用了节点与节点之间连接的信息。但是,如何通过代码来实现建模这些节点连接十分的麻烦。PGL采用与 DGL 相似的 消息传递范式 用于作为构建图神经网络的接口。用于只需要简单的编写 send 还有 recv 函数就能够轻松的实现一个简单的GCN网络。如下图所示,首先,send函数被定义在节点之间的边上,用户自定义send函数 会把消息从源点发送到目标节点。然后,recv函数 负责将这些消息用汇聚函数 汇聚起来。

【目标分类_长尾分布问题】BBN:Bilateral-Branch Network _ CVPR2020

六眼飞鱼酱① 提交于 2020-04-12 17:03:43
文章目录 一、视觉任务数据的特征 二、现有文献是怎么解决这类问题的 二、本文做法 三、方法 四、实验结果 论文路径: http://www.weixiushen.com/publication/cvpr20_BBN.pdf 代码路径: https://github.com/Megvii-Nanjing/BBN 一、视觉任务数据的特征 机器视觉的代表数据集有很多,如 ImageNet ILSVRC 2012, MS COCO, Places Database等。这些数据集中的数据量是大致均匀分布的,但实际中,存在大量的长尾分布数据,也就是少数类别有大部分数据,而多数类别只有小部分数据,如图1所示。 这样的数据分布会使得网络嫩姨获得良好的识别效果,原因有两个: 其一是 data-hungry limitation of models 其二是长尾分布数据的极端不平衡问题。 二、现有文献是怎么解决这类问题的 现有的文献中,常用的解决这种极度不平衡的方法是: class re-balancing 策略,比如 re-weighting 或 re-sampling。 正面作用: 能够调整网络的训练,通过在小批量内对样本重新取样或对样本损失重新加权,期望更接近于测试的分布,因此,类别的 re-balancing 可以直接影响深层网络分类器权重的更新,从而促进分类器的学习。 负面作用: re

Tony老师解读Kaggle Twitter情感分析案例

≯℡__Kan透↙ 提交于 2020-04-11 17:08:21
今天Tony老师给大家带来的案例是Kaggle上的Twitter的情感分析竞赛。在这个案例中,将使用预训练的模型BERT来完成对整个竞赛的数据分析。 导入需要的库 import numpy as np import pandas as pd from math import ceil, floor import tensorflow as tf import tensorflow.keras.layers as L from tensorflow.keras.initializers import TruncatedNormal from sklearn import model_selection from transformers import BertConfig, TFBertPreTrainedModel, TFBertMainLayer from tokenizers import BertWordPieceTokenizer 读取并解释数据 在竞赛中,对数据的理解是非常关键的。因此我们首先要做的就是读取数据,然后查看数据的内容以及特点。 先用pandas来读取csv数据, train_df = pd.read_csv('train.csv') train_df.dropna(inplace=True) test_df = pd.read_csv('test.csv')