网络结构

graph embedding ֮ struc2vec

匿名 (未验证) 提交于 2019-12-03 00:11:01
在现实的网络中,构成网络的每个节点可能在网络中担任着某种角色。比如社交网络中,经常可以看见一些关注量很高的大V。两个大V在网络中的角色可能相同,因为他们都有很高的关注量;而大V与普通人(仅有几个关注)在网络中的角色则是不同的,这就是所谓的某个节点的结构身份(structural identity)。 常见的一些可以决定某个节点的结构身份的方法有两种。一种是基于距离的方式,通过邻居信息计算每个节点对之间的距离,然后通过聚类、匹配的方式来将结构相似的节点放到一起。另一种是基于递归的方式,就是通过递归的方式将所有邻居的信息聚合得到一个值,根据这个值决定是否是结构相似的。 之前的很多网络表示的工作的思路是利用邻居作为上下文。如果两个节点的共同邻居越多,那么表示这两个节点越相似,自然就要减小他们在嵌入空间中的距离。但是这种方法无法鉴别结构相似但是距离非常远的节点对,换句话说某些节点有着类似的拓扑结构,但是它们离得太远,不可能有共同邻居(就比如下图的u和v)。这种情况是之前很多工作没有考虑到的点。 DeepWalk或node2vec这一类的方法在判断节点的结构是否等价的分类任务上往往并不能取得好的效果。其根本原因在于网络中的节点具有同质性(homohily),即两个节点有边相连是因为它们有着某种十分相似的特征。因此在网络中相距比较近的节点在嵌入空间也比较近,因为他们有着共同的特征

2019-2020-1学期 20192419 《网络空间安全专业导论》第四周学习总结 (读书笔记)

让人想犯罪 __ 提交于 2019-12-02 23:54:40
第八章抽象数据类型与子程序 8.1 抽象数据类型 抽象数据类型 是属性(数据和操作)明确地与特定实现分离的容器。 应用层是特定问题中的数据的视图。逻辑层是数据值和处理它们的操作的抽象视图。实现层明确表示出了存放数据项的结构,并用程序设计语言对数据的操作进行编码。这一层涉及了 数据结构 ,即一种抽象数据类型中的复合数据域的实现。 容器:存放和操作其他对象的对象。 8.2 栈 栈和队列是抽象复合结构。 栈:一种抽象复合结构,只能从一端访问栈中的元素。可以在第一个位置插入元素,也可以删除第一个元素。 会计师称它为LIFO,即后进先出的缩写。另一种描述栈的访问行为的说法是删除的项总是在栈中时间最短的项目。 8.3 队列 队列也是种抽象结构,队列中的项目从一端入,从另一端出。会计师称为 FIFO,即先进先出的缩写。另一种描述队列的访问行为的说法是删除的总是在队列中时间最长的项目。 8.4 列表 列表有三个属性特性:项目是同构的,项目是线性的,列表是变长的。 线性 :每个项目除了第一个都有一个独特的组成部分在它之前,除了最后一个也都有一个独特的组成部分在它之后。 列表通常提供插入一个项目的操作、删除一个项目的操作、检索一个项目是否存放以及报告列表中项目数量。 *不要把列表误认为是数组,数组是内嵌结构,列表是抽象结构。然而列表应用于数组中。 列表也可以被形象化为 链式结构

HRNet网络结构

匿名 (未验证) 提交于 2019-12-02 23:48:02
最近正在阅读CVPR2019的论文 Deep High-Resolution Representation Learning for Human Pose Estimation 。 无奈看论文中的Network instantiation部分太过简略,在网上也没有搜索到一个非常清晰的图示。 无法完全清晰地了解网络结构,始终觉得论文读的比较虚浮,因此先去看了ResNet,再读了 https://github.com/leoxiaobin/deep-high-resolution-net.pytorch 的开源代码(主要是lib/models/pose_resnet.py,网络参数参考的是lib/config/models.py),才算是有一个比较清晰的认知。 我自己将网络结构手画了下来,首先是整体结构: 其次是对每一模块的详细图示:

2019-2020-1学期 20192426 《网络空间安全导论》第四周学习总结

匆匆过客 提交于 2019-12-02 23:47:42
第八章 抽象数据类型与子程序 8.1 抽象数据类型 抽象数据类型(Abstract Data Type,ADT) :属性(数据和操作)明确地与特定实现分离的容器。 容器(container) :存放和操作其他对象的对象。 设计的目标是通过抽象减小复杂度。 在计算领域,可以从应用层、逻辑层和实现层这三个方面观察数据。 实现层涉及了数据结构。 数据结构(data structure) :一种抽象数据类型中的复合数据域的实现。 8.2 栈 栈是一种抽象复合结构,只能从一端访问栈中的元素。可以在第一个位置插入元素,也可以删除第一个元素。 Push(推进) :插入操作 Pop(弹出) :删除操作 栈没有长度属性,所以没有返回栈中项目个数的操作。 8.3 队列 队列也是一种抽象结构,队列中的项目从一端入,从另一端出。插入操作在队列的rear(尾部)进行,删除操作在队列的front(头部)进行。 Enqueue、Enque、Enq、Enter 和 Insert 都可以表示插入操作。 Dequeue、Deque、Deq、Delete 和 Remove 都可以表示删除操作。 8.4 列表 列表有三个属性特征:项目是同构的,项目是同构的,项目是线性的,列表是变长的。 线性:每个项目除了第一个都有一个独特的组成部分在它之前,除了最后一个也都有一个独特的组成部分在它之后。 不要把列表误认为是数组

卷积网络之-----AlexNet网络结构

怎甘沉沦 提交于 2019-12-02 19:26:24
  AlexNet网络是由5个卷积层和3个全连接层构成 下面这个是一个平面图,可能会更好看一些: 1 2 3 4 5 6 7 8 9 10 11 一、 字母解析: 1、s:(stride)步伐的意思,表示每次跨几个像素点   (例:s = 1则表示第一次最左上角取(1,1)这个点,往后走两步,下一次的左上角取(1,3)这个点) 2、pad:(padding)补充的意思,就是在原来图片的基础上在外面补充几行(列)   (例:pad = 2,则表示在原来图片的基础上两边补两列,上下分别补两行,补的数据全部为0) 3、f:(filter)过滤器的意思,在池化的时候会用到   (例: f = 3,表示这个过滤器为3*3大小,在AlexNet中采取最大池化,所以就会将3*3区域内的数据取最大值替代该区域) 4、pooling:池化 5、FC:全连接 二、过程解析: 1、卷积过程,用96个11*11大小的卷积核去卷积该数据,所以卷积完应该有96张特征图,每张特征图的大小为55*55((227-11)/4+7=55),使用ReLu作为激活函数 2、降采样,也称池化,采用最大池化方式(PM),因为过滤器为3*3,没有进行补充,所以最后池化完的大小为27*27((55-3)/2+1=27) 3、卷积过程,共有256个卷积核,所以卷积完后共有256个特征图,卷积核大小为5*5,步伐为1,补充2行和2列

计算机网络-第五章

我只是一个虾纸丫 提交于 2019-12-02 05:36:17
OSI 模型有7 个功能层,从下向上第四层是(D) A. 物理层B. 会话层C. 网络层 D. 传输层 OSI模型有7个功能层,从下到上依次是:物理层、数据链路层、网络层、传输层、会话层、表示层、应用层。 TCP/IP有5个功能层,从下到上依次是:物理层/主机接口层、网络接口层、互联网络层、传输层、应用层。 计算机网络是计算机技术与( C )相结合的产物。 A. 电话B. 线路c. 各种协议D . 通信技术 OSI 参考模型中网络层的功能主要是由网络设备(D)来实现的。 A. 网关B . 网卡C. 网桥D. 路由器 网络层是OSI参考模型中的第三层, 它建立在数据链路层所提供的两个相邻端点之间的数据帧的传送功能之上,将数据从源端经过若干中间 节点传送到目的端,从而向运输层提供最基本的端到端的数据传送服务。 网络层是处理端到端数据传输 的最低层,体现了网络应用环境中资源子网访问通信子网的方式。 概括起来分为以下四种方式: 路由选择 将分组从源端机器经选定的路由送到目的端机器。 拥塞控制 当到达通信子网中某一部分的分组数高于一定的水平,使得该部分网络来不及处理这些分组时,就会使这部分以至整个网络的性能下降。 流量控制 用来保证发送端不会以高于接收者能承受的速率传输数据,一般涉及到接收者向发送者发送反馈。 差错控制 要求每帧传送后接收方向发送方提供是否已正确接收的反馈信息

第1章Oracle RAC介绍----RAC结构和进程概览

佐手、 提交于 2019-12-02 04:31:40
至少,Oracle RAC要求Oracle Clusterware软件环境提供一个集群中所有结点对同一份存储和同一套数据文件的并发访问,能实现集群中跨结点进程间通信,实现多个数据库实例处理数据如同数据在本地,并提供一种机制监控集群中结点的状态和联络。以下部分更详细地描述了这些概念: 理解有集群意识的存储解决方案 使用服务和VIP地址连接到Oracle数据库概览 关于Oracle RAC软件组件 关于Oracle RAC后台进程 理解有集群意识的存储解决方案 一个Oracle RAC数据库是一个共享一切的数据库。Oracle RAC环境中的所有数据文件、控制文件、SPFILEs和重做日志文件必须存在于有集群意识的共享磁盘中,以便所有的集群数据库实例能访问这些存储。因为Oracle RAC数据库使用一种共享一切的结构,因此Oracle RAC要求有集群意识的存储保存所有数据库文件。 在Oracle RAC中,Oracle数据库软件管理磁盘访问并经认证在多种存储结构中使用。由用户选择如何配置存储,但是用户要使用一种受支持的有集群意识的存储解决方案。Oracle数据库为Oracle RAC提供以下文件存储选择: Oracle ASM,Oracle公司推荐使用此解决方案来管理用户存储 一种经过认证的集群文件系统,包括OCFS2和OCFS 经认证的NFS文件服务器

BiseNet阅读总结

北城余情 提交于 2019-12-02 03:38:59
一、思路 语义分割既需要 丰富的空间信息 ,又需要 较大的感受野 。然而,现代方法通常会牺牲空间分辨率来实现实时推理速度,导致性能低下。本文提出了一种新的双边分割网络(BiSeNet)来解决这一难题。我们首先设计一个空间路径以较小的步幅保存空间信息并生成高分辨率特征。同时,采用快速下采样策略的上下文路径获取足够的接受域。在此基础上,提出了一种新的特征融合模块,实现了特征的有效融合。 二、语义分割研究现状 实时语义分割的算法表明,模型的加速方法主要有三种。1)尝试通过裁剪或调整大小来限制输入大小,降低计算复杂度。虽然该方法简单有效,但空间细节的丢失会破坏预测,特别是边界附近的预测,导致度量和可视化精度下降。2)一些工作不是调整输入图像的大小,而是对网络的通道进行修剪以提高推理速度,特别是在基础模型的早期阶段。然而,它削弱了空间能力。3)对于最后一种情况,ENet建议放弃模型的最后一个阶段,追求一个非常紧密的框架。然而,这种方法的缺点是显而易见的:由于ENet在最后阶段放弃了向下采样操作,模型的接受域不足以覆盖较大的对象,导致识别能力较差。总的来说,以上方法都是在精度和速度之间进行折衷,在实际应用中效果较差。 为了弥补上述空间细节的损失,研究者们广泛采用了U型结构。通过融合骨干网的层次特征,u形结构逐渐提高了空间分辨率,填补了一些缺失的细节。然而,这种技术有两个缺点。 1

pytoch-基本卷积网络结构, 参数提取,参数初始化

一世执手 提交于 2019-12-02 03:14:41
基本卷积网络结构net.py from torch import nn class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() layer1 = nn.Sequential() # 将网络模型进行添加 layer1.add_module('conv1', nn.Conv2d(3, 32, 3, 1, padding=1)) # nn.Conv layer1.add_module('relu1', nn.ReLU(True)) layer1.add_module('pool1', nn.MaxPool2d(2, 2)) self.layer1 = layer1 layer2 = nn.Sequential() layer2.add_module('conv2', nn.Conv2d(32, 64, 3, 1, padding=1)) layer2.add_module('relu2', nn.ReLU(True)) layer2.add_module('pool2', nn.MaxPool2d(2, 2)) self.layer2 = layer2 layer3 = nn.Sequential() layer3.add_module('conv3', nn.Conv2d(64,

pytorch-卷积基本网络结构-提取网络参数-初始化网络参数

感情迁移 提交于 2019-12-02 02:20:18
基本的卷积神经网络 from torch import nn class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() layer1 = nn.Sequential() # 将网络模型进行添加 layer1.add_module('conv1', nn.Conv2d(3, 32, 3, 1, padding=1)) # nn.Conv layer1.add_module('relu1', nn.ReLU(True)) layer1.add_module('pool1', nn.MaxPool2d(2, 2)) self.layer1 = layer1 layer2 = nn.Sequential() layer2.add_module('conv2', nn.Conv2d(32, 64, 3, 1, padding=1)) layer2.add_module('relu2', nn.ReLU(True)) layer2.add_module('pool2', nn.MaxPool2d(2, 2)) self.layer2 = layer2 layer3 = nn.Sequential() layer3.add_module('conv3', nn.Conv2d(64, 128,