网络节点

leetcode 2. 两数相加

落花浮王杯 提交于 2020-03-22 03:56:44
题目: 给出两个 非空 的链表用来表示两个非负的整数。其中,它们各自的位数是按照 逆序 的方式存储的,并且它们的每个节点只能存储 一位 数字。 如果,我们将这两个数相加起来,则会返回一个新的链表来表示它们的和。 您可以假设除了数字 0 之外,这两个数都不会以 0 开头。 示例: 输入:(2 -> 4 -> 3) + (5 -> 6 -> 4) 输出:7 -> 0 -> 8 原因:342 + 465 = 807 来源:力扣(LeetCode) 链接:https://leetcode-cn.com/problems/add-two-numbers 著作权归领扣网络所有。商业转载请联系官方授权,非商业转载请注明出处。 解法: 来源: https://www.cnblogs.com/chenia/p/12543886.html

SNMP协议

∥☆過路亽.° 提交于 2020-03-22 02:51:56
今天被要求在网络中数据的通信用SNMP协议来实现,没办法,只能找点SNMP的资料来学习一下. 以下抄自chinaunix网站. 1.什么是网络管理? 网络管理分为两类。第一类是网络应用程序、用户帐号(例如文件的使用)和存取权限(许可)的管理。它们都是与软件有关的网络管理问题。这里不作讨论。 网络管理的第二类是由构成网络的硬件所组成。这一类包括工作站、服务器、网卡、路由器、网桥和集线器等等。通常情况下这些设备都离你所在的地方很远。正是由于这个原因,如果当设备有问题发生时网络管理员可以自动地被通知的话,那么一切事情都好办。但是你的路由器不会象你的用户那样,当有一个应用程序问题发生时就可以打电话通知你,而当路由器拥挤时它并不能够通知你。 为了解决这个问题,厂商们已经在一些设备中设立了网络管理的功能,这样你就可以远程地询问它们的状态,同样能够让它们在有一种特定类型的事件发生时能够向你发出警告。这些设备通常被称为"智能"设备。 网络管理通常被分为四类: 被管理节点(或设备) 即你想要监视的设备 代理 用来跟踪被管理设备状态的特殊软件或固件 (firmware) 网络管理工作站 与在不同的被管理节点中的代理 通信,并且显示这些代理状态的中心设备。 网络管理协议 被网络管理工作站和大理用来交换 信息的协议。 当设计和构造网络管理的基础结构时,你需要记住下列两条网络管理的原则:

python网络画图——networkX

流过昼夜 提交于 2020-03-19 06:14:42
networkX tutorial 绘制基本网络图 用matplotlib绘制网络图 基本流程: 1. 导入networkx,matplotlib包 2. 建立网络 3. 绘制网络 nx.draw() 4. 建立布局 pos = nx.spring_layout美化作用 最基本画图程序 1 import networkx as nx #导入networkx包 2 import matplotlib.pyplot as plt 3 G = nx.random_graphs.barabasi_albert_graph(100,1) #生成一个BA无标度网络G 4 nx.draw(G) #绘制网络G 5 plt.savefig("ba.png") #输出方式1: 将图像存为一个png格式的图片文件 6 plt.show() #输出方式2: 在窗口中显示这幅图像 networkx 提供画图的函数有: draw (G,[pos,ax,hold]) draw_networkx (G,[pos,with_labels]) draw_networkx_nodes (G,pos,[nodelist]) 绘制网络G的节点图 draw_networkx_edges (G,pos[edgelist]) 绘制网络G的边图 draw_networkx_edge_labels (G, pos[, ...])

区块链笔记:存在的问题:51%攻击、性能问题、区块容量爆炸、网络层攻击、私钥丢失、脚本安全性

烂漫一生 提交于 2020-03-17 12:34:48
51% 攻击 是指在区块网络中的打包权被优势节点连续获得 比如说比特币,某个矿工节点有很强的算力, 使得在一段时间之内,每一次打包全都是被它抢到 当发生这种情况的时候,具备很强算力的节点就可以发动51%攻击了 所谓51%攻击是指它能达到的算力,能达到全网的51% 这里51%一只是一种称呼,并不是说一定要正好达到51%的算力 实际上即便是达到10%,20%的算力,有时候也足以来对这个网络发动51%攻击 一旦打包权被某一个打包节点控制的时候,就可以篡改已发生未确认的事务实现双花或干扰 双花的举例: 买咖啡并不需要我转发的事务被打包以后,才会给咖啡,而是直接看着转账就可以提供咖啡了 由于一笔转账事务没有被打包,而我又掌握了打包权,我就可以把自己的转账事务删除 店家最终没有获得我的转账,如果一直使用这种方式买咖啡,就意味着这笔钱可以反复再花,也就是双花攻击 51%攻击无法来篡改历史数据 区块链里面的数据是需要经过其他节点的公正才能进入到主链的,如果篡改,难度很大 尤其是确认的区块数很多的时候,比如说我的交易事务是在第5号区块打包的,现在已经是第50号区块了 这个时候我就要往前窜改45个区块,而且要得到其它节点的验证通过才行,这样篡改的难度是非常大的 51%攻击无法去篡改用户的签名事务 因为并不知道用户的密钥,所以无法去篡改用户的签名事务,但可以破坏该事务,也就是干扰用户的转账打包

【论文总结】LINE和DEEPWALK方法总结与比较

血红的双手。 提交于 2020-03-17 07:53:58
LINE(large-scale information network embedding) 研究问题: 大规模信息网络嵌入低维向量空间。 模型优点: 1、可适应任意类型的网络:有向、无向、有权、无权。 2、采用一阶相似度和二阶相似度结合 3、边采样优化方法解决了SGD的局限性(边的权值变换很大 时,学习率难以选择,并且权值和乘以梯度导致梯度爆炸) 模型描述: 1、一阶相似度的LINE模型(只用于无向图) 为了模拟一阶相似度,对于每个无向边(i,j),我们定义顶点vi和vj之间的联合概率如下: (sigmoid function,向量越接近,点积越大,联合概率越大。其中,ui表示节点vi对应的向量。) 经验概率可以定义为:(两点之间边的权值越大,经验概率越大) 为了保持一阶相似性,一个简单的办法是最小化下面的目标函数: 我们选择最小化两个概率分布的KL散度,用KL散度代替d(·,·)并省略一些常数,得到: KL散度公式: 只考虑一阶相似度的情况下,改变同一条边的方向对于最终结果没有什么影响。因此一阶相似度只能用于无向图,不能用于有向图。 2、二阶相似度的LINE模型 二阶相似度可以用于 有向图和无向图 。下面是针对有向图的算法(在无向图中,可以将每条边看成是两条方向相反且有相同权重的有向边)。   二阶相似度假设共享邻居的顶点彼此相似。每个顶点扮演两个角色

CDN介绍

被刻印的时光 ゝ 提交于 2020-03-16 19:09:48
作者:视界云 链接:https://www.zhihu.com/question/37353035/answer/175217812 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 CDN 全称 :Content Delivery Network或Content Ddistribute Network,即内容分发网络 基本思路 : 尽可能避开互联网上有可能影响数据传输速度和稳定性的瓶颈和环节,使内容传输的更快、更稳定。通过在网络各处放置节点服务器所构成的在现有的互联网基础之上的一层智能虚拟网络,CDN系统能够实时地根据网络流量和各节点的连接、负载状况以及到用户的距离和响应时间等综合信息将用户的请求重新导向离用户最近的服务节点上。 目的 : 解决因分布、带宽、服务器性能带来的访问延迟问题,适用于站点加速、点播、直播等场景。使用户可就近取得所需内容,解决 Internet网络拥挤的状况,提高用户访问网站的响应速度和成功率。 控制时延无疑是现代信息科技的重要指标,CDN的意图就是尽可能的减少资源在转发、传输、链路抖动等情况下顺利保障信息的连贯性。 CDN就是扮演者护航者和加速者的角色,更快准狠的触发信息和触达每一个用户,带来更为极致的使用体验。 再通俗点说就是在网速一定的前提下,CDN就像网络中快递员小哥 <img src="https:/

双层网络的创建(层的加入,以及度中心性算出)

江枫思渺然 提交于 2020-03-16 18:25:17
思路:在之前的单层网络上,再创建一个网络。两个网络的节点一一对应,这样方便了两个网络的连接。区别两个网络的就是它们属于不同的层。 用到的数据: 完整代码: #include<stdio.h> #include<stdlib.h> #include<string.h> #include<malloc.h> #include<math.h> #include<time.h> #define MaxVertexNum 90000 //边表节点 typedef struct node { int adjvex; struct node *next; int visit; }EdgeNode; //顶点表节点 typedef struct vnode { int vertex; int KS;//k-core float ec;//特征向量中心性 int k; int is_infected; int is_visit; int layer;//层 int degree;//该节点的度 EdgeNode* firstedge;//指向边表的指针 }VertexNode; typedef VertexNode AdjList[MaxVertexNum]; //图的结构 typedef struct { AdjList adjlist;//顶点表(类似于数组的) int vexnum;/

SKYPE原理分析

天涯浪子 提交于 2020-03-15 15:56:33
无论传统电信运营商愿意看到与否,以Skype为代表的VoIP软件已经在全球拥有越来越多的拥趸。Skype的工作原理究竟是什么?为什么会掀起如此巨大的波澜?从技术角度看它究竟有哪些优势?电信运营商在VoIP领域下一步该如何发展? Skype与 P2P 所谓P2P(Peer to Peer),其最本质的含义即“对等”,该技术最早是用于网络中对等节点之间的资源和信息共享的技术,通常人们所知道的是将P2P技术用在文件下载过程 中,即网络上的对等终端在下载共享文件的同时又作为一个“种子”为其他对等终端提供资源和信息。后来,Skype在网络通话业务系统中灵活应用了该技术。 由于冲击了传统通信领域,Skype在引起很多争议的同时也使人耳目一新,可以说,Skype是发展和演进了的P2P应用。目前对于P2P技术还没有规范 的定义,结合其已有的应用,就更广泛的意义而言, P2P技术是指网络中的所有节点都动态参与到路由、信息处理和带宽增强等工作中,而不是单纯依靠服务器来完成这些工作。 Skype是P2P技术演进到混合模式后的典型应用,它结合了集中式和分布式的特点,在网络的边缘节点采用集中式的网络结构,而在超级节点之间采用分布式的网络结构,混合模式的P2P网络模型如图1所示。 从网络模型来看,这种混合模式的P2P是经过多年的发展和演进而来的,严格讲,这已经不是纯粹的对等网络结构了,只能称做发展了的P2P

[学习笔记] 连续Hopfield网络解TSP问题

假如想象 提交于 2020-03-12 22:21:13
连续Hopfield网络解TSP问题 上篇讲的是离散型Hopfield网络用于联想记忆,这篇接上篇讲利用连续型Hopfield网络解TSP问题。 模型 连续型Hopfield网络与离散型Hopfield网络结构是一致的,唯一区别就是节点取值连续和在时间上也连续。 连续型的Hopfield网络一般用一个电路图来研究: 这里感谢周启航同学对我在电路方面的指导,才让我看懂了他认为很简单的这么个图。 这是一组放大器电路的结构,神经元的激活函数由运算放大器来模拟,电压 \(u_i\) 为激活函数的输入,所并联的电阻R决定的是各个神经元之间的连接强度,R和电容C模拟神经元输出的时间常数,而电流I模拟的是阈值,w模拟神经元间的突触特性。 由这个电路图可以得到一组动态方程: \[ C_j\frac{dU_j(t)}{dt} = \sum_i w_{ij}V_i(t) - \frac{U_j(t)}{R_j} + I_j \\V_j(t) = g_j(U_j(t)) \] 上面的方程描述的其实是一段时间内的电荷关系,这个很容易看出来,第二个方程描述的是激活函数g。这里用的是sigmoid函数。 其中w对应的是网络的权重,V是激活后的节点值,U是激活前的节点值。 优化目标 针对TSP问题,其目标函数为最小化能量函数E: \[ E = \frac{A}{2}\sum_i \sum_j \sum_kV_

深度学习解决局部极值和梯度消失问题方法简析(转载)

眉间皱痕 提交于 2020-03-12 04:49:05
转载:http://blog.sina.com.cn/s/blog_15f0112800102wojj.html 这篇文章关于对深度CNN中BP梯度消失的问题的做了不错的解析,可以看一下: 多层感知机解决了之前无法模拟异或逻辑的缺陷,同时更多的层数也让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。多层感知机给我们带来的启示是,神经网络的层数直接决定了它对现实的刻画能力——利用每层更少的神经元拟合更加复杂的函数。但是随着神经网络层数的加深,优化函数越来越容易陷入局部最优解(即过拟合,在训练样本上有很好的拟合效果,但是在测试集上效果很差),并且这个“陷阱”越来越偏离真正的全局最优。利用有限数据训练的深层网络,性能还不如较浅层网络。同时,另一个不可忽略的问题是随着网络层数增加,“梯度消失”(或者说是梯度发散diverge)现象更加严重。具体来说,我们常常使用sigmoid作为神经元的输入输出函数。对于幅度为1的信号,在BP反向传播梯度时,每传递一层,梯度衰减为原来的0.25。层数一多,梯度指数衰减后低层基本上接受不到有效的训练信号。那么深度学习中是如何解决局部极值及梯度消失问题的呢? 根据我个人的理解,第一个阶段就是2006年Hinton提出的逐层预训练方法,为了解决深层神经网络的训练问题