网络模型

Performance Modeling of IEEE 802.11 DCF Based Fair Channel Access for Vehicular-to-Roadside Communication in a Non-Saturated State

泪湿孤枕 提交于 2019-12-02 05:38:39
作者:吴琼(东南大学博士) 一、摘要   本文考虑了车辆自组网中的公平接入问题, 建立了一个分析模型,分析了基于 IEEE 802.11 DCF 的非饱和状态下的公平信道接入协议的性能。推导了非饱和状态下,车辆的最小竞争窗口大小与车辆的传输概率之间的关系,以及车速与车辆的最小竞争窗口大小之间的关系。 基于该分析模型,可以确定给定速度下车辆的最小竞争窗口大小,以实现不同车辆之间的公平竞争。仿真结果验证了该分析模型的有效性。 二、前言   在车辆自组网 (VANET) 中,通信可能发生在车辆之间或车辆与路边单元或接入点 (AP) 之间。在很多情况下,多个车辆需要同时通过一个公共通道访问一个 AP ,这会导致数据冲突和公平访问问题。为了解决这一问题,需要采用一种有效的媒体访问控制 (MAC) 协议来协调多车的信道访问。 IEEE 802.11 是经典的 MAC 协议标准,广泛应用于无线通信网络 [1] 。 IEEE 802.11 标准的基本访问机制是分布式协调 功能(DCF) ,它是一种基于载波感知多址的随机访问机制,具有避撞功能 (CSMA/CA) 。然而,与传统的无线网络相比, VANET 具有一些独特的特性 [2-3] 。例如,车辆通常只有两个移动方向,并在十字路口改变其移动方向 ; 车辆通常以 10m/s~40m/s 的速度行驶,这使得网络的拓扑结构具有很强的动态性

You Only Look Once: Unified, Real-Time Object Detection

痞子三分冷 提交于 2019-12-02 05:00:52
文章目录 Abstract 1. Introduction 2. Unified Detection 2.1. Network Design 2.2. Training 2.3. Inference 2.4. Limitations of YOLO 3. Comparison to Other Detection Systems 4. Experiments 4.1. Comparison to Other Real-Time Systems 4.2. VOC 2007 Error Analysis 4.3. Combining Fast R-CNN and YOLO 4.4. VOC 2012 Results 4.5. Generalizability: Person Detection in Artwork 5. Real-Time Detection In The Wild 6. Conclusion Abstract We present YOLO, a new approach to object detection. Prior work on object detection repurposes classifiers to perform detection. Instead, we frame object detection as a regression

基于select的网络IO模型

本秂侑毒 提交于 2019-12-01 22:28:44
#select 和 poll 和epoll的区别 ''' select和poll有一个共同的机制,都是采用轮训的方式去询问内核,有没有数据准备好了 select有一个最大监听事件的限制,32位机限制1024,,6位机限制2048 poll没有,理论上poll可以开启无限大,1G内存大概够你开10W个事件去监听 epoll是最好的,采用的是回调机制,解决了select和poll共同存在的问题 而且epoll理论上也可以开启无限多个监听事件 ''' # IO多路复用 ''' 阻塞IO 非阻塞IO 多路复用IO 异步IO python实现不了,但是有tornado框架,天生自带异步 ''' #服务器端 import socket import select sk=socket.socket() sk.bind(('127.0.0.1',8080)) sk.listen() Conn_Del = [] #定义删除列表 rlist = [sk] #是用来让select帮忙监听的所有接口 # select:windows/linux是监听事件有没有数据到来 # poll: linux 也可以做select的工作 # epoll: linux 也可以做类似的工作 while 1: r,w,x = select.select(rlist,[],[]) #将rlist传给select

NLP中的预训练语言模型(四)—— 小型化bert(DistillBert, ALBERT, TINYBERT)

99封情书 提交于 2019-12-01 20:10:44
  bert之类的预训练模型在NLP各项任务上取得的效果是显著的,但是因为bert的模型参数多,推断速度慢等原因,导致bert在工业界上的应用很难普及,针对预训练模型做模型压缩是促进其在工业界应用的关键,今天介绍三篇小型化bert模型——DistillBert, ALBERT, TINYBERT。 一,DistillBert    论文: DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter    GitHub:暂无   DistillBert是在bert的基础上用知识蒸馏技术训练出来的小型化bert。整体上来说这篇论文还是非常简单的,只是引入了知识蒸馏技术来训练一个小的bert。具体做法如下:   1)给定原始的bert-base作为teacher网络。   2)在bert-base的基础上将网络层数减半(也就是从原来的12层减少到6层)。   3)利用teacher的软标签和teacher的隐层参数来训练student网络。   训练时的损失函数定义为三种损失函数的线性和,三种损失函数分别为:   1)$L_{ce}$。这是teacher网络softmax层输出的概率分布和student网络softmax层输出的概率分布的交叉熵(注:MLM任务的输出)。   2)$L_{mlm

PCB板信号完整性分析的操作步骤及设置方法

喜夏-厌秋 提交于 2019-12-01 18:22:55
  AD16的主要功能是画电路原理图和根据电路原理图设计PCB板。为了使设计的电路、画完的电路原理图,从电路原理上不存在错误,从电路逻辑上不存在混乱,AD16专门开发了电路原理图的仿真程序。这样可以把设计存在的问题,在第一步:绘制电路原理图阶段就及时发现,然后根据仿真结果,改进电路原理图。这就避免了等到印刷电路板装配零件完成为成品之后再发现问题时,造成的大量的人力物力损失。 同样:设计PCB时,也是先在电脑上根据电路原理图,绘制PCB板图。然后再把电脑PCB板图拿到PCB工厂生产PCB板。AD16同样设计了PCB板信号完整性分析程序,把电脑上绘制的PCB板图,进行信号完整性仿真分析,从而早期发现设计的PCB板图是否存在瑕疵,及时改进到理想状态。如果绘制好PCB板图,没有经过PCB板图的信号完整性分析仿真,直接拿到工厂生产PCB板,PCB板装配完工成为成品后,才发现有瑕疵,那就造成了极大的浪费。 PCB板的信号完整性分析,是指PCB板中的一个网络,这个网络的输出波形,与该网络的输入波形相比,尽量的相似,尽量的少失真、少延迟、少变形、少缺失、少振铃、少过冲。低频的数字电路PCB板,输入信号经过PCB内网络的处理后,网络输出的信号波形失真很小,而在高频的数字电路PCB板,如果PCB板设计稍有不当,被测试的网络输出信号与该网络输入信号相比,就会产生明显的延迟、失真,导致生产的PCB板不达标

OSI七层模型

佐手、 提交于 2019-12-01 16:15:27
互联网通信原理: 物理层: 计算机之间要想一起玩,就必须接入 internet ,言外之意就是计算机之间必须完成组网 主要是基于电器特性发送高低电压(电信号),高电压对应数字1,低电压对应数字0 数据链路层: 单纯的电信号0和1没有任何意义,必须规定电信号多少位一组,每组什么意思 定义了电信号的分组方式 以太网协议: 早期的时候各个公司都有自己的分组方式,后来形成了统一的标准,即以太网协议 ethernet 一组电信号构成一个数据包,叫做‘帧’ 每一数据帧分成:报头head和数据data两部分 head包含:(固定18个字节) 发送者/源地址,6个字节 接收者/目标地址,6个字节 数据类型,6个字节 data包含:(最短46字节,最长1500字节) 数据包的具体内容 head长度+data长度=最短64字节,最长1518字节,超过最大限制就分片发送 mac地址: head中包含的源和目标地址由来: ethernet 规定接入 internet 的设备都必须具备网卡,发送端和接收端的地址便是指网卡的地址,即mac地址 -mac地址:每块网卡出厂时都被烧制上一个世界唯一的mac地址,长度为48位2进制,通常由12位16进制数表示(前六位是厂商编号,后六位是流水线号) 广播: 有了mac地址,同一网络内的两台主机就可以通信了(一台主机通过arp协议获取另外一台主机的mac地址)

卷积神经网络(CNN)

耗尽温柔 提交于 2019-12-01 10:16:37
卷积神经网络( CNN ) 1.1 二维卷积层 卷积神经网络是含有卷积层的神经网络,均使用最常见的二维卷积层,它有高和宽两个空间维度,常用来处理图像数据。 1.1.1 二维互相关运算 在二维卷积层中,一个二维输入数组和一个二维核数组通过互相关运算输出一个二维数组。 输入一个高和宽均为3的二维数组,核数组的高和宽均为2,核数组在卷积计算中又称卷积核或过滤器,卷积核窗口(卷积窗口)的形状取决于卷积核的高和宽。 1.1.2 二维卷积层 二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏差来得到输出。卷积层的模型参数包括卷积核与标量偏差。在训练模型时,通常先对卷积核随机初始化,然后不断迭代卷积核与偏差。 卷积窗口形状为p x q的卷积层称为p x q卷积层,说明卷积核的高和宽分别为p和q。 1.1.3 图像中物体边缘检测 卷积层的简单应用:检测图像中物体的边缘,即找到像素变化的位置。卷积层可以通过重复使用卷积核有效的表征局部空间。 1.1.4 通过数据学习核数组 例子:使用物体边缘检测中的输入数据x,输出数据y,来构造核数组k。首先构造一个卷积层,将卷积核初始化成随机数组,在每一次迭代中,使用平方误差来比较Y和卷积层的输出,然后计算梯度来更新权重。 1.15 特征图和感受野 特征图:二维卷积层输出的二维数组可以看做是输入在空间维度(宽和高)上某一级的表征。 感受野

【网络】第七章-典型IO模型

空扰寡人 提交于 2019-12-01 06:24:22
典型IO模型 IO的种类   IO模型根据特性可以分为以下几个种类: 阻塞IO,非阻塞IO,信号驱动IO,异步IO,多路转接IO 。 阻塞IO   为了IO发起IO调用,若IO条件不满足则一直等待,直到条件具备。 非阻塞IO   为了IO发起IO调用,若条件不满足则直接报错返回,执行其他指令。之后再次发起IO调用,条件不满足则继续报错返回,条件满足则直接进行数据拷贝后调用返回。   阻塞与非阻塞的区别在与 发起一个调用是否能够立即返回 。 信号驱动IO   自定义IO信号,如果IO条件具备则发送IO信号,收到信号后则打断其他操作进行信号处理,执行IO操作进行数据拷贝,结束后调用返回。 异步IO   自定义IO信号,发起IO调用,然后让操作系统进行等待条件满足,满足后操作系统进行数据拷贝,拷贝完后通知进程,进程收到后直接处理数据。   与之对应的是同步的操作同步与异步的区别在于 功能的完成是否由自身完成 。   那么是同步好还是异步好呢?答案是视使用场景而定。同步的流程控制更加简单,但是不管是否阻塞都会浪费CPU资源,因此对CPU的利用率不足。而异步对CPU的利用率更高,但是流程控制更加复杂,并且IO调用越多,同一时间占用的空间资源越多。   从以上IO种类来看,IO效率越来越高,但是流程控制越来越复杂,资源占用也越来越多。 多路转接IO   多路转接IO对大量描述符进行事件监控

神经网络模型(Backbone)

岁酱吖の 提交于 2019-11-30 19:52:14
  自己搭建神经网络时,一般都采用已有的网络模型,在其基础上进行修改。从2012年的AlexNet出现,如今已经出现许多优秀的网络模型,如下图所示。 主要有三个发展方向:     Deeper:网络层数更深,代表网络VggNet     Module: 采用模块化的网络结构(Inception),代表网络GoogleNet     Faster: 轻量级网络模型,适合于移动端设备,代表网络MobileNet和ShuffleNet     Functional: 功能型网络,针对特定使用场景而发展出来。如检测模型YOLO,Faster RCNN;分割模型FCN, UNet   其发展历史可以分为三个阶段:   这些模型在ImageNet上的表现效果对比如下:    1. LeNet-5   LeNet-5是LeCun在1998年的论文中 Gradient-Based Learning Applied to Document Recognition 提出的网络模型,其结构如下:(其中卷积为5*5的kernel,下采样为2*2的MaxPooling),其结构比较简单,关于LeNet-5结构设计的详细分析,参见: 参考一 , 参考二 2. AlexNet   AlexNet是Alex Krizhevsky在2012的文章ImageNet Classification with Deep

Pytorch入门教程

淺唱寂寞╮ 提交于 2019-11-30 19:44:59
  记得刚开始学TensorFlow的时候,那给我折磨的呀,我一直在想这个TensorFlow官方为什么搭建个网络还要画什么静态图呢,把简单的事情弄得麻烦死了,直到这几天我开始接触Pytorch,发现Pytorch是就是不用搭建静态图的Tensorflow版本,就想在用numpy一样,并且封装了很多深度学习高级API,numpy数据和Tensor数据相互转换不用搭建会话了,只需要一个转换函数,搭建起了numpy和TensorFlow爱的桥梁。   Pytorch自17年推出以来,一度有赶超TensorFlow的趋势,是因为Pytorch采用动态图机制,替代Numpy使用GPU的功能,搭建网络灵活。 Pytorch和TensorFlow的区别: TensorFlow是基于静态计算图的,静态计算图是先定义后运行,一次定义多次运行(Tensorflow 2.0也开始使用动态计算图) PyTorch是基于动态图的,是在运行的过程中被定义的,在运行的时候构建,可以多次构建多次运行 张量   Pytorch中的Tensor和ndarray类似,区别在于ndarray不能再GPU上加速,而Tensor可以使用GPU加速 构建一个未初始化3*3的矩阵 import torchx = torch.empty(3,3) # tensor([[1.0469e-38, 5.9694e-39, 8