layer

目标检测算法-YOLO算法纵向对比理解

余生长醉 提交于 2020-08-11 14:23:42
目标检测算法-YOLO算法纵向对比理解 DeepLearning的目标检测任务主要有两大类:一段式,两段式 其中两段式主要包括RCNN、FastRCNN、FasterRCNN为代表, 一段式主要包括YOLO,SSD等算法 由于一段式直接在最后进行分类(判断所属类别)和回归(标记物体的位置框框),所以现在一段式大有发展。 YOLO v1 论文地址: You Only Look Once: Unified, Real-Time Object Detection YOLOv1是one-stage detector鼻祖、real-time detector鼻祖。 所谓one-stage,即不需额外一个stage来生成RP,而是直接分类回归出output: YOLOv1直接将整张图片分成 S×S的小格子区域,每个小格子区域生成 B个bbox(论文中B=2),每个bbox用来预测中心点落在该格的物体。但是每个格子生成的所有B个bbox共享一个分类score YOLOv1最后一层的输出是一个S×S×(B∗5+C) 的tensor 其中,S为每维的格子段数,B为每格生成的bbox数,C为前景类别数。 YOLO v1包括24个conv layer + 2 fc layer YOLOv1采用了山寨版的GoogleNet作为backbone,而不是VGG Net; 在第24层时

layui弹框自适应高度

我只是一个虾纸丫 提交于 2020-08-11 13:46:25
layer.open自适应高度 方式一:如下,可有效防止高度超出可视范围 layer.open({ skin : 'layui-layer-molv', type : 1, title : '预览', area : ['640px', '95%'], // 高度设置为95%,防止超出可视范围 shade : 0.8, // 遮罩层透明度 id : 'LAY_layuipro', //设定一个id,防止重复弹出 resize : false, //是否允许拉伸 btn : ['关闭'], btnAlign: 'r', moveType : 1, //拖拽模式,0或者1 content : 'html内容', yes: function (index) { layer.close(index); } }); 方式二:完全自适应高度,当数据过长时,可能会超出可视范围 layer.open({ skin : 'layui-layer-molv', type : 1, title : '预览', area : ['640px'], // 自适应高度 shade : 0.8, // 遮罩层透明度 id : 'LAY_layuipro', //设定一个id,防止重复弹出 resize : false, //是否允许拉伸 btn : ['关闭'], btnAlign: 'r', moveType

最新校招京东、百度、头条算法面试真题分享

蓝咒 提交于 2020-08-11 13:00:53
1 .京东面试经历 面试的京东的商品推荐的算法岗,在北辰大厦(奥森旁边),面试难度总体来说比较简单。 ①:到公司之后先做了一个小时的笔试题目 ,包括四个简答题和两个编程题,简答题主要是 C语言相关的。 Map和Set的插入和查找的复杂度是多少,Set是否可以存储类 递归和循环可以互相转换吗? epull和select的原理以及区别? 什么时候会调用构造函数和析构函数?父类的构造函数可以是virtual的吗? 编程题也特别简单,一道题是一个有序的数组,寻找数组的中的两个数它们的和是否等 于某 个值target,返回True或者False,要求O(n)的复杂度。 另一道题目是一个数组,两个相邻下标的数组的值的差的绝对值为1,然后在这个数组中寻找 某个值是否在这个数组中,是的话返回下标,否则返回-1。 ②:第一轮面试也特别简单 ,主要就是聊了聊自己的论文是怎么做的,实习的时候干了啥, 然后再出了一道编程题,一个无序数组,只有0,1,2,然后你要对这个数组进行排序,要求 O(n)复杂度。(荷兰国旗问题) ③:第二轮面试也是主要是聊了聊自己的论文 ,然后推导SVM的原理,然后logistic和SVM 的区别,Attention注意力机制的原理,RNN的公式等。 还有一个编程题反转链表。 面试完三天拿到了口头offer,感觉总体来说还是比较简单的。 今天收到了京东的录用函

层次softmax (hierarchical softmax)理解

梦想的初衷 提交于 2020-08-11 12:14:18
基于word2vec模型学习词的语义向量表示,已在NLP许多任务中都发挥了重要的作用,接下来对词向量学习中的hierarchical softmax的应用做一个分析和学习 CBOW(Continuous Bag-of-Word) One-word context 假设我们vocabulary size 为 V V V ,hidden layer 神经元个数为 N N N ,假设我们只有一个上下文单词,则根据这个上下文单词预测目标词,类似于一个bigram model,如下图所示: 输入是一个one-hot编码的vector(大小为 V V V ),假设只给定一个上下文word,对于输入编码, { x 1 , x 2 , . . . , x v } \{x_1, x_2,...,x_v\} { x 1 ​ , x 2 ​ , . . . , x v ​ } ,只有一个为1,其它都为0。如上图所示,第一层的参数权重 W V ∗ N W_{V*N} W V ∗ N ​ , W W W 中的每一行是一个 N N N 维度的向量,代表的就是单词 w w w 的向量 v w v_w v w ​ 表示。 从hidden layer到output layer,也有一个不同的权重矩阵 W ′ = { w i j ′ } W^{'}=\{w_{ij}^{'}\} W ′ = { w i j ′ ​ }

交通工程跨界思考:无人驾驶仿真中的交通流仿真,可用平台有哪些?

谁都会走 提交于 2020-08-11 10:43:59
   无人车的领头羊 Waymo 的 CEO 曾对外宣称,Waymo 无人驾驶系统 80% 的改进都来自其仿真系统 Carcraft。那么身为头号功臣的无人驾驶仿真到底是什么?而其中的交通流仿真又是何物,有何可用平台,请看来自交通工程的跨界思考。    1. 驶向 Vision Zero 的无人驾驶   据世界卫生组织最新数据显示,每年约有 135 万人由于道路交通事故而死亡,其中超过 90% 的交通事故是人为因素造成的[1]。而无人驾驶从不醉酒、分心或是疲劳,这些因素分别占所有致命事故起因的 41%、10% 和 2.5%。生命可贵,是任何其它社会利益都无法交换的,这也是 Vision Zero(无人伤亡的全球性道路交通安全项目)的核心原则[2],而无人驾驶是实现 Vision Zero 的重要途径。      全球道路交通伤害[1]。    2. 多少里程可以验证安全?   然而无人驾驶也面临着许多挑战,比如恶劣的天气、复杂的交通环境等等,因此在某些场景下的表现可能无法匹敌人类驾驶员,甚至存在新的更加严重的事故风险(如网络攻击)。那么无人驾驶到底如何才能证实其安全性?   著名战略咨询公司兰德就无人驾驶的安全可靠性及所需路测里程进行了统计分析[3],其分析报告显示,在 95% 的置信度下,无人驾驶系统需要进行约 50 亿英里的路测才可证明其事故率显著小于人类驾驶员,也就是 100

步步深入:MySQL架构总览->查询执行流程->SQL解析顺序

这一生的挚爱 提交于 2020-08-11 10:12:36
前言:   一直是想知道一条SQL语句是怎么被执行的,它执行的顺序是怎样的,然后查看总结各方资料,就有了下面这一篇博文了。   本文将从MySQL总体架构--->查询执行流程--->语句执行顺序来探讨一下其中的知识。 一、MySQL架构总览:   架构最好看图,再配上必要的说明文字。   下图根据参考书籍中一图为原本,再在其上添加上了自己的理解。   从上图中我们可以看到,整个架构分为两层,上层是MySQLD的被称为的‘SQL Layer’,下层是各种各样对上提供接口的存储引擎,被称为‘Storage Engine Layer’。其它各个模块和组件,从名字上就可以简单了解到它们的作用,这里就不再累述了。 二、查询执行流程   下面再向前走一些,容我根据自己的认识说一下查询执行的流程是怎样的: 1.连接   1.1客户端发起一条Query请求,监听客户端的‘连接管理模块’接收请求   1.2将请求转发到‘连接进/线程模块’   1.3调用‘用户模块’来进行授权检查   1.4通过检查后,‘连接进/线程模块’从‘线程连接池’中取出空闲的被缓存的连接线程和客户端请求对接,如果失败则创建一个新的连接请求 2.处理   2.1先查询缓存,检查Query语句是否完全匹配,接着再检查是否具有权限,都成功则直接取数据返回   2.2上一步有失败则转交给‘命令解析器’,经过词法分析

Quartz.net 定时任务之Cron表达式

最后都变了- 提交于 2020-08-11 09:53:01
一、cron表达式简单介绍和下载    1、在上一篇博客“ Quartz.net 定时任务之简单任务 ”中 ,我简单介绍了quartz的使用,而这篇博客我将介绍cron的具体使用(不足之处望大神斧正)    1、cron是为了方便编写定时执行作业时间扩展出来的插件,这个有很多版本(网页版,窗体版等),cron表达式的存在,从而大大减低设置作业人员的操作难度和开发人员的编写难度。   2、cron表达式下载地址:https://www.oschina.net/code/snippet_98719_23426 下载下来之后,我打开页面我们会看到如下的界面 (为网页版)      注:如果网页路径失效,或者下载失败的码友,请不要着急,继续往下看 二、cron表达式的使用    1、在网上也看到了很多关于cron的使用说明的文章(在此感谢各位好心分享的大神),运用cron表达式有2个关键的地方      (1)、cron的怎么使用到项目中?     (2)、cron表达式怎么反解析到对应的输入框中?    2、cron运用到项目中和反解析      (1)、在上一篇博客中,我简单介绍了quartz的使用,从而会有一些小bug和美观不足的缺点,在编写这篇博客之前我做了小小的美化,如下图       注:模板是使用的layer后台框架 模板编写者:Layui_初学者    laery下载地址

Tensorflow实现神经网络的前向传播

穿精又带淫゛_ 提交于 2020-08-11 09:27:42
我们构想有一个神经网络,输入为两个input,中间有一个hidden layer,这个hiddenlayer当中有三个神经元,最后有一个output。 图例如下: 在实现这个神经网络的前向传播之前,我们先补充一下重要的知识。 一.权重w以及input的初始化 我们初始化权重w的方法为随机生成这些权重,一般可以使用这些随机生成的数据正好在正态分布的曲线上,这也是最符合生成符合自然规律的随机数生成方法: import tensorflow as tf # 一般情况下神经网络上的参数是w的数列,当然我们一般使用随机数来生成这些参数 w=tf.Variable(tf.random_normal([2,3],stddev=2,mean=0,seed=1 )) # 其中stddev表示标准差,mean表示均值,【】表示随机生成正态分布的数值的shape 这样我们的权重就生成了,我们初始化input的方法有有以下几种,伪代码如下: 除了这种方式,我们还可以使用 tf.constant([ 1,2,3 ]),来生成指定数值 tf.zeros([ 2,3 ],int32),用来生成全零 tf.ones([ 2,3 ],int32),同来生成全1 tf.fill([ 3,2],6),生成指定数值 下面我们编写一个仅有一个初始值input的神经网络,并利用tensorflow实现对其进行前向传播

centos部分缩写词

不打扰是莪最后的温柔 提交于 2020-08-11 05:13:26
linux:命令缩写: ls:list(列出目录内容) cd:Change Directory(改变目录) su:switch user 切换用户 rpm:redhat package manager 红帽子打包管理器 pwd:print work directory 打印当前目录 显示出当前工作目录的绝对路径 ps: process status(进程状态,类似于windows的任务管理器) 常用参数:-auxf ps -auxf 显示进程状态 df: disk free 其功能是显示磁盘可用空间数目信息及空间结点信息。换句话说,就是报告在任何安装的设备或目录中,还剩多少自由的空间。 rpm: 即RedHat Package Management,是RedHat的发明之一 rmdir:Remove Directory(删除目录) rm:Remove(删除目录或文件) cat: concatenate连锁 cat file1 file2>>file3把文件1和文件2的内容联合起来放到file3中 insmod: install module,载入模块 ln -s : link -soft 创建一个软链接,相当于创建一个快捷方式 mkdir:Make Directory(创建目录) man: Manual mkfs: Make file system fsck:File system

使用全卷积神经网络FCN,进行图像语义分割详解(附带Tensorflow详解代码实现)

别说谁变了你拦得住时间么 提交于 2020-08-11 04:28:30
一.导论 在图像语义分割领域,困扰了计算机科学家很多年的一个问题则是我们如何才能将我们感兴趣的对象和不感兴趣的对象分别分割开来呢?比如我们有一只小猫的图片,怎样才能够通过计算机自己对图像进行识别达到将小猫和图片当中的背景互相分割开来的效果呢?如下图所示: 而在2015年出来的FCN,全卷积神经网络完美地解决了这个问题,将曾经mean IU(识别平均准确度)只有百分之40的成绩提升到了百分之62.2(在Pascal VOC数据集上跑的结果,FCN论文上写的),像素级别识别精确度则是90.2%。这已经是一个相当完美的结果了,几乎超越了人类对图像进行区分,分割的能力。如上图所示,小猫被分割为了背景,小猫,边缘这三个部分,因此图像当中的每一个像素最后只有三个预测值,是否为小猫,背景,或者边缘。全卷积网络要做的就是这种 进行像素级别 的分类任务。那么这个网络是如何设计和实现的呢? 二.网络的实现 这个网络的实现虽然听名字十分霸气,全卷积神经网络。不过事实上使用这个名字无非是把卷积网络的最后几层用于分类的全连接层换成了1*1的卷积网络,所以才叫这个名字。这个网络的首先对图片进行卷积——>卷积——>池化,再卷积——>卷积——>池化,直到我们的图像缩小得够小为止。这个时候就可以进行上采样,恢复图像的大小,那么什么是上采样呢?你估计还没有听说过,等下咱们一 一道来。这个网络的结构如下所示