layer

在layui的弹出层数据调用

 ̄綄美尐妖づ 提交于 2020-08-05 04:18:11
在使用“编辑”按钮时,要使用弹出层,并且要将当前所选项的值传递给弹出子页面。 父层: function editUser(edit){ var index = layui.layer.open({ title : "编辑用户", type : 2, content : "uIAction_page_user_userEdit",//弹出层页面 area: ['500px', '560px'], success : function(layero, index){ var body = layui.layer.getChildFrame('body', index); if(edit){ // 取到弹出层里的元素,并把编辑的内容放进去 body.find(".id").val(edit.id); //将选中的数据的id传到编辑页面的隐藏域,便于根据ID修改数据 body.find(".password").val(edit.password); //密码 body.find(".userEndTime").val(edit.userEndTime); //登录时间 body.find(".userName").val(edit.userName); //登录名 body.find(".userEmail").val(edit.userEmail); //邮箱 body.find("

至联云讲解《Filecoin官方最新线上峰会上胡安讲解IPFS/FIL对Web3.0的重要性》

寵の児 提交于 2020-08-04 18:04:37
2020年5月4日到6日,协议实验室(Protocol Labs), Cosmos, Polkadot, NEAR, Tezos集合在一起共同举办线上峰会Ready Layer One,为大家提供项目与生态的发展更新和未来计划。 目前,该峰会已如期举行完毕,协议实验室和Filecoin项目创始人胡安在峰会发表最新的演讲,具体内容如下: 比特币的出现带来了去中心化的交易,它建立了一个世界范围内的资产——无论你在世界的哪个角落,只要你有网,只要你有钱包,就可以通过比特币进行瞬间的转账,且能大幅度减少因为汇率带来的货币损失与高额手续费。 然而设想上很美好,实现起来却很难。 比特币是第一代区块链,它的技术限于语言,功能上也没有那么过于神话。但在价值上,它已经超神。 后来诞生了以太坊,利用智能合约为我们消除共识,给区块链领域带来了更是各式的应用。以太坊简单来说就是基于智能合约建立的一个应用平台,它为各式各样的团队提供端口,链接他们的小应用。这样他们就可以直接利用以太坊(智能合约、代币等)进行开发、交易、执行Dapp的各种程序。 再到2017年,更多Dapp出现,共同组建新一代的网络,Web3.0初具雏形。 但正是因为这些的出现,数据存储成为一个关键问题,在之前没有一个智能合约能够启动如此量级的存储。 每秒数十亿的交易,你能想象什么样的系统能够承载这样的数据量么?我们需要一个能够和谷歌

用Creator实现一个擀面的效果

妖精的绣舞 提交于 2020-08-04 17:10:25
先上几张效果图 怎么实现的呢? 节点介绍 1是背景图,可以忽略;2 是准备好的面团;3 是擀好的面饼先隐藏;4 是需要绘制的节点;5 是擀面杖。 制作开始 首先在view上挂一个mask,并且设置为模板模式,sprite frame 就设置成那张擀好的面饼。这样的设置可以使Mask按照擀好面饼的形状遮罩内容。 在walpaper-layer 节点上挂在了一个我写好的有关于绘制图形的脚本文件,并设置好相关参数。这个脚本主要做的就是使用Graphics绘制图形。 在graphics节点上挂上Graphics组件提供给我的脚本使用。 使用擀面杖监听触摸事件,通过移动擀面杖并使用擀面杖的坐标(并不是触摸点的坐标)绘制圆形,设置绘制圆形的半径为80或者更大些,以便达到擀面饼的感觉。 怎么判断面饼擀好了呢? 记录面饼九个点的坐标 判断擀面杖的坐标走过的点,走过一个移除一个,都走过之后就可以设置为完成了。 最后隐藏掉绘制的图案,面团,显示出来之前设置好的面饼,这个效果就算制作完成了。 长按下方二维码,关注《微笑游戏》公众号,获取更多精彩内容。 欢迎扫码关注公众号《微笑游戏》,浏览更多内容。 来源: oschina 链接: https://my.oschina.net/u/4064781/blog/4326712

一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD

拟墨画扇 提交于 2020-08-04 15:44:22
一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD 前言 之前我所在的公司七月在线开设的深度学习等一系列课程经常会讲目标检测,包括R-CNN、Fast R-CNN、Faster R-CNN,但一直没有比较好的机会深入(但当你对目标检测有个基本的了解之后,再看 这些课程 你会收益很大)。但目标检测这个领域实在是太火了,经常会看到一些写的不错的通俗易懂的资料,加之之前在京东上掏了一本书看了看,就这样耳濡目染中,还是开始研究了。 今年五一,从保定回京,怕高速路上堵 没坐大巴,高铁又没抢上,只好选择哐当哐当好几年没坐过的绿皮车,关键还不断晚点。在车站,用手机做个热点,修改 题库 ,顺便终于搞清R-CNN、fast R-CNN、faster R-CNN的核心区别。有心中热爱 何惧任何啥。 为纪念这心中热爱,故成此文。 一、目标检测常见算法 object detection,就是在给定的图片中精确找到物体所在位置,并标注出物体的类别。所以,object detection要解决的问题就是物体在哪里以及是什么的整个流程问题。 然而,这个问题可不是那么容易解决的,物体的尺寸变化范围很大,摆放物体的角度,姿态不定,而且可以出现在图片的任何地方,更何况物体还可以是多个类别。 目前学术和工业界出现的目标检测算法分成3类: 1. 传统的目标检测算法

深度学习趣谈:什么是迁移学习?(附带Tensorflow代码实现)

戏子无情 提交于 2020-08-04 15:11:47
一.迁移学习的概念 什么是迁移学习呢?迁移学习可以由下面的这张图来表示: 这张图最左边表示了迁移学习也就是把已经训练好的模型和权重直接纳入到新的数据集当中进行训练,但是我们只改变之前模型的分类器(全连接层和softmax/sigmoid),这样就可以节省训练的时间的到一个新训练的模型了! 但是为什么可以这么做呢? 二.为什么可以使用迁移学习? 一般在图像分类的问题当中,卷积神经网络最前面的层用于识别图像最基本的特征,比如物体的轮廓,颜色,纹理等等,而后面的层才是提取图像抽象特征的关键,因此最好的办法是我们只需要保留卷积神经网络当中底层的权重,对顶层和新的分类器进行训练即可。那么在图像分类问题当中,我们如何使用迁移学习呢?一般使用迁移学习,也就是预训练神经网络的步骤如下; 1.冻结预训练网络的卷积层权重 2.置换旧的全连接层,换上新的全连接层和分类器 3.解冻部分顶部的卷积层,保留底部卷积神经网络的权重 4.同时对卷积层和全连接层的顶层进行联合训练,得到新的网络权重 既然我们知道了迁移学习的基本特点,何不试试看呢? 三.迁移学习的代码实现 我们使用迁移学习的方法来进行猫狗图像的分类识别,猫猫的图像在我的文件夹里如下图所示: 然后导包: import tensorflow as tf from tensorflow import keras import matplotlib

MyDLNote-Enhancement : CVPR2019-基于注意力的操作适应性选择的混合未知畸变图像修复

喜你入骨 提交于 2020-08-04 13:40:08
CVPR 2019 : Attention-based Adaptive Selection of Operations for Image Restoration in the Presence of Unknown Combined Distortions [paper] : Attention-based Adaptive Selection of Operations for Image Restoration in the Presence of Unknown Combined Distortions 目录 CVPR 2019 : Attention-based Adaptive Selection of Operations for Image Restoration in the Presence of Unknown Combined Distortions Abstract Introduction Operation-wise Attention Network Operation-wise Attention Layer Operation Layer Feature Extraction Block and Output Layer Experimental Configuration Abstract Many studies have been

深度剖析大数据平台的数据处理

独自空忆成欢 提交于 2020-08-04 12:19:55
无论是采集数据,还是存储数据,都不是大数据平台的最终目标。失去数据处理环节,即使珍贵如金矿一般的数据也不过是一堆废铁而已。数据处理是大数据产业的核心路径,然后再加上最后一公里的数据可视化,整个链条就算彻底走通了。 如下图所示,我们可以从业务、技术与编程模型三个不同的视角对数据处理进行归类: 业务角度的分类与具体的业务场景有关,但最终会制约技术的选型,尤其是数据存储的选型。例如,针对查询检索中的全文本搜索,ElasticSearch会是最佳的选择,而针对统计分析,则因为统计分析涉及到的运算,可能都是针对一列数据,例如针对销量进行求和运算,就是针对销量这一整列的数据,此时,选择列式存储结构可能更加适宜。 在技术角度的分类中,严格地讲,SQL方式并不能分为单独的一类,它其实可以看做是对API的封装,通过SQL这种DSL来包装具体的处理技术,从而降低数据处理脚本的迁移成本。毕竟,多数企业内部的数据处理系统,在进入大数据时代之前,大多以SQL形式来访问存储的数据。大体上,SQL是针对MapReduce的包装,例如Hive、Impala或者Spark SQL。 Streaming流处理可以实时地接收由上游源源不断传来的数据,然后以某个细小的时间窗口为单位对这个过程中的数据进行处理。消费的上游数据可以是通过网络传递过来的字节流、从HDFS读取的数据流,又或者是消息队列传来的消息流。通常

传统蓝牙HCI(Bluetooth HCI)的概念介绍

自闭症网瘾萝莉.ら 提交于 2020-08-04 10:26:12
一. 声明 本专栏文章我们会以连载的方式持续更新,本专栏计划更新内容如下: 第一篇:蓝牙综合介绍 ,主要介绍蓝牙的一些概念,产生背景,发展轨迹,市面蓝牙介绍,以及蓝牙开发板介绍。 第二篇:Transport层介绍,主要介绍蓝牙协议栈跟蓝牙芯片之前的硬件传输协议,比如基于UART的H4,H5,BCSP,基于USB的H2等 第三篇:传统蓝牙controller介绍,主要介绍传统蓝牙芯片的介绍,包括射频层(RF),基带层(baseband),链路管理层(LMP)等 第四篇:传统蓝牙host介绍,主要介绍传统蓝牙的协议栈,比如HCI,L2CAP,SDP,RFCOMM,HFP,SPP,HID,AVDTP,AVCTP,A2DP,AVRCP,OBEX,PBAP,MAP等等一系列的协议吧。 第五篇:低功耗蓝牙controller介绍,主要介绍低功耗蓝牙芯片,包括物理层(PHY),链路层(LL) 第六篇:低功耗蓝牙host介绍,低功耗蓝牙协议栈的介绍,包括HCI,L2CAP,ATT,GATT,SM等 第七篇:蓝牙芯片介绍,主要介绍一些蓝牙芯片的初始化流程,基于HCI vendor command的扩展 第八篇:附录,主要介绍以上常用名词的介绍以及一些特殊流程的介绍等。 另外,开发板如下所示,对于想学习蓝牙协议栈的最好人手一套。以便更好的学习蓝牙协议栈,相信我

Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛

这一生的挚爱 提交于 2020-08-04 10:18:31
Kaggle—So Easy!百行代码实现排名Top 5%的图像分类比赛 作者:七月在线彭老师 说明:本文最初由彭老师授权翟惠良发布在公众号“七月在线实验室”上,现再由July重新编辑发布到本blog上。 Github: https://github.com/pengpaiSH/Kaggle_NCFM 前言 根据我个人的经验,学好AI,有五个必修:数学、数据结构、Python数据分析、ML、DL,必修之外,有五个选修可供选择:NLP、CV、DM、量化、Spark,然后配套七月在线的这些必修和选修课程刷leetcode、kaggle,最后做做相关开源实验。 今天,咱们就来看一看:如何用百行代码实现Kaggle排名Top 5%的图像分类比赛。 1. NCFM 图像分类 任务 简介 为了保护和监控海洋环境及生态平衡,大自然保护协会( The Nature Conservancy )邀请 Kaggle[1] 社区 的参赛者们开发能够出机器学习算法, 自动 分类和识别远洋捕捞船上 的 摄像头 拍摄 到的图片中鱼类的品种, 例如 不同种类的吞拿鱼和鲨鱼。大自然保护协会一共提供了 3777 张标注的图片 作为 训练集, 这些 图片 被 分为了 8 类, 其中7类 是不同种类的海鱼, 剩余1类则是 不含有鱼的图片, 每张图片 只属于 8类 中的某一类别。 图1给出了 数据集中的几张图片样例

DCGAN论文导读、关键点说明及代码实现修改(1)

血红的双手。 提交于 2020-08-04 10:16:57
论文导读 网上关于DCGAN论文的介绍很多,我就把我觉得对于需要理解的关键点和对后面训练调参有帮助的地方拿出来说明一下,仅做参考,有错误希望大佬们指正。 0.Abstract In this work we hope to help bridge the gap between the success of CNNs for supervised learning and unsupervised learning 这里作者说希望缩小CNN在有监督学习和无监督学习之间应用的差距,也就是当前CNN在有监督场景下应用效果更好。这里关于GAN属于无监督学习我们在后面的训练部分会有深入说明。 1.Introduction We propose that one way to build good image representations is by training Generative Adversarial Networks (GANs) (Goodfellow et al., 2014), and later reusing parts of the generator and discriminator networks as feature extractors for supervised tasks 这里作者说通过训练对抗生成神经网络构建了一种更好的图像表示的方法(one