layer

用Python可视化卷积神经网络

只愿长相守 提交于 2020-08-06 13:50:25
深入学习中最具争议的话题之一是如何解释和理解一个经过训练的模型——特别是在医疗等高风险行业的背景下。“黑匣子”一词经常与深度学习算法联系在一起。如果我们不能解释模型是如何工作的,我们怎么能相信模型的结果呢?这是个合理的问题。 以一个为检测癌症而训练的深度学习模型为例。这个模型告诉你,它99%确定它已经检测到癌症,但它并没有告诉你为什么或者如何做出这个决定。 在核磁共振扫描中找到了重要线索吗?或者只是扫描上的污点被错误地检测为肿瘤?这是病人生死攸关的问题,医生犯了大错后果很严重。 在本文中,我们将探讨如何可视化卷积神经网络(CNN),这是一种深入学习的体系结构,特别用于最先进的基于图像的应用程序。我们将了解可视化CNN模型的重要性,以及可视化它们的方法。我们还将看一个用例,它将帮助你更好地理解这个概念。 CNN模型可视化的重要性 正如我们在上面的癌症肿瘤例子中所看到的,我们知道我们的模型在做什么,以及它如何对预测做出决定,这是绝对重要的。 下面列出的原因是一个深度学习实践者要记住的最重要的一点: 了解模型的工作原理 超参数调整 找出模型的失败之处并能够解决失败 向消费者/最终用户或业务主管解释决策 让我们看一个例子,在这个例子中,可视化一个神经网络模型有助于理解模型一些不好的行为和提高性能。 下面的例子来自: http://intelligence.org/files

iOS Rendering 渲染全解析(长文干货)

丶灬走出姿态 提交于 2020-08-06 13:24:45
希望通过这篇文章从头到尾梳理一下 iOS 中涉及到渲染原理相关的内容,会先从计算机渲染原理讲起,慢慢说道 iOS 的渲染原理和框架,最后再深入探讨一下离屏渲染。 希望能对大家有点帮助~ 1. 计算机渲染原理 CPU 与 GPU 的架构 对于现代计算机系统,简单来说可以大概视作三层架构:硬件、操作系统与进程。对于移动端来说,进程就是 app,而 CPU 与 GPU 是硬件层面的重要组成部分。CPU 与 GPU 提供了计算能力,通过操作系统被 app 调用。 CPU(Central Processing Unit) :现代计算机整个系统的运算核心、控制核心。 GPU(Graphics Processing Unit) :可进行绘图运算工作的专用微处理器,是连接计算机和显示终端的纽带。 CPU 和 GPU 其设计目标就是不同的,它们分别针对了两种不同的应用场景。CPU 是运算核心与控制核心,需要有很强的运算通用性,兼容各种数据类型,同时也需要能处理大量不同的跳转、中断等指令,因此 CPU 的内部结构更为复杂。而 GPU 则面对的是类型统一、更加单纯的运算,也不需要处理复杂的指令,但也肩负着更大的运算任务。 因此,CPU 与 GPU 的架构也不同。因为 CPU 面临的情况更加复杂,因此从上图中也可以看出,CPU 拥有更多的缓存空间 Cache 以及复杂的控制单元,计算能力并不是 CPU

layui导出表格全部数据

*爱你&永不变心* 提交于 2020-08-06 10:48:38
2020.1.16 最近终于又用到了导出表格,我在实际项目里使用了上次发现的导出全部数据方法,然后遇到了一些问题,并进行了解决,终于可以正式写在博客中了。 整体代码: < div style ="display: none" > < table id ="table" > </ table > </ div > // 导出表格配置 table.render({ elem: '#table' , id: 'exportTable' , title: '导出的文件名' , cols: [[ // 表头 { field: 'uid' , title: 'ID' , }, { field: 'uname' , title: '姓名' , } ]] }); // 导出事件 $('#export').on('click', function () { // 使用ajax请求获取所有数据 $.ajax({ url: "url" , type: 'post' , data: { type: 1 }, async: false , dataType: 'json' , success: function (res) { // 使用table.exportFile()导出数据 table.exportFile('exportTable', res.data, 'xls' ); } }); });

我的“第一次”,就这样没了:DDD(领域驱动设计)理论结合实践

安稳与你 提交于 2020-08-06 09:51:47
写在前面        插一句:本人超爱落网-《 平凡的世界 》这一期,分享给大家。   阅读目录: 关于DDD 前期分析 框架搭建 代码实现 开源-发布 后记 第一次听你,清风吹送,田野短笛;第一次看你,半弯新湖,鱼跃翠堤;第一次念你,燕飞巢冷,释怀记忆;第一次梦你,云翔海岛,轮渡迤逦;第一次认你,怨江别续,草桥知己;第一次怕你,命悬一线,遗憾禁忌;第一次悟你,千年菩提,生死一起。   人生有很多的第一次:小时候第一次牙牙学语、第一次学蹒跚学步。。。长大后第一次上课、第一次逃课、第一次骑自行车、第一次懂事、第一次和喜欢的人说“我爱你”、第一次旅行、第一次敞开心扉去认识这个世界。。。   第一次的感觉:有甜蜜、有辛酸;有 勇敢 、有 羞涩 ;有成功、有失败。不管怎样,都要勇敢的迈出第一步,不论成功与失败,至少自己努力过,证明过自己就好,就像哥伦布探索美洲一样,没有勇敢迈出第一步,也许现在“美洲”的概念会推迟不知多少年。   以下内容,只是一些个人看法和实现,仅供参考学习,也欢迎讨论指教。 关于DDD   对DDD(领域驱动设计)最初的了解,始于这一篇博文: http://www.cnblogs.com/netfocus/archive/2011/10/10/2204949.html ,当时花了四五个小时阅读完,但只是初步对DDD有个了解,有点颠覆自己对编程思想的看法。2004年

OpenGL 4.6 能取到的398个扩展 记录一下

自作多情 提交于 2020-08-06 08:55:00
0 : GL_AMD_multi_draw_indirect 1 : GL_AMD_seamless_cubemap_per_texture 2 : GL_AMD_vertex_shader_viewport_index 3 : GL_AMD_vertex_shader_layer 4 : GL_ARB_arrays_of_arrays 5 : GL_ARB_base_instance 6 : GL_ARB_bindless_texture 7 : GL_ARB_blend_func_extended 8 : GL_ARB_buffer_storage 9 : GL_ARB_clear_buffer_object 10 : GL_ARB_clear_texture 11 : GL_ARB_clip_control 12 : GL_ARB_color_buffer_float 13 : GL_ARB_compatibility 14 : GL_ARB_compressed_texture_pixel_storage 15 : GL_ARB_conservative_depth 16 : GL_ARB_compute_shader 17 : GL_ARB_compute_variable_group_size 18 : GL_ARB_conditional_render

蓝牙专题(3)——BLE协议栈(链路层Link Layer)*

人走茶凉 提交于 2020-08-06 08:10:50
链路层位于物理层之上,链路层和物理层一样,都属于BLE协议栈的controller(控制器)部分。 在我查看的文章和书籍上,都是一来就介绍链路层的五种状态,这对于笔者这样理解能力不够又喜欢刨根问底的人来说,无疑是一种折磨,那五种状态和链路层有什么关系,为什么网上各种文章还有书籍都是一来就介绍各种状态之间的转换?好吧,或许是因为BLE核心协议就是这样做的,将其翻译过来就是现在网上和书籍上的内容。这对本来就不怎么聪明的大脑无疑是雪上加霜,无法理解这些状态和链路层有什么关系,为什么要在链路层引入那些状态。直到我使用英文搜索问题之后,发现有如下表述: 连接: https://medium.com/@zpcat/how-bluetooth-le-works-link-layer-b18475250259 我恍然大悟,原来 链路层就是一个或多个状态机,这样就可以理解core_4.2中为什么一来就是描述链路层状态。 链路层定义了在各种状态下的数据包格式、时序规范和接口协议, 在物理层的基础上,提供两个或多个设备之间,和物理层无关的逻辑传输通道,对链路层的上层屏蔽了物理层的特性,链路层的上层不需要再理解物理层的信息。 链路层的五种状态: • Standby State 待机态 • Advertising State 广播态 • Scanning State 扫描态 • Initiating

清晰架构(Clean Architecture)的Go微服务—重大升级

。_饼干妹妹 提交于 2020-08-06 07:54:00
去年,我创建了一个清晰架构(Clean Architecture)微服务框架,它功能强大,但有些重。我写了一个系列文章来讲述它,请参阅 "清晰架构(Clean Architecture)的Go微服务" 。 我还指出了设计中存在的一些缺陷,并讲到希望以后能修复它们。现在我终于有时间对它进行了改造,结果比我预期的还要好。 我所做的改动不大,但效果惊人。主要的项目结构和接口没有变,我在那些文章中写的大部分内容仍然有效。这次升级修复了旧框架中的所有主要问题。现在它几乎拥有了我理想框架中的所有内容。它是一个轻量级的,但功能强大,并且还是可插拔的。 主要改进如下: 自我进化的设计 第三方库 单独的事务管理库 其它改动 自我进化的设计 这是所有改动中最突出的。旧的框架有点重,不适合轻量级的项目。升级后,它适合所有类型的项目。你可以改变项目框架本身,使它与你的项目时,你的项目变得更复杂时,你可以改变框架让它也变得复杂,但你不需要在修改任何业务代码。我写了一篇单独的文章来讲述他,请参阅 "一个可以自我进化的微服务框架" 。 第三方库 在我的旧框架中,一个很好的设计是日志接口。有了它,我可以切换到任何其他日志库,而不需要更改代码(我只需要更改配置文件)。唯一的缺点是它依赖于框架,不能独立使用。升级后,我将它从框架中剥离出来,变成了一个独立的第三方库,,这样它就可以单独使用

《Erlang程序设计》第五章 顺序型编程进阶

╄→гoц情女王★ 提交于 2020-08-06 07:49:26
第五章 顺序型编程进阶 Table of Contents 第五章 顺序型编程进阶 5.1 BIF 5.2 二进制数据 5.3 比特语法 5.3.1 16bit色彩的封包与解包 5.3.2 比特语法表达式 5.3.3 高级比特语法样例 5.4 小问题集锦 5.4.1 apply 5.4.2 属性 5.4.3 块表达式 5.4.4 布尔类型 5.4.5 布尔表达式 5.4.6 字符集 5.4.7 注释 5.4.8 epp 5.4.9 转义符 5.4.10 表达式和表达式序列 5.4.11 函数引用 5.4.12 包含文件 5.4.13 列表操作符++和-- 5.4.14 宏 5.4.15 在模式中使用匹配操作符 5.4.16 数值类型 5.4.17 操作符优先级 5.4.18 进程字典 5.4.19 引用 5.4.20 短路布尔表达式 5.4.21 比较表达式 5.4.22 下划线变量 第五章 顺序型编程进阶 5.1 BIF BIF:Erlang的内建函数, 默认已经导入, 可以直接使用。 相关文档参见: http://erlang.org/doc/man/erlang.html 5.2 二进制数据 书写和打印时二进制数据以整数或字符序列包在''和' '之间的形式出现。 相比于元组和列表, 二进制更节省内存, 且因系统已对其进行了优化, 使得二进制数据的输入输出更加高效。 list

下篇:express、koa1、koa2的中间件原理

好久不见. 提交于 2020-08-06 07:48:48
2.1 express@4.15.3 2.1.1 例子 1 'use strict'; 2 3 var express = require('express'); 4 var app = express(); 5 6 app.use((req, res, next) => { 7 console.log('middleware 1 before'); 8 next(); 9 console.log('middleware 1 after'); 10 }); 11 12 app.use((req, res, next) => { 13 console.log('middleware 2 before'); 14 next(); 15 console.log('middleware 2 after'); 16 }); 17 18 app.use((req, res, next) => { 19 console.log('middleware 3 before'); 20 next(); 21 console.log('middleware 3 after'); 22 }); 23 24 app.listen(8888); 启动后执行“wget localhost:8888”以触发请求。 输出: [Sherlock@Holmes Moriarty]$ node app.js

RCNN极其细致初学者阅读笔记

。_饼干妹妹 提交于 2020-08-06 06:48:43
版权声明:本文由 Kathy 投稿 1、 Introduction 1.1 R-CNN and SPPnet R-CNN的弊端: 多阶段(3)的训练过程 训练的时间和空间开销大 速度过慢 R-CNN的问题症结在于其不能共享计算,而SPPnet改进了这个问题,通过对整张图卷积得到特征图,从这张特征图上进行region proposal而能够共享卷积的计算结果,加速了 R-CNN;后通过空间金字塔池化实现了任意尺度图像的输入。 SPPnet的问题在于:训练仍是多阶段的;特征提取后仍需存放到磁盘造成大的开销;不像R-CNN,其微调算法不能更新金字塔池化之前的卷积层,从而限制了网络的深度。 1.2 contribution 提出Fast R-CNN,其优点为: 更高的检测精度mAP 训练时单阶段的 训练过程可以更新所有层网络参数 无需为特征图缓存消耗内存 2、 Fast R-CNN architecture and training 网络结构为: 输入整张图片,通过卷积池化提取特征图 在特征图上提取RoI (region of interest),相当于region proposal 阶段。 RoI Pooling输出固定尺寸的RoI特征图(尺度降为1的简易版SPP) FCs映射得到固定维度的特征向量 对特征向量分别进行分类(获得K+1维结果,类别+背景)和回归(获得K4维结果