Druid

最新Flowable 工作流引擎 OA办公系统 Springboot vue 前后分离 跨域

孤街浪徒 提交于 2020-08-09 17:18:00
1. 模型管理 :web在线流程设计器、预览流程xml、导出xml、部署流程 2. 流程管理 :导入导出流程资源文件、查看流程图、根据流程实例反射出流程模型、激活挂起 、 自由跳转 3. 运行中流程 :查看流程信息、当前任务节点、当前流程图、作废暂停流程、指派待办人 4. 历史的流程 :查看流程信息、流程用时、流程状态、查看任务发起人信息 5. 待办任务 :查看本人个人任务以及本角色下的任务、办理、驳回、作废、指派一下代理人 6. 已办任务 :查看自己办理过的任务以及流程信息、流程图、流程状态(作废 驳回 正常完成) 注:当办理完当前任务时,下一任务待办人会即时通讯收到新任务消息提醒,当作废和完结任务时, 任务发起人会收到站内信消息通知 1.代码生成器: [正反双向](单表、主表、明细表、树形表,快速开发利器)+快速表单构建器 freemaker模版技术 ,0个代码不用写,生成完整的一个模块,带页面、建表sql脚本、处理类、service等完整模块 2.多数据源: (支持同时连接无数个数据库,可以不同的模块连接不同数的据库)支持N个数据源 3. 阿里数据库连接池 druid ,安全权限框架 shiro( 菜单权限和按钮权限 ) , 缓存框架 ehcache 4. 代码编辑器, 在线模版编辑,仿开发工具编辑器 5.调用摄像头拍照 自定义裁剪编辑头像,头像图片色度调节 6

用户画像大数据环境搭建——从零开始搭建实时用户画像(四)

岁酱吖の 提交于 2020-08-09 05:51:46
​ 本章我们开始正式搭建大数据环境,目标是构建一个稳定的可以运维监控的大数据环境。我们将采用Ambari搭建底层的Hadoop环境,使用原生的方式搭建Flink,Druid,Superset等实时计算环境。使用大数据构建工具与原生安装相结合的方式,共同完成大数据环境的安装。 Ambari搭建底层大数据环境 Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应、管理和监控。Ambari已支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、 Hbase、Zookeeper、Sqoop和Hcatalog等。 Apache Ambari 支持HDFS、MapReduce、Hive、Pig、Hbase、Zookeepr、Sqoop和Hcatalog等的集中管理。也是顶级的hadoop管理工具之一。 目前Ambari的版本已经更新到2.7,支持的组件也越来越丰富。 Hadoop的发行版本有很多,有华为发行版,Intel发行版,Cloudera发行版(CDH),MapR版本,以及HortonWorks版本等。所有发行版都是基于Apache Hadoop衍生出来的,产生这些版本的原因,是由于Apache Hadoop的开源协议决定的:任何人可以对其进行修改,并作为开源或商业产品发布和销售。 收费版本: 收费版本一般都会由新的特性

跟我学Springboot开发后端管理系统8:Matrxi-Web权限设计实现

荒凉一梦 提交于 2020-08-07 07:23:25
上篇文章讲述了Matrix-web整体实现的权限控制的思路。现在来回顾一下: 首先,用户需要登录,填用户名、密码,后端接收到登录请求,进行用户、密码的校验,校验成功后则根据用户名生成Token,并返回给浏览器。 浏览器收到Token后,会存储在本地的LocalStorge里。 后续浏览器发起请求时都携带该Token,请求达到后端后,会在Filter进行判断,首选判断是否为白名单url(比如登录接口url),如果是则放行;否则进入Token验证。如果有Token且解析成功,则放行,否则,返回无权限访问。 Filter判断后,请求达到具体的Controller层,如果在Controller层上加上了权限判断的注解,则生成代理类。代理类在执行具体方法前会根据Token判断权限。 取出用户的Token并解析得到该请求的userId,根据userId在从存储层获取用户的权限点。权限控制是RBAC这种方式实现的。 获取到用户权限点后,获取权限判断的注解的权限信息,看用户权限点是否包含权限注解的权限信息,如果包含,则权限校验通过,否则则请求返回无权限。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7hlz5kP4-1590667445450)(https://ws3.sinaimg.cn/large

springboot+mybatis-plue实现内置的CRUD使用详情

喜欢而已 提交于 2020-08-07 04:46:16
springboot+mybatis-plue实现内置的CRUD使用详情,具体修改删除操作内容后文也有详细说明 mybatis-plus的特性 无侵入:只做增强不做改变,引入它不会对现有工程产生影响,如丝般顺滑 损耗小:启动即会自动注入基本CURD,性能基本无损耗,直接面向对象操作 强大的 CRUD操作:内置通用 Mapper、通用Service,仅仅通过少量配置即可实现单表大部分 CRUD 操作,更有强大的条件构造器,满足各类使用需求 支持 Lambda形式调用:通过 Lambda 表达式,方便的编写各类查询条件,无需再担心字段写错 支持主键自动生成:支持多达 4种主键策略(内含分布式唯一 ID 生成器 - Sequence),可自由配置,完美解决主键问题 支持 ActiveRecord 模式:支持ActiveRecord 形式调用,实体类只需继承 Model 类即可进行强大的 CRUD 操作 支持自定义全局通用操作:支持全局通用方法注入( Write once, use anywhere ) 内置代码生成器:采用代码或者Maven 插件可快速生成 Mapper 、 Model 、 Service 、 Controller 层代码,支持模板引擎,更有超多自定义配置等您来使用 内置分页插件:基于 MyBatis 物理分页,开发者无需关心具体操作,配置好插件之后,写分页等同于普通

跟我学Springboot开发后端管理系统5:数据库读写分离

﹥>﹥吖頭↗ 提交于 2020-08-07 04:18:17
在Matrix-web后台管理系统中,使用到了数据库的读写分离技术。采用的开源的Sharding-JDBC作为数据库读写分离的框架。Matrix-Web后台数据库这一块采用的技术栈如下: 使用Mybatis-Plus作为ORM框架 使用Druid或者HikariCP作为数据库连接池 使用Sharding-JDBC 作为数据库读写分离的框架 本篇文章将讲述在Sharding-JDBC在Matrix-Web中的应用。 Sharding-JDBC简介 Sharding-JDBC是的分布式数据库中间件解决方案。Sharding-JDBC、Sharding-Proxy和Sharding-Sidecar(计划中)是3款相互独立的产品,共同 组成了ShardingSphere。Sharding-JDBC定位于轻量级的Java框架,它使用客户端直连数据库,可理解为增强版的JDBC驱动,完全兼容JDBC和各种ORM框架。 适用于任何基于Java的ORM框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template或直接使用JDBC。 基于任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, Druid, HikariCP等。 支持任意实现JDBC规范的数据库。目前支持MySQL,Oracle,SQLServer和PostgreSQL。 架构图如下

跟我学Springboot开发后端管理系统4:数据库连接池Druid和HikariCP

a 夏天 提交于 2020-08-06 04:27:21
上一篇文章主要讲解了如何再Matrix-Web中使用Mybatis-Plus,Mybatis-Plus作为Orm框架,连接数据库需要连接数据库的依赖。WEB 系统高并发环境下,频繁的进行数据库连接操作,造成系统技术瓶颈问题(无效的资源开销),通过为数据库连接为建立一个“缓冲池”。预先在缓冲池中放入一定数量的连接,当需要建立数据库连接时,只需从“缓冲池”中取出一个,使用完毕之后再放回去。 数据库连接池有很多,比如c3p0、Druid、Hikari等。大家常用的连接池应该是阿里开源的Druid,Druid不仅是连接池,而且带有监控。在Matrix-Web中,选择的Druid作为数据库连接池。Hikari作为Spring Boot官方推荐的连接池,在这里也讲解一下。 在Spring Boot中使用Druid Druid是阿里开发的一个数据库连接池,在国内比较的流行,具有以下的特性: 可以监控数据库访问性能,Druid内置提供了一个功能强大的StatFilter插件,能够详细统计SQL的执行性能,这对于线上分析数据库访问性能有帮助。 数据库密码加密。直接把数据库密码写在配置文件中,这是不好的行为,容易导致安全问题。DruidDruiver和DruidDataSource都支持PasswordCallback。 SQL执行日志,Druid提供了不同的LogFilter,能够支持Common

mysql 把表名自动改为大写

ぐ巨炮叔叔 提交于 2020-08-05 22:18:07
最近要做sql标准化,要求所有的表名,字段名大写,我总不能把代码给改一边把,于是找到druid,使用语法分析,拿到sql,把表名改为大写。 package com.topnet.dao.util; import com.alibaba.druid.sql.SQLUtils; import com.alibaba.druid.sql.ast.SQLStatement; import com.alibaba.druid.sql.ast.expr.SQLIdentifierExpr; import com.alibaba.druid.sql.ast.statement.SQLExprTableSource; import com.alibaba.druid.sql.ast.statement.SQLSelect; import com.alibaba.druid.sql.ast.statement.SQLSelectStatement; import com.alibaba.druid.sql.dialect.mysql.visitor.MySqlASTVisitorAdapter; import com.alibaba.druid.util.JdbcConstants; /** * @author lpf 把sql语句改为大写 */ public class SqlUpperUtil

解决 Cause: java.sql.SQLException: sql injection violation, delete not allow :

梦想的初衷 提交于 2020-08-05 08:39:00
开发中执行 sql 遇到异常如下 Error updating database. Cause: java.sql.SQLException: sql injection violation, delete not allow : delete from xxx where id = ? 解决方式: 数据库配置文件加入即可解决 spring.datasource.druid.filter.wall.enabled= false spring.datasource.druid.filters=stat,slf4j 来源: oschina 链接: https://my.oschina.net/hp2017/blog/4299888

E-MapReduce 4月产品新功能

回眸只為那壹抹淺笑 提交于 2020-08-04 16:27:03
E-MapReduce 4月份新功能: 1.EMR Hadoop集群弹性伸缩支持优雅下线,用户可以在弹性伸缩缩容规则中设置等待时长,降低对缩容task节点任务的影响。 2.EMR支持阿里云企业资源组,在不同资源组实现EMR集群的隔离,便于各部门独立成本核算。 3.EMR支持3个master节点。 4.弹性伸缩在全球所有region对齐。 5.Knox支持Druid。 更多产品详情,请点击 https://www.aliyun.com/product/emapreduce 来源: oschina 链接: https://my.oschina.net/u/4405841/blog/4277067

如何选择linux系统安装类型

╄→гoц情女王★ 提交于 2020-08-04 15:25:21
  1 .Use entire drive (使用整个磁盘)   这个方案会删除硬盘上所有分割区,然后再重新分割硬盘。如果您硬盘上有您想保留的操作系统,请不要选择此项。   2.Replace exiting Linux system (替换掉现有的 Linux 系统)   这个方案会删除硬盘上所有 GNU/Linux 分割区,然后再重新分割硬盘。这种方案不会删除其他操作系统的分割区。如果您硬盘上有您想保留的 GNU/Linux 系统,请不要选择此项。   3.Shrink current system (缩小目前的系统)   如果您整个硬盘已被一个分割区(多数为微软窗口的 NTFS 或 FAT )占用了,就会看到这个方案。这个方案会在不损害原有分割区上资料(不影响您的微软窗口之下)情况下缩小分割区,并在腾出的空间上安装 Fedora 。   4.Use free space (使用可用空间 ) 郑州看胎记费用 http://m.zykdtj.com/   这个方案不会删除任何分割区,只使用尚未分给任何分割区的空间进行自动分割。如果您的硬盘早已被另一个操作系统占用了,此项用不了。   5.Create a custom layout (建立自订的分割模式)   这个方案不会帮您自动分割,会执行一个叫 Disk Druid 的程序让您手动地自行分割硬盘,如果你已经装了别的系统