mapper

sprinboot+tk.mybatis集成人大金仓kingbase数据库

自作多情 提交于 2020-01-26 10:25:10
1.首先需要找到jar包 链接:https://pan.baidu.com/s/1LXE-4di6Dieuw5hfXrKIqg 提取码:j3r4 2.导入到本地mvn本地仓库 mvn install:install-file -Dfile=E:\jar\kingbase8-8.2.0.jar -DgroupId=com.kingbase8 -DartifactId=kingbase8 -Dversion=8.2.0 -Dpackaging=jar 3.在pom.xml中引用 <dependency> <groupId>com.alibaba</groupId> <artifactId>druid</artifactId> <version>1.1.9</version> </dependency> <dependency> <groupId>com.kingbase8</groupId> <artifactId>kingbase8</artifactId> <version>8.2.0</version> </dependency> 这里使用的是阿里的连接池下载稍微高点的版本支持人大金仓数据库 4.在配置文件中配置连接 jdbc2: url: jdbc:kingbase8://192.168.163.177:54321/ACCP username: SYSTEM password:

20191229——mapper代理方法

无人久伴 提交于 2020-01-26 03:36:32
思路 程序员只需要mapper接口,相当于(dao接口),还需要编写mapper.xml映射文件 mybatis可以自动将,生成mapper接口实现类的代理对象 mapper接口需要遵循一些接口规范 开发规范: 1.在mapper中namespace等于mapper接口的地址 2.mapper.java接口中方法名和mapper.xml中的statement的id一致 3.mapper接口输入参数类型和mapper.xml中的statement的parameterType指定类型一致, 4.mapper接口返回值的类型,与映射文件,resultType一致 以上开发规范主要是对下面代码统一生成 mapper代理总结 测试 不需要现实类了。 代理对象内部调用selectOne 或者selectList 如果mapper方法返回pojo单个对象,代理对象通过selectOne来查询数据库。 如果不是,而是一个集合对象,那么就是selectList方法 mapper接口方法参数只有一个,系统是否不利于开发 系统框架中,dao层代码一定是被业务层公用的。 即使mapper对象接口只有一个,可使用包装类型的pojo满足不同的业务的方法需求。 持久层中,方法的参数可以用包装类型,但是service方法建议不要使用包装类型。 不利于业务层的扩展性 来源: CSDN 作者: 宫城诗 链接:

SpringBoot整合Mybatis案例

放肆的年华 提交于 2020-01-26 03:11:29
SpringBoot整合Mybatis案例 2019/7/15以实习生身份入职公司前端做Angular ,但是感觉前途迷茫,于是乎学习一下Java的框架——SpringBooot。 参照大神博客: https://blog.csdn.net/iku5200/article/details/82856621#commentBox IDE:idea、DB:mysql 新建一个SpringBoot项目 创建一个新项目。 创建项目的文件结构以及jdk的版本 选择所需要的依赖 修改项目名,完成项目创建 建好后的pom.mxl文件 1 <?xml version="1.0" encoding="UTF-8"?> 2 <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 3 xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> 4 <modelVersion>4.0.0</modelVersion> 5 <parent> 6 <groupId>org.springframework.boot<

AutoMapper初步学习

落花浮王杯 提交于 2020-01-26 02:17:53
AutoMapper初步学习 AutoMapper 初学 入门 前言 在一个应用程序中,如果在两个不同的类型对象之间传输数据,通常我们会用DTOs(数据传输对象),View Models(视图模型),或者直接是一些从一个service或者Web API的一些请求或应答对象。一个常见的需要使用数据传输对象的情况是,我们想把属于一个对象的某些属性值赋值给另一个对象的某些属性值,但是问题是,这个两个对象可能并不是完全匹配的,比如,两者之间的属性类型,名称等等,是不一样的,或者我们只是想把一个对象的一部分属性值赋值给另一个对象。 手动映射 以往的方式,都是手动映射去一一对应需要的某些属性值,我们来看一下是如何处理的。 通过以下这个例子来直观感受这种方式,创建了以下三个类: public class Author {     public string Name { get ; set ; } } public class Book {     public string Title { get ; set ; }     public Author Author { get ; set ; } } public class BookViewModel {     public string Title { get ; set ; }     public string Author {

Hadoop的MapReduce

人走茶凉 提交于 2020-01-26 02:11:33
MapReduce是一种计算模型,被广泛使用的开源大数据技术Hadoop中实现了这种模型。 对于Hadoop的MapReduce来说,输入和输出都是以 key-value 键值对的形式体现的。在整个map到reduce的过程中,数据都是以这种形式表现。 (input) <k1, v1> -> map -> <k2, v2> -> reduce -> <k3, v3> (output) hadoop的MapReduce在执行逻辑上分为多个组件,不同的组件解决不同的问题。 Mapper Mapper映射输入的k/v到新的k/v,新的k/v是中间结果数据,类型可以与原始输入的k/v不一致,并且可以选择映射成多个新的k/v或者直接吞没输入,不输出任何数据。Map任务的数量一般由输入数据划分的数量决定, Mapper阶段的输出作为Reducer输入前被排序,如果没有Reducer阶段,输出将不会被排序。 Combiner Combiner可以在Map任务输出结果后,就地介入直接对当前节点上的Map结果进行组合,在数据流入到Reduce阶段前提前缩减数据量。 Reducer Reducer以Mapper阶段的输出为输入,提炼聚合出所需要的结果。在Hadoop的的MapReduce实现中,reduce操作接受的输入是key/list的形式,共享同一个key的多个数据被传递给reduce操作。

Spring Boot(十):Spring Boot集成mybatis

▼魔方 西西 提交于 2020-01-25 21:07:27
一、前置条件 先创建好一个最简单的spring boot项目,可参考之前章节的源代码或直接自己创建一个。 二、创建数据库 创建数据库 create database springboot; 创建用户表 tbl_user 并插入测试数据 CREATE TABLE `tbl_user` ( `user_id` bigint(20) NOT NULL, `user_name` varchar(50) DEFAULT NULL, `user_age` int(11) DEFAULT NULL, PRIMARY KEY (`user_id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; INSERT INTO `tbl_user` VALUES (1, '张三', 27); INSERT INTO `tbl_user` VALUES (2, '李四', 30); INSERT INTO `tbl_user` VALUES (3, '王五', 20); 脚本sql在源码的db文件夹中。 三、引入mybatis依赖 <!-- mybatis --> <dependency> <groupId>org.mybatis.spring.boot</groupId> <artifactId>mybatis-spring-boot-starter</artifactId>

IDEA 搭建 基于 SSM 框架 的 Maven 项目 (3)

喜夏-厌秋 提交于 2020-01-25 11:02:56
此系列:IDEA 搭建 基于 SSM 框架 的 Maven 项目, 完成一个基本的Web应用,实现 crud 功能。 (1) 在IDEA中,新建一个Maven工程,并创建好完整的项目结构 (2) 引入项目依赖的 jar 包,引入bootstrap前端框架,编写SSM整合的配置文件 (3) 创建数据库,生成bean文件 和 mapper文件,最后测试该部分 (4) 页面发送请求查询所有员工数据,得到 json 字符串 (5) 设计分页显示页面,解析 json 字符串,展示查询结果 (6) 添加“新增”功能 (7) 对用户输入数据进行校验 (8) 添加“修改”功能 (9) 添加“删除”功能 本节:创建数据库,生成bean文件 和 mapper文件,最后测试该部分 1. 创建数据库 create database ssm; use ssm; create table tbl_dept(dept_id int(11) not null primary key auto_increment,dept_name varchar(255) not null); create table tbl_emp(emp_id int(11) not null primary key auto_increment, emp_name varchar(255), gender char(1), email

mybatis 第一个项目

谁说我不能喝 提交于 2020-01-25 01:21:01
首先先了解一下mybatis的概念和架构 概念 先了解ORM(Object/Relational Mapping),即对象关系映射,它用来完成面向对象编程语言到关系数据库的映射。简单来说ORM的作用就是将持久化对象的增删改查操作转换成对关系数据库的操作。 ORM的基本映射关系: 数据表映射 数据表的行(一行单表一个数据)映射对象(实例) 数据表的列(字段)映射对象的属性 mybatis本来是apache的开源项目ibatis,后来移植到google code,并更名为现在的名字mybatis。 mybatis的优点: 支持定制化SQL,存储过程,以及高级映射。 避免JDBC代码,以及配置。 对结果集进行封装。 可以使用注解,将接口和java中的pojo映射成数据库中的记录。 mybatis的思想:将程序中大量的sql语句抽离出来,在配置文件中配置,以实现sql的灵活。 mybatis并不是一个完成的ORM框架,他可以通过编写sql,使得访问数据库更加灵活。准确的说是半自动化的ORM框架,是一种sql mapping框架。 架构 mybatis的架构分为三层: 接口层:提供给开发人员的API接口,通过这些API来操作数据库。 数据处理层:完成一次数据库请求,只要的流程是sql查找、sql解析、sql执行,以及对结果集的处理。 基础支撑层:负责最底层的东西,也是公用的东西,包括连接管理

MapReduce计算框架知识总结(一)

痴心易碎 提交于 2020-01-24 18:25:19
文章目录 一.MapReduce简介 1.1 MapReduce特点 扩展性强 使用起来比较简单 高容错性 1.2 MapReduce适用场景 二.MapReduce工作原理(重要) 2.1 MapReduce编程规范 Mapper Reducer Driver 2.2 MapReduce程序执行过程中的两个主要步骤 2.3 MapReduce的三类进程及其作用 2.4 MapReduce程序工作流程分析(重要) 2.4.1 MapReduce的数据切片机制及MapTask并行度 数据切片与MapTask并行度并行度的关系 数据块及数据切片 MapReduce的数据切片机制 默认切片方式 小文件数据切片方式 虚拟存储过程: 切片过程: 2.4.2 MapReduce对输入数据文件的初步处理 TextInputFormat KeyValueTextInputFormat NLineInputFormat 自定义InputFormat 2.4.3 Map阶段 Read操作: Map操作: Collect操作: Spill操作: Combine操作: 2.4.4 Reduce阶段 Copy操作: Merge操作: Sort操作: Reduce操作: 2.4.5 Shuffle机制 三.MapReduce中的序列化 3.1 Hadoop序列化特点 3.2 Hadoop中使用序列化 一

linux 配置LVM

雨燕双飞 提交于 2020-01-24 09:56:27
1. 阿里云挂载LVM目录(创建LVM,以及配置第一块硬盘) fdisk /dev/vdb 输入 n p 1 enter enter wq pvcreate /dev/vdb1 vgcreate lvmgroup /dev/vdb1 vgchange -ay lvmgroup lvcreate -l 100%FREE -n elasticsearch lvmgroup fdisk -l mkfs.ext4 /dev/mapper/lvmgroup-elasticsearch cd / mkdir elasticsearch mount /dev/mapper/lvmgroup-elasticsearch /elasticsearch/ df -h 把新建的LVM分区挂载到某个目录上,并且设置开机自动挂载 vi /etc/fstab 下面这段话放到fstab最下方 "/dev/mapper/lvmgroup-elasticsearch /elasticsearch ext4 defaults 0 0" 2. 在已有LVM分区上扩展新的硬盘 挂在新硬盘 fdisk -l fdisk /dev/vdd 输入 n p 1 回车 回车 t 8e wq pvcreate /dev/vdd1 vgextend lvmgroup /dev/vdd1 lvextend -l +100%free