数据迁移

云栖干货回顾 | 云原生数据库POLARDB专场“硬核”解析

心不动则不痛 提交于 2019-12-01 15:32:21
POLARDB是阿里巴巴自主研发的云原生关系型数据库,目前兼容三种数据库引擎:MySQL、PostgreSQL、Oracle。POLARDB的计算能力最高可扩展至1000核以上,存储容量可达100TB。 POLARDB融合了商业数据库稳定、可靠、高性能的特征,同时具有开源数据库简单、可扩展、高速迭代的优势,适合各个行业公司的创新业务使用。本专场中,来自阿里云、江娱互动以及猿辅导的各位技术大咖一起共同探讨了下一代云原生数据库POLARDB。 1、云原生数据库的演进方向和客户价值 阿里云智能数据库总经理曹伟为大家介绍了云原生数据库的演进方向以及阿里云POLARDB数据库的产品能力。 阿里云RDS和POLARDB都属于OLTP的关系性数据库,那就让我们先看下全球关系型数据库的市场情况。 如今,关系型数据库依旧是“老大哥”,但是过去的十年中关系型数据库领域也发生了一些微妙的变化。伴随着开源运动的兴起和MySQL、PostgreSQL等数据库的出现,很多用户开始在生产系统中大量使用开源数据库,因此商业数据库的市场受到了一定的挤压。 开源数据库的出现影响了整个数据库市场的格局和版图,也为阿里巴巴在数据库市场提供了一个重大的机会。经过十年的时间,阿里云数据库做到了“全国第一,全球领先”。当然,影响数据库格局的重要因素除了开源之外,还有云计算的兴起。 在云时代

FreeSql (一)入门

泪湿孤枕 提交于 2019-12-01 14:22:37
FreeSql (一)入门 FreeSql 是一个功能2904628156强大的对象关系映射程序(O/RM),支持 .NETCore 2.1+ 或 .NETFramework 4.5+(QQ群:4336577) FreeSql采用MIT开源协议托管于 github。 特性 [x] 支持 CodeFirst 迁移; [x] 支持 DbFirst 从数据库导入实体类,支持三种模板生成器; [x] 采用 ExpressionTree 高性能读取数据; [x] 支持深入的类型映射,比如pgsql的数组类型,堪称匠心制作; [x] 支持丰富的表达式函数; [x] 支持导航属性查询,和延时加载; [x] 支持同步/异步数据库操作方法,丰富多彩的链式查询方法; [x] 支持读写分离、分表分库,租户设计; [x] 支持多种数据库,MySql/SqlServer/PostgreSQL/Oracle/Sqlite; 模型 使用模型执行数据访问,模型由实体类表示数据库表或视图,用于查询和保存数据。 可从现有数据库生成实体模型,FreeSql 提供 IDbFirst 接口实现生 生成实体模型 。 或者手动创建模型,基于模型创建或修改数据库,提供 ICodeFirst 同步结构的 API(甚至可以做到开发阶段自动同步)。 using FreeSql.DataAnnotations; using System

使用elasticdump做数据迁移

半腔热情 提交于 2019-12-01 12:57:35
es版本 [root@localhost bin]# ./elasticdump --help elasticdump: Import and export tools for elasticsearch version: 4.6.0 1. elasticdump 安装 su - root cd /opt yum install epel-release yum install nodejs yum install npm npm install elasticdump cd node_modules/elasticdump/bin 后便可以执行操作。 #拷贝analyzer如分词 ./elasticdump \ --input=http://192.168.1.85:9200/db_customer \ --output=http://192.168.1.118:9200/db_customer \ --type=analyzer #拷贝映射 ./elasticdump \ --input=http://192.168.1.85:9200/db_customer \ --output=http://192.168.1.118:9200/db_customer \ --type=mapping #拷贝数据 ./elasticdump \ --input=http://192.168

MongoDB 分片集群实战

给你一囗甜甜゛ 提交于 2019-12-01 11:32:31
背景 在如今的互联网环境下,海量数据已随处可见并且还在不断增长,对于如何存储处理海量数据,比较常见的方法有两种: 垂直扩展:通过增加单台服务器的配置,例如使用更强悍的 CPU、更大的内存、更大容量的磁盘,此种方法虽然成本很高,但是实现比较简单,维护起来也比较方便。 水平扩展:通过使用更多配置一般的服务器来共同承担工作负载,此种方法很灵活,可以根据工作负载的大小动态增减服务器的数量,但是实现比较复杂,得有专门的人员来运维。 Databases for MongoDB 试用 IBM Cloud 上提供的 MongoDB 数据库服务。 Hyper Protect DBaaS for MongoDB 试用 IBM Cloud 上提供的更加安全的 MongoDB 企业服务,您可以通过标准化的界面管理 MongoDB。 MongoDB 支持通过分片技术从而进行水平扩展,用以支撑海量数据集和高吞吐量的操作。如果数据集不够大,还是建议您使用 MongoDB 副本集 ,因为分片需要处理更多的技术细节,所以在分片环境下其性能可能始终没有副本集性能强。本文通过介绍如何搭建 MongoDB 分片集群以及及一些相关核心概念,可以帮您快速理解 MongoDB 是如何通过分片技术来处理海量数据的。 MongoDB 分片集群组件 在搭建 MongoDB 分片集群环境之前,我们先了解一下分片集群包含哪些组件。一个

利用 AWS DMS 在线迁移 MongoDB 到 Amazon Aurora

只谈情不闲聊 提交于 2019-12-01 09:58:50
将数据从一种数据库迁移到另一种数据库通常都非常具有挑战性,特别是考虑到数据一致性、应用停机时间、以及源和目标数据库在设计上的差异性等因素。这个过程中,运维人员通常都希望借助于专门的数据迁移(复制)工具来降低操作的复杂性和对业务的影响。AWS数据迁移服务(AWS DMS)可帮助AWS用户快速、安全、无缝地将MongoDB、Oracle、MySQL和Microsoft SQL Server等数据库迁移到AWS。 源数据库在迁移期间仍然可以运行,因此最大程度地减少了依赖于数据库的应用程序的停机时间。 MongoDB是一个流行的跨平台的面向文档的NoSQL数据库,拥有非常多的应用场景和很大的用户群体。但是某些情况下用户需要将MongoDB迁移或者复制到关系数据库,比如将文档数据从MongoDB复制到MySQL来进行复杂关连分析处理,或者由于在数据库选型方面分析不够,错选了数据库类型而需要迁移到关系数据库。 在本文中,我们将讨论将MongoDB 4.0数据平滑迁移到Amazon Aurora MySQL兼容版的方法。Amazon Aurora 是一种与 MySQL 和 PostgreSQL 兼容的关系数据库,专为云而打造,既具有传统企业数据库的性能和可用性,又具有开源数据库的简单性和成本效益。本文中描述的方法使用AWS DMS转换源数据,近乎零停机时间来执行迁移。 设置MongoDB 4

一次难得的分库分表实践

痞子三分冷 提交于 2019-12-01 07:28:41
一次难得的分库分表实践 背景 前不久发过两篇关于分表的文章: 一次分表踩坑实践的探讨 分表后需要注意的二三事 从标题可以看得出来,当时我们只做了分表;还是由于业务发展,截止到现在也做了分库,目前看来都还比较顺利,所以借着脑子还记得清楚来一次复盘。 先来回顾下整个分库分表的流程如下: 整个过程也很好理解,基本符合大部分公司的一个发展方向。 很少会有业务一开始就会设计为分库分表,虽说这样会减少后续的坑,但部分公司刚开始都是以业务为主。 直到业务发展到单表无法支撑时,自然而然会考虑分表甚至分库的事情。 于是本篇会作一次总结,之前提过的内容可能会再重复一次。 分表 首先讨论下什么样的情况下适合分表? 根据我的经验来看,当某张表的数据量已经达到千万甚至上亿,同时日增数据量在 2% 以上。 当然这些数字并不是绝对的,最重要的还是对这张表的写入和查询都已经影响到正常业务执行,比如查询速度明显下降,数据库整体 IO 居高不下等。 而谈到分表时我们着重讨论的还是水平分表; 也就是将一张大表数据通过某种路由算法将数据尽可能的均匀分配到 N 张小表中。 Range 而分表策略也有好几种,分别适用不同的场景。 首先第一种是按照范围划分,比如我们可以将某张表的创建时间按照日期划分存为月表;也可以将某张表的主键按照范围划分,比如 【1~10000】在一张表,【10001~20000】在一张表,以此类推。

执行Django数据迁移,报错 1091

假如想象 提交于 2019-12-01 07:25:40
问题描述     今天在Pycharm 中的Terminal下,执行数据迁移操作时,第一步: Python manage.py makemigrations ,是没有任何问题,但就是在执行真正的数据迁移时,也就是第二步:Python manage.py migrate 时,报错,错误截图如下 大概的意思就是 错误代码1091,原因是 “无法删除'dt_id';请检查列/键是否存在”。 问题的解决 分析:      可能是数据库中的字段结构,已经完成了对此字段的修改,但是在执行数据迁移的时候,生成的某个日志文件(一般形如:0003_auto_20191011_2032.py),可能还有一些删除的字段 1 # Generated by Django 2.0.6 on 2019-10-11 12:32 2 3 from django.db import migrations, models 4 5 6 class Migration(migrations.Migration): 7 8 dependencies = [ 9 ('modelapp', '0002_student'), 10 ] 11 12 operations = [ 13 migrations.RemoveField( 14 model_name='student', 15 name='age', 16 ), 17

Redis开发与运维:数据迁移

空扰寡人 提交于 2019-12-01 04:56:50
问题 最近项目重构,提前想把一台上的redis实例转移到另一台redis实例上。 源redis数据库:阿里云Redis、VPC网络、Server版本2.8.19 目标数据库:阿里云Redis、VPC网络、Server版本4.0.11 前提: 当前我们使用Redis作为我们的数据库(永久+ 临时缓存) 目标: 把当前永久性数据导入到目标数据库,临时缓存数据不做处理 方案 有几种方案 1、设置主从复制,这个应该是比较稳妥的方案,但是支持主从必须3.0以上 -- 这个方案否掉了 2、那就使用键迁移命令,查了一下三种方式:move 、dump + restore 、migrate 自测 Windows服务器,下载了源数据库 redis2.8.19 分别启用了两个实例分别是 6999和7999 源数据 6999,目标数据 7999 move 这个命令是做实例内,db迁移的,对于当前实例间同步是不满足的。 但也不妨尝试一下:db5中的键移到db6,移动嘛所以db5的键就没了,db6才能获取到 localhost:6999[5]> get QianBiTou:VC:Config "0x001,1,2,3" localhost:6999[5]> move QianBiTou:VC:Config 6 (integer) 1 localhost:6999[5]> get QianBiTou:VC

ef数据迁移命令总结之Add-Migration

非 Y 不嫁゛ 提交于 2019-12-01 03:51:18
ef数据迁移命令总结之Add-Migration 首先我们可以在vs的程序包管理控制台输入 get-help Add-Migration -detailed以查看详细信息。 个人感觉有一篇好的文章, http://www.mortenanderson.net/code-first-migrations-for-entity-framework , 在本人的感觉就是 其对这些命令的掌握很深刻,所以在项目中摘录好的地方进行翻译,如果侵权,请联系删除。 Add-Migration -Name LearningMpaAbp.EntityFramework -Force -ProjectName LearningMpaAbp.EntityFramework -StartUpProjectName ConsoleApp1 -ConfigurationTypeName LearningMpaAbp.Migrations.Configuration -ConnectionStringName Default Add-Migration -Name LearningMpaAbp.EntityFramework -Force -ProjectName LearningMpaAbp.EntityFramework -StartUpProjectName ConsoleApp1

SharePoint On Premise 数据迁移到 SharePoint Online的几点考虑

女生的网名这么多〃 提交于 2019-12-01 03:48:24
最近在给一个客户做SharePoint数据迁移的项目,从SharePoint 2007到SharePoint Online, 在给客户做计划的时候,着重考虑了两个系统之间的差异和客户对本地系统的自定制。下面总结一下重点内容: 1 - 一些SharePoint 2007中的Web Part和客户自定制的Web Part是没有办法迁移到SharePoint online的。这部分Web Part会在站点迁移后丢失。 2 - SharePoint 2007中自定制的List模板及Site模板,需要考虑到转换成SharePoint Online的自带模板。 3 - 部分SharePoint2007中的自带模板在SharePoint Online中也不再存在,需要考虑到转换成SharePoint Online的自带模板。 4 - 自定制Page Layout需要考虑转换成SharePoint Online自带Page Layout. 5 - SharePoint 2007中自定制的列(Column),需要考虑转换成SharePoint Online中的自带列。 6 - 工作流(Workflow)通常很难迁移,使用某些第三方工具可以迁移工作流的定义部分,但实例部分通常无法迁移。 7 - 自定制Solution, Master Page不会迁移,需要考虑在目的端进行重新开发。 8 -