数据迁移笔记

最近接到任务做系统改造升级,其中一项主要工作是数据库的迁移。

旧系统没有测试环境,每天产生的数据约30万,数据总量约1.5个亿,130多张表,30多个存储过程,数据库为SQL Server 2000,没有设计文档。

新系统使用 Oracle 11g,结构与旧系统基本不同。

新系统上线同时旧系统下线,所以要求数据在系统切换前全部导入,客户一如既往的着急。

操作步骤:

  1. 首先备份生产环境数据库,并在开发环境还原

  2. 统计旧系统数据库每张表的行数,先把没有数据的表删除

  3. 发现数据库小于100的表基本都未配置表,这类表没必要迁移,了解业务规则对应关系后可直接在新系统创建

  4. 对剩下的表按名称排序,从中大概可看出各模块的划分,删除中间表和临时表。至此,对旧库的整理告一段落,开始研究新系统

  5. 分析新系统,看看新系统如果正常运行数据应该是什么样,再看旧系统是否能提供相应数据,对数据对应关系做图

  6. 用 Java 写了迁移程序,开始向测试环境迁移,但是效果不理想,因为表结构不同,查询比较繁琐,且插入的速度很慢,计算了一下,全部迁移完需要跑几个星期,很失落

  7. 开始从代码上优化,首先考虑了批量执行,速度明显提高,但是仍不够理想,因为插入的是同一张表,无法多任务同时跑

  8. 放弃了 Java 直接导入的方式,改成 Java 生成 Oracle 的脚本,再使用 SQLPLUS 的命令导入,速度再次提升

  9. 很无奈,新系统有大量的自增主键和外键关联,直接导入数据无法通过验证。所以调整策略,在SQL Server创建了和Oracle 一样的表结构,通过各种 Select 和 Insert 将旧系统数据导入新建的表,导入的过程中创建主键,对于超多数据量的表,可以在此过程中直接分组,全部导入后再通过 Update 更新关联外键。至此,数据库从异源异构变成了异源同构

  10. 接下来迁移工作就顺畅多了,还是用 Java 生成导入脚本,再生成批处理文件,在目标库直接还原,不用担心约束和网络中断的问题了

  11. 但是超过1亿条的数据导入仍需很长时间,为了保证切换时的顺畅,将数据按时间点切分,已稳定的数据预先导入新库,其余数据增量插入。

最终算是蒙混过关了,没做过类似的迁移工作,没想到会遇到这么多坑。两周后会有个大10倍的库做迁移,希望顺利!




转载于:https://my.oschina.net/tonglei0429/blog/500083

内容概要:本文档主要介绍了Intel Edge Peak (EP) 解决方案,涵盖从零到边缘高峰的软件配置和服务管理。EP解决方案旨在简化客户的入门门槛,提供一系列工具和服务,包括Edge Software Provisioner (ESP),用于构建和缓存操作系统镜像和软件栈;Device Management System (DMS),用于远程集群或本地集群管理;以及Autonomous Clustering for the Edge (ACE),用于自动化边缘集群的创建和管理。文档详细描述了从软件发布、设备制造、运输、安装到最终设备激活的全过程,并强调了在不同应用场景(如公共设施、工业厂房、海上油井和移动医院)下的具体部署步骤和技术细节。此外,文档还探讨了安全设备注册(FDO)、集群管理、密钥轮换和备份等关键操作。 适合人群:具备一定IT基础设施和边缘计算基础知识的技术人员,特别是负责边缘设备部署和管理的系统集成商和运维人员。 使用场景及目标:①帮助系统集成商和客户简化边缘设备的初始配置和后续管理;②确保设备在不同网络环境下的安全启动和注册;③支持大规模边缘设备的自动化集群管理和应用程序编排;④提供详细的密钥管理和集群维护指南,确保系统的长期稳定运行。 其他说明:本文档是详细描述了Edge Peak技术及其应用案例。文档不仅提供了技术实现的指导,还涵盖了策略配置、安全性和扩展性的考虑,帮助用户全面理解和实施Intel的边缘计算解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值