咱们系统中的某个表, 每天的数据量大约是1亿2千万条记录, 由于历史原因(以前外包给美国的某个企业), 没有对这个表进行分区, index也是global index.
现在升级的时候, 咱们想对以后的数据进行分区(历史数据不管), 以提高查询的速度. 但是历史数据相对来说也比较大, 保留有90天的数据, 结果导致在创建新分区的时候, 所耗费的时间非常长, 需要N小时. 请问有什么好的解决方法吗?
唉, 这个东西真的是性能杀手啊, 看来需要找替代方案了.
----2009.07.20
有人帮忙解决一下这个问题吗?! 大师们, 小弟在此跪求啊!
今天咨询了2个DBA, 他们的分析说如果你要继续这样做分区的话, 确实没什么好办法, 另在网上看到一个哥们也是类似的应用, 居然分区花了10 Hours, 郁闷的不行啊. 看来真要找替代方案了!
----2009.07.22
面对每日新增1.2亿条记录的大数据表,由于历史遗留问题未进行有效分区及使用global index,现计划仅对新数据实施分区以提升查询效率。但创建新分区所需时间过长,寻求高效解决方案。

3660

被折叠的 条评论
为什么被折叠?



