Oracle 中数据文件大小的限制
Oracle 数据文件的大小存在一个内部限制,这个限制是:
每个数据文件最多只能包含 2^22-1 个数据块。
这个限制也就直接导致了每个数据文件的最大允许大小。
在 2K Block_size 下,数据文件最大只能达到约 8G
在 32K 的 Block_size 下,数据文件最大只能达到约 16*8G 的大小。
这个限制是由于 Oracle 的 Rowid 中使用 22 位来代表 Block 号,这 22 位最多只能代表 2^22-1 个数据块。
为了扩展数据文件的大小, Oracle10g 中引入了大文件表空间,在大文件表空间下, Oracle 使用 32 位来代表 Block 号,也就是说,在新的技术下,大文件表空间下每个文件最多可以容纳 4G 个 Block 。
那么也就是说当 Block_size 为 2k 时,数据文件可以达到 8T 。
当 block_size 为 32K 时,数据文件可以达到 128T 。
上周在做 2K block_size 测试时,第一次遇到了这个限制:
SQL> alter tablespace eygle add datafile 'f:/eygle02.dbf' size 8192M;
alter tablespace eygle add datafile 'f:/eygle02.dbf' size 8192M
*
ERROR 位于第 1 行 :
ORA-01144: 文件大小 (4194304 块 ) 超出 4194303 块的最大数
缩减一点,最后创建成功:
SQL> alter tablespace eygle add datafile 'f:/eygle02.dbf' size 8191M reuse;
表空间已更改。
已用时间 : 00: 44: 42.08
计算一下,这台破烂的测试机的 IO 速度:
io speed = 8191 M / 00: 44: 42.08 = 8191 M / 44*60+42 = 8191M / 2682 s = 3.05M/s
够惊人的了吧。
-The End-
关于数据文件大小的讨论
读写效率不高不是文件大小引起的,而是因为 extent 扩展太多引起的,
不过数据文件过大对备份 / 恢复很不利
跟文件系统、数据库规模等来决定,应该没有什么标准,也不存在说用多大的文件效率会比较高这样的说法 ~ 大家一般都会从容易管理的角度来考虑吧
过大是针对于你的存储 / 备份速度来说的, retore/recover 一个 2G 的文件和一个 200G 的文件,所需要的时间当然不同,看你在时间和管理上的一个折中吧
不过 windows 下最好不要超过 2G ,好像好多 windows 软件对大文件有些限制
上面说的大文件不影响效率,不准确,上次 eygle 大师的调优课上讲,操作系统级的文件管理,对于簇是以链式管理,有些类似 index ,当文件太大的时候会导致链的 level 增加,这会增加簇寻址的代价,不过具体是多大的文件会扩到 3level ,我不清楚了
我的意思就是根据你的数据库规模,然后更多地从易管理的角度来规划,而不用考虑太多文件大小对性能的影响问题,因为即使有也是很少的。
实际上平衡 IO 主要集中在文件的分布上,以及数据安全方面的考虑。
文件太大,整理碎片速度极慢,而且基本都不会很顺利
对文件大小的限制主要是操作系统的限制,太大了不好备份,如果文件损坏了,损失将更大,而且在 micro 的操作系统下对大文件不是很安全,增加数据文件不会对表空间有什么影响,建议增加数据文件,但最好不要大于 2G
http://space.itpub.net/14075938/viewspace-483563
下面简单讨论关于数据内容超出数据文件的问题(还没有解决掉,待处理中,但是会及时的更新)
SELECT tablespace_name, SUM(bytes) / 1024 / 1024 mb
FROM dba_segments
where tablespace_name = 'APPS_TS_TX_DATA'
group by tablespace_name;
查出当前用户表空间的数据内容大小
结果如果超出了表空间的大小.不影响使用,但是不可以在此表空间建表了!
select bytes/1024/1024,user_bytes/1024/1024 from dba_data_files
where tablespace_name='APPS_TS_TX_DATA'
用select bytes/1024/1024看一下呢,
差不多,bytes是2000M,user_bytes是几乎2000M
....更新中