Chinaunix首页 | 论坛 | 博客
  • 博客访问: 616677
  • 博文数量: 825
  • 博客积分: 5000
  • 博客等级: 大校
  • 技术积分: 4980
  • 用 户 组: 普通用户
  • 注册时间: 2008-10-27 14:19
文章分类

全部博文(825)

文章存档

2011年(1)

2008年(824)

我的朋友

分类:

2008-10-27 14:26:35

  数据文件的大小存在一个内部限制,这个限制是:

  每个数据文件最多只能包含2^22-1个数据块。

  这个限制也就直接导致了每个数据文件的最大允许大小。

  在2K Block_size下,数据文件最大只能达到约8G

  在32K的Block_size下,数据文件最大只能达到约16*8G的大小。

  这个限制是由于的Rowid中使用22位来代表Block号,这22位最多只能代表2^22-1个数据块。

  为了扩展数据文件的大小,Oracle10g中引入了大文件表空间,在大文件表空间下,Oracle使用32位来代表Block号,也就是说,在新的技术下,大文件表空间下每个文件最多可以容纳4G个Block.

  那么也就是说当Block_size为2k时,数据文件可以达到8T .

  当block_size为32K时,数据文件可以达到128T.

  上周在做2K block_size时,第一次遇到了这个限制:

SQL> alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8192M;
alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8192M
*
ERROR 位于第 1 行:
ORA-01144: 文件大小 (4194304 块) 超出 4194303 块的最大数

  缩减一点,最后创建成功:

SQL> alter tablespace eygle add datafile 'f:\eygle02.dbf' size 8191M reuse;    

表空间已更改。

已用时间: 00: 44: 42.08

  计算一下,这台破烂的机的IO速度:

  io speed = 8191 M / 00: 44: 42.08 = 8191 M / 44*60+42 = 8191M / 2682 s = 3.05M/s

  够惊人的了吧。

【责编:Kittoy】

--------------------next---------------------

阅读(365) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~