现在的位置: 首页 > 综合 > 正文

迁移Oracle数据的两个方案(待续)

2013年02月25日 ⁄ 综合 ⁄ 共 2701字 ⁄ 字号 评论关闭

 

                                                                    迁移Oracle数据的两个方案(待续)

方案一:采用物理standby进行迁移,该方法适用于在相同操作系统平台,相同数据库版本之间进行数据迁移。在Oracle11G中可以实现,从
        10G到11G的物理Standby的迁移,而且可以实现从Windows平台到Linux平台的迁移。
步骤:
  要首先具有主备数据库结构(如DataGuard环境),本方案针对Oracle10GR2版本。
  1、在32Bit的OS上,利用RMAN或者是其他方式备份住数据库。
  2、产生备份数据库的控制文件、以及参数文件、并把备用控制文件和参数文件拷贝到备用机器上。
  3、把备份恢复到备用机器上(可以是64Bit机器),如果是普通文件备份,只拷过去即可,如果是RMAN备份,需要先拷贝备份集(或NFS)
     过去,然后在备份机器上恢复。32Bit OS上的数据库可以直接恢复到64Bit的OS上。
  4、配置监听与tnsnames.ora,使备库可以接收日志。(分别针对主备机上配置)
  5、恢复备用库,适用如下命令
     recover automatic standby database;
     或者
     recover managed standby database disconnect from session;
  6、等到日志全部恢复完毕后,执行如下命令做切换:
     主:alter database commit to switchover to physical standby with session shutdown;
     备:alter database commit to switchover to primary;
  7、等切换完毕后,关闭新主库,如果是RAC先关闭RAC环境参数:
     alter system set cluster_database=false scope=spfile;
     shutdown immediate;
  8、使用UPGRADE方式打开新主库:
     startup upgrade;
  9、执行数据库格式转换脚本,此时不要执行DDL
     spool utlirp.log
     /u01/oracle/ora10g/rdbms/admin/utlirp.sql(具体路径会有差异)
     spool off
  10、重新启动主库,如果是RAC环境,先打开RAC参数:
    alter system set cluster_database=true scope=spfile;
    shutdown immediate;
    startup open;
  11、编译经过上面过程可能失效的包:
    spool utlrp.log
    /u01/oracle/ora10g/rdbms/admin/utlrp.sql(具体路径会有差异)
    spool off
  12、检验是否还存在失效对象:
    select distinct object_name from dba_objects where status='INVALID';
  13、等原来的主库成为备用库后,在其上完成如下操作:
    srartup monut;
    recover managed standby database disconnect from session;(恢复日志)

方案二:使用prebuilt MV 进行数据迁移,该方法适用于在短时间内,对大数据量表进行迁移,要求被迁移表具有主键,可以实现跨平台、跨
        数据库的版本迁移,而且可以实现重组优化,但是不能实现跨字符集的迁移,并且被迁移表不要频繁的被更新。
步骤:
   1、进行表的分级,如100M以上的表作为大表,100M以下的表作为小表,对于小表可以使用
     insert /*+append+*/ into...... from table@db_link;
   进行插入。
   2、对于大表在表上创建MV日志:
     create materialized view log on tablename;
   3、在目标数据库上创建于该表具有相同结构的表,并且在表上创建主键或者唯一约束,其他索引或者约束,可以在全刷新后再创建。最后
      使用如下命令在目标数据库的新表上创建prebuilt mv:
      create materialized view table_name on prebuilt table refresh fast as select * from table_name@db_link;
   4、执行全刷新与增量刷新:
      exec dbms_mview.refresh('table_name','complete');
      exec dbms_mview.refresh('table_name');
      执行后创建相关索引:create index index_name on table_name(filed_name);
   5、创建一个数据库JOB,定时同步增量日志,如下定义每一分钟同步一次:
      declare jobid number;
      begin
        sys.dbms_job.submit(job=>jobid,
                            what=>'dbms_mview.refresh(''table_name'');',
                            next_date=>sysdate,
                            interval=>'sysdate+1/1440');
        commit;
      end;
      /
   6、依次处理完所有大表。
   7、在目标数据库创建好于小表相同结构的表包括索引等,整理好insert into脚本。
   8、预先创建好除序列外的其他对象,如function,procedure,type等。
   9、停机切换:
     .停止原数据库一切活动,包括任何DML与DDL。
     .等待最后一批日志刷新完毕。
     .运行insert into脚本迁移小表数据。
     .等大表刷新完成,删除相关MV信息
       在原数据库上执行:drop materialized view log on table_name;
       在目标数据库上执行:drop materialized view table_name;
   10、创建与表有依赖关系的对象,如序列。
  

抱歉!评论已关闭.