12c : recover table l'usine à gaz
- Détails
- Catégorie : News
- Publié le dimanche 20 septembre 2015 19:28
- Écrit par Administrator
- Affichages : 46287
La 12c apporte son lot de nouveauté, ou plutôt apportait, elle n’est plus trop nouvelle la 12c maintenant.
Quand j'avais lu la liste, une nouveauté avait particulièrement retenu mon attention : RMAN peut restorer une table. Je me suis dit il va falloir tester cela, c'est complètement révolutionnaire!
Un backupset étant composé de plusieurs blocs "mélangés" de datafiles, RMAN saurait allait rechercher dans les blocs les données d'une table. Cela signifierait donc que RMAN saurait lire dans les backupsets un peu comme le noyau Oracle dans les datafiles !
Sachant que normalement le nom de la table n'est pas écrite dans l'entête des blocs, alors cela signifierait que RMAN saurait retrouver les metadata dans le tablespace SYSTEM qui lui aussi est potentiellement répartie sur plusieurs backupsets. De plus il faut aussi ensuite lire les backupsets des archivelog car la table est peut être sur plusieurs datafiles et donc chaque datafile au moment du backup n'avait pas le même SCN, cela veut dire rejouer uniquement les logs des transactions pour une table donnée ou plus globalement pour les datafiles contenant la table.
J’ai donc testé cette nouvelle « feature »…quel naïf, j'aurais dû me doutais qu'il y avait anguille sous roche.
Je m'explique:
Pour tester, j’ai utilisé une base de données Entreprise Edition 12.1.0.2 nommée SHAKA. Je suis en architecture CDB mais cela ne change rien au test, en non-CDB la procédure est identique seules quelques syntaxes de commande changent.
La base de données SHAKA possède 2 tablespaces utilisateur : USERS et TBS_OTHER. Elle est pluggé dans l'intance BIGDB.
SQL> select tablespace_name, file_name from cdb_data_files
TABLESPACE_NAME FILE_NAME
-------------------- --------------------------------------------------
SYSTEM /oracle/oradata/BIGDB/SHAKA/system01.dbf
SYSAUX /oracle/oradata/BIGDB/SHAKA/sysaux01.dbf
USERS /oracle/oradata/BIGDB/SHAKA/SHAKA_users01.dbf
TBS_OTHER /oracle/oradata/BIGDB/SHAKA/tbs_other01.dbf
Avec le user usertest1 je crée 2 tables : TEST et TEST_OTHER . TEST sur le tablespace USERS et TEST_OTHER sur le tablespace TBS_OTHER. Je popule les deux tables de manière à avoir un peu de données.
SQL> conn usertest1/secretpass@shaka
create table test (id number generated as identity primary key, col1 varchar(50), col2 timestamp default CURRENT_TIMESTAMP) tablespace users ;
insert into test (col1) values ('AAAAAAASASAASASASASSASASASfdefdAAAAAAAAAAAAAAAA');
insert into test (col1) values ('FFFQQQQQQQQQQdfdfdsfdsfdsfdsfdsfdsfdscQQQQQQQFF');
insert into test (col1) values ('ZZSQdefesfsedfvsdevfsdevdsvdSQSQSQSQSSQSQSQSQZZ');
insert into test (col1) select col1 from test;
/
/
[…]
commit;
create table test_other (id number generated as identity primary key, col1 varchar(50), col2 timestamp default CURRENT_TIMESTAMP) tablespace TBS_OTHER ;
insert into test_other (col1) select col1 from test;
/
/
[…]
commit;
select segment_name,sum(bytes)/1024/1024 from cdb_segments where segment_name in ('TEST','TEST_OTHER') and owner='USERTEST1' group by segment_name;
SEGMENT_NAME SUM(BYTES)/1024/1024
------------------------------ --------------------
TEST_OTHER 128
TEST 128
SQL> select count(*) from test union all select count(*) from test_other;
COUNT(*)
----------
1572864
1572864
Une fois les deux tables un peu remplies, je fais un backup de la base de données de la base SHAKA et de l'intance BIGDB
RMAN> backup database root ;
Starting backup at 17-SEP-15
using channel ORA_DISK_1
channel ORA_DISK_1: starting full datafile backup set
channel ORA_DISK_1: specifying datafile(s) in backup set
input datafile file number=00005 name=/oracle/oradata/BIGDB/undotbs01.dbf
input datafile file number=00001 name=/oracle/oradata/BIGDB/system01.dbf
input datafile file number=00003 name=/oracle/oradata/BIGDB/sysaux01.dbf
input datafile file number=00006 name=/oracle/oradata/BIGDB/users01.dbf
channel ORA_DISK_1: starting piece 1 at 17-SEP-15
channel ORA_DISK_1: finished piece 1 at 17-SEP-15
piece handle=/oracle/orafra/BIGDB/backupset/2015_09_17/o1_mf_nnndf_TAG20150917T214445_bzp61fqg_.bkp tag=TAG20150917T214445 comment=NONE
channel ORA_DISK_1: backup set complete, elapsed time: 00:01:15
Finished backup at 17-SEP-15
Starting Control File and SPFILE Autobackup at 17-SEP-15
piece handle=/oracle/orafra/BIGDB/autobackup/2015_09_17/o1_mf_s_890689561_bzp63tc5_.bkp comment=NONE
Finished Control File and SPFILE Autobackup at 17-SEP-15
RMAN> backup database shaka ;
Starting backup at 17-SEP-15
using channel ORA_DISK_1
channel ORA_DISK_1: starting full datafile backup set
channel ORA_DISK_1: specifying datafile(s) in backup set
input datafile file number=00008 name=/oracle/oradata/BIGDB/SHAKA/sysaux01.dbf
input datafile file number=00007 name=/oracle/oradata/BIGDB/SHAKA/system01.dbf
input datafile file number=00010 name=/oracle/oradata/BIGDB/SHAKA/tbs_other01.dbf
input datafile file number=00009 name=/oracle/oradata/BIGDB/SHAKA/SHAKA_users01.dbf
channel ORA_DISK_1: starting piece 1 at 17-SEP-15
channel ORA_DISK_1: finished piece 1 at 17-SEP-15
piece handle=/oracle/orafra/BIGDB/1FE4958522E127B3E05346000A0A3C14/backupset/2015_09_17/o1_mf_nnndf_TAG20150917T214630_bzp64pfz_.bkp tag=TAG20150917T214630 comment=NONE
channel ORA_DISK_1: backup set complete, elapsed time: 00:00:35
Finished backup at 17-SEP-15
Starting Control File and SPFILE Autobackup at 17-SEP-15
piece handle=/oracle/orafra/BIGDB/autobackup/2015_09_17/o1_mf_s_890689625_bzp65stt_.bkp comment=NONE
Finished Control File and SPFILE Autobackup at 17-SEP-15
Maintenant je regarde à quelle SCN se trouve la base :
SQL> SELECT DBMS_FLASHBACK.get_system_change_number FROM dual;
GET_SYSTEM_CHANGE_NUMBER
------------------------
1768101
J’insère quelques lignes de plus dans la table TEST
SQL> insert into test (col1) select col1 from test where rownum < 666;
665 rows created.
SQL> commit;
SQL> select count(*) from test;
COUNT(*)
----------
1573529
Maintenant je vais restaurer la table TEST au SCN 1768101, c'est-à-dire avant l’insertion des 665 dernières lignes... et voir ce qu'il se passe.
Il faut préciser évidement le nom de la table ainsi que son schéma et comme nous sommes en CDB la base de données « branchable » (pluggable database). Comme la table à restaurer existe il faut mapper la table à restaurer avec un autre nom. Et il y a l’ "AUXILIARY DESTINATION"… la petite clause qui doit mettre la puce à l’oreille. Ce paramétrage n’est pas obligatoire il est optionnel mais : " When an auxiliary destination is not specified and a fast recovery area is not configured, the recovery of the PDB fails." Donc il est obligatoire, il a une valeur par défaut, la flash recovery destination et si elle n’est pas setté alors le restaure échouera… mais pourquoi devoir mettre un chemin pour restaurer une table dans une base ? Nous allons voir cela.
OK donc nous allons mettre un chemin /oracle/oradata/RESTOTEMP comme le répertoire n’existe pas on le crée :
[oracle@ora12cdb ~]$ mkdir /oracle/oradata/RESTOTEMP
[oracle@ora12cdb ~]$ rman target /
RMAN> RECOVER TABLE 'USERTEST1'.'TEST' OF PLUGGABLE DATABASE SHAKA
UNTIL SCN 1768101
AUXILIARY DESTINATION '/oracle/oradata/RESTOTEMP'
REMAP TABLE 'USERTEST1'.'TEST':'TEST_RESTO';
Et là une usine à gaz s’enclenche! Je ne vais pas mettre le output de la commande qui prend dans les 400 lignes! (output intégral: 12c recover table), je vais juste commenter les innombrables étapes.
Le restaure commence par monter en mémoire une nouvelle base de données, avec dans mon cas l’unique_name khwb_pitr_SHAKA_BIGDB, et un chemin par défaut pour les datafiles correspondant à mon "AUXILIARY DESTINATION": /oracle/oradata/RESTOTEMP. Puis RMANrestaure un controlfile de type clone à partir du backup de mon instance BIGDB.
??? ...Il va restaurer la base root ?
Oui ! il restaure la base root (CDB$ROOT) avec son tablespace SYSTEM, SYSAUX et son UNDO dans mon "AUXILIARY DESTINATION" et il enchaine sur la base de données SHAKA !
Pas toute la base SHAKA quand même ?
Ouf non juste SYSTEM, SYSAUX, UNDO et le tablespace contenant la table USERS et pas les autres comme TBS_OTHER. Ensuite il joue les archivelogs pour aller jusqu’au SCN indiqué, il ouvre la base SHAKA clonée en read-only...
...et quoi?
Il lance un export datapump de la table TEST à partir la base clonée. Puis il importe le fichier export de la table exportée dans la base original SHAKA dans la table alternative nouvelle créée TEST_RESTO… et quoi maintenant il détruit tout la base de données SHAKA clonée ! Pourquoi ? autant la garder maintenant qu’elle est restaurée…
En résumé RMAN restaure la base root plus une partie de la base source pour pouvoir faire un datapump et l’importer dans la base source. Donc si la table fait 128Mo et le tablespace 200Go, RMAN va restaurer 200Go pour restaurer in fine 128Mo ou aussi si la table fait 200Go RMAN va restaurer le tablespace (+200Go) puis exporter la table dans un fichier de 200Go pour réimporter les 200Go…
Nous sommes très loin de ce que j’avais imaginé « RMAN lit dans les backupsets pour extraire la données (table) ». La seule nouveauté est qu’au lieu de faire cette opération manuellement, RMAN peut le faire en une seule commande utilisateur.
Vérifions quand même que le résultat voulue soit là :
SQL> select count(*) from test;
COUNT(*)
----------
1573529
SQL> select count(*) from test_resto;
COUNT(*)
----------
1572864
Voilà une nouveauté... limitée d’intérêt ou d’intérêt limitée.
{jcomments on}