1、安裝logminer,執行兩個PL/SQL程式(9i已建立,所以我沒有執行)
$ORACLE_HOME/rdbms/admin/dbmslm.sql #建立DBMS_LOGMNR的package,用來分析日誌文件。
$ORACLE_HOME/rdbms/admin/dbmslmd.sql #建立DBMS_LOGMNR_D的package,用來建立字典文件。
2、找出用於LogMiner分析的資料存放的位置,以參數utl_file_dir的值為主,
如下列的資料,我們可以使用/backup來存放
SQL> select name,value from v$parameter where name ='utl_file_dir';
NAME VALUE
------------- -------------------------------------------------------
utl_file_dir /usr/tmp, /backup
3、匯出字典文件,LogMiner解析出來的語法中有關於資料字典(如表格名、列名…等),
是以16進制的方式顯示,所以字典的目的就是用名稱來取代對16進制。
這個 package需要時間及空間來產生字典文件
SQL> execute dbms_logmnr_d.build(
dictionary_filename => 'prod_dict',
dictionary_location => '/backup' ) ;
dictionary_filename是匯出的字典檔案名稱。
dictionary_location就是匯出的位置,需要是utl_file_dir中的路徑
4、加入要分析的檔案,archivelog或redolog
先將檔案複製到utl_file_dir的路徑內
$ cp archive_1_13090.log /backup
加入archivelog
SQL> execute dbms_logmnr.add_logfile('/backup/archive_1_13090.log',dbms_logmnr.addfile);
加入redolog
SQL> execute dbms_logmnr.add_logfile('/backup/redo03a.log',dbms_logmnr.addfile);
可以一次加入好多個要分析的檔案,但是一般都是先增加一個檔案來分析,再增加一個檔案來分析。
如果想知道目前已加入分析的檔案有哪些,可以執行SQL:
select * from v$logmnr_logfile;
5、如果想要移除分析的檔案,可以執行下列:
SQL> EXEC dbms_logmnr.add_logfile('/backup/archive_1_13099.log',dbms_logmnr.removefile);
6、開始分析
SQL> EXECUTE dbms_logmnr.start_logmnr( DictFileName=>'/backup/prod.dict');
DictFileName是字典檔的路徑及名稱,使用資料字典會增加記憶體的負擔,
所以如果記憶體不足的話,建議不要使用字典檔
沒有字典檔或字典檔的路徑及名稱錯誤也是可以分析,只是表名及欄名會以16進制顯示
也可以直接以線上的資料字典來分析
SQL> EXECUTE dbms_logmnr.start_logmnr(options =>dbms_logmnr.DICT_FROM_ONLINE_CATALOG);
7、匯出資料到指定的文件後,再來分析
SQL> set heading off; #不要表頭
SQL> spool /backup/output.txt
SQL> select sql_redo FROM V$logmnr_contents where sql_redo is not null ;
SQL> spool off;
8、最後將output.txt取出分析內容的SQL來判斷問題
$ORACLE_HOME/rdbms/admin/dbmslm.sql #建立DBMS_LOGMNR的package,用來分析日誌文件。
$ORACLE_HOME/rdbms/admin/dbmslmd.sql #建立DBMS_LOGMNR_D的package,用來建立字典文件。
2、找出用於LogMiner分析的資料存放的位置,以參數utl_file_dir的值為主,
如下列的資料,我們可以使用/backup來存放
SQL> select name,value from v$parameter where name ='utl_file_dir';
NAME VALUE
------------- -------------------------------------------------------
utl_file_dir /usr/tmp, /backup
3、匯出字典文件,LogMiner解析出來的語法中有關於資料字典(如表格名、列名…等),
是以16進制的方式顯示,所以字典的目的就是用名稱來取代對16進制。
這個 package需要時間及空間來產生字典文件
SQL> execute dbms_logmnr_d.build(
dictionary_filename => 'prod_dict',
dictionary_location => '/backup' ) ;
dictionary_filename是匯出的字典檔案名稱。
dictionary_location就是匯出的位置,需要是utl_file_dir中的路徑
4、加入要分析的檔案,archivelog或redolog
先將檔案複製到utl_file_dir的路徑內
$ cp archive_1_13090.log /backup
加入archivelog
SQL> execute dbms_logmnr.add_logfile('/backup/archive_1_13090.log',dbms_logmnr.addfile);
加入redolog
SQL> execute dbms_logmnr.add_logfile('/backup/redo03a.log',dbms_logmnr.addfile);
可以一次加入好多個要分析的檔案,但是一般都是先增加一個檔案來分析,再增加一個檔案來分析。
如果想知道目前已加入分析的檔案有哪些,可以執行SQL:
select * from v$logmnr_logfile;
5、如果想要移除分析的檔案,可以執行下列:
SQL> EXEC dbms_logmnr.add_logfile('/backup/archive_1_13099.log',dbms_logmnr.removefile);
6、開始分析
SQL> EXECUTE dbms_logmnr.start_logmnr( DictFileName=>'/backup/prod.dict');
DictFileName是字典檔的路徑及名稱,使用資料字典會增加記憶體的負擔,
所以如果記憶體不足的話,建議不要使用字典檔
沒有字典檔或字典檔的路徑及名稱錯誤也是可以分析,只是表名及欄名會以16進制顯示
也可以直接以線上的資料字典來分析
SQL> EXECUTE dbms_logmnr.start_logmnr(options =>dbms_logmnr.DICT_FROM_ONLINE_CATALOG);
7、匯出資料到指定的文件後,再來分析
SQL> set heading off; #不要表頭
SQL> spool /backup/output.txt
SQL> select sql_redo FROM V$logmnr_contents where sql_redo is not null ;
SQL> spool off;
8、最後將output.txt取出分析內容的SQL來判斷問題
全站熱搜
留言列表