La description :aller au contenu | aller au menu | aller à la recherche jeudi, juin 14 2018 14 juin 2018 traces oracle et adrci introduction trois shell linux très simples pour configurer de manière rapide et efficac...
Classement Alexa Global: # 3,991,461
Server:Apache/2.4.10 (Debia...
L'adresse IP principale: 94.23.215.67,Votre serveur France,Roubaix
ISP:OVH SAS TLD:fr Code postal:fr
Ce rapport est mis à jour en 23-Jul-2018
Created Date:
2009-01-24
Changed Date:
2017-01-24
Expires Date:
2018-01-24
Données techniques du silverlake.fr
Geo IP vous fournit comme la latitude, la longitude et l'ISP (Internet Service Provider) etc. informations.
Notre service GeoIP a trouvé l'hôte silverlake.fr.Actuellement, hébergé dans France et son fournisseur de services est OVH SAS .
Les informations d'en-tête HTTP font partie du protocole HTTP que le navigateur d'un utilisateur envoie à appelé Apache/2.4.10 (Debian) contenant les détails de ce que le navigateur veut et acceptera de nouveau du serveur Web.
MX preference = 1, mail exchanger = smtp.silverlake.fr.
HtmlToText
aller au contenu | aller au menu | aller à la recherche jeudi, juin 14 2018 14 juin 2018 traces oracle et adrci introduction trois shell linux très simples pour configurer de manière rapide et efficace la gestion des traces oracle via adrci. automatic diagnostic repository introduit en 11g permet une centralisation des traces oracle en un point unique ( bd, listener,... ). la politique de conservation de ces traces est gérée par 2 paramètres : shortp : traces ordinaires longp : traces incidents en fonction de la durée de conservation, exprimée en heure, les traces sont automatiquement purgées. les shell suivants permettent de configurer rapidement la politique souhaitée. visualisation adrci_show_control.sh #!/bin/bash # visualise la short et la long policy pour la purge des traces oracle for i in $( adrci exec="show homes" | grep -v "adr homes:" ) do echo "show control ${i}:" adrci exec="set home ${i}; show control;" done affectation adrci_set_control.sh #!/bin/bash # affecte la short et la long policy pour la conservation des traces oracle # la duree est exprimee en heures. export short=168 # 1 semaine ( 7 jours ) export long=720 # 1 mois ( 30 jours ) for i in $( adrci exec="show homes" | grep -v "adr homes:" ) do echo "set control ${i}:" adrci exec="set home ${i}; set control \(shortp_policy=${short}, longp_policy=${long}\);" done lancement manuel adrci_purge.sh #!/bin/bash # lancement manuel de la purge des traces oracle # la duree est exprimee en minutes export temps=240 # ( 4 heures ) for i in $( adrci exec="show homes" | grep -v "adr homes:" ) do echo "purge ${i}:" adrci exec="set home ${i}; show control; purge -age ${temps}" done oracle samedi, juin 9 2018 09 juin 2018 cluster rac et dataguard avec oracle 12c introduction ce billet, assez conséquent, détaille la mise en place d'un environnement dataguard oracle 12c en utilisant deux clusters rac à deux noeuds sur des sites distants. la version de l'os est centos 7.4. la version de oracle est la 12.1.0.2 avec application du psu de avril 2018. il est supposé une bonne connaissance du rac et du dataguard en général. au moment de la configuration seule la base yodasa est en place. db_name : yoda db_unique_name : yodasa ( primaire ) db_unique_name : yodasb ( standby ) les fichiers de la base sont sur des diskgroups asm : dg_yoda fra_yoda la gestion omf est en place. la fast recovery area est configurée sur le diskgroup fra_yoda. le schéma ci-dessous présente succinctement la configuration. il n'est pas détaillé ici l'installation des binaires oracle ( grid et rdbms ) ainsi que la création de la base primaire yodasa. les variables d'environnement oracle sont : oracle_base=/ora01/app/oracle oracle_home=/ora01/app/oracle/product/12.1.0.2/db ( rdbms, user oracle ) oracle_home=/ora01/app/oragrid/product/12.1.0.2/gi ( grid, user oragrid ) la couche oracle*net les serveurs sont tous gérés par un dns sur une zone fictive nommée formation.maison. la configuration dns n'est pas détaillée ici. un soin particulier doit être de mise pour cette configuration. le dataguard utilise massivement le réseau. les lignes suivantes doivent être présentes sur tous les noeuds de la configuration dans le fichier tnsnames.ora. yodasa = (description = (address_list = (address = (protocol = tcp)(host = rac01-scan.formation.maison)(port = 1521)) ) (connect_data = (server = dedicated) (service_name = yodasa) ) ) yodasb = (description = (address_list = (address = (protocol = tcp)(host = rac02-scan.formation.maison)(port = 1521)) ) (connect_data = (server = dedicated) (service_name = umutst1ve) ) ) # seulement pour rman duplicate ... from active database yodasa_dup = (description = (address_list = (address = (protocol = tcp)(host = ora01sa.formation.maison)(port = 1521)) (address = (protocol = tcp)(host = ora02sa.formation.maison)(port = 1521)) ) (connect_data = (service_name = yodasa) ) ) yodasb_dup = (description = (address_list = (address = (protocol = tcp)(host =ora01sb.formation.maison )(port = 1521)) (address = (protocol = tcp)(host =ora02sb.formation.maison )(port = 1521)) ) (connect_data = (service_name = yodasb) ) ) via la commande tnsping, vérifier sur chaque noeud la réponse correcte de la configuration tns. la boucle shell suivante exécute cette vérification. for i in yodasa yodasb yodasa_dup yodasb_dup; do echo -n $i; echo -n " --> "; tnsping $i | grep ok; done yodasa --> ok (10 msec) yodasb --> ok (20 msec) yodasa_dup --> ok (0 msec) yodasb_dup --> ok (20 msec) sur les noeuds du siteb soit ora01sb et ora02sb ajouter les lignes suivantes dans le fichier listener.ora. attention selon le noeud les lignes sont différentes. sur le serveur ora01sb sid_list_listener = (sid_list = (sid_desc = (global_dbname = yodasb) (oracle_home = /ora01/app/oracle/product/12.1.0.2/db) (sid_name = yodasb1) ) ) sur le serveur ora02sb sid_list_listener = (sid_list = (sid_desc = (global_dbname = yodasb) (oracle_home = /ora01/app/oracle/product/12.1.0.2/db) (sid_name = yodasb2) ) ) entre les deux noeuds le nom de l'instance est différent. il faut recharger la configuration listener sur chaque noeuds de siteb par la commande ''lsnrctl reload"". préparation base primaire certaines actions sont nécessaires avant de lancer la création de la standby. la base primaire doit être en archivelog. yodasa1.sys > select log_mode from v$database; log_mode ------------ archivelog yodasa1.sys > archive log list; database log mode archive mode automatic archival enabled archive destination use_db_recovery_file_dest oldest online log sequence 34 next log sequence to archive 36 current log sequence 36 yodasa1.sys > il est de plus nécessaire d'activer le mode force logging. alter database force logging; la requête suivante permet de vérifier certains points. pour cette procédure le mode flashback n'est pas actif. yodasa1.sys > select name,db_unique_name,database_role,log_mode,force_logging,flashback_on from v$database; name db_unique_name database_role log_mode force_logging flashback_on --------- ------------------------------ ---------------- ------------ --------------------------------------- ------------------ yoda yodasa primary archivelog yes no yodasa1.sys > configuration du transport et l'apply plusieurs paramètre sont nécessaires pour le transport et l'application des ordres sql. alter system set log_archive_config='dg_config=(yodasa,yodasb)' scope=both sid='*'; alter system set log_archive_dest_1='location=use_db_recovery_file_dest valid_for=(all_logfiles,all_roles) db_unique_name=yodasa' scope=both sid='*'; alter system set log_archive_dest_2='service=yodasb valid_for=(online_logfiles,primary_role) db_unique_name=yodasb' scope=both sid='*'; alter system set log_archive_max_processes=8 scope=both sid='*'; alter system set fal_client='yodasa' scope=both sid='*'; alter system set fal_server='yodasb' scope=both sid='*'; alter system set standby_file_management=auto scope=both sid='*'; standby redolog les standby redolog sont utilisés par la base standby, toutefois une base peut être primaire ou standby donc il est de bonne pratique de crééer de suite les standby redolog. il faut 1 standby redolog de plus par thread et ils doivent avoir la même dimension que les online redolog. yodasa1.sys > select * from v$log; group# thread# sequence# bytes blocksize members arc status first_change# first_tim next_change# next_time con_id ---------- ---------- ---------- ---------- ---------- ---------- --- ---------------- ------------- --------- ------------ --------- ---------- 1 1 34 52428800 512 2 yes inactive 377639 06-jun-18 420081 06-jun-18 0 2 1 35 52428800 512 2 yes inactive 420081 06-jun-18 463619 07-jun-18 0 3 1 36 52428800 512 2 no current 463619 07-jun-18 2.8147e+14 0 4 2 7 52428800 512 2 yes inactive 427685 06-jun-18 437418 06-jun-18 0 5 2 8 52428800 512 2 yes inactive 437418 06-jun-18 462576 07-jun-18 0 6 2 9 52428800 512 2 no current 462576 07-jun-18 2.8147e+14 0 6 rows selected. yodasa1.sys > la base primaire comport
Whois est un protocole qui permet d'accéder aux informations d'enregistrement.Vous pouvez atteindre quand le site Web a été enregistré, quand il va expirer, quelles sont les coordonnées du site avec les informations suivantes. En un mot, il comprend ces informations;
%% %% This is the AFNIC Whois server. %% %% complete date format : DD/MM/YYYY %% short date format : DD/MM %% version : FRNIC-2.5 %% %% Rights restricted by copyright. %% See https://www.afnic.fr/en/products-and-services/services/whois/whois-special-notice/ %% %% Use '-h' option to obtain more information about this service. %% %% [2600:3c03:0000:0000:f03c:91ff:feae:779d REQUEST] >> silverlake.fr %% %% RL Net [##########] - RL IP [######....] %%
TYPE domain RegrInfo DISCLAIMER % % This is the AFNIC Whois server. % % complete date format : DD/MM/YYYY % short date format : DD/MM % version : FRNIC-2.5 % % Rights restricted by copyright. % See https://www.afnic.fr/en/products-and-services/services/whois/whois-special-notice/ % % Use '-h' option to obtain more information about this service. % % [2600:3c03:0000:0000:f03c:91ff:feae:779d REQUEST] >> silverlake.fr % % RL Net [##########] - RL IP [######....] %
Nous utilisons des cookies pour personnaliser votre expérience sur notre site. En poursuivant votre navigation, vous acceptez cette utilisation. Apprendre encore plus