La documentazione per questo prodotto è stata redatta cercando di utilizzare un linguaggio senza pregiudizi. Ai fini di questa documentazione, per linguaggio senza di pregiudizi si intende un linguaggio che non implica discriminazioni basate su età, disabilità, genere, identità razziale, identità etnica, orientamento sessuale, status socioeconomico e intersezionalità. Le eventuali eccezioni possono dipendere dal linguaggio codificato nelle interfacce utente del software del prodotto, dal linguaggio utilizzato nella documentazione RFP o dal linguaggio utilizzato in prodotti di terze parti a cui si fa riferimento. Scopri di più sul modo in cui Cisco utilizza il linguaggio inclusivo.
Cisco ha tradotto questo documento utilizzando una combinazione di tecnologie automatiche e umane per offrire ai nostri utenti in tutto il mondo contenuti di supporto nella propria lingua. Si noti che anche la migliore traduzione automatica non sarà mai accurata come quella fornita da un traduttore professionista. Cisco Systems, Inc. non si assume alcuna responsabilità per l’accuratezza di queste traduzioni e consiglia di consultare sempre il documento originale in inglese (disponibile al link fornito).
In questo documento viene descritta la procedura di ripristino di Session Manager distribuita nelle distribuzioni Ultra-M/Openstack.
Se un'istanza si trova nello stato SHUTOFF a causa di un arresto pianificato o per altri motivi, utilizzare questa procedura per avviare l'istanza e abilitarne il monitoraggio in ESC.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | SHUTOFF|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm-s1_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Per ulteriori ripristini delle configurazioni delle istanze, fare riferimento alle procedure specifiche per il tipo di istanza fornite nella sezione successiva.
Questa procedura può essere utilizzata se lo stato dell'istanza di CPS in openstack è ERROR:
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | ERROR|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 nova reboot –-hard SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Dopo il ripristino allo stato in esecuzione/attivo, fare riferimento alla procedura specifica del tipo di istanza per ripristinare la configurazione o i dati dal backup.
In Gestione sessioni viene fornito il livello di database alla suite di criteri cluster in questa sezione viene illustrato il ripristino dei database in un'istanza ripristinata di recente di Gestione sessioni:
Se i membri di un set di repliche sono nello stato offline, utilizzare la procedura seguente:
diagnostics.sh --get_replica_status
cd /var/qps/bin/support/mongo build_set.sh --all --create-scripts
ssh sessionmgrXX /etc/init.d/sessionmgr-XXXXX start
Se i membri di un set di repliche sono bloccati nello stato di avvio2 o di ripristino e il database primario è disponibile nel set di repliche, utilizzare la procedura seguente:
diagnostics.sh --get_replica_status
ssh sessionmgr01 ps -ef | grep mongo | grep 37717 root 2572 1 25 Feb11 ? 24-11:43:43 /usr/bin/mongod --ipv6 --nojournal --storageEngine mmapv1 --noprealloc --smallfiles --port 37717 --dbpath=/var/data/sessions.1/b --replSet set01b --fork --pidfilepath /var/run/sessionmgr-37717.pid --oplogSize 5120 --logpath /var/log/mongodb-37717.log --logappend --quiet --slowms 500
/etc/init.d/sessionmgr-xxxxx stop rm -rf /var/data/sessions.1/b/*
/etc/init.d/sessionmgr-xxxxx start
Il passaggio 5 potrebbe richiedere molto tempo per la sincronizzazione di tutti i dati dal database primario, a seconda delle dimensioni del database.
A causa di alcune interruzioni, potrebbe essere necessario ricostruire alcuni o tutti i set di repliche. Tuttavia, prima di decidere se ricostruire alcuni o tutti i set di repliche, si potrebbe notare che tutti i dati in questi set potrebbero andare perduti. È necessario verificare la disponibilità dei backup per i database seguenti:
Dopo aver eseguito la verifica incrociata dei backup e aver deciso di ricreare i set di repliche del database, attenersi alla procedura descritta di seguito.
Nota: Il comando per la creazione di tutti i database in un set di repliche consente di pulire il database. Tutto il contenuto del set di repliche andrebbe perso.
build_set.sh ----create --setname
build_set.sh --all --create
Una volta che tutti i membri del set di repliche sono online e uno dei membri è primario, è possibile ripristinare mongoDB dal backup tramite questa procedura.
config_br.py --action import --mongo-all /mnt/backup/
config_br.py --action import --mongo-all --spr /mnt/backup/
config_br.py --action import --mongo-all --admin /mnt/backup/
config_br.py --action import --mongo-all --balance /mnt/backup/
config_br.py --action import --mongo-all --report /mnt/backup/
Se si utilizza mongodump per eseguire il backup dei database, questo spiega il suo utilizzo attraverso il ripristino mongo:
tar -zxf /mnt/backup/
ls -ltr /mnt/backup/cd /mnt/backup/27721_backup_$(date +\%Y-\%m-\%d)/dump
mongorestore --host--port
mongorestore --host--port --db --