O conjunto de documentação deste produto faz o possível para usar uma linguagem imparcial. Para os fins deste conjunto de documentação, a imparcialidade é definida como uma linguagem que não implica em discriminação baseada em idade, deficiência, gênero, identidade racial, identidade étnica, orientação sexual, status socioeconômico e interseccionalidade. Pode haver exceções na documentação devido à linguagem codificada nas interfaces de usuário do software do produto, linguagem usada com base na documentação de RFP ou linguagem usada por um produto de terceiros referenciado. Saiba mais sobre como a Cisco está usando a linguagem inclusiva.
A Cisco traduziu este documento com a ajuda de tecnologias de tradução automática e humana para oferecer conteúdo de suporte aos seus usuários no seu próprio idioma, independentemente da localização. Observe que mesmo a melhor tradução automática não será tão precisa quanto as realizadas por um tradutor profissional. A Cisco Systems, Inc. não se responsabiliza pela precisão destas traduções e recomenda que o documento original em inglês (link fornecido) seja sempre consultado.
Este documento descreve o procedimento de Recuperação do Session Manager implantado em implantações Ultra-M/Openstack.
Se algum caso estiver no estado SHUTOFF devido a um desligamento planejado ou por algum outro motivo, use este procedimento para iniciar a instância e habilitar o monitoramento do€™ no ESC.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | SHUTOFF|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm-s1_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Para obter mais recuperação das configurações de instância, consulte os procedimentos específicos de tipo de instância fornecidos na próxima seção.
Este procedimento pode ser usado se o estado da instância do CPS no openstack for ERROR:
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | ERROR|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 nova reboot –-hard SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Após a recuperação para o estado em execução/ativo, consulte o procedimento específico do tipo de instância para recuperar a configuração/os dados do backup.
O Session Manager fornece a camada de banco de dados para o Cluster Policy Suite nesta seção, discute-se a recuperação de bancos de dados em uma instância recuperada recentemente do session manager:
Se os membros de um conjunto de réplicas estiverem no estado off-line, use este procedimento:
diagnostics.sh --get_replica_status
cd /var/qps/bin/support/mongo build_set.sh --all --create-scripts
ssh sessionmgrXX /etc/init.d/sessionmgr-XXXXX start
Se os membros de um conjunto de réplicas estiverem presos no estado de inicialização2 ou de recuperação e o primário estiver disponível no conjunto de réplicas, use este procedimento:
diagnostics.sh --get_replica_status
ssh sessionmgr01 ps -ef | grep mongo | grep 37717 root 2572 1 25 Feb11 ? 24-11:43:43 /usr/bin/mongod --ipv6 --nojournal --storageEngine mmapv1 --noprealloc --smallfiles --port 37717 --dbpath=/var/data/sessions.1/b --replSet set01b --fork --pidfilepath /var/run/sessionmgr-37717.pid --oplogSize 5120 --logpath /var/log/mongodb-37717.log --logappend --quiet --slowms 500
/etc/init.d/sessionmgr-xxxxx stop rm -rf /var/data/sessions.1/b/*
/etc/init.d/sessionmgr-xxxxx start
A etapa 5 pode levar um tempo considerável para sincronizar todos os dados do principal, dependendo do tamanho do banco de dados.
Devido a algumas interrupções, pode ser necessário reconstruir alguns ou todos os conjuntos de réplicas. No entanto, antes de ser tomada a decisão de reconstruir alguns ou todos os conjuntos de réplicas, pode-se observar que todos os dados nesses conjuntos de réplicas podem ser perdidos. A disponibilidade de backups deve ser verificada para esses bancos de dados:
Depois que os backups forem verificados cruzadamente e a decisão de recriar conjuntos de réplicas do banco de dados for tomada, use este procedimento:
Note: O comando para criar todos os dbs em um conjunto de réplicas limpa o banco de dados. Todo o conteúdo do conjunto de réplicas seria perdido.
build_set.sh ----create --setname
build_set.sh --all --create
Quando todos os membros do conjunto de réplicas estiverem on-line e um dos membros for primário, o mongoDB poderá ser restaurado a partir do backup através deste procedimento.
config_br.py --action import --mongo-all /mnt/backup/
config_br.py --action import --mongo-all --spr /mnt/backup/
config_br.py --action import --mongo-all --admin /mnt/backup/
config_br.py --action import --mongo-all --balance /mnt/backup/
config_br.py --action import --mongo-all --report /mnt/backup/
Se o mongodump for usado para fazer backup de bancos de dados, isso explica seu uso por meio da restauração mongo:
tar -zxf /mnt/backup/
ls -ltr /mnt/backup/cd /mnt/backup/27721_backup_$(date +\%Y-\%m-\%d)/dump
mongorestore --host--port
mongorestore --host--port --db --