O conjunto de documentação deste produto faz o possível para usar uma linguagem imparcial. Para os fins deste conjunto de documentação, a imparcialidade é definida como uma linguagem que não implica em discriminação baseada em idade, deficiência, gênero, identidade racial, identidade étnica, orientação sexual, status socioeconômico e interseccionalidade. Pode haver exceções na documentação devido à linguagem codificada nas interfaces de usuário do software do produto, linguagem usada com base na documentação de RFP ou linguagem usada por um produto de terceiros referenciado. Saiba mais sobre como a Cisco está usando a linguagem inclusiva.
A Cisco traduziu este documento com a ajuda de tecnologias de tradução automática e humana para oferecer conteúdo de suporte aos seus usuários no seu próprio idioma, independentemente da localização. Observe que mesmo a melhor tradução automática não será tão precisa quanto as realizadas por um tradutor profissional. A Cisco Systems, Inc. não se responsabiliza pela precisão destas traduções e recomenda que o documento original em inglês (link fornecido) seja sempre consultado.
Este documento descreve como solucionar problemas de Recuperação do Servidor de Políticas (PS).
A Cisco recomenda que você tenha conhecimento sobre estes tópicos:
As informações neste documento são baseadas no CPS e aplicáveis a todas as versões.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Se a rede estiver ativa, certifique-se de que você entenda o impacto potencial de qualquer comando.
Nesta seção, conforme descrito:
Se alguma instância estiver no estado SHUTOFF devido a um desligamento planejado ou algum outro motivo, use este procedimento para iniciar a instância e habilitar sua monitoração no controlador de serviço elástico (ESC).
Etapa 1. Verifique o estado da instância através do OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | SHUTOFF|
Etapa 2. Verifique se o computador está disponível e se o estado está ativo.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Etapa 3. Faça login no ESC Master como usuário admin e verifique o estado da instância no opdata.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep qns-s2 SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed VM_ERROR_STATE
Etapa 4. Ligue a instância do openstack.
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Etapa 5. Aguarde cinco minutos para que a instância seja inicializada e chegue ao estado ativo.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ACTIVE |
Etapa 6. Ative o VM Monitor no ESC depois que a instância estiver no estado ativo.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Para obter mais recuperação das configurações de instância, consulte os procedimentos específicos de tipo de instância fornecidos.
Este procedimento pode ser usado se o estado da instância do CPS no openstack for ERROR:
Etapa 1. Verifique o estado da instância no OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ERROR|
Etapa 2. Verifique se o computador está disponível e funcionando bem.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Etapa 3. Faça login no ESC Master como usuário admin e verifique o estado da instância no opdata.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin -C | grep oam-s1 SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed VM_ERROR_STATE
Etapa 4. Redefina o estado da instância para forçar a instância de volta a um estado ativo em vez de um estado de erro, uma vez concluído, reinicialize a instância.
source /home/stack/destackovsrc-Pcrf nova reset-state –active oam-s1_0_170d9c14-0221-4609-87e3-d752e636f57f nova reboot --hard oam-s1_0_170d9c14-0221-4609-87e3-d752e636f57f
Etapa 5. Aguarde cinco minutos para que a instância seja inicializada e chegue ao estado ativo.
source /home/stack/destackovsrc-Pcrf nova list --fields name,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ACTIVE |
Etapa 6. Se o Gerenciador de clusters mudar o estado para ATIVO após a reinicialização, Habilite o Monitor VM no ESC depois que a instância do Gerenciador de clusters estiver no estado ativo.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Passo 7. Após a recuperação para o estado em execução/ativo, consulte o procedimento específico do tipo de instância para recuperar a configuração/os dados do backup.
Recuperação de política SVN:
A maioria para manter o Policy SVN em um volume de cinza diferente, montado em PCRFCLIENTXX em /var/www/svn/repos/, assim as alterações de perda de política svn são reduzidas mesmo que a instância seja perdida. Se a sua implantação não tiver um volume de câncer diferente para o svn de política ou se o filtro onde o svn de política foi armazenado também for perdido, siga o procedimento a seguir para recuperar o SVN de política no PCRFCLIENT01.
Etapa 1. Faça login na VM do Cluster Manager como o usuário raiz.
Etapa 2. Observe o UUID do repositório SVN por meio deste comando:
svn info http://pcrfclient02/repos | grep UUID
O comando fornece a saída do UUID do repositório:
For Example Repository UUID: ea50bbd2-5726-46b8-b807-10f4a7424f0e
Etapa 3. Verifique se a política SVN está sincronizada quando usa o comando fornecido. Se um valor for retornado, o SVN já está sincronizado. E você não precisa sincronizá-lo a partir do PCRFCLIENT02 e deve pular a etapa 4. A recuperação do último backup ainda pode ser usada do necessário, conforme descrito mais adiante nesta seção.
/usr/bin/svn propget svn:sync-from-url --revprop -r0 http://pcrfclient01/repos
Etapa 4. Restabeleça a sincronização mestre/escravo SVN entre pcrfclient01 e pcrfclient02 com pcrfclient01 como mestre executando séries de comandos no PCRFCLIENT01
/bin/rm -fr /var/www/svn/repos /usr/bin/svnadmin create /var/www/svn/repos /usr/bin/svn propset --revprop -r0 svn:sync-last-merged-rev 0 http://pcrfclient02/repos-proxy-sync /usr/bin/svnadmin setuuid /var/www/svn/repos/ "Enter the UUID captured in step 2" /etc/init.d/vm-init-client /var/qps/bin/support/recover_svn_sync.sh
Etapa 5. Se a política SVN no PCRFCLIENT01 estiver em sincronia com PCRFCLEINT02, mas o svn mais recente não refletir no Policy Builder, ela poderá ser importada através do último backup com o comando na VM do Cluster Manager.
config_br.py –a import --svn /mnt/backup/
A maioria para manter o Policy SVN em um volume de cinza diferente, montado em PCRFCLIENTXX em /var/www/svn/repos/, assim as alterações de perda de política svn são reduzidas mesmo que a instância seja perdida. Se a sua implantação não tiver um volume de câncer diferente para o svn de política ou se o filtro onde o svn de política foi armazenado também for perdido, siga o procedimento a seguir para recuperar o SVN de política no PCRFCLIENT02.
Etapa 1. shell seguro para pcrfclient01
ssh pcrfclient01
Etapa 2. Execute o script para sincronizar os acordos SVN de pcrfclient01 para pcrfclient02
/var/qps/bin/support/recover_svn_sync.sh
Verifique o status de integridade do pcrfclient:
run diagnostics.sh from pcrfrclient
Certifique-se de que o PB, Control Center e Grafana GUI estejam acessíveis e funcionando corretamente.
/var/qps/bin/support/recover_svn_sync.sh
/var/qps/bin/support/recover_svn_sync.sh