Post on 13-Oct-2020
transcript
Backup e procedimento de restauração paravários componentes de Ultra-M - CP Índice
IntroduçãoInformações de ApoioAbreviaturasProcedimento de backupBackup OSPDBackup ESCCP alternativosProcedimento de restauraçãoRecuperação OSPDRecuperação ESCRecuperação CP
Introdução
Este original descreve as etapas exigidas a alternativo e a restauração uma máquina virtual (VM)que os anfitriões chamam em uma rede virtual setup Ultra-M CP funciona (VNFs).
Informações de Apoio
Ultra-M é uma solução móvel virtualizada pré-embalada e validada do núcleo do pacote projetadasimplificar o desenvolvimento de VNFs. A solução de Ultra-M consiste nestes tipos da máquinavirtual (VM):
O elástico presta serviços de manutenção ao controlador (o ESC)●
Série da política de Cisco (CP)●
A arquitetura de nível elevado de Ultra-M e os componentes envolvidos são segundo asindicações desta imagem.
Note: A liberação M 5.1.x é considerada ultra a fim definir os procedimentos nesteoriginal. Este original é pretendido para os Ciscos personnel que são familiares com aplataforma de Cisco Ultra-M.
AbreviaturasVNF Função da rede virtual
ESC Controlador elástico doserviço
ESPANADOR Método do procedimento
OSD Discos do armazenamentodo objeto
HDD Unidade de disco rígido
SSD Movimentação de circuitointegrado
VIM Gerente virtual dainfraestrutura
VM Máquina virtual
UUID Universalmente identificadorexclusivo
Procedimento de backup
Backup OSPD
1. Verifique o estado da pilha de OpenStack e da lista do nó.
[stack@director ~]$ source stackrc
[stack@director ~]$ openstack stack list --nested
[stack@director ~]$ ironic node-list
[stack@director ~]$ nova list
2. Verifique se todos os serviços do undercloud estiverem no carregado, estado ativo e running donó OSP-D.
[stack@director ~]$ systemctl list-units "openstack*" "neutron*" "openvswitch*"
UNIT LOAD ACTIVE SUB DESCRIPTION
neutron-dhcp-agent.service loaded active running OpenStack Neutron DHCP Agent
neutron-openvswitch-agent.service loaded active running OpenStack Neutron Open vSwitch
Agent
neutron-ovs-cleanup.service loaded active exited OpenStack Neutron Open vSwitch
Cleanup Utility
neutron-server.service loaded active running OpenStack Neutron Server
openstack-aodh-evaluator.service loaded active running OpenStack Alarm evaluator
service
openstack-aodh-listener.service loaded active running OpenStack Alarm listener
service
openstack-aodh-notifier.service loaded active running OpenStack Alarm notifier
service
openstack-ceilometer-central.service loaded active running OpenStack ceilometer central
agent
openstack-ceilometer-collector.service loaded active running OpenStack ceilometer collection
service
openstack-ceilometer-notification.service loaded active running OpenStack ceilometer
notification agent
openstack-glance-api.service loaded active running OpenStack Image Service (code-
named Glance) API server
openstack-glance-registry.service loaded active running OpenStack Image Service (code-
named Glance) Registry server
openstack-heat-api-cfn.service loaded active running Openstack Heat CFN-compatible
API Service
openstack-heat-api.service loaded active running OpenStack Heat API Service
openstack-heat-engine.service loaded active running Openstack Heat Engine Service
openstack-ironic-api.service loaded active running OpenStack Ironic API service
openstack-ironic-conductor.service loaded active running OpenStack Ironic Conductor
service
openstack-ironic-inspector-dnsmasq.service loaded active running PXE boot dnsmasq service for
Ironic Inspector
openstack-ironic-inspector.service loaded active running Hardware introspection service
for OpenStack Ironic
openstack-mistral-api.service loaded active running Mistral API Server
openstack-mistral-engine.service loaded active running Mistral Engine Server
openstack-mistral-executor.service loaded active running Mistral Executor Server
openstack-nova-api.service loaded active running OpenStack Nova API Server
openstack-nova-cert.service loaded active running OpenStack Nova Cert Server
openstack-nova-compute.service loaded active running OpenStack Nova Compute Server
openstack-nova-conductor.service loaded active running OpenStack Nova Conductor Server
openstack-nova-scheduler.service loaded active running OpenStack Nova Scheduler Server
openstack-swift-account-reaper.service loaded active running OpenStack Object Storage
(swift) - Account Reaper
openstack-swift-account.service loaded active running OpenStack Object Storage
(swift) - Account Server
openstack-swift-container-updater.service loaded active running OpenStack Object Storage
(swift) - Container Updater
openstack-swift-container.service loaded active running OpenStack Object Storage
(swift) - Container Server
openstack-swift-object-updater.service loaded active running OpenStack Object Storage
(swift) - Object Updater
openstack-swift-object.service loaded active running OpenStack Object Storage
(swift) - Object Server
openstack-swift-proxy.service loaded active running OpenStack Object Storage
(swift) - Proxy Server
openstack-zaqar.service loaded active running OpenStack Message Queuing
Service (code-named Zaqar) Server
openstack-zaqar@1.service loaded active running OpenStack Message Queuing
Service (code-named Zaqar) Server Instance 1
openvswitch.service loaded active exited Open vSwitch
LOAD = Reflects whether the unit definition was properly loaded.
ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
SUB = The low-level unit activation state, values depend on unit type.
37 loaded units listed. Pass --all to see loaded but inactive units, too.
To show all installed unit files use 'systemctl list-unit-files'.
3. Confirme que você tem o espaço de disco suficiente disponível antes que você execute oprocesso de backup. Este tarball é esperado ser pelo menos 3.5 GB.
[stack@director ~]$df -h
4. Execute estes comandos como o backup do usuário de raiz os dados do nó do undercloud aum arquivo nomeado o [timestamp] .tar.gz do undercloud-backup e transfira-os ao servidor debackup.
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-
databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
Backup ESC
1. O ESC, por sua vez, traz acima a função da rede virtual (VNF) interagindo ao VIM.
2. O ESC tem a Redundância de 1:1 na solução de Ultra-M. Há 2 ESC VM distribuídos e apoia aúnica falha em Ultra-M. isto é recupere o sistema se há uma única falha no sistema.
Note: Se há mais do que a única falha, não está apoiada e pode exigir a redisposição dosistema.
Detalhes alternativos ESC:
Configuração running●
ConfD CDB DB●
Logs ESC●
Configuração do Syslog●
3. A frequência do backup ESC DB é complicada e precisa de ser segurada com cuidado como
monitores ESC e mantém as várias máquinas de estado para vário VNF VM distribuídas.Recomenda-se que estes backup estão executados após seguintes atividades em VNF/POD/Sitedado
4. Verifique que a saúde do ESC é boa usando o script de health.sh.
[root@auto-test-vnfm1-esc-0 admin]# escadm status
0 ESC status=0 ESC Master Healthy
[root@auto-test-vnfm1-esc-0 admin]# health.sh
esc ui is disabled -- skipping status check
esc_monitor start/running, process 836
esc_mona is up and running ...
vimmanager start/running, process 2741
vimmanager start/running, process 2741
esc_confd is started
tomcat6 (pid 2907) is running... [ OK ]
postgresql-9.4 (pid 2660) is running...
ESC service is running...
Active VIM = OPENSTACK
ESC Operation Mode=OPERATION
/opt/cisco/esc/esc_database is a mountpoint
============== ESC HA (MASTER) with DRBD =================
DRBD_ROLE_CHECK=0
MNT_ESC_DATABSE_CHECK=0
VIMMANAGER_RET=0
ESC_CHECK=0
STORAGE_CHECK=0
ESC_SERVICE_RET=0
MONA_RET=0
ESC_MONITOR_RET=0
=======================================
ESC HEALTH PASSED
5. Tome o backup da configuração running e transfira o arquivo ao servidor de backup.
[root@auto-test-vnfm1-esc-0 admin]# /opt/cisco/esc/confd/bin/confd_cli -u admin -C
admin connected from 127.0.0.1 using console on auto-test-vnfm1-esc-0.novalocal
auto-test-vnfm1-esc-0# show running-config | save /tmp/running-esc-12202017.cfg
auto-test-vnfm1-esc-0#exit
[root@auto-test-vnfm1-esc-0 admin]# ll /tmp/running-esc-12202017.cfg
-rw-------. 1 tomcat tomcat 25569 Dec 20 21:37 /tmp/running-esc-12202017.cfg
Base de dados alternativo ESC
1. O log em ESC VM e executa o comando seguinte antes que você tome o backup.
[admin@esc ~]# sudo bash
[root@esc ~]# cp /opt/cisco/esc/esc-scripts/esc_dbtool.py /opt/cisco/esc/esc-
scripts/esc_dbtool.py.bkup
[root@esc esc-scripts]# sudo sed -i "s,'pg_dump,'/usr/pgsql-9.4/bin/pg_dump,"
/opt/cisco/esc/esc-scripts/esc_dbtool.py
#Set ESC to mainenance mode
[root@esc esc-scripts]# escadm op_mode set --mode=maintenance
2. Verifique o modo ESC e assegure-se de que reaja do modo de manutenção.
[root@esc esc-scripts]# escadm op_mode show
3. Backup de base de dados usando a ferramenta da restauração do backup da base de dadosdisponível no ESC.
[root@esc scripts]# sudo /opt/cisco/esc/esc-scripts/esc_dbtool.py backup --file
scp://<username>:<password>@<backup_vm_ip>:<filename>
4. Ajuste o ESC de volta ao modo de operação & confirme o modo.
[root@esc scripts]# escadm op_mode set --mode=operation
[root@esc scripts]# escadm op_mode show
5. Navegue ao diretório dos scripts & recolha os logs.
[root@esc scripts]# /opt/cisco/esc/esc-scripts
sudo ./collect_esc_log.sh
6. Para criar um instantâneo da parada programada ESC primeiro o ESC.
shutdown -r now
7. Do crearte OSPD um instantâneo da imagem
nova image-create --poll esc1 esc_snapshot_27aug2018
8. Verifique que o instantâneo está criado
openstack image list | grep esc_snapshot_27aug2018
9. Comece o ESC de OSPD
nova start esc1
10. Repita o mesmo procedimento em ESC à espera VM & transfira os logs ao servidor debackup
11. Recolha o backup de configuração do Syslog em ambo o ESC VMS e transfira-os ao servidorde backup
[admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
00-escmanager.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf
01-messages.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf
02-mona.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf
rsyslog.conf
CP alternativos
1. Crie um backup da gerente de cluster CP
Use este comando a fim ver os exemplos da nova e notar o nome do exemplo da gerente decluster VM:
nova list
Pare o Cluman do ESC
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action STOP <vm-name>
Etapa 2. Verifique a gerente de cluster no estado do DESLIGAMENTO.
admin@esc1 ~]$ /opt/cisco/esc/confd/bin/confd_cli
admin@esc1> show esc_datamodel opdata tenants tenant Core deployments * state_machine
Etapa 3. Crie uma imagem do instantâneo da nova segundo as indicações do comando seguinte:
nova image-create --poll <cluman-vm-name> <snapshot-name>
Note: Assegure-se de que você tenha bastante espaço de disco para o instantâneo.
Importante - Caso que se o VM se torna inacessível após a criação do instantâneo, verifique oestado do VM usando o comando list da nova. Se está no estado do “DESLIGAMENTO”, vocêprecisa de começar manualmente o VM.
Etapa 4. Veja a lista de imagem com o comando seguinte: figura 1 da lista de imagem da nova:Saídas de exemplo
Etapa 5. Quando um instantâneo é criado, a imagem do instantâneo está armazenada no relancede OpenStack. Para armazenar o instantâneo em uns dados remotos armazene, transfira oinstantâneo e transfira o arquivo em OSPD a (/home/stack/CPS_BACKUP)
Para transferir a imagem, use o comando seguinte em OpenStack:
nova image-create --poll <cluman-vm-name> <snapshot-name>
Etapa 6. Aliste as imagens baixada segundo as indicações do comando seguinte:
nova image-create --poll <cluman-vm-name> <snapshot-name>
nova image-create --poll <cluman-vm-name> <snapshot-name>
Etapa 7. Armazene o instantâneo da gerente de cluster VM para restaurar no futuro.
2. Backup a configuração e o base de dados.
nova image-create --poll <cluman-vm-name> <snapshot-name>
Verifique do crontab - l se algum outro backup é precisado
Transfira todos os backup ao OSPD /home/stack/CPS_BACKUP
3. Arquivo alternativo do yaml do mestre ESC
nova image-create --poll <cluman-vm-name> <snapshot-name>
Transfira o arquivo em OSPD /home/stack/CPS_BACKUP
4. Suporte o crontab - l entradas
Crie um arquivo txt com o crontab - l e ftp ele à posição remota (em OSPD/home/stack/CPS_BACKUP)
5. Tome um backup dos arquivos da rota do cliente LB e PCRF
nova image-create --poll <cluman-vm-name> <snapshot-name>
Procedimento de restauração
Recuperação OSPD
O procedimento de recuperação OSPD é executado baseou nas seguintes suposições
1. O backup OSPD está disponível do server velho OSPD.
2. A recuperação OSPD será feita no server novo que é a substituição do server velho OSPD nosistema.
Recuperação ESC
1. O ESC VM é recuperável se o VM está no erro ou o estado de fechamento faz a repartiçãodura para trazer acima do VM impactado. Execute estas etapas para recuperar o ESC.
2. Identifique o VM que está no ERRO ou no estado de fechamento, duro-repartição uma vezidentificada o ESC VM. Neste exemplo, você está recarregando auto-test-vnfm1-ESC-0.
nova image-create --poll <cluman-vm-name> <snapshot-name>
3. Se o ESC VM é suprimido e precisa de ser trazido acima outra vez. Siga abaixo da sequênciadas etapas
nova image-create --poll <cluman-vm-name> <snapshot-name>
4. Se o ESC VM é unrecoverable e exige a restauração do base de dados, restaure por favor obase de dados do backup previamente tomado.
5. Para a restauração do base de dados ESC, nós temos que assegurar-se de que o serviço escesteja parado antes de restaurar o base de dados; Para ESC HA, execute no VM secundárioprimeiramente e então o VM preliminar.
nova image-create --poll <cluman-vm-name> <snapshot-name>
6. Verifique o estado do serviço ESC e assegure-se de que tudo esteja parado em VMpreliminares e secundários para o HA.
nova image-create --poll <cluman-vm-name> <snapshot-name>
7. Execute o script para restaurar o base de dados. Como parte da restauração do DB aoexemplo recém-criado ESC, a ferramenta igualmente promoverá um dos exemplos para ser umESC preliminar, monta seu dobrador DB ao dispositivo do drbd e começará o base de dados dePostgreSQL.
nova image-create --poll <cluman-vm-name> <snapshot-name>
8. Reinicie o serviço ESC para terminar a restauração do base de dados. Para o HA execute emambos os VM, reiniciam o serviço keepalived.
nova image-create --poll <cluman-vm-name> <snapshot-name>
9. Uma vez que o VM é restaurado com sucesso e ser executado; assegure-se de que toda aconfiguração específica do Syslog esteja restaurada do backup conhecido bem sucedidoprecedente. assegure-se de que esteja restaurada em todo o ESC VM.
[admin@auto-test-vnfm2-esc-1 ~]$
[admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
00-escmanager.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf
01-messages.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf
02-mona.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf
rsyslog.conf
10. Se o ESC precisa de ser reconstruído do uso do instantâneo OSPD este comando com o usodo instantâneo tomado durante o backup.
[admin@auto-test-vnfm2-esc-1 ~]$
[admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
00-escmanager.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf
01-messages.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf
02-mona.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf
rsyslog.conf
11. Verifique o estado do ESC depois que a reconstrução está completa
[admin@auto-test-vnfm2-esc-1 ~]$
[admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
00-escmanager.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf
01-messages.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf
02-mona.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf
rsyslog.conf
12. Verifique a saúde ESC com o comando abaixo
[admin@auto-test-vnfm2-esc-1 ~]$
[admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
00-escmanager.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf
01-messages.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf
02-mona.conf
[admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf
rsyslog.conf
Quando o ESC não começa o VM
Em alguns casos, o ESC não começará o VM devido a um estado inesperado. Uma açãoalternativa é executar um switchover ESC recarregando o mestre ESC. O switchover ESCtomará aproximadamente um minuto. Execute health.sh no mestre novo ESC para verificarque está acima. Quando o ESC se transforma mestre, o ESC pode fixar o estado VM ecomeçar o VM. Desde que esta operação é programada, você deve esperar 5-7 minutos porela para terminar.
●
Você pode monitorar /var/log/esc/yangesc.log e /var/log/esc/escmanager.log. Se você não vêo VM obter recuperado após 5-7 minutos, o usuário precisaria de ir fazer a recuperaçãomanual do VM impactado.
●
Uma vez que o VM é restaurado com sucesso e ser executado; assegure-se de que toda a●
configuração específica do Syslog esteja restaurada do backup conhecido bem sucedidoprecedente. Assegure-se de que esteja restaurada em todo o ESC VM
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Recuperação CP
Gerente de cluster VM da restauração em OpenStack
Etapa 1 Copie o instantâneo da gerente de cluster VM à lâmina do controlador segundo asindicações do comando seguinte:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Etapa 2 Transfira arquivos pela rede a imagem do instantâneo a OpenStack de Datastore:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Etapa 3 Verifique se o instantâneo está transferido arquivos pela rede com um comando da novasegundo as indicações do exemplo seguinte:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Figura 2: Saídas de exemplo
Etapa 4 Segundo se a gerente de cluster VM existe ou não, você pode escolher criar o cluman oureconstruir o cluman:
• Se o exemplo da gerente de cluster VM não existe, crie o Cluman VM com um comando do calorou da nova segundo as indicações do exemplo seguinte:
Crie o Cluman VM com o ESC
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
O conjunto PCRF desovará com a ajuda do comando acima, e restaura então as configuraçõesda gerente de cluster dos backup tomados com restauração config_br.py, mongorestore dobackup recolhido descarga
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
• Se o exemplo da gerente de cluster VM existe, use um comando da reconstrução da novareconstruir como mostrado o exemplo de Cluman VM com o instantâneo transferido arquivos pelarede:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Por exemplo:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
A lista da etapa 5 todos os exemplos como mostrado e verifica que o exemplo novo da gerente decluster está criado e ser executado:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Figura 3. saídas de exemplo
Restaure as correções de programa as mais atrasadas no sistema
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Note: Os componentes de software devem todo o indicador não monitorado como o statusatual.
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
Restaure o Cronjobs
1. Mova o arquivo suportado de OSPD para o Cluman/Pcrfclient01.
2. Execute o comando ativar o cronjob do backup.
#crontab Cron-backup
3. Verifique se os cronjobs foram ativados pelo comando abaixo.
#crontab Cron-backup
Restaure VM individuais no conjunto
Para demover o pcrfclient01 VM:
Etapa 1 Início de uma sessão à gerente de cluster VM como o usuário de raiz.
Etapa 2 Note o UUID do repositório SVN usando o comando seguinte:
svn info http://pcrfclient02/repos | grep UUID
O comando output o UUID do repositório.
Por exemplo: Repositório UUID: ea50bbd2-5726-46b8-b807-10f4a7424f0e
Etapa 3 Importe os dados de configuração alternativos do construtor da política na gerente decluster, segundo as indicações do exemplo seguinte:
config_br.py -a import --etc-oam --svn --stats --grafanadb --auth-htpasswd --users
/mnt/backup/oam_backup_27102016.tar.gz
Note: Muito deploymentsrun um cron job que suporte o backup do repositório dos dados deconfiguração regularly.SeeSubversion, para mais detalhes.
Etapa 4 Para gerar os arquivos mortos VM na gerente de cluster que usa as configurações asmais atrasadas, execute o comando seguinte:
/var/qps/install/current/scripts/build/build_svn.sh
A etapa 5 para distribuir o pcrfclient01 VM, executa um do seguinte:
Em OpenStack, use o molde do CALOR ou o comando da nova recrear o VM. Para maisinformação, veja o Guia de Instalação CP para OpenStack.
Sincronização do mestre/escravo da etapa 6 re-establishSVN entre o pcrfclient01 e o pcrfclient02com o pcrfclient01 como o mestre executando a seguinte série de comandos.
Se o SVN é sincronizado já, não emita estes comandos.
Para verificar se o SVN está na sincronização, execute o comando seguinte de pcrfclient02.
Se um valor é retornado, a seguir o SVN está já na sincronização:
/usr/bin/svn propget svn:sync-from-url --revprop -r0 http://pcrfclient01/repos
Execute os comandos seguintes de pcrfclient01:
/bin/rm -fr /var/www/svn/repos
/usr/bin/svnadmin create /var/www/svn/repos
/usr/bin/svn propset --revprop -r0 svn:sync-last-merged-rev 0 http://pcrfclient02/repos-proxy-
sync
/usr/bin/svnadmin setuuid /var/www/svn/repos/ "Enter the UUID captured in step 2"
/etc/init.d/vm-init-client /
var/qps/bin/support/recover_svn_sync.sh
A etapa 7 se pcrfclient01 é igualmente o árbitro VM, a seguir executa as seguintes etapas:
a) Crie os scripts do começo/parada do mongodb baseados na configuração de sistema. Nãotodas as disposições têm todos estes bases de dados configurados.
Note: Refira /etc/broadhop/mongoConfig.cfg para determinar que bases de dados precisamde se estabelecer.
cd /var/qps/bin/support/mongo
build_set.sh --session --create-scripts
build_set.sh --admin --create-scripts
build_set.sh --spr --create-scripts
build_set.sh --balance --create-scripts
build_set.sh --audit --create-scripts
build_set.sh --report --create-scripts
b) Comece o processo do mongo:
/usr/bin/systemctl start sessionmgr-XXXXX
c) Espere o árbitro para começar, a seguir execute diagnostics.sh --get_replica_status paraverificar a saúde do grupo da réplica.
Para demover o pcrfclient02 VM:
Etapa 1 Início de uma sessão à gerente de cluster VM como o usuário de raiz
Etapa 2 Para gerar os arquivos mortos VM na gerente de cluster que usa as configurações asmais atrasadas, execute o comando seguinte:
/var/qps/install/current/scripts/build/build_svn.sh
Etapa 3 Para distribuir o pcrfclient02 VM, execute um do seguinte:Em OpenStack, use o molde do CALOR ou o comando da nova recrear o VM. Para maisinformação, veja o Guia de Instalação CP para OpenStack.
Etapa 4 Secure Shell ao pcrfclient01:
ssh pcrfclient01
A etapa 5 executa o seguinte script para recuperar o repos SVN de pcrfclient01:
/var/qps/bin/support/recover_svn_sync.sh
Para demover um sessionmgr VM:
Etapa 1 Início de uma sessão à gerente de cluster VM como o usuário de raiz
Etapa 2 Para distribuir o sessionmgr VM e substituir o VM falhado ou corrompido, execute um doseguinte:
Em OpenStack, use o molde do CALOR ou o comando da nova recrear o VM. Para maisinformação, veja o Guia de Instalação CP para OpenStack
Etapa 3 Crie os scripts do começo/parada do mongodb baseados na configuração de sistema.
Não todas as disposições têm todos estes bases de dados configurados. Refira/etc/broadhop/mongoConfig.cfg para determinar que bases de dados precisam de se estabelecer
cd /var/qps/bin/support/mongo
build_set.sh --session --create-scripts
build_set.sh --admin --create-scripts
build_set.sh --spr --create-scripts
build_set.sh --balance --create-scripts
build_set.sh --audit --create-scripts
build_set.sh --report --create-scripts
Etapa 4 O Secure Shell ao sessionmgr VM e começa o processo do mongo:
ssh sessionmgrXX
/usr/bin/systemctl start sessionmgr-XXXXX
A espera da etapa 5 para que os membros comecem e para que os membros secundáriossincronizem, executa então diagnostics.sh --get_replica_status para verificar a saúde do base dedados.
A etapa 6 para restaurar o base de dados da gerente de sessão, usa um dos comandos doexemplo seguinte segundo se o backup esteve executado com --mongo-todo ou --opção domongo:
• config_br.py -a import --mongo-all --users /mnt/backup/Name of backup
or
• config_br.py -a import --mongo --users /mnt/backup/Name of backup
Para demover o diretor da política (equilibrador) da carga VM:
Etapa 1 Início de uma sessão à gerente de cluster VM como o usuário de raiz.
Etapa 2 Para importar os dados de configuração alternativos do construtor da política na gerentede cluster, execute o comando seguinte:
config_br.py -a import --network --haproxy --users /mnt/backup/lb_backup_27102016.tar.gz
Etapa 3 Para gerar os arquivos mortos VM na gerente de cluster que usa as configurações asmais atrasadas, execute o comando seguinte:
/var/qps/install/current/scripts/build/build_svn.sh
Etapa 4 Para distribuir o lb01 VM, execute um do seguinte:
Em OpenStack, use o molde do CALOR ou o comando da nova recrear o VM. Para maisinformação, veja o Guia de Instalação CP para OpenStack.
Para demover o servidor da política (QNS) VM:
Etapa 1 Início de uma sessão à gerente de cluster VM como o usuário de raiz.
Etapa 2 Importe os dados de configuração alternativos do construtor da política na gerente decluster, segundo as indicações do exemplo seguinte:
config_br.py -a import --users /mnt/backup/qns_backup_27102016.tar.gz
Etapa 3 Para gerar os arquivos mortos VM na gerente de cluster que usa as configurações asmais atrasadas, execute o comando seguinte:
/var/qps/install/current/scripts/build/build_svn.sh
Etapa 4 Para distribuir os qns VM, execute um do seguinte:Em OpenStack, use o molde do CALOR ou o comando da nova recrear o VM. Para maisinformação, veja o Guia de Instalação CP para OpenStack
Procedimento geral para a restauração do base de dados
Etapa 1 Execute o comando seguinte restaurar o base de dados:
config_br.py –a import --mongo-all /mnt/backup/backup_$date.tar.gz where $date is the timestamp
when the export was made.
Por exemplo,
config_br.py –a import --mongo-all /mnt/backup/backup_27092016.tgz
Etapa 2 Entre ao base de dados e verifique se está sendo executado e é acessível:
1. Log na gerente de sessão:
mongo --host sessionmgr01 --port $port
onde $port é o número de porta do base de dados a verificar. Por exemplo, 27718 são a porta doequilíbrio do padrão.
2. Indique o base de dados executando o comando seguinte:
show dbs
3. Comute o shell do mongo ao base de dados executando o comando seguinte:
use $db
onde $db é um nome do base de dados indicado no precedente comande.
Os switch de comando do “uso” o shell do mongo a esse base de dados.
Por exemplo,
use balance_mgmt
4. Para indicar as coleções, execute o comando seguinte:
show collections
5. Para indicar o número de registro na coleção, execute o comando seguinte:
db.$collection.count()
For example, db.account.count()
O exemplo acima mostrará o número de registro na coleção “conta” no base de dados doequilíbrio (balance_mgmt).
Restauração do repositório da subversão
Para restaurar os dados de configuração do construtor da política de um backup, execute ocomando seguinte:
config_br.py –a import --svn /mnt/backup/backup_$date.tgz where, $date is the date when the cron
created the backup file.
Restaure o painel de Grafana
Você pode restaurar o painel de Grafana usando o comando seguinte:
config_br.py -a import --grafanadb /mnt/backup/
Validando a restauração
Após ter restaurado os dados, verifique o sistema em funcionamento executando o comandoseguinte:
/var/qps/bin/diag/diagnostics.sh