options disk.auto_assign off
disk assign 0d.01.14 -s unowned -f
disk remove_ownership 0d.01.14 -f
disk remove_ownership -f 0d.01.14
>disk assign
Si se crea aggr0(1)
aggr destroy aggr0(1)
options disk.auto_assign off
disk assign 0d.01.14 -s unowned -f
disk remove_ownership 0d.01.14 -f
disk remove_ownership -f 0d.01.14
>disk assign
Si se crea aggr0(1)
aggr destroy aggr0(1)
Esta documentación, refiere a la cabina 2040 de Netapp que actualmente es el medio principal de laboratorio, en ella esta ubicada en el entorno DEV (desarrollo) y laboratorio, unificando en un solo sitio y con un solo criterio el entorno.
Esta entrada recoge una medida excepcional que se aplica para la copia de máquinas de producción a laboratorio para convertirlas en desarrollo.
Actualmente la Netapp 2040 tiene agregada la VLAN 300, esta VLAN esta dedicada para el almacenamiento. El rango IP de esta VLAN es 172.19.2.0
Esta VLAN esta dada de alta en todos los servidores, con lo cual todos ellos tendrían acceso a la cabina en un momento dado, no obstante la configuración de la cabina se ha hecho sobre el servidor uno de producción.
La Netapp 2040 maneja unos 8 TB netos, repartidos en dos controladoras, es decir, 4 Tb por controladora, estas mismas tiene agregadas todas las VLAN que necesitamos y recientemente se ha agregado a esta cabina la VLAN 300 para poder verla en producción.
Aquí abajo tenemos las configuraciones de una controladora, esta configuración es la misma para la otra cambiando la ip, en este caso:
Anexo de configuración de COMUNICACIONES en esta entrada
Lo que he hecho para que las cabinas de lab y pro se vean y es añadir la vlan 300 a todos esos puertos con trunk
SW2_Sistemas_CPD6
Gi1/0/7 LAB_ND1 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/8 LAB_ND1 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/9 LAB_ND1 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/10 LAB_ND1 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/11 LAB_ND3 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/12 LAB_ND3 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/13 LAB_ND3 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/14 LAB_ND3 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/15 LAB_ND4 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/16 LAB_ND4 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/39 LAB_ND2 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/40 LAB_ND2 connected trunk a-full a-100010/100/1000BaseTX
Gi1/0/3 FAS2040DW_MGM/DATO connected trunk a-full a-1000 10/100/1000BaseTX
Gi1/0/4 FAS2040DW_MGM/DATO connected trunk a-full a-1000 10/100/1000BaseTX
Gi1/0/5 FAS2040DW_MGM/DATO connected trunk a-full a-1000 10/100/1000BaseTX
Gi1/0/6 FAS2040DW_MGM/DATO connected trunk a-full a-1000 10/100/1000BaseTX
Gi1/0/41 up up FAS2040UP_MGM/DATOS
Gi1/0/42 up up FAS2040UP_MGM/DATOS
Gi1/0/43 up up FAS2040UP_MGM/DATOS
Gi1/0/44 up up FAS2040UP_MGM/DATOS
Para dejarlo como estaba, hay que eliminar la vlan 300 detodos esos trunks
Configuración de cabina
Añadir el Volumen en Vcenter de producción:
En el servidor, agregaremos el agregado o controladora que corresponda de la cabina 2040, recordemos que los volúmenes los creamos por agregados, tenemos que crear el volumen en la 2040 el cual queremos usar para copiar las máquinas, que no se nos olvide entrar en exports y dar permisos de escritura y lectura o no funcionará, dejo una imagen orientativa de la Netapp 2040
En este caso hemos agregado la controladora 172.19.2.200 dw, todos los volúmenes empiezan con /vol/xxxxxx, y el nombre del datastore que publicaremos en vcenter, le debemos añadir esta mascara xxxxx2040
Una vez agregado el volumen, procedemos a clonar la VM, lo único que tenemos que tener en cuenta es que la clonación puede causar algo de impacto, es aconsejable si son máquinas de trabajo programar un Task para fuera de horario laboral, crearemos la máquina nueva con el mismo nombre que la original, dentro de la carpeta Restore dentro de Sistemas, y seleccionaremos el Datastore XXXXX2040, con esto conseguiremos clonar la maquina para el entorno lab, una vez clonada hay que hacer un remove from inventory para que el vcenter de producción no pueda levantar la y no haya errores.
Una vez esto nos iremos al Vcenter de laboratorio y registraremos la VM en este Vcenter, modificaremos los parámetros de red y procederemos a su encendido.
Ojo, esta documentación es para casos críticos de perdida total de una VM, esta restauración se hace directamente desde la cabina y no desde el software de Backup.
Una vez hemos llegado a la situación en que la máquina por cualquier razón no funciona, no arranca, ha perdido datos, tiraremos teóricamente del software de backup, pero este método también es válido y funciona bastante rápido.
Lo primero que tenemos que hacer es irnos a la cabina y buscar el volumen donde esta instalado o ubicada la virtual machine que ha muerto.
La teoría, en este entorno y por buenas prácticas, nos encontraremos volúmenes por proyectos, y esto segmenta mucho el proceso a la hora de restaurar.
Los volúmenes están todos clonados, el volumen name_mirror es una copia del volumen principal que se guarda en la segunda cabina, todos los volúmenes están agregados en todos los servidores, esto es importante ya que para crear un HA es necesario que todos los nodos tengan accesibles todos los datastores.
Una vez localizado el volumen ya nos podemos ir a la cabina, a través de la dirección web de la cabina principal del cluster,
Dentro de la cabina Storage nos iremos a la sección de Storage, y dentro de Storage buscaremos volúmenes
En esta página le daremos al + del volumen en cuestión que queremos usar para recuperar la virtual machine, dentro de las especificaciones buscaremos abajo a la derecha «Show more details»
En la siguiente pantalla nos saldrá de manera detallada toda la información del volumen, arriba a la derecha tenemos el botón «Actions», le daremos ahí, seguidamente clone>create>volumen, con esta operación lo que hacemos es coger todo el volumen entero y prepararlo para restaurarlo con un snapshot concreto.
Nos saldrá una pantalla con las configuraciones básicas que queremos aplicar a la clonación del volumen, aqui definiremos 3 parametros esenciales:
Una vez clonado, tenemos que prepara el volumen para ofrecérselo a VMware por NFS (red), en este caso nos iremos debajo de volúmenes a NameSpace, cuando se monta un volumen nuevo la Netapp detecta que no esta montado y al darle a mount montaré directamente este nuevo volumen.
Una vez llegados a este paso nos iremos a Vmware, seleccionaremos un servidor y le montaremos el volumen, para esto es conveniente mirar los datos del volumen «origen» que hemos clonado, ya que tienen una ip asignada para ser localizados por la red. Estas ips las podemos encontrar dentro de la web de la cabina en Network Interfaces
No obstante, también lo podemos ver en VMware, ya que el volumen que clonemos se asignará automáticamente al mismo SVM en el que está el volumen original, véase esta foto de los volúmenes en VMware
Para agregar el nuevo volumen le daremos a Add Storage, seleccionaremos Network File System (NFS), todo esto dentro de Home, Inventory, Datastores, nota, esto en el web client puede cambiar pero mas menos será así.
Una vez realizada la selección de NFS, pondremos los datos básicos, leer mas arriba de este documento para saber de donde sacarlos.
El proceso final de restauración requiere que la máquina virtual estropeada se pare por completo, y poder finalizar el proceso. (En el ejemplo que he realizado por primera vez, sucedió que el Servidor Installation Server de Data Protector explotó y se restauró de la siguiente manera)
Paso de restauración una vez se tiene disponible el volumen con las máquinas:
Para proceder a desmontar el volumen, tendremos que estar en la sección de Home, Inventory, Datastores. Una vez aquí buscaremos el datastore clonado y con el botón de la derecha encima le daremos a unmount, con esto desvincularemos Vmware del volumen que aun sigue existiendo en la Netapp.
Ahora iremos a la página de configuración de nuestra cabina de Netapp, en concreto a la parte de NameSpaces, donde procederemos a desmontar la conexión creada en particular para el volumen creado, recordemos que se crea en el mismo SVM que el original.
Seleccionamos el Path que queremos desmontar, y seguidamente le damos a desmontar.
Después de esto nos vamos a la sección de volúmenes dentro de la cabina, en la cual es conveniente seleccionar el SVM correspondiente o le podremos dar a ver todos los volúmenes, una vez allí seleccionamos el volumen clonado que queremos desmontar, y seguidamente le daremos a Action->Change Status to->Offline.
Cuando el volumen pasa a estado Offline, se pondrá rojo en vez de verde, esto significa que ya podemos proceder a su eliminación total de la cabina
Le damos clic con el botón principal y seguidamente arriba veremos que ya tenemos disponible el botón de delete, le damos a borrar y confirmamos borrado, con esto habremos completado el proceso completo de restauración de un Snapshot desde la cabina.