NutanixBible (104-164) en Es PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 61

La Biblia Nutanix

Pre-requisitos

Antes de llegar a confi guración, tenemos que confi gurar el IP Servicios de Datos que actuará como centro de nuestro descubrimiento / inicio de
sesión del portal.

Vamos a configurar esto en la página 'Detalles de clúster' (Gear Icon -> Detalles Cluster):

Figura 3.3.12. Servicios - Servicios de bloques de datos IP

Esto también se puede ajustar mediante NCLI / API:

ncli cúmulo de edición-params externa-Data-servicios-ip-address = <servicios de datos IP ADDRESS>

Creación de destino

Para utilizar Trazos Services, el fi lo primero que vamos a hacer es crear un 'grupo de volúmenes', que es el destino iSCSI.

Desde el 'almacenamiento' página haga clic en '+ volumen de grupo' en la esquina derecha:

Figura 3.3.13. Servicios bloquear - Agregar grupo de volúmenes

Esto abrirá un menú donde especificaremos los detalles VG:

Figura 3.3.14. Bloque Servicios - Añadir VG detalles

104
Libro de la Acrópolis

A continuación vamos a hacer clic en '+ Añadir nuevo disco' para añadir cualquier disco (s) al blanco (visible como LUN): aparecerá un

menú a lo que nos permite seleccionar el contenedor de destino y tamaño del disco:

Figura 3.3.15. Servicios de bloques - Añade disco

Haga clic en 'Añadir' y repetir esta operación para sin embargo muchos discos que desea agregar.

Una vez que nos hemos específi ed los detalles y el disco (s) añadido vamos a adjuntar el volumen de grupo a una máquina virtual o Iniciador IQN.
Esto permitirá que el VM para acceder al destino iSCSI (peticiones de un iniciador desconocido son rechazados):

Figura 3.3.16. Servicios bloquear - Iniciador IQN / VM

Haga clic en 'Guardar' y el Volumen del Grupo confi guración está completo! Todo esto puede
hacerse a través de ACLI / API, así:

# crear VG

vg.create <VG Nombre>

# Añadir el disco (s) a VG

Vg.disk_create <VG Name> contenedor = <CTR nombre> create_size = <tamaño del disco, por ejemplo 500G>

105
La Biblia Nutanix

# Adjuntar iniciador IQN a VG

Vg.attach_external <VG Nombre> <Iniciador IQN>

Ruta de acceso de alta disponibilidad (HA)

Como se mencionó anteriormente, los servicios de datos IP se aprovecha para el descubrimiento. Esto permite una única dirección
que se puede aprovechar sin la necesidad de conocer las direcciones IP individuales CVM.

Los Servicios de Datos IP será asignado a la corriente principal de iSCSI. En el caso de que no, un nuevo amo iSCSI se
convertirá elegidos y asignados a los servicios de datos IP. Esto asegura que el portal de detección de siempre permanecerá
disponible.

El iniciador iSCSI se configura con la IP de los servicios de datos como el portal de destino iSCSI. Ante una solicitud de inicio de sesión, la
plataforma llevará a cabo una sesión de redirección de iSCSI a un Stargate saludable.

Figura 3.3.17. Servicios bloquear - Inicio de sesión de redirección


En el caso en el que el activo (afín) Stargate deja de funcionar, el iniciador iSCSI vuelve a intentar la entrada a los servicios
de datos IP, que luego redirigir a otro Stargate saludable.

Figura 3.3.18. Bloque de Servicios - Manejo de fallas


Si el Stargate afín vuelve a subir y es estable, el Stargate activo en ese momento se queisce de E / S y matar a la sesión iSCSI
activo (s). Cuando el iniciador vuelve a intentar el inicio de sesión iSCSI, los servicios de datos IP volverá a dirigir al Stargate afín.

Figura 3.3.19. Los servicios de conmutación por recuperación de bloques -

106
Libro de la Acrópolis

Vigilancia de la Salud y predeterminados


Stargate salud se vigila por medio de Zookeeper para el bloque servicios, utilizando el mismo mecanismo exacto como
DSF.

Para la conmutación por recuperación, el intervalo predeterminado es de 120 segundos. Este medio una vez que la afi nen
Stargate es saludable para 2 o más minutos, vamos a queisce y cerrar la sesión. Obligando a volver otra entrada a la afi
define Stargate.

Teniendo en cuenta este mecanismo, multirruta lado del cliente (MPIO) ya no es necesario para la ruta de HA. Cuando se conecta
a un objetivo, ahora no hay necesidad de comprobar 'Enable multi-path' (que permite MPIO):

Figura 3.3.20. Servicios bloquear - No se MPIO

Rutas múltiples

El protocolo iSCSI spec mandatos una sola sesión iSCSI (conexión TCP) por objetivo, entre iniciador y de destino. Esto
significa que hay una relación 1: 1 entre un Stargate y un objetivo.

A partir de 4,7, 32 (por defecto) objetivos virtuales se crean automáticamente por iniciador adjunto y asignan a cada dispositivo de disco
añadido al grupo de volúmenes (VG). Esto proporciona un destino iSCSI por dispositivo de disco. Anteriormente esto habría sido
manejado mediante la creación de múltiples VGs con un solo disco cada uno.

Al mirar los detalles VG en ACLI / API se puede ver las 32 dianas virtuales creados para cada archivo adjunto:

attachment_list {
external_initiator_name: target_params “iqn.1991-05.com.microsoft:desktop-foo” {

num_virtual_targets: 32}}

Aquí hemos creado un VG muestra con 3 dispositivos de discos añadidos a la misma. Cuando se realiza un descubrimiento de mi cliente
Veo un objetivo individual para cada dispositivo de disco (con un sufi x en el formato de '-tgt [int]'):

107
La Biblia Nutanix

Figura 3.3.21. Servicios bloquear - Virtual Target


Esto permite que cada dispositivo de disco que tiene su propia sesión iSCSI y la capacidad de estas sesiones que se celebrará a través de
múltiples puertas estelares, lo que aumenta la escalabilidad y el rendimiento:

Figura 3.3.22. Bloque de Servicios - Multi-Path


El balanceo de carga se produce durante iSCSI establecimiento de la sesión iSCSI (login), para cada objetivo. A partir de 4,7 una
función hash simple es el uso para distribuir objetivos a través de nodos de clúster. Vamos a seguir para mirar el algoritmo y Optimizar
según sea necesario. También es posible establecer un nodo preferido que será utilizado siempre que se encuentra en un estado
saludable.

SCSI desasignar (TRIM)


Acrópolis Bloque Services admite el comando SCSI UNmap (TRIM) en el pliego de condiciones T10 SCSI. Este
comando se utiliza para recuperar el espacio a partir de bloques borrados.

3.3.4 Servicios de archivo

La función de los servicios de archivos permite a los usuarios aprovechar la plataforma Nutanix como fi l servidor de alta disponibilidad. Esto permite un único
espacio de nombres donde los usuarios pueden almacenar los directorios de inicio y los archivos.

108
Libro de la Acrópolis

Esta característica se compone de un par de construcciones de alto nivel:

• Servidor de archivos

espacio de nombres de alto nivel. Cada servidor de archivos tendrá su propio conjunto de archivos Servicios de máquinas virtuales (FSVM), que
se utilizan
• Compartir
Compartir expuesto a los usuarios. Un servidor de archivos puede tener múltiples acciones (por ejemplo, acciones departamentales, etc.)

• Carpeta
Carpetas para el almacenamiento de archivos. Las carpetas están fragmentados a través de FSVMs

La figura muestra el mapeo de alto nivel de las construcciones:

Figura 3.3.22. Presentar los servicios de mapas

La función de los servicios de archivos sigue la misma metodología para la distribución como la plataforma Nutanix para asegurar la
disponibilidad y la escala. Un mínimo de 3 FSVMs será desplegado como parte de la implementación del servidor de archivos.

La figura muestra una vista detallada de los componentes:

Figura 3.3.23. Detalle archivo de Servicios

109
La Biblia Nutanix

Protocolos compatibles
A partir de 4,6, SMB (hasta la versión 2.1) es el protocolo sólo está soportado para la comunicación cliente con
servicios de archivos.

El archivo de servicios VM ejecuta como agente de máquinas virtuales en la plataforma y se despliegan de forma transparente como parte del proceso de
configuración.

La figura muestra una vista detallada de FSVMs en la plataforma Acropolis:

Figura 3.3.24. FSVM despliegue Arco

Autenticacion y autorizacion

La función de los servicios de archivos está completamente integrado en Microsoft Active Directory (AD) y DNS. Esto permite que todas
las capacidades de autenticación y autorización seguras y establecidas de AD deje sentir. Toda la gestión de permisos de recurso
compartido, el usuario y el grupo se realiza mediante el MMC tradicional de Windows para la gestión de archivos.

Como parte del proceso de instalación se crearán los siguientes objetos AD / DNS:

• Cuenta AD ordenador para el servidor de archivos


• Servicio AD nombre principal (SPN) para el servidor de archivos y cada FSVM
• entrada DNS para el servidor de archivos que apunta a todos los FSVM (s)
• entrada DNS para cada FSVM

Los privilegios de AD para la Creación de servidor de archivos

Una cuenta de usuario con el administrador de dominio o privilegios equivalentes debe ser utilizado para implementar la función
de servicio de archivos que se crean los objetos de AD y DNS.

De alta disponibilidad (HA)

Cada FSVM aprovecha la API volúmenes Acrópolis para su almacenamiento de datos al que se accede a través de invitado in- iSCSI. Esto permite que
cualquier FSVM para conectarse a cualquier destino iSCSI en el caso de un corte FSVM. La figura muestra una visión general de alto nivel del
almacenamiento FSVM:

Figura 3.3.25. FSVM almacenamiento

110
Libro de la Acrópolis

Para proporcionar disponibilidad ruta DM-MPIO esté apalancado en el FSVM que tendrá el conjunto ruta activa a la CVM local de
forma predeterminada:

Figura 3.3.26. FSVM MPIO


En el caso donde el CVM local se convierte en no disponible (por ejemplo, camino hacia abajo activo), DM-MPIO activará uno de los caminos de
conmutación por error a un CVM remoto que luego toma de control IO.

Figura 3.3.27. FSVM MPIO de conmutación por error


Cuando la CVM locales regresa y es saludable será marcado como el camino activo para proporcionar para IO local.

En un entorno normal de funcionamiento de cada FSVM se va a comunicar con su propio VG para el almacenamiento de datos con
conexiones pasivas a los otros. Cada FSVM tendrá una dirección IP, que los clientes utilizan para comunicarse con el FSVM como parte
del proceso de referencia de DFS. Los clientes no necesitan saber IP de cada individuo como FSVM el proceso de referencia DFS se
conectará a la IP correcta de alojamiento de su carpeta (s).

Figura 3.3.28. Funcionamiento normal FSVM

111
La Biblia Nutanix

En el caso de un “fracaso” FSVM (por ejemplo, mantenimiento, alimentación, etc.), la VG y IP del FSVM no será absorbida por otra FSVM
para asegurar la disponibilidad del cliente. La figura muestra la transferencia de la propiedad intelectual fallaron y VG de FSVM:

Figura 3.3.29. FSVM escenario de fallo

Cuando el FSVM no regresa y es estable, se volverá a ocupar su IP y VG y seguir sirviendo a clientes IO.

3.3.5 Servicios de contenedor

Nutanix ofrece la posibilidad de aprovechar contenedores persistentes en la plataforma Nutanix usando acoplable (actualmente).
Anteriormente era posible ejecutar acoplable en la plataforma Nutanix; sin embargo, la persistencia de datos fue un problema dada la
naturaleza efímera de los contenedores. tecnologías de contenedores como estibador son un enfoque diferente para la virtualización de
hardware. Con la virtualización tradicional de cada máquina virtual tiene su propio sistema operativo (SO) pero comparten el hardware
subyacente. Contenedores, que incluyen la aplicación y todas sus dependencias, se ejecutan como procesos aislados que comparten el
sistema operativo subyacente (OS) del núcleo. La siguiente tabla muestra una comparación simple entre las máquinas virtuales y
recipientes:

Métrico Máquinas Virtuales (VM) contenedores

Tipo de virtualización virtualización a nivel de hardware OS kernel de virtualización

Gastos generales De peso pesado Ligero

aprovisionamiento velocidad Más lenta (segundos a minutos) En tiempo real / rápido (nos ms)

sobrecarga de rendimiento rendimiento limitado rendimiento nativo

Seguridad Totalmente aislado (más seguro) aislamiento de nivel de proceso (menos seguro)

Configuraciones compatibles
La solución es aplicable a las configuraciones siguientes (lista puede ser incompleta, se refiere a la documentación para una lista
completamente apoyado):

112
Libro de la Acrópolis

Hypervisor (s):
• AHV
Sistema de depósito (s) *:
• acoplable 1.11
*A partir de 4,7, la solución sólo es compatible con la integración de almacenamiento con contenedores basados ​acoplable. Sin embargo, cualquier otro
sistema de contenedores puede funcionar como una máquina virtual en la plataforma Nutanix.

Las construcciones servicios de contenedores

Las siguientes entidades componen Acrópolis Container Services:


• Nutanix acoplable Aloja tu imagen: imagen anfitrión acoplable probado preconfigurado y proporcionados por Nutanix y puestos a disposición a
través del portal de asistencia Nutanix. Esta imagen es utilizada por el controlador del estibador Máquina para acoplable aprovisionamiento de
acogida
• Nutanix acoplable conductor-máquina: Manijas del estibador anfitrión recipiente de aprovisionamiento a través del estibador de la máquina y el
Servicio de imágenes Acrópolis
• Nutanix acoplable controlador de volumen: Responsable de la interfaz con la Acrópolis de bloque servicios para crear,
montar, formato y conectar los volúmenes de recipiente deseado

Las siguientes entidades componen Docker (nota: no se requieren todos):

• Acoplable Image: La base y la imagen de un contenedor


• Registro acoplable: Sosteniendo el espacio para Docker Imágenes
• Acoplable Hub: mercado de contenedores en línea (público acoplable Registro)
• Estibador del archivo: archivo de texto que describe cómo construir la imagen del estibador
• Cargador de muelle de contenedores: Ejecución de instancias de un estibador Imagen
• Cargador de muelle del motor: Crea, barcos y corre contenedores acoplables
• Acoplable enjambre: Acoplable agrupación de host / plataforma de programación
• Acoplable Daemon: Gestiona las peticiones de Docker Client y hace pesado de la construcción, el funcionamiento y la distribución de
contenedores

Arquitectura

La solución Nutanix actualmente aprovecha estibador del motor se ejecuta en máquinas virtuales que se crean utilizando la máquina del estibador.
Estas máquinas pueden funcionar en conjunto con las máquinas virtuales normales en la plataforma.

Figura 3.3.30. Docker - Arquitectura de Alto Nivel


Nutanix ha desarrollado un controlador de volumen del estibador que va a crear, formato y adjuntar un volumen de recipiente (s)
utilizando la función Bloquear Acrópolis Servicios. Esto permite que los datos que persisten como un contenedor se apaga y enciende /
movido.

113
La Biblia Nutanix

la persistencia de datos se logra mediante el uso del controlador de volumen Nutanix que aprovechar Acrópolis Bloque
Servicios para fijar un volumen para el anfitrión / contenedor:

Figura 3.3.31. Docker - Servicios de bloque


Pre-requisitos

Para que los servicios de contenedores que se utilizará la siguiente ser necesarias para:
• clúster Nutanix debe ser AOS 4.7 o posterior
• Nutanix acoplable Aloja tu imagen debe ser descargado y existe como una imagen en el Servicio de imágenes Acrópolis

• Los Servicios de Datos IP Nutanix debe configurarse


• Caja de herramientas acoplable debe estar instalado en la máquina cliente que se utiliza para la configuración
• Nutanix acoplable Máquina conductor debe estar en el PATH del cliente

Creación anfitrión ventana acoplable

Suponiendo que todos los pre-requisitos se han cumplido el primer paso consiste en la provisión de los anfitriones Nutanix Docker utilizando estibador de la
máquina:

cargador de muelle-máquina -d -d crear Nutanix \


- - Nutanix-nombre de usuario <PRISM_USER> --nutanix-contraseña <PRISM_PASSWORD> \
- - Nutanix-punto final <CLUSTER_IP>: 9440 --nutanix-vm-imagen <DOCKER_IMAGE_NAME> \
- - Nutanix-vm-red <NETWORK_NAME> \
- - Nutanix-vm-núcleos <NUM_CPU> --nutanix-vm-mem <MEM_MB> \ <DOCKER_HOST_NAME>

La siguiente figura muestra una visión general de alto nivel del flujo de trabajo de back-end:

Figura 3.3.32. Docker - Anfitrión Creación de flujos de trabajo

114
Libro de la Acrópolis

El siguiente paso es SSH en el recientemente creado acoplable Host (s) a través de cargador de muelle-máquina ssh:

cargador de muelle-máquina ssh <DOCKER_HOST_NAME>

Antes de empezar el conductor volumen vamos a asegurarnos de tener la última versión del controlador, para tirar de la última versión de ejecución:

orionapps descargador de tracción / vol-plugin

Ahora que tenemos la última versión que vamos a iniciar el controlador de volumen Nutanix acoplable:

~ / Start-volume-plugin.sh

Esto le pedirá los siguientes datos:

• IP del clúster
• IP Servicios de Datos
• prisma nombre de usuario
• prisma contraseña
• Nutanix de nombres de almacenamiento de contenedores

Después de que las carreras ahora debería ver el contenedor que ejecuta el complemento volumen:

[ Root @ DOCKER-NTNX-00 ~] # ps ventana acoplable


CONTENEDOR ID IMAGEN . . . NOMBRES

37fba568078d orionapps / vol-plugin ... NutanixVolumePlugin

Cargador de muelle de contenedores Creación

Una vez que el anfitrión Nutanix Docker (s) han sido desplegados y el conductor de volumen se ha iniciado, ahora se puede
aprovisionar con contenedores de almacenamiento persistente.

Estos son manejados usando la estructura de comando de marcha típica del estibador y especificando el controlador de volumen Nutanix.
Ejemplo de uso a continuación:

ventana acoplable ejecutar -d --name <CONTAINER_NAME> \


- p <START_PORT: END_PORT> Nutanix --volume-driver \
- v <VOL_NAME: VOL_MOUNT_POINT> <DOCKER_IMAGE_NAME>
Ejemplo: cargador de muelle de ejecución -d --name postgresexample -p 5433: 5433 --volume-conductor Nutanix -v
PGDataVol: postgres / var / lib / postgresql / data: el último

La siguiente figura muestra una visión general de alto nivel del flujo de trabajo de back-end:

Figura 3.3.33. Docker - Contenedor de creación de flujos de trabajo


Ahora tiene una ejecución recipiente con almacenamiento persistente!

115
La Biblia Nutanix

3.4 Copia de seguridad y recuperación de desastres

Nutanix proporciona capacidades de recuperación de desastres (DR) que permiten a los usuarios hacer copias de seguridad de copia de seguridad nativa

y, restaurar y DR VM (s) y los objetos que se ejecuta en DSF. Vamos a cubrir los siguientes elementos en las siguientes secciones:

• Las construcciones de implementación


• La protección de Entidades
• Copia de seguridad y restaurar

• Replicación y DR

NOTA: Aunque Nutanix ofrece opciones nativas para la copia de seguridad y dr, soluciones tradicionales (por ejemplo
COMMVAULT Rubrik, etc.) también se puede utilizar, aprovechando algunas de las características nativas de la plataforma
proporciona (VSS, instantáneas, etc.).

3.4.1 Las construcciones de implementación

Dentro Nutanix copia de seguridad y DR, hay algunas construcciones clave:

Dominio de la protección (EP)


• Papel clave: Grupo Macro de VMS y / o archivos para protegerlos
• Descripción: Un grupo de máquinas virtuales y / o archivos que se replica junto en un horario deseado. Un PD puede proteger a un
contenedor completo o puede seleccionar las máquinas virtuales y / o archivos individuales

Pro punta
Crear múltiples PD de distintos niveles de servicios impulsados ​por un RPO / RTO deseada. Para la distribución de archivos (por ejemplo,
imágenes de oro, ISO, etc.) puede crear un EP con los archivos a la replicación.

La consistencia Group (CG)


• Papel clave: Subconjunto de VM / archivos en la EP sea coherencia de bloqueos
• Descripción: las máquinas virtuales y / o archivos que son parte de un dominio de protección que deben ser snapshotted de
manera coherencia de bloqueos. Esto asegura que cuando VM / archivos se recuperan, vienen en un estado coherente. Un dominio
de protección puede tener varios grupos de consistencia.

Pro punta
depende de la aplicación Grupo o servicio máquinas virtuales en un grupo consistencia para garantizar que son recuperados en un
estado coherente (por ejemplo, App y DB)

Programación de instantáneas

• Papel clave: programación de instantáneas y replicación


• Descripción: Instantánea y programación de replicación para máquinas virtuales en un PD y CG en particular

Pro punta
La programación de instantánea debe ser igual a su RPO deseada

Política de retención
• El papel clave: Número de instantáneas locales y remotas para mantener
• Descripción: Las directivas de retención define el número de instantáneas locales y remotos para retener. NOTA: Un sitio
remoto debe estar configurado para una política de retención / replicación remota a configurar.

116
Libro de la Acrópolis

Pro punta
La política de retención debe ser igual al número de puntos de restauración requeridas por máquina virtual / fi l

Sitio remoto
• Papel clave: Un grupo Nutanix remoto
• Descripción: Un racimo Nutanix remota que se puede aprovechar como un objetivo para los propósitos de copia de seguridad o DR.

Pro punta
Asegúrese de que el sitio diana tiene una amplia capacidad (de cálculo / almacenamiento) para manejar un fracaso sitio completo. En ciertos
casos la replicación / DR entre bastidores en un solo sitio también puede tener sentido.

Los siguientes gurar shows fi una representación lógica de la relación entre un PD, CG, y VM / archivos para un solo sitio:

La Figura 3.4.1. DR Mapeo Construct

3.4.2 Entidades de Protección

Puede proteger Entidades (VM, VGS, Archivos), utilizando la siguiente workfl flujo: Desde la página de

protección de datos, seleccione Dominio Protección + -> asíncrono DR:

La Figura 3.4.2. DR - asíncrono PD


PD especificar un nombre y haga clic en 'Crear'

La Figura 3.4.3. DR - Crear PD


117
La Biblia Nutanix

Seleccionar entidades para proteger:

La Figura 3.4.4. DR - asíncrono PD


Haga clic en 'proteger entidades seleccionadas'

La Figura 3.4.5. DR - Entidades Protect


Las entidades protect se mostrarán ahora bajo '' entidades protegidas

La Figura 3.4.6. Entidades Protegidas - DR

118
Libro de la Acrópolis

Haga clic en 'Siguiente', a continuación, haga clic en 'Siguiente Horario' para crear una programación de instantáneas y replicación Introduzca
la frecuencia instantánea deseada, la retención y los sitios remotos para la replicación

La Figura 3.4.7. DR - Crear Horario


Haga clic en 'Crear programación' para completar el cumplimiento de itinerario.

múltiples Horarios
Es posible crear varias programaciones de instantáneas / replicación. Por ejemplo, si usted quiere tener un horario de
copia de seguridad local se producen por hora y otra programación, que replica a un sitio remoto diaria.

Es importante mencionar que un contenedor lleno puede ser protegido por simplicidad. Sin embargo, la plataforma ofrece la
posibilidad de proteger a la granularidad de una sola VM / fi l nivel y o.

3.4.3 Backup and Restore


capacidades de respaldo Nutanix aprovechar las capacidades nativas y DSF instantáneas son invocados por Cerebro e interpretada
por Stargate. Estas capacidades instantáneas se copia cero para asegurar la utilización del almacenamiento efi ciente y baja
sobrecarga. Puede leer más sobre instantáneas Nutanix en la sección 'clones e instantáneas'. típica de reserva y operaciones de
restauración incluyen:

• Instantánea: Crear un punto de restauración y replicar (si es necesario)


• Restaurar: Restaurar VM (s) / archivo (s) a partir de una instantánea anterior (reemplaza objetos originales)
• Clon: Similar a restaurar pero no reemplaza los objetos originales (crea nuevos objetos como la instantánea deseada)

Desde la página de protección de datos, se puede ver los dominios de protección (PD) creados anteriormente en la sección "Protección
de Entidades.

119
La Biblia Nutanix

La Figura 3.4.8. DR - Ver PD


Una vez que usted ha sido seleccionado un destino PD se puede ver las distintas opciones:

La Figura 3.4.9. DR - Acciones PD


Si hace clic en 'Tomar instantánea' puede tener una red ad-hoc instantánea de la PD seleccionado y replicar a un sitio
remoto si es necesario:

Figura 3.4.10. DR - Tomar instantánea


También puede 'migrar' el PD, que fallará sobre las entidades a un sitio remoto:

Figura 3.4.11. DR - Migrar


También puede ver la instantánea PD (s) en la siguiente tabla:

120
Libro de la Acrópolis

Figura 3.4.12. DR - instantáneas locales


Desde aquí se puede restaurar o clonar una instantánea PD:

Figura 3.4.13. DR - Restaurar instantánea


Si decide 'Crear nuevas entidades' que será como la clonación de la instantánea de la DP a nuevas entidades con las equis prefi
deseados. De lo contrario 'entidades existentes Sobrescribir' sustituirán a los actuales con las entidades en el momento de la
instantánea.

Almacenamiento de copia de seguridad único objetivo

Sólo para propósitos de copia de seguridad / archivo, es posible confi gurar un almacenamiento de clúster sólo Nutanix como un sitio
remoto que actuará como un objetivo de copia de seguridad. Esto permitirá que los datos se replican en / desde el almacenamiento
solamente clúster.

3.4.4 App instantáneas consistentes


Nutanix proporciona capacidades nativas VmQueisced Snapshot Service (VSS) para queiscing operaciones de sistema
operativo y aplicaciones que aseguren una aplicación se logra imagen coherente.

Servicio de instantáneas VmQueisced (VSS)


VSS es típicamente término C de Windows expresamente para las instantáneas de volumen. Sin embargo, dado que esta
solución se aplica a Windows y Linux que hemos modifi cada término a VmQueisced Servicio de instantáneas.

confi guraciones soportados


La solución es aplicable tanto a los invitados Windows y Linux, incluyendo las versiones siguientes (la lista puede ser incompleta, consulte la
documentación para obtener una lista totalmente compatible):

121
La Biblia Nutanix

• hipervisores:
ESX
AHV
• ventanas
2008R2, 2012, 2012R2
• Linux
CentOS 6.5 / 7.0
RHEL 6.5 / 7.0 OEL
6.5 / 7.0 Ubuntu
14.04+ SLES11SP3 +

Pre-requisitos

A fin de que Nutanix VSS instantáneas para ser utilizado el siguiente ser necesarias para:
• Plataforma Nutanix
Cluster IP virtual (VIP) debe estar configurado
• SO Huésped / UVM
NGT se debe instalar
VIP CVM debe ser accesible en el puerto 2074
• Configuración de recuperación de desastres
UVM debe estar en la EP con 'Uso de aplicaciones instantáneas consistentes' habilitados

Arquitectura
A partir de 4.6, esto se consigue mediante el proveedor VSS Nutanix hardware nativo que se instala como parte del paquete de herramientas de
Nutanix Visitante. Puede leer más sobre las herramientas de huéspedes en la sección 'Herramientas Nutanix clientes'.

La siguiente imagen muestra una vista de alto nivel de la arquitectura VSS:

Se puede realizar una imagen coherente aplicación siguiendo el flujo de trabajo normal de protección de datos y seleccionando 'Uso de
aplicaciones instantáneas consistentes' cuando la protección de la máquina virtual.

Activación / desactivación Nutanix VSS


Cuando NGT está habilitada para un UVM, la capacidad de Nutanix instantánea VSS está habilitado por defecto. Sin
embargo, puede desactivar esta función con el siguiente comando:

ncli NGT Disable-aplicación aplicaciones nombres = vss_snapshot vm_id = <VM_ID>

122
Libro de la Acrópolis

Arquitectura VSS de Windows


La solución Nutanix VSS está integrado con el marco de Windows VSS. A continuación se muestra una vista de alto nivel
de la arquitectura:

Figura 3.4.15. Nutanix VSS - Arquitectura de Windows


Una vez instalado NGT se puede ver los servicios de proveedor de hardware Agente NGT y VSS:

Figura 3.4.16. Proveedor de hardware VSS

Arquitectura VSS Linux


La solución de Linux funciona de forma similar a la solución de Windows, sin embargo las secuencias de comandos están apalancados en lugar del
marco de Microsoft VSS, ya que no existe en distribuciones de Linux.

La solución Nutanix VSS está integrado con el marco de Windows VSS. A continuación se muestra una vista de alto nivel
de la arquitectura:

Figura 3.4.17. Nutanix VSS - Arquitectura Linux

123
La Biblia Nutanix

Las secuencias de comandos pre-congelación y después de la descongelación se encuentran en los siguientes directorios:

• Pre-congelación: / sbin / pre_freeze


• Después de la descongelación: / sbin / después de la descongelación

La eliminación de ESXi de aturdimiento


ESXi tiene soporte imagen coherente aplicación nativa utilizando herramientas huésped de VMware. Sin embargo, durante este proceso,
los discos delta se crean y ESXi “aturde” la máquina virtual con el fin de volver a asignar los discos virtuales para el nuevo Delta archivos
que se encargará de la nueva escritura IO. Aturde también ocurrirá cuando se elimina una instantánea de VMware.

Durante este proceso de aturdimiento de la máquina virtual de su sistema operativo no puede ejecutar ninguna operación y está esencialmente en un
estado “pegado” (por ejemplo, los pings se producirá un error, sin IO). La duración del aturdimiento dependerá del número de VMDK y la velocidad de
almacén de datos operaciones de metadatos (por ejemplo, crear nuevos discos delta, etc.)

Mediante el uso de Nutanix VSS estamos completamente de derivación del proceso de instantáneas de VMware / aturdimiento y tienen poco o ningún impacto
en el rendimiento o VM / disponibilidad del sistema operativo.

3.4.5 Replicación y recuperación de desastres (DR)

Nutanix proporciona capacidades de replicación DR y nativas, que se basan


en las mismas características explicadas en la sección Instantáneas y clones.
Cerebro es el componente responsable de la gestión de la RD y la replicación
en DSF. Cerebro se ejecuta en cada nodo y un maestro cerebro es elegido
(similar a la maestra NFS) y se encarga de gestionar las tareas de
replicación. En el caso de la CVM actuando como maestro falla Cerebro, otro
es elegido y asume el papel. La página del Cerebro se puede encontrar en
<CVM IP>: 2020. La función de DR puede ser dividido en unas pocas áreas
Para una explicación de vídeo se
clave:
puede ver el siguiente video:

• Las topologías de replicación https://www.youtube.com/watch?v =


• La replicación del ciclo de vida AoKwKI7CXIM y feature = youtu.be
• Global Deduplication

Las topologías de replicación


Tradicionalmente, hay algunas topologías de replicación clave: un sitio a otro, el cubo y hablaron, y completo y / o de malla parcial.
Contrariamente a las soluciones tradicionales que sólo permiten un sitio a otro o de cubo y radios, Nutanix proporciona un flexible modelo
muchos-a-muchos malla totalmente o fl.

Figura 3.4.18. Ejemplo de replicación Topologías

124
Libro de la Acrópolis

En esencia, esto permite que el administrador para determinar una capacidad de replicación que satisfaga las necesidades de su empresa.

La replicación del ciclo de vida

replicación Nutanix aprovecha el servicio Cerebro mencionado anteriormente. El servicio Cerebro se divide en un “Cerebro
Maestro”, que es una forma dinámica CVM elegido, y Cerebro Los esclavos, que se ejecutan en cada CVM. En el caso de que la
CVM actuando como falla el “Cerebro Maestro”, se eligió un nuevo “Maestro”.

El Cerebro Maestro se encarga de gestionar la delegación de tareas a la Cerebro esclavos local, así como la coordinación con
remotas Cerebro Maestro (s) cuando se está produciendo la replicación remota. Durante una replicación, el Cerebro Maestro se
darán cuenta de lo que las necesidades de datos para ser replicado, y delegar las tareas de replicación para el Cerebro Los
esclavos que luego contar Stargate los datos que se replican y hasta dónde.

datos replicados está protegido en múltiples capas en todo el proceso. Medida lee en la fuente se checksummed para garantizar
la coherencia de los datos de origen (similar a cómo se produce cualquier lectura DSF) y la nueva medida (s) se checksummed
al blanco (similar a cualquier DSF escritura). TCP proporciona consistencia en la capa de red.

La siguiente figura muestra una representación de esta arquitectura:

Figura 3.4.19. replicación Arquitectura


También es posible configurar un sitio remoto con un proxy que será utilizado como cabeza de puente para todo el tráfico de la
coordinación y la replicación procedente de un clúster.

Pro punta
Cuando se utiliza un sitio remoto configurado con un proxy, siempre utilizar el IP del clúster como que siempre será
conducido por el líder de la prisma y disponible, incluso si la CVM (s) bajan.

125
La Biblia Nutanix

La siguiente figura muestra una representación de la arquitectura de replicación usando un proxy:

Figura 3.4.20. Replicación de la arquitectura - Proxy


En ciertas situaciones, también es posible configurar un sitio remoto a través de un túnel SSH, donde todo el tráfico fluirá entre
dos CVMs.

Nota
Esto sólo se debe utilizar para los escenarios no son de producción y las direcciones IP de clúster debe utilizarse para asegurar la
disponibilidad.

La siguiente figura muestra una representación de la arquitectura de replicación usando un túnel de SSH:

Figura 3.4.21. Replicación de la arquitectura - SSH túnel


Global Deduplication
Como se explica en la sección elástica deduplicación motor anterior, DSF tiene la capacidad de datos deduplicar por punteros de
metadatos Sólo la actualización. El mismo concepto se aplica a la función de DR y la replicación. Antes de enviar los datos a través
del cable, DSF se consulta el sitio remoto y comprobar si las huellas dactilares (s) ya existe en el destino (es decir, los datos que ya
existe). Si es así, no hay datos serán enviados a través del cable y sólo se producirá una actualización de metadatos. Para los datos
que no existe en el destino, los datos se comprime y se envía al sitio de destino. En este punto, los datos que existe en ambos sitios
es utilizable para la eliminación de datos duplicados.

126
Libro de la Acrópolis

La siguiente figura muestra una implementación de sitio ejemplo tres, donde cada sitio contiene uno o más dominios de
protección (PD):

Figura 3.4.22. La replicación de deduplicación

Nota
Fingerprinting debe estar habilitado en el recipiente de origen y de destino / vstore para que se produzca la eliminación de datos
duplicados de replicación.

3.4.6 Cloud Connect

Basándose en las capacidades DR / replicación nativa de DSF, Cloud Connect amplía esta capacidad en los proveedores de
nube (actualmente Servicios Web Amazon, Microsoft Azure). NOTA: Esta función está actualmente limitado a solo copia de
seguridad / replicación.

Muy similar a la creación de un sitio remoto que se utilizará para DR / replicación nativa, un “sitio remoto nube” se acaba de crear.
Cuando se crea un nuevo sitio nube remoto, Nutanix hará girar automáticamente un único grupo Nutanix nodo en EC2
(actualmente m1.xlarge) o Azure máquinas virtuales (actualmente D3) que se utilizará como el punto final.

La instancia de la nube se basa en la misma base de código Acropolis apalancado para los clústeres que se ejecutan localmente. Esto
significa que todas las capacidades de replicación nativa (por ejemplo, eliminación de datos duplicados, repeticiones mundial basado delta,
etc.) se pueden aprovechar.

En el caso de que varios clústeres Nutanix están aprovechando Cloud Connect, pueden ya sea A) comparten la misma instancia en ejecución en
la región, o B) de giro hasta una nueva instancia. Almacenamiento para las instancias de la nube se hace usando un “disco nube”, que es un disco
lógico respaldado por S3 (AWS) o almacén de blob (Azure). Los datos se almacenan como los egroups habituales que son archivos en los
almacenes de objetos.

La siguiente figura muestra una representación lógica de un “sitio remoto” que se utiliza para Cloud Connect:

Figura 3.4.23. Cloud Connect Región

127
La Biblia Nutanix

Desde una nube basado sitio remoto es similar a cualquier otro sitio remoto Nutanix, un clúster puede replicar a múltiples regiones si se
requiere una mayor disponibilidad (por ejemplo, la disponibilidad de datos en el caso de un corte de región completa):

Figura 3.4.24. Cloud Connect Multi-Región

Las mismas políticas de replicación / retención se aprovechan de los datos replicados utilizando Cloud Connect. Como los datos / instantáneas se
convierten en obsoletos, o caducan, el cúmulo de nubes va a limpiar los datos que sean necesarios.

Si la replicación no se produce con frecuencia (por ejemplo, diaria o semanal), la plataforma puede estar configurado para poder hasta la instancia de
la nube (s) antes de una replicación programada y hacia abajo después de una replicación se haya completado.

Los datos que se replica en cualquier región de la nube también se puede tirar hacia abajo y restaurado a cualquier grupo
existente o de nueva creación Nutanix que tiene el sitio remoto nube (s) configurado:

Figura 3.4.25. Cloud Connect - Restaurar

3.4.7 Disponibilidad de metro


Nutanix proporciona capacidades nativas “estirar” la agrupación que permiten un cálculo y clúster de almacenamiento a abarcar varios
sitios físicos. En estas implementaciones, los vanos de clúster de cálculo dos localizaciones y tiene acceso a un conjunto compartido
de almacenamiento.

128
Libro de la Acrópolis

Esto expande el dominio VM HA de un solo sitio a entre dos sitios que proporcionan una cerca de 0 RTO y un RPO de 0.

En esta distribución, cada sitio tiene su propio clúster Nutanix, sin embargo, los contenedores se “estiran”, de forma
sincrónica replicar al sitio remoto antes de reconocer las escrituras. La siguiente figura muestra un diseño de alto nivel de lo
que se ve esta arquitectura como:

Figura 3.4.26. Metro disponibilidad - Normal del Estado


En el caso de un error en el sitio, un evento HA ocurrirá cuando las máquinas virtuales puede reiniciarse en el otro sitio.

La siguiente figura muestra un fallo ejemplo sitio:

Figura 3.4.27. Metro disponibilidad - No Sitio


En el caso donde hay un fallo de enlace entre los dos sitios, cada grupo funcionará de forma independiente. Una vez que el
enlace vuelve a subir, los sitios serán re-sincronizado (deltas-only) y la replicación síncrona comenzarán a ocurrir. La siguiente
figura muestra un fallo ejemplo enlace:

Figura 3.4.28. Metro disponibilidad - Fallo de Enlace

129
La Biblia Nutanix

3.5 Aplicación de Movilidad Tela - muy pronto!


¡Más muy pronto!

3.6 Administración

3.6.1 Páginas importantes

Estas son las opciones avanzada Nutanix además de la interfaz de usuario estándar que le permiten supervisar las estadísticas y
métricas detalladas. Las direcciones URL se formatean de la siguiente manera: http: // <Nutanix CVM IP / DNS>: <puerto / ruta
(mencionado más adelante)> Ejemplo: http: // MyCVM-A: 2009 NOTA: si estás en una diferente subred IPtables necesitarán estar
deshabilitado en la CVM para acceder a las páginas.

2009 Page
Esta es una página Stargate utilizado para monitorear el sistema de almacenamiento de back-end y sólo debe ser utilizado por usuarios
avanzados. Voy a tener un post que explica las páginas 2009 y cosas para tener en cuenta.

2009 / latencia página


Esta es una página Stargate utilizado para controlar la latencia de extremo trasero.

2009 / Página vdisk_stats


Esta es una página Stargate utilizado para mostrar varias estadísticas disco virtual incluyendo histogramas de E / S tamaños, latencia, accesos de
escritura (por ejemplo, oplog, eStore), leen golpes (caché, SSD, HDD, etc.) y mucho más.

2009 / h / traza página


Esta es la página de Stargate utilizado para controlar los rastros de actividad para las operaciones.

2009 / h / vars página


Esta es la página de Stargate utilizado para controlar diversos contadores.

2010 Page
Esta es la página de curador que se utiliza para el seguimiento de carreras Curator.

2010 / maestro / control de página


Esta es la página de control curador que se utiliza para iniciar manualmente trabajos Curator

2011 Page
Esta es la página de Cronos que supervisa los trabajos y las tareas programadas por el curador.

Página 2020
Esta es la página de Cerebro que supervisa la dominios de protección, el estado de la replicación y DR.

130
Libro de la Acrópolis

2020 / h / traza página


Esta es la página de Cerebro utilizado para controlar los rastros de actividad para las operaciones de DP y la replicación.

Página 2030
Esta es la principal Acrópolis de página y muestra los detalles de los anfitriones ambiente, las tareas que se están
ejecutando y los detalles de red ..

2030 / sched página


Esta es una página de la Acrópolis se utiliza para mostrar información acerca de VM y la programación de recursos utilizados para las decisiones de colocación.
Esta página muestra los recursos de acogida disponibles y las máquinas virtuales que se ejecutan en cada host.

2030 / tareas página


Esta es una página de la Acrópolis se utiliza para mostrar información acerca de las tareas de la Acrópolis y su estado. Puede hacer clic en el
UUID tarea de conseguir detalla JSON acerca de la tarea.

2030 / VMS página


Esta es una página de la Acrópolis se utiliza para mostrar información sobre Acrópolis máquinas virtuales y detalles acerca de ellos. Puede hacer clic en el
nombre de máquina virtual para conectarse a la consola.

3.6.2 Comandos Cluster

Comprobar el estado del clúster

Descripción: Comprobar el estado del clúster de la CLI

estado del clúster

Comprobar el estado del servicio local de CVM

Descripción: Comprobar el estado de servicio de un solo CVM desde la CLI

estado de génesis

actualización del clúster Nutanix

Descripción: Realizar laminado (también conocido como “vivo”) Cluster actualizar desde la CLI

Sube paquete de actualización a ~ / tmp / en una CVM

paquete de untar

tar xzvf ~ / tmp / * Nutanix

Realiza la actualización

~ / Tmp / install / bin / cluster -i ~ / tmp / instalar la actualización

Comprobar estado

upgrade_status

131
La Biblia Nutanix

Nodo (s) actualizar

Descripción: Realiza la actualización del nodo (s) especificado a la versión actual de racimos

Desde cualquier CVM que ejecuta la versión deseada ejecute el siguiente comando:

clúster -u <NODE_IP (s)> upgrade_node

Estado de actualización del hipervisor

Descripción: Comprobar el estado de actualización hipervisor de la CLI en cualquier CVM

host_upgrade --status

registros detallados (en cada CVM)

~ / Data / logs / host_upgrade.out

servicio de clúster reinicio de la CLI

Descripción: Reinicia un único servicio de clúster del servicio de CLI de parada

parada de clúster <Nombre de servicio>

Inicio servicios detuvo

cúmulo comenzar #NOTA: Esto iniciará los servicios de todos los detenidos

Inicio servicio de clúster de la CLI

Descripción: Inicio detuvo servicios de clúster desde la CLI de inicio detuvo

servicios

cúmulo comenzar #NOTA: Esto iniciará los servicios de todos los detenidos

Inicio de servicio único

Iniciar servicio único: inicio de clúster <Nombre de servicio>

Reinicie el servicio local de la CLI

Descripción: Reinicia un único servicio de clúster de la parada de servicio CLI

génesis parada <Nombre de servicio>

Comienza el servicio

inicio de clúster

Iniciar servicio local a partir de la CLI

Descripción: Inicio detuvo servicios de clúster de la CLI

cúmulo comenzar #NOTA: Esto iniciará los servicios de todos los detenidos

132
Libro de la Acrópolis

Cluster Añadir nodo desde cmdline

Descripción: Realizar cúmulo complemento nodo desde la CLI

cúmulo ncli descubrir-nodos | egrep “UUID” | awk '{print $ 4}' | xargs -I UUID ncli clúster add-nodo nodo-uuid = UUID

Encuentra Identificación del clúster

Descripción: Encontrar el ID de clúster para el clúster actual

zeus_config_printer | CLUSTER_ID grep

puerto abierto

Descripción: Habilitar puerto a través IPtables

sudo vi / etc / sysconfig / iptables


- Un estado de entrada -m --state NUEVO -m tcp -p tcp --dport <PUERTO> -j ACCEPT iptables servicio sudo restart

Compruebe si hay clones de sombra

Descripción: Muestra los clones de sombra en el siguiente formato: Nombre # ID @ SVM _id

vdisk_config_printer | grep '#'

Restablecer Latencia Page Stats

Descripción: Cambiar la página de latencia (<CVM IP>: 2009 / latencia) Contadores

allssh “wget 127.0.0.1:2009/latency/reset”

Encuentra la información del disco virtual

Descripción: Encontrar la información del disco virtual y los detalles como el nombre, identificación, tamaño, y otros iqn

vdisk_config_printer

Buscar el número de discos virtuales

Descripción: Encontrar el número actual de los discos virtuales (archivos) en DSF

vdisk_config_printer | grep vdisk_id | wc -l

Obtener información detallada del disco virtual

Descripción: Muestra una proporcionados discos virtuales eGroup IDs, tamaño, de transformación y de ahorro, Bage Gar- y la colocación de
réplica

vdisk_usage_printer -vdisk_id = <VDISK_ID>

Inicio Conservador escanear desde la CLI


Descripción: Inicia un análisis completo curador de la CLI

# Análisis completo

allssh “wget -O -‘http: // localhost: 2010 / maestro / api / cliente / StartCuratorTasks task_type = 2’;”

133
La Biblia Nutanix

# Scan parcial
allssh “wget -O -‘http: // localhost: 2010 / maestro / api / cliente / StartCuratorTasks task_type = 3’;”

# Uso de refresco
allssh “wget -O -‘http: // localhost: 2010 / maestro / api / cliente / RefreshStats’ ;”

Compruebe debajo de los datos replicados a través de la CLI


Descripción: Comprobar por menos datos replicados utilizando curator_cli

Resumen curator_cli get_under_replication_info = true

anillo compacto

Descripción: Compacto del anillo de metadatos

allssh “nodetool -h localhost compacta”

Encuentra versión NOS

Descripción: Encontrar la versión NEP (NOTA: También se puede hacer uso de NCLI)

allssh “cat / etc / Nutanix / release_version”

Encuentra versión CVM

Descripción: Encontrar la versión de la imagen CVM

allssh “cat / etc / Nutanix / SVM-versión”

huellas dactilares manualmente disco virtual (s)

Descripción: Crear un disco virtual de huellas dactilares en particular (por dedupe) NOTA: dedupe debe estar habilitado en el
contenedor

vdisk_manipulator -vdisk_id = <ID> disco virtual --operation = add_fingerprints

Echo Factory_Config.json para todos los nodos de clúster

Descripción: Echos la factory_config.jscon para todos los nodos en el cluster

allssh “/etc/nutanix/factory_config.json gato”

Actualización de la versión NOS de un único nodo Nutanix

Descripción: actualización de la versión NOS de un único nodo para que coincida con el clúster

~ / Cluster / bin / cluster -u <NEW_NODE_IP> upgrade_node

Lista los archivos (disco virtual) en DSF

Descripción: Lista los archivos y la información asociada a los discos virtuales almacenados en DSF

Nfs_ls

Obtener texto de ayuda

Nfs_ls --help

134
Libro de la Acrópolis

Instalar Nutanix Cluster Check (NCC)

Descripción: Instala el Registro Nutanix Cluster (NCC) escritura de la salud a prueba de posibles problemas de salud y de clúster

Descargar NCC de la SCP .tar.gz Portal Nutanix Support (portal.nutanix.com) a la home /

Nutanix Descomprimir NCC .tar.gz /

tar xzmf <NCC nombre de archivo .tar.gz> --recursive-unlink

Ejecutar script de instalación

. /ncc/bin/install.sh -f <NCC .tar.gz nombre de archivo>

crear enlaces

source ~ / NCC / ncc_completion.bash


echo “source ~ / NCC / ncc_completion.bash” >> ~ / .bashrc

Ejecutar Nutanix Cluster Check (NCC)

Descripción: Se ejecuta la secuencia de comandos de salud Nutanix Cluster Check (NCC) para probar los problemas potenciales de salud y clúster. Este es un

gran primer paso para solucionar problemas de cualquier problema de racimo. Asegúrese de que está instalado NCC (pasos anteriores) Ejecutar

comprobaciones de estado NCC

NCC health_checks run_all

Lista tareas utilizando CLI monitorear el progreso

progress_monitor_cli -fetchall

Retire tarea utilizando CLI monitorear el progreso

progress_monitor_cli --entity_id = <ENTITY_ID> --operation = <Funcionamiento>


- - ENTITY_TYPE = <ENTITY_TYPE> --delete
# NOTA: La operación y entity_type deben estar en minúsculas con k eliminado desde el principio

3.6.3 umbrales y métricas

La siguiente sección cubrirá las métricas y umbrales específicos en el extremo posterior Nutanix. Más cambios a éstos
próximamente!

3.6.4 Gflags

¡Más muy pronto!

3.6.5 Solución de problemas y la administración avanzada

Encuentra registros Acrópolis

Descripción: Encontrar los registros de la Acrópolis para el cluster

allssh “cat ~ / data / logs / Acropolis.log”

135
La Biblia Nutanix

Encuentra registros de error de clúster

Descripción: Encontrar los registros de error para el cluster

allssh “cat ~ / data / logs / <NOMBRE DEL COMPONENTE o *>. ERROR”

Ejemplo para Stargate

allssh “cat ~ / data / logs / Stargate.ERROR”

Encuentra registros de clúster fatales

Descripción: Encuentra registros fatal para el cluster

allssh “cat ~ / data / logs / <Nombre del componente o *> fatales”.

Ejemplo para Stargate

allssh “cat ~ / data / logs / Stargate.FATAL”

3.6.5.1 Uso de la página 2009 (Stargate)

En la mayoría de los casos prisma debe ser capaz de darle todos los puntos de información y de datos que se requieren. Sin
embargo, en ciertas situaciones, o si desea que algunos datos más detallados puede aprovechar el Stargate aka 2009 pág. La
página de 2009 se puede ver navegando a <CVM IP>: 2009.

Acceder a las páginas de back-end


Si estás en un segmento de red diferente (subred L2) que tendrá que añadir una regla en las tablas IP para acceder a cualquiera
de las páginas de back-end.

En la parte superior de la página es la visión general detalles que muestran varios detalles sobre el clúster:

La Figura 3.6.1. Página 2009 - Stargate general

136
Libro de la Acrópolis

En esta sección hay dos áreas clave que tener en cuenta, siendo la primera de las colas de E / S que muestra el número de
operaciones de admitidos / pendientes. La figura muestra la parte de colas de la sección de visión general:

La Figura 3.6.2. Página 2009 - Stargate general - Colas

La segunda parte es los datos de caché de contenido que muestra información sobre los tamaños de caché y tasas de éxito.

La figura muestra la parte de la memoria caché el contenido de la sección de información general:

La Figura 3.6.3. Página 2009 - Stargate general - Cache contenido

Pro punta
En el caso ideal las tasas de éxito deben estar por encima de 80-90% + si la carga de trabajo es pesado de lectura para el mejor
rendimiento de lectura posible.

NOTA: estos valores son por Stargate / CVM

La siguiente sección es el 'Estado de clúster', que muestra detalles sobre los diversos Stargates de la agrupación y sus usos
disco.

La figura muestra los portales estelares y la utilización del disco (disponible / total):

La Figura 3.6.4. Página 2009 - Uso del disco - Estado Cluster

La siguiente sección es la sección 'NFS Esclavo' que mostrará diversos detalles y estadísticas por disco virtual.

La figura muestra los discos virtuales y varios detalles de E / S:

137
La Biblia Nutanix

La Figura 3.6.5. Página 2009 - NFS Esclavo - disco virtual Estadísticas

Pro punta
Al mirar los posibles problemas de rendimiento que siempre mira el siguiente:
1- Promedio. latencia 2- Avg.
tamaño op 3- Avg. excepcional

Para más detalles específicos de la página vdisk_stats tiene una gran cantidad de información.

3.6.5.2 Uso de la 2009 / Página vdisk_stats

La página 2009 vdisk_stats es una página detallada que ofrece incluso más puntos de datos por disco virtual. Esta página incluye
detalles y un histograma de artículos como aleatoriedad, histogramas de latencia, I datos de E / S y tamaños del conjunto de
trabajo.

Puede navegar a la página vdisk_stats haciendo clic en el 'disco virtual Id' en la columna de la izquierda. La figura muestra la

sección y un hipervínculo disco virtual Id:

La Figura 3.6.6. Página 2009 - Alojado discos virtuales

Esto le llevará a la página de vdisk_stats que le dará las estadísticas detalladas disco virtual. NOTA: Los valores de tesis son
en tiempo real y se pueden actualizar mediante la actualización de la página. La primera área clave es el 'Operaciones y la
aleatoriedad' sección que mostrarán un desglose de si los patrones de E / S son al azar o secuencial en la naturaleza. La
figura muestra la 'PO y aleatoriedad' Sección:

La Figura 3.6.7. Página 2009 - disco virtual Estadísticas - Operaciones y la aleatoriedad

138
Libro de la Acrópolis

El área próximos muestra un histograma de la interfaz de lectura y escritura de E / S de latencia (también conocido como la latencia de la VM / OS ve).

La figura muestra el histograma 'frontend Leer Latencia':

La Figura 3.6.8. Página 2009 - disco virtual Estadísticas - Frontend Leer Latencia
La figura muestra el histograma 'frontend Escribir Latencia':

La Figura 3.6.9. Página 2009 - Estadísticas de disco virtual - Interfaz de escritura de latencia

La siguiente área clave es la distribución del tamaño de E / S, que muestra un histograma de la lectura y escritura de E / S tamaños.

La figura muestra el histograma 'Tamaño de lectura Distribución':

Figura 3.6.10. Página 2009 - disco virtual Estadísticas - Leer I / O Tamaño

La figura muestra el histograma 'Tamaño Comentario Distribución':

Figura 3.6.11. Página 2009 - disco virtual Estadísticas - escritura I / O Tamaño

139
La Biblia Nutanix

La siguiente área clave es la sección 'Trabajo Tamaño de conjunto', que proporciona una visión sobre el tamaño de conjunto de trabajo durante los

últimos 2 minutos y 1 hora. Esto se descompone tanto para lectura y escritura de E / S. La figura muestra la tabla '' Tamaños conjunto de trabajo:

Figura 3.6.12. Página 2009 - Estadísticas de disco virtual - Set de Trabajo

El 'Leer Fuente' ofrece detalles sobre qué nivel o la ubicación de la lectura de E / S están siendo atendidos de.

La figura muestra la 'Fuente' Leer detalles:

Figura 3.6.13. Página 2009 - Estadísticas de disco virtual - Leer Fuente

Pro punta
Si usted está viendo alta latencia de lectura echar un vistazo a la fuente de lectura del disco virtual y echar un vistazo en las E / S están
siendo atendidos de. En la mayoría de los casos de alta latencia podría ser causada por lecturas procedentes de disco duro (HDD del
Estore).

140
Libro de la Acrópolis

La sección 'Destino de escritura' mostrará dónde están llegando la nueva escritura de E / S a. La figura muestra la

'escritura de destino' de la tabla:

Figura 3.6.14. Página 2009 - disco virtual Estadísticas - Escribir Destino

Pro punta
Al azar o menor E / S (<64 K) se escriben en el oplog. Mayor o secuencial de E / S a pasar por alto la oplog y escribir
directamente en la medida en tienda (Estore de).

Otro punto interesante es lo que los datos Los datos se están arriba-migró de HDD a SSD a través de ILM. La tabla muestra los datos
"Extensión del Grupo Up-migración de los que ha sido hasta emigrado en los últimos 300,
3.600 y 86.400 segundos.

tabla de la figura muestra la 'Extensión del Grupo Up-Migración':

Figura 3.6.15. Página 2009 - disco virtual Estadísticas - Extensión del Grupo Up-Migración

3.5.5.3 Uso de la página 2010 (comisario)

La página de 2010 es una página específico para vigilar el marco Conservador MapReduce. Esta página ofrece detalles sobre el
empleo, las exploraciones y las tareas asociadas.

Puede navegar a la página Conservador navegando a http: // <CVM IP>: 2010. NOTA: si no estás en el Conservador Maestro clic en el
hipervínculo IP después de 'Conservador Maestro:'. La parte superior de la página mostrará diversos detalles acerca del Conservador
Maestro incluyendo el tiempo de actividad, versión de compilación, etc.

La siguiente sección es la tabla 'Curator nodos' que muestra varios detalles sobre los nodos de la agrupación, los roles, y estado
de salud. Estos serán los nodos Curator aprovecha para el procesamiento distribuido y delegación de tareas.

141
La Biblia Nutanix

La figura muestra la tabla 'curador Nodos':

Figura 3.5.16. Página 2010 - Conservador Nodos

La sección siguiente es la tabla 'curador de Jobs, que muestra los trabajos terminados o en ejecución. Hay dos tipos principales de
puestos de trabajo que incluyen una exploración parcial que es elegible para ejecutarse cada 60 minutos y un análisis completo que
es elegible para ejecutar cada 6 horas. NOTA: el tiempo será variable en base a la utilización y otras actividades.

Estas exploraciones se ejecutarán en sus horarios periódicas sin embargo, también pueden ser provocados por ciertos eventos de cluster. Estas son algunas de las

razones de una ejecución puestos de trabajo:


• Periódica (estado normal)
• Disco / nodo / fracaso del bloque
• Desequilibrio ILM
• Disco / Desequilibrio Tier

La figura muestra la tabla 'curador de Jobs:

Figura 3.6.17. Página 2010 - Conservador Empleo

La tabla muestra algunas de las actividades de alto nivel realizadas por cada puesto de trabajo:

La actividad completa Escanear Scan parcial

ILM X X

disco de equilibrado X X

Compresión X X

deduplicación X

La codificación de borrado X

Limpieza de basura X

142
Libro de la Acrópolis

Al hacer clic en el 'Ejecución id' le llevará a la página de detalles del trabajo que muestra varias estadísticas de trabajo como tareas así
como generados.

La tabla en la parte superior de la página mostrará varios detalles en el trabajo, incluyendo el tipo, la razón, tareas y
duración.

La siguiente sección es la tabla de 'Antecedentes de tareas estadísticas', que muestra varios detalles sobre el tipo de tareas, generan la
cantidad y la prioridad. La figura muestra la tabla de detalles de la oferta:

Figura 3.6.18. Página 2010 - Conservador de empleo - detalles

La figura muestra la tabla 'Antecedentes de tareas estadísticas':

Figura 3.6.19. Página 2010 - Conservador Trabajo - Tareas

La siguiente sección es la tabla 'MapReduce Empleo', que muestra los trabajos de MapReduce reales iniciadas por cada puesto de trabajo
curador. exploraciones parciales tendrán un solo MapReduce de empleo, escaneos completos tendrá cuatro MapReduce Jobs.

143
La Biblia Nutanix

La figura muestra la tabla 'MapReduce Jobs:

Figura 3.6.20. Página 2010 - MapReduce Empleo

Al hacer clic en el 'ID de trabajo' le llevará a la página de detalles del trabajo MapReduce, que muestra el estado de las tareas, varios
contadores y detalles del trabajo de MapReduce. La figura muestra una muestra de algunos de los contadores de trabajo:

Figura 3.6.21. Página 2010 - MapReduce Trabajo - Contadores

La siguiente sección en la página principal es la 'cola Conservador Jobs' y la sección 'acertado pasado Curator exploraciones. Estas tablas
muestran que las exploraciones periódicas son elegibles para funcionar y los detalles de la última búsqueda exitosa.

La figura muestra la 'cola curador de Jobs y la sección 'Última éxito Curator exploraciones':

Figura 3.6.22. Página 2010 - En cola y exploraciones exitosas

144
Libro de AHV

PARTE IV
Libro de
AHV
4.1 Arquitectura
4.1.1 Arquitectura nodo

En las implementaciones de AHV, la máquina virtual Controlador (MVC) se ejecuta como una máquina virtual y los discos se presentan
mediante paso a través de PCI. Esto permite que el controlador PCI completa (y los dispositivos conectados) a pasar a través de directamente a
la CVM y bypass el hipervisor. AHV se basa en CentOS KVM.

Figura 4.1.1. AHV nodo

El AHV se construye sobre la base de CentOS KVM y extiende su funcionalidad básica para incluir características como HA,
la migración en vivo, etc.

AHV es validado como parte del Programa de validación de virtualización de servidor de Microsoft y se valida para ejecutar Microsoft
sistema operativo y aplicaciones.

4.1.2 Arquitectura de KVM

Dentro de KVM hay algunos componentes principales:


• KVM-kmod
KVM módulo del kernel
• libvirtd
Una herramienta de API, el demonio y la gestión para la gestión de KVM y QEMU. La comunicación entre la
Acrópolis y KVM / QEMU se produce a través libvirtd.
• Qemu-kvm
Un emulador de máquina y dispositivo de virtualización que se ejecuta en el espacio de usuario para cada máquina virtual (dominio). En el AHV
se utiliza para la virtualización asistida por hardware y máquinas virtuales carrera como HVMS.

La siguiente figura muestra la relación entre los diversos componentes:

145
La Biblia Nutanix

La Figura 4.1.2. Relación de componentes de KVM


La comunicación entre la Acrópolis y KVM se produce a través Libvirt.

compatibilidad generación de procesadores


Similar a la capacidad mejorada vMotion de VMware (EVC), que permite las máquinas virtuales para moverse entre
diferentes generaciones de procesadores; AHV determinará la generación de procesadores más bajo en el grupo y limitar
todos los dominios QEMU a ese nivel. Esto permite que la mezcla de generaciones de procesadores dentro de un clúster
de AHV y asegura la capacidad de migrar en vivo entre hosts.

4.1.3 Configuración Máximos y Escalabilidad

Los máximos de configuración siguiente y los límites de escalabilidad son aplicables:


• El tamaño máximo de clúster: N / A - igual que Nutanix tamaño de clúster
• Máxima vCPU por máquina virtual: Número de núcleos físicos por host
• Cantidad máxima de memoria por máquina virtual: 2 TB
• Máxima máquinas virtuales por host: N / A - limitada por la memoria
• Máxima VM por cluster: N / A - limitada por la memoria

4.1.4 Redes

AHV aprovecha abierto vSwitch (OVS) para todas las redes VM. redes VM se configura a través Prism / ACLI y cada VM
NIC está conectada en una interfaz de grifo. La siguiente figura muestra un diagrama conceptual de la arquitectura OVS:

La Figura 4.1.3. Descripción de la red abierta vSwitch

146
Libro de AHV

4.1.4.1 Tipos VM NIC

AHV soporta los siguientes tipos de interfaz de red VM:


• El acceso (por defecto)
• Trunk (4,6 y superior)

Por defecto nics VM serán creados como interfaces de acceso (similar a lo que se ve con una máquina virtual NIC en un grupo de puertos), sin embargo, es

posible exponer una interfaz de concentración de enlaces para el sistema operativo de la máquina virtual. Una interfaz de concentración de enlaces puede ser

añadido con el siguiente comando:

vm.nic_create <VM_NAME> vlan_mode = kTrunked trunked_networks = <ALLOWED_ VLAN> red =


<NATIVE_VLAN>

Ejemplo:

vm.nic_create fooVM vlan_mode = kTrunked trunked_networks = 10,20,30 red = vlan.10

4.2 ¿Cómo funciona?


4.2.1 iSCSI múltiples rutas

En cada host de KVM hay un redirector correr daemon iSCSI las que los controles Stargate salud en todo el clúster mediante
comandos NOP OUT.

QEMU está configurado con el redirector iSCSI como el portal de destino iSCSI. Tras una solicitud de inicio de sesión, el redirector llevará
a cabo y iSCSI entrada redirección a un Stargate saludable (preferiblemente el uno local).

La Figura 4.2.1. iSCSI múltiples rutas - Normal del Estado

En el caso de que el Stargate activa baja (dejando así de responder al comando NOP OUT), el redirector iSCSI marcará el
Stargate locales como insalubres. Cuando QEMU vuelve a intentar el inicio de sesión iSCSI, el redirector volverá a dirigir el
inicio de sesión a otro Stargate saludable.

La Figura 4.2.2. iSCSI múltiples rutas - CVM local de Down


147
La Biblia Nutanix

Una vez que el Stargate local, vuelve a subir (y comienza a responder a los comandos NOP OUT), el redirector iSCSI llevará a cabo
una matanza TCP para matar todas las conexiones a Stargates remotas. QEMU intentará entonces un inicio de sesión iSCSI nuevo
y será redirigido a la Stargate local.

La Figura 4.2.3. iSCSI múltiples rutas - CVM copia de seguridad local


4.2.2 Gestión de direcciones IP

La solución de gestión de direcciones IP Acrópolis (IPAM) ofrece la posibilidad de establecer un ámbito DHCP y direcciones
asignar a máquinas virtuales. Esto aprovecha reglas VXLAN y OpenFlow para interceptar la petición DHCP y responder con
una respuesta DHCP.

A continuación se muestra un ejemplo de solicitud DHCP utilizando la solución IPAM Nutanix donde el Maestro Acrópolis se
ejecuta localmente:

La Figura 4.2.4. IPAM - Local Acrópolis Maestro

Si la Acrópolis Maestro se está ejecutando de forma remota, el mismo túnel VXLAN será aprovechado para manejar la
petición por la red.

La Figura 4.2.5. IPAM - Acrópolis a distancia Maestro

148
Libro de AHV

Las soluciones tradicionales de DHCP / IPAM también se pueden aprovechar en un escenario de red 'no administrado'.

4.2.3 VM alta disponibilidad (HA)

AHV VM HA es una característica incorporada para asegurar la disponibilidad de VM en el caso de un corte de acogida o bloque. En el caso
de un fallo de host de las máquinas virtuales previamente se ejecutan en ese anfitrión será reiniciado en otros nodos saludables en todo el
clúster. La Acrópolis Maestro se encarga de reiniciar la máquina virtual (s) en el huésped sano (s).

La Acrópolis Maestro seguimiento de la salud del huésped mediante el control de sus conexiones a la libvirt en todos los hosts del clúster:

La Figura 4.2.6. HA - Seguimiento de host


En el caso de la Acrópolis Maestro se particiona, aislado o no una nueva Acrópolis Maestro será elegido en la parte sana de la
agrupación. Si un clúster se particiona (por ejemplo, X nodos no se puede hablar a los otros nodos Y) el lado con quórum
permanecerán y VM (s) se reiniciarán en estos equipos.

Por defecto directiva de reinicio VM


Por defecto cualquier grupo AHV hará todo lo posible para reiniciar VM (s) en el caso de un fallo de acogida. En este modo, cuando
un host no está disponible, los fabricantes de vehículos previamente en ejecución será reiniciado en los huéspedes sanos restantes,
si es posible. Dado que este es el mejor esfuerzo (es decir, los recursos no están reservados) la capacidad de reiniciar todas las
máquinas virtuales dependerá de los recursos disponibles AHV.

Hay dos tipos principales de las reservas de recursos de HA:


• Los anfitriones de reserva

número Reserva X de los ejércitos donde X es el número de errores de host para tolerar (por ejemplo 1,
2, etc.)
Este es el valor predeterminado cuando todos los hosts con la misma cantidad de memoria RAM
• Segmentos de reserva
reserva de recursos de Y a través de N hosts en el clúster. Esta será una función del nivel de FT cluster, el tamaño de la VM
que se ejecutan y el número de nodos en el cluster. Este es el valor por defecto cuando algunos anfitriones tienen diferentes
cantidades de memoria RAM

Pro punta
Uso anfitriones reserva cuando:
• Usted tiene grupos homogéneos (todos los hosts HACER tienen la misma cantidad de RAM)
• índice de consolidación es una prioridad mayor que el rendimiento segmentos

Uso reserva cuando:


• Usted tiene grupos heterogéneos (todos los hosts NO HAGA tienen la misma cantidad de RAM)
• El rendimiento es una prioridad mayor que la relación de consolidación

149
La Biblia Nutanix

Voy a cubrir las dos opciones de reserva en las siguientes secciones.

4.2.3.1 Los anfitriones de la Reserva

Por defecto, el número de fallos a tolerar será el mismo que el nivel FT cluster (es decir, 1 para FT1 aka RF2, 2 para FT2 aka
RF3, etc.). Es posible anular esta vía ACLI.

Pro punta
Puede anular manualmente o ajustar el número de los ejércitos de conmutación por error reservadas con el siguiente
comando ACLI:

ACLI ha.update num_reserved_hosts = <NUM_RESERVED>

La figura muestra un escenario de ejemplo con un anfitrión reservada:

La Figura 4.2.6. HA - Reservados anfitrión

En el caso de un fallo de host VM (s) se reiniciará en el host reservada (s):

La Figura 4.2.7. HA - Reservados Host - la conmutación por error

Si el host no vuelve a la máquina virtual (s) será migrada vivo de nuevo a la máquina original, para minimizar cualquier movimiento de
datos para la localidad de datos:

La Figura 4.2.8. HA - Reservados Host - la conmutación por recuperación

150
Libro de AHV

4.2.3.2 Segmentos de la Reserva

segmentos de reserva distribuye la reserva de recursos en todos los hosts en un clúster. En este escenario, cada host compartirá
una parte de la reserva para HA. Esto asegura el clúster en general tiene suficiente capacidad de conmutación por error para
reiniciar VM (s) en el caso de un fallo de acogida.

Pro punta
Mantenga sus anfitriones equilibrados cuando se utiliza la reserva basada en segmentos. Esto le dará la mayor utilización y
garantizar que no se reservan demasiados segmentos.

La figura muestra un escenario de ejemplo con segmentos reservados:

La Figura 4.2.9. Segmento Reservados - HA

En el caso de un fallo de host VM (s) se reiniciará en todo el clúster en los huéspedes sanos restantes:

Figura 4.2.10. HA - Reservados Segmento - la conmutación por error

segmento Reservados (s) de cálculo


El sistema calculará automáticamente el número total de segmentos reservados y por reserva de acogida. Para
hacerse una idea sobre cómo se calcula algunos detalles sobre el cálculo se pueden encontrar en el texto siguiente.

Acrópolis HA utiliza segmentos de tamaño fijo para reservar espacio suficiente para el éxito de reinicio VM en caso de fallo de
acogida. Los corresponde tamaño segmento a más grande VM en el sistema. La característica distintiva de Acropolis HA es la
capacidad para empacar múltiples más pequeñas máquinas virtuales en un solo segmento de tamaño fijo. En un clúster con
máquinas virtuales de tamaño variable, un solo segmento puede acomodar múltiples máquinas virtuales, reduciendo así la
fragmentación inherente a cualquier esquema segmento de tamaño fijo.

La colocación eficiente la mayor parte de las máquinas virtuales (menor número de segmentos reservados) se define
como problema bin-embalaje, un problema bien conocido en la informática. La solución óptima es NP-duro (exponencial),
pero las soluciones heurísticas puede acercarse a óptimo para el caso común. Nutanix continuará mejorando sus
algoritmos de colocación. Nosotros

151
La Biblia Nutanix

esperar a tener 0,25 sobrecarga adicional para el caso común en versiones futuras. Hoy en día, la fragmentación varía
sobrecarga entre 0,5 y 1 dando una sobrecarga total de 1,5-2 por insuficiencia host configurado.

Cuando se utiliza una reserva basada en segmentos hay algunas construcciones clave que entran en juego:

• tamaño de segmento = más grande corrientes de los VM huella de memoria (GB)


• La mayoría de acogida cargado = Host máquinas virtuales en ejecución con más memoria (GB)
• La fragmentación de arriba = 0,5-1
Sobre la base de estas entradas se puede calcular el número esperado de los segmentos reservados:
• segmentos reservados = (La mayoría de acogida cargado / tamaño de segmento) x (1 + Fragmentación overhead)

4.3 Administración
¡Más muy pronto!

4.3.1 Páginas importantes


¡Más muy pronto!

4.3.2 Lista de comandos


Habilitar 10GbE une sólo en OVS
Descripción: Habilitar 10g sólo en bond0 de host local
manage_ovs --interfaces 10g update_uplinks

Descripción: Mostrar ovs enlaces ascendentes de clúster completa

allssh “manage_ovs --interfaces 10g update_uplinks”


Mostrar enlaces ascendentes OVS

Descripción: Mostrar ovs enlaces ascendentes de host local

show_uplinks manage_ovs

Descripción: Mostrar ovs enlaces ascendentes de clúster completa

allssh “manage_ovs show_uplinks”

Mostrar interfaces de OVS

Descripción: Mostrar ovs interfaces para la máquina local

show_interfaces manage_ovs

Mostrar interfaces para la agrupación completa

allssh “manage_ovs show_interfaces”

Mostrar información del conmutador OVS

Descripción: Muestra información del conmutador

Mostrar ovs-vsctl

Lista puentes OVS


Lista puentes: Descripción
Lista ovs-vsctl br

152
Libro de AHV

Mostrar información de puente OVS

Descripción: Mostrar información de puerto OVS

ovs-vsctl puerto lista Br0 ovs-vsctl puerto de


la lista <vínculo>

Mostrar información de interfaz OVS

Descripción: Muestra información de la interfaz

interfaz de la lista ovs-vsctl br0

Mostrar puertos / interfaces en puente


Descripción: Mostrar los puertos en un puente

ovs-list-vsctl puertos br0

Descripción: Muestra ifaces en un puente

Lista-ifaces ovs-vsctl br0

Crear puente OVS


Descripción: Crear puente
ovs-vsctl complemento br <puente>

Añadir a cerrar los puertos

Descripción: Añadir el puerto de puente

ovs-vsctl complemento puerto <puente> <puerto>

Descripción: Añadir el puerto de bonos para el puente

ovs-vsctl complemento vínculo <puente> <puerto> <del iface>

Mostrar detalles de bonos OVS

Mostrar detalles de bonos: Descripción

enlace ovs-APPCTL / mostrar <enlace>

Ejemplo:
enlace ovs-APPCTL / mostrar bond0

Modo de bonos set y LACP configure en bonos


Descripción: Habilitar LACP en los puertos

ovs-vsctl puerto conjunto <enlace> lacp = </ pasivo activo>

Descripción: Habilitar en todos los hosts para bond0

for i in `hostips`; hago eco $ i; ssh $ i source / etc / profile> / dev / null 2> & 1; puerto conjunto BOVs-vsctl bond0 lacp = activo;
hecho

Mostrar detalles de LACP bajo fianza


Descripción: Mostrar los detalles del LACP

ovs-APPCTL lacp / mostrar <enlace>

153
La Biblia Nutanix

modo de fianza fijada

Descripción: Ajuste el modo de ligadura en los puertos

puerto conjunto ovs-vsctl <enlace> bond_mode = <activo-copia de seguridad, balance-SLB, balance-tcp>

Mostrar información de OpenFlow


Descripción: Muestra OVS detalles OpenFlow

ovs-ofctl espectáculo br0

Descripción: Mostrar reglas OpenFlow


ovs-ofctl volcado-fluye br0

Obtener QEMU PID y la información de la parte superior

Descripción: obtener QEMU PID

ps aux | grep qemu | awk '{print $ 2}'

Descripción: Obtener los mejores métricas para PID específica

arriba -p <PID>

Obtener Stargate activo para procesos QEMU


Descripción: Obtener Stargates activos para el almacenamiento de E / S para cada procesos QEMU

-np -an | egrep TCP. * qemu

4.3.3 umbrales y métricas


¡Más muy pronto!

4.3.4 Solución de problemas y la administración avanzada

Compruebe iSCSI redirector Registros


Descripción: Check iSCSI redirector registros para todos los hosts

para i en `hostips`; do echo $ i; ssh root @ $ i cat / var / log / iscsi_redirector; hecho

Ejemplo para solo host


Ssh root @ <host IP>
Cat / var / log / iscsi_redirector

Monitor de CPU robar (CPU robado)

Descripción: Monitor de la CPU robar tiempo (CPU robada) superior del lanzamiento y

el aspecto de st% (negrita a continuación)

Cpu (s): 0,0% nosotros, 0,0% sy, 0,0% de Ni, 96,4% ID, 0,0% wa, 0,0% hi, 0,1% de Si, 0,0% st

Monitor de máquina virtual de recursos de red Estadísticas Descripción:

monitor de máquina virtual de estadísticas de recursos Lanzamiento

virt-top

Virt-top

Ir a la página 2 de redes - Redes

154
Libro de vSphere

PARTE V
Libro de
vSphere
5.1 Arquitectura

5.1.1 Arquitectura nodo

En las implementaciones de ESXi, el VM Controller (CVM) se ejecuta como una máquina virtual y los discos se presentan usando
VMDirectPath I / O. Esto permite que el controlador PCI completa (y los dispositivos conectados) a pasar a través de directamente a la CVM
y bypass el hipervisor.

La Figura 5.1.1. Arquitectura Nodo ESXi

5.1.2 Configuración Máximos y Escalabilidad

Los máximos de configuración siguiente y los límites de escalabilidad son aplicables:


• El tamaño máximo de clúster: 64
• Máxima vCPU por máquina virtual: 128
• Cantidad máxima de memoria por máquina virtual: 4 TB
• Máxima máquinas virtuales por host: 1024
• Máxima VM por cluster: 8.000 (2.048 por cada almacén de datos si se habilita HA)
NOTA: A partir de vSphere 6.0

5.1.3 Redes

Cada host ESXi tiene un conmutador virtual local que se utiliza para la comunicación intra-anfitrión entre el Nutanix CVM y anfitrión. Para la
comunicación externa y máquinas virtuales un conmutador virtual estándar (por defecto) o dvSwitch se aprovecha.

El conmutador virtual local (vSwitchNutanix) es para la comunicación local entre el anfitrión Nutanix CVM y ESXi. El anfitrión
tiene una interfaz vmkernel en este vSwitch (vmk1 - 192.168.5.1) y la CVM tiene una interfaz asociada a un grupo de puertos
en este conmutador interno (SVM-iscsi-pg -
192.168.5.2). Este es el camino de comunicación de almacenamiento primario.

155
La Biblia Nutanix

El vSwitch externa puede ser un conmutador virtual estándar o un dvSwitch. Este será el anfitrión de las interfaces externas para
el host ESXi y CVM, así como los grupos de puertos apalancado por máquinas virtuales en el host. La interfaz vmkernel externa se
aprovecha para la gestión de anfitrión, vMotion, etc. La interfaz CVM externo se utiliza para la comunicación con otros CVMs
Nutanix. Como se pueden crear muchos grupos de puertos como sea necesario asumir las VLANs están habilitados en el tronco.
La siguiente figura muestra un diagrama conceptual de la arquitectura vSwitch:

La Figura 5.1.2. ESXi vSwitch Descripción de la red

política de enlace ascendente y Trabajo en Equipo


Se recomienda tener doble TdR interruptores y enlaces ascendentes a través de ambos interruptores para interruptor de HA. Por
defecto, el sistema tendrá interfaces de enlace ascendente en modo activo / pasivo. Para arquitecturas de conmutación aguas arriba
que son capaces de tener interfaces de activo / activo de enlace ascendente (por ejemplo, VPC, mLAG, etc.) que pueden ser
aprovechados para el rendimiento de red adicional.

5.2 ¿Cómo funciona?


5.2.1 Offloads Array - VAAI

La plataforma Nutanix apoya la API de VMware para Array Integración (VAAI), que permite el hipervisor para descargar ciertas
tareas a la matriz. Esto es mucho más eficiente que el hipervisor no tiene por qué ser el 'hombre en el medio'. Actualmente Nutanix
soporta las primitivas VAAI para NAS, incluido el 'clon completo de archivos', 'clon de archivos a gran velocidad' y 'espacio de
reserva' primitivas. He aquí un buen artículo que explica las diferentes primitivas: http://cormachogan.com/2012/11/08/vaai- nas
comparación bloque versus /.

Tanto para los clones de archivos completos y rápidos, una DSF 'rápido clon' se lleva a cabo, es decir, una instantánea se puede escribir
(utilizando re-directo en escritura) para cada clon que se crea. Cada uno de estos clones tiene su propio mapa de bloques, lo que significa que la
profundidad de la cadena no es nada de qué preocuparse. El siguiente será determinar si o no VAAI será utilizado para escenarios específicos:

• Clon de máquina virtual con Snapshot -> VAAI no se utilizará


• Clon de VM sin instantánea que está apagado -> VAAI se utilizará
• Clon de VM a otro almacén de datos / contenedor -> VAAI no se utilizará
• Clon de VM, que se enciende -> VAAI no se utilizará

156
Libro de vSphere

Estos escenarios se aplican a VMware View:


• Vista completa Clone (plantilla con Snapshot) -> VAAI no se utilizará
• Ver clon completo (plantilla w / o instantánea) -> VAAI se utilizará
• Ver Linked Clone (VCAI) -> VAAI se utilizará

Puede validar las operaciones VAAI se llevan a cabo mediante el uso de la página rastros de actividad el 'adaptador de NFS'.

5.2.2 CVM Autopathing aka Ha.py

En esta sección, voy a cubrir cómo se manejan CVM 'fracasos' (voy a cubrir cómo manejamos fallos de los componentes en la futura
actualización). Un CVM 'fracaso' podría incluir una alimentación de usuario por la CVM, una actualización progresiva CVM, o cualquier
acontecimiento que pueda bajar la CVM. DSF tiene una característica llamada autopathing donde cuando un local de CVM deja de estar
disponible, las E / S son entonces de forma transparente manejados por otros CVMs del clúster. El hipervisor y CVM se comunican mediante
un privado
192.168.5.0 red de un conmutador virtual dedicado (más sobre esto más arriba). Esto significa que para todo el almacenamiento
de E / S, éstos están sucediendo a las direcciones IP internas de la CVM (192.168.5.2). La dirección IP externa de la CVM se
utiliza para la replicación remota y para la comunicación CVM. La siguiente figura muestra un ejemplo de cómo se ve:

La Figura 5.2.1. ESXi anfitrión Redes

En el caso de un fallo local de CVM, los locales 192.168.5.2 direcciones previamente alojados por la CVM locales no están disponibles.
DSF detectará automáticamente esta interrupción y volverá a dirigir estas E / S a otro CVM en el grupo de más de 10 GbE. El cambio
de ruta se realiza de forma transparente para el hipervisor y máquinas virtuales que se ejecutan en el host. Esto significa que incluso si
un CVM está apagado, las máquinas virtuales todavía seguirá siendo capaz de realizar E / S a DSF. Una vez que la CVM local es una
copia de seguridad y disponible, el tráfico será entonces ser transferido sin problemas atrás y servido por la CVM local. La siguiente
figura muestra una representación gráfica de cómo se ve de un CVM fallado:

La Figura 5.2.2. ESXi anfitrión Redes - CVM local de Down

157
La Biblia Nutanix

5.3 Administración

5.3.1 Páginas importantes


¡Más muy pronto!

5.3.2 Lista de comandos

ESXi actualización del clúster

Descripción: Realización de una actualización automática de servidores ESXi mediante la CLI


# Sube actualizar offline lote a un contenedor de Nutanix NFS
# Entre para Nutanix CVM
# Realiza la actualización

for i in `hostips`; hago eco $ && i ssh root @ $ i“software esxcli VIB instalar
- d / vmfs / volúmenes / <Nombre de almacén de datos> / <Desconectado nombre del paquete>”; hecho

# Ejemplo

for i in `hostips`; hago eco $ && i ssh root @ $ i“software esxcli VIB instalar
- d /vmfs/volumes/NTNX-upgrade/update-from-esxi5.1-5.1_update01.zip";done

Realizar un reinicio de rodadura de los hosts ESXi: Para PowerCLI anfitriones en los reinicios automáticos

Servicios de hospedaje de reinicio ESXi

Descripción: reiniciar cada ESXi servicios anfitriones de una manera gradual

for i in `hostips`; hago ssh root @ $ i“reinicio services.sh”; hecho

Mostrar ESXi nics anfitrionas en el estado de 'Up'

Descripción: Muestra NIC del host ESXi que están en el estado a 'Up'

F o i in `hostips`; do echo $ i && ssh root @ $ i esxcfg-nics -l | Hasta grep; hecho

Mostrar ESXi de acogida de 10 GbE NIC y el estado

Descripción: Muestra NIC 10 GbE y el estado del host ESXi

for i in `hostips`; hago eco $ && i ssh root @ $ i esxcfg-nics -l | ixgbe grep; hecho

Display ESXi anfitrionas adaptadores activos

Descripción: Muestra activa, en espera y sin usar adaptadores del host ESXi

for i in `hostips`; hago eco $ && i ssh root @ $ i“esxcli red de conmutación por error conmutador virtual política
estándar get---vswitch nombre vSwitch0”; hecho

ESXi mostrar las tablas de enrutamiento

Descripción: Muestra las tablas de enrutamiento del host ESXi

for i in `hostips`; hago ssh root @ $ i 'esxcfg ruta -l'; hecho

158
Libro de vSphere

Compruebe si está activado en VAAI almacén de datos

Descripción: Compruebe si está activado VAAI / apoyado por un almacén de datos

vmkfstools Ph / VMFS / volúmenes / <Nombre de almacén de datos>

Conjunto VIB nivel de aceptación por la comunidad apoya

Descripción: Establecer el nivel de aceptación VIB a CommunitySupported permitiendo VIBS 3 ª parte que se instalará

esxcli software de aceptación conjunto --level CommunitySupported

instalar VIB

Descripción: Instalar un VIB y sin comprobación de la firma

software esxcli VIB instalar --viburl = / <VIB directorio> / <nombre VIB> --no-sig-cheque

O#

software esxcli VIB instalar --depoturl = / <VIB directorio> / <nombre VIB> --no-sig-cheque

Comprobar el espacio de disco RAM ESXi

Descripción: Comprobar el espacio libre del disco de memoria ESXi

for i in `hostips`; hago eco $ i; ssh root @ $ i 'VDF-h'; hecho

Borrar los registros de pynfs

Descripción: Borra los registros pynfs en cada host ESXi

for i in `hostips`; hago eco $ i; ssh root @ $ i> /pynfs/pynfs.log';done

5.3.3 umbrales y métricas


¡Más muy pronto!

5.3.4 Solución de problemas y la administración avanzada


¡Más muy pronto!

159
La Biblia Nutanix

PARTE VI
Libro de
Hyper-V
6.1 Arquitectura

6.1.1 Arquitectura nodo


En las implementaciones de Hyper-V, el VM Controller (CVM) se ejecuta como una máquina virtual y los discos se presentan utilizando passthrough
disco.

La Figura 6.1.1. Arquitectura Nodo Hyper-V

6.1.2 Configuración Máximos y Escalabilidad

Los máximos de configuración siguiente y los límites de escalabilidad son aplicables:


• El tamaño máximo de clúster: 64
• Máxima vCPU por máquina virtual: 64
• Cantidad máxima de memoria por máquina virtual: 1 TB

• Máxima máquinas virtuales por host: 1024


• Máxima VM por cluster: 8000
NOTA: A partir de Hyper-V 2012 R2

6.1.3 Redes

Cada host Hyper-V tiene una única conmutador virtual interno que se utiliza para la comunicación intra-anfitrión entre el Nutanix CVM y
anfitrión. Para la comunicación externa y máquinas virtuales un conmutador virtual externo (por defecto) o interruptor lógico está
apalancada.

El conmutador interno (InternalSwitch) es para la comunicación local entre la Nutanix CVM y host de Hyper-V. El anfitrión tiene una
interfaz de Ethernet virtual (VETH) en este conmutador interno (192.168.5.1) y la CVM tiene un VETH en este conmutador interno
(192.168.5.2). Este es el camino de comunicación de almacenamiento primario.

El vSwitch externa puede ser un conmutador virtual estándar o un interruptor lógico. Este ordenador voluntad

160
Libro de Hyper-V

las interfaces externas para el host Hyper-V y CVM, así como las redes lógicas y VM apalancado por máquinas virtuales en el
host. La interfaz externa VETH se aprovecha para la gestión de acogida, la migración en vivo, etc. La interfaz CVM externo se
utiliza para la comunicación con otros CVMs Nutanix. Como se pueden crear muchas redes lógicas y VM como se requiere asumir
las VLANs están habilitados en el tronco.

La siguiente figura muestra un diagrama conceptual de la arquitectura del conmutador virtual:

La Figura 6.1.2. Hyper-V Virtual Switch Descripción de la red

política de enlace ascendente y Trabajo en Equipo

Se recomienda tener doble TdR interruptores y enlaces ascendentes a través de ambos interruptores para interruptor de
HA. Por defecto, el sistema tendrá el equipo en modo independiente LBFO interruptor que no requiere ninguna
configuración especial.

6.2 ¿Cómo funciona?

6.2.1 Offloads Array - ODX


La plataforma soporta Nutanix las transferencias de datos Microsoft descargado (ODX), que permiten que el hipervisor para descargar
ciertas tareas a la matriz. Esto es mucho más eficiente que el hipervisor no tiene por qué ser el 'hombre en el medio'. Actualmente Nutanix
soporta las primitivas ODX para SMB, que incluyen copia completa y las operaciones de puesta a cero. Sin embargo, contrariamente a
VAAI que tiene una operación de clonación 'de archivos rápida' (el uso de instantáneas de escritura), las primitivas ODX no tienen un
equivalente y realizar una copia completa. Teniendo en cuenta esto, es más eficiente que depender de los clones DSF nativos que en la
actualidad se pueden invocar a través de nCLI, REST, o cmdlets de PowerShell. Actualmente ODX se invoca para las siguientes
operaciones:

• En VM VM o de copia de archivos VM en DSF SMB Compartir


• copia de archivo compartido SMB

Implementar la plantilla de la Biblioteca SCVMM (DSF SMB acción) - NOTA: Las acciones se debe agregar al clúster SCVMM usando
nombres cortos (por ejemplo, no FQDN). Una manera fácil de forzar esta es añadir una entrada en el archivo de hosts para el clúster
(por ejemplo 10.10.10.10 Nutanix-130).

161
La Biblia Nutanix

ODX no se invoca para las siguientes operaciones:


• Clon de VM a través de SCVMM
• Implementar la plantilla de SCVMM Biblioteca (no DSF SMB Compartir)
• Despliegue Clon XenDesktop

Puede validar las operaciones ODX se llevan a cabo mediante el uso de la página rastros de actividad el 'adaptador de
NFS' (sí, he dicho NFS, aunque esto se realiza a través de SMB). El programa de la actividad operaciones será
'NfsSlaveVaaiCopyDataOp' al copiar un disco virtual y 'NfsSlaveVaaiWriteZerosOp' poniendo a cero cuando un disco.

6.3 Administración

6.3.1 Páginas importantes


¡Más muy pronto!

6.3.2 Lista de comandos

Ejecutar comandos en varios hosts remotos

Descripción: Ejecutar una PowerShell en uno o varios equipos remotos

$ targetServers = “servidor1”,”Host2” ,” etc”Invoke-Command -ComputerName


$ {targetServers
<Comando o script BLOQUE>}

Compruebe offloads VMQ disponibles

Descripción: Visualizar el número disponible de offloads VMQ para un host en particular

gwmi -nameSpace “root \ virtualización \ v2” -Class Msvm_VirtualEthernetSwitch | seleccione ElementName, MaxVMQOffloads

Disable VMQ para máquinas virtuales búsqueda de un prefijo específico

Descripción: Desactivar VMQ para máquinas virtuales específicas

$ VmPrefix = “myVMs”
Get-VM | Donde {$ _ $ Nombre -match vmPrefix.} | Get-VMNetworkAdapter | Set-VMNetworkAdapter -VmqWeight 0

Habilitar VMQ para máquinas virtuales búsqueda de un cierto prefijo

Descripción: Activar VMQ para máquinas virtuales específicas

$ VmPrefix = “myVMs”
Get-VM | Donde {$ _ $ Nombre -match vmPrefix.} | Get-VMNetworkAdapter | Set- VMNetworkAdapter
-VmqWeight 1

Power-On máquinas virtuales coincidan con un determinado prefijo

Descripción: Power-On máquinas virtuales matchin un determinado prefijo

$ VmPrefix = “myVMs”
Get-VM | Donde {$ _ $ Nombre -match vmPrefix -y $ _ StatusString -eq “Stopped”..} | Start-VM

162
Libro de Hyper-V

Shutdown máquinas virtuales búsqueda de un cierto prefijo

Descripción: Shutdown máquinas virtuales matchin un cierto prefijo

$ VmPrefix = “myVMs”
Get-VM | Donde {$ _ $ Nombre -match vmPrefix -y $ _ StatusString -eq “Ejecución”..}} | Apagado-VM
-RunAsynchronously

Detener máquinas virtuales búsqueda de un cierto prefijo

Descripción: Detener las máquinas virtuales matchin un determinado prefijo

$ VmPrefix = “myVMs”
Get-VM | Donde {$ _ $ Nombre -match vmPrefix.} | Stop-VM

Obtener la configuración RSS host de Hyper-V

Descripción: obtener la configuración de host de Hyper-V (RSS Recieve escalamiento lado)

Get-NetAdapterRss

Comprobar la conectividad Winsh y WinRM

Descripción: Check Winsh y WinRM conectividad / estado realizando una consulta de ejemplo que debe devolver no el objeto
sistema informático un error

Win32_ComputerSystem allssh “winsh‘get-wmiobject’

6.3.3 umbrales y métricas


¡Más muy pronto!

6.3.4 Solución de problemas y la administración avanzada


¡Más muy pronto!

JK

epílogo
Gracias por leer la Biblia Nutanix!
Manténgase en sintonía para muchas más próximas actualizaciones y disfrutar de la plataforma Nutanix!

GH
163
La Biblia Nutanix

164

También podría gustarte