domingo, 11 de diciembre de 2011

Datacenter Activo - Activo con VIRTUALIZACION - parte III

Finalmente y como continuacion a la parte I y la parte II de esta serie de articulos (de vital importancia la relaccion entre la Gestion de la Disponibilidad y la Gestion de la Continuidad), en esta ocasion me gustaria destacar las principales ventajas que aporta la VIRTUALIZACION DEL ALMACENAMIENTO desde el punto de vista del negocio:

Como bien indica Josep Ros en su blog, esto es especialmente importante debido fundamentalmente a que los Virtualizadores de Almacenamiento se van a encargar de realizar toda la logica de la gestión del almacenamiento (salvo la parte evidente de los switches de la SAN), donde destaca la generacion y entrega de las LUNs creadas entre distintas cabinas de diferentes fabricantes incluyendo nuevas funcionalidades propias del frontend de dichos sistemas de almacenamiento como es el caso del Thin Provisioning. Esto repercute directamente en que las cabinas de almacenamiento de proposito general puedan ser de un menor nivel [al margen de nuevas funcionalidades propias del backend de dichos sistemas de almacenamiento como son: tiering (dinamico o manual) de LUNs o de bloques, compresion de datos, controladoras activo-activo, multiprotocolo (FC, FCoE, iSCSI, NFS, CIFS), etc...]

Sin embargo, en el caso concreto que nos ocupa (Datacenter Activo - Activo en un entorno de Produccion de Virtualizacion de Servidores) este nuevo enfoque supone una importante oportunidad de mejora con respecto al primer y segundo escenarios descritos anteriormente.

El en primer escenario la implementacion de los Virtualizadores de Almacenamiento va a permitir que con un correcto diseño y configuracion de la arquitectura logica de almacenamiento sea posible resolver el punto de fallo que suponia la caida de la cabina como almacenamiento compartido del cluster extendido de los hypervisores. La oportunidad de mejora consiste en la utilizacion de los dispositivos de bloques (discos FC, SSD, SAS, SATA) de cada una de las cabinas que residen fisicamente en cada uno de los CPDs de forma conjunta y balanceada en el proceso de generacion y entrega de las LUNs como Datastores compartidos. Nota importante la configuracion en Alta Disponibilidad de los propios Virtualizadores de Almacenamiento ubicados fisicamente cada uno de ellos en uno de los CPDs implicados.

En el segundo escenario la implementacion de los Virtualizadores de Almacenamiento representa una menor oportunidad de mejora ya que en este caso el diseño y configuracion de la arquitectura logica de virtualizacion y almacenamiento esta ideada en base a la disposicion local con pesos del 50% de los productos que corren en las VMs implicadas directamente en la prestacion del servicio.


En base a mi experiencia en clientes destaco los siguientes Virtualizadores de Almacenamiento mas conocidos:

domingo, 4 de diciembre de 2011

Datacenter Activo - Activo con VIRTUALIZACION - parte II

Como continuacion al anterio articulo de este blog, en este post me gustaria dar un enfoque diferente a como se aborda de forma tradicional la Gestión de la Continuidad y su viculacion con la Gestion de la Disponibilidad dentro del alcance de un proyecto de Virtualizacion de Servidores o/y en el caso de un proyecto especifico a tal efecto y/o finalmente dentro de la explotacion de un servicio; con el conocido software VMWare Site Recovery Manager.

Son muchas y conocidas las ventajas que aporta este tipo de software en los referente a la VIRTUALIZACION, como es la integracion con los distintos sistemas de almacenamiento multivendor (EMC, NetApp, IBM, etc...) de proposito general ya sean cabinas de tipo SAN (protocolos FC, FCoE) o dispositivos NAS (rotocolos CIFS, NFS, iSCSI) y sobre todo por la naturaleza de los servidores implementados como maquinas virtuales (VMS) la posibilidad de gestionar y automatizar un plan de recuperacion ante desastres de una forma mucho mas agil, dinamica y funcional que una prueba de contingencia en un entorno fisico, tal y como se puede apreciar en las imagenes adjuntas.

Sin embargo, al margen de su coste una de sus posibles desventajas reside en la naturaleza misma de dicho producto, debido a que esta diseñado y desarrollado para implantar planes de contigencia en el caso concreto de un escenario de DATACENTER ACTIVO - PASIVO lo que esta relaccionado directamente con la replicacion (normalmente sincrona, al margen de si la fibra es oscura y dedicada o multiplexada a través de equipos DWDM) entre dos sistemas de almacenamiento ubicados cada uno de ellos en un CPD diferente actuando el pricipal como origen del entorno de Produccion y el secundario como destino (directamente relaccionado con los dos indicadores de gestion fundamentales en este aspecto de las infraestructuras: RTO y RPO).

Por otro lado, para implementar un plan de recuperacion ante desastres (es decir un DRP: Disaster Recovery Plan) como parte tecnologica dentro de un plan de continuidad de negocio (es decir BCP: Business Continuity Plan) es posible analizar otras opciones que pasan por la generacion de una SAN extendida (de tipo FRABRIC) y una LAN extendida entre los distintos CPDs implicados; contituyendo asi un DATACENTER ACTIVO - ACTIVO tal y como se puede apreciar en la imagen final del escrito.

En un primer escenario, es especialmente importante la configuracion de un cluster extendido (HA, DRS) entre los hypervisores de cada CPD con su propio sistema de almacenamiento como Datastore compartido entre ambos centros de datos, pero ubicado y funcionando unicamente en uno de ellos. Este es precisamente el punto de fallo de mayor impacto ya que la caida de la cabina de almacenamiento requiere que se disparen procesos de respaldo tradicionales ya sean manuales o automatizados lo que implica la aceptacion de un tiempo de parada en la prestacion del servicio y su posterior restablecimiento con un rendimiento al 100%. Sin embargo la posibilidad de mover servidores (VMs) entre los sites implicados supone una ventaja a considerar.

En un segundo escenario, es especialmente importante el balanceo de carga y la alta disponibilidad de los productos que se ejecutan en las maquinas virtuales (VMs) dentro de cada cluster local de hypervisores, ya que se debe ser especialmente riguroso para conseguir una distribucion donde los pesos de los dos sitios sean del 50% con su propio sistema de almacenamiento como Datastore no compartido entre ambos centros de datos. La ventaja principal reside en que el servicio no solo esta protegido ante la caida de los hypervisores que conforman el cluster local, sino que ademas esta cubierto ante la caida del sistema de almacenamiento de forma directa sin la necesidad de activar ningun proceso ya sea este de tipo automático o manual y sobre todo sin suponer en ningun caso la parada en la prestacion del servicio. La desventaja consiste en la perdida de rendimiento ya que el 50% de los servidores (VMs) que daba servicio esta caido y unicamente se presta el servicio por el otro site que aporta el 50% de la capacidad de procesamiento. Este ultimo esquema es compatible con soluciones que automatizan planes de contingencia tradicionales como hemos visto, aunque no seria necesario si ante una situacion de contingencia esta validada y prevista la prestacion del servicio con la mitad de rendimiento.

Otra de las buenas practicas (compatible con ambos escenarios descritos) que esta directamente relacciona con la Gestion de la Configuracion ante planes de contigencia y de recuperacion ante desastres en un entorno de VIRTUALIZACION es la agrupacion de los servidores (VMs) que prestan un determinado servicio de forma completa en Aplicaciones Virtuales (vAPPs) y la asignacion de una LUN dedicada a dicha vAPP, siempre y cuando no sea un requerimiento de los productos que corren en las VMs la asignacion dedicada de la LUN (RDM).


domingo, 23 de octubre de 2011

Convergencia de ALMACENAMIENTO y VIRTUALIZACION !!! - Parte III

A raiz de la noticia que se ha trasmitido a la prensa especializada acerca de la discontinuidad de los equipos mas tradicionales de almacenamiento de EMC como son el EMC Celerra y EMC Clariion en pro de la potenciacion de los nuevos equipos EMC (tras la reciente adquisicion de la compañia Ipsilon) del tipo VNX/VNXe es importante destacar las herramientas de gestión y su integración en la plataforma de Virtualizacion de Servidores.

Como ya vimos en la primera parte de esta serie de articulos (multisolucion de fabricante de hypervisor y multivendor de sistema de almacenamiento), la integración de las soluciones de almacenamiento de NetApp (sistemas basados en DataOntap) y EMC (sistemas de tipo Celerra, Clariion y Symmetrix) es mas que relevante en cuestión de los protocolos mas comunes de almacenamiento (NFS, iSCSI, FC y FCoE con la llegada de vSphere v5.0) en el caso concreto de VMWare vSphere.

Sin embargo, como se puede apreciar en las imagenenes adjuntas dicha integración es igualmente posible con los sistemas de almacenamiento de otros fabricantes como es el caso de IBM, HP y Dell. Cada uno de ellos con sus propias ventajas e inconvenientes en la integración con plugins dentro de vCenter como herramienta unica y centralizada de administración del hypervisor (hosts), VMs (maquinas virtuales), almacenamiento (NAS/SAN), backup (VDR) y redes (vSwitch y VDS).

En estos escenarios multivendor de integración de soluciones de Almacenamiento en entornos de Virtualización de Servidores, se hace cada vez mas preciso y necesario incorporar tanto una gestión de la capacidad como una gestión de la configuración eficaces, basadas en procesos y alineada con las buenas practicas de la gestión de Servicios.

En el caso concreto de los nuevos sistemas de almacenamiento VNX/VNXe dicha integración es bidireccional (tanto desde el vCenter con destino el sistema de almacenamiento, como desde la propia consola de Unisphere con destino el hypervisor), tal y como se puede apreciar en el video adjunto con respecto a la creacion/eliminación/modificación de Datastores (NFS e iSCSI), asignación de LUNs, Politica de Multipath, Thin Provisioning, Deduplicacion, Snapshots y Tiering de discos (SAS y SATA).

Sin considerar otras ventajas, el mayor beneficio inmediato de este tipo de integración reside en la disminución de la complejidad en la provisión de disco a los hypervisores, al mismo tiempo que incrementa la flexibilidad y versatilidad en la gestión de las maquinas virtuales (VMs) y por extension la mejora en la disminución de los tiempos de puesta en produccion de la infraestrucutra necesaria para el aprovisionamiento de nuevos servicios.



lunes, 22 de agosto de 2011

Impacto de la VIRTUALIZACION en la Gestión de Servicios - ITIL

Es habitual en los proyectos de implantación de la infraestrucutra de una plataforma de virtualizacion (de servidores o de escritorios) ya sea mediante la metodologia PMBOK o PRINCE2 el camino critico que representa el proceso P2V (Physical To Virtual) previo assesment de cada uno de las maquinas/escritorios que queremos implantar en la nueva plataforma compartida en almacenamiento y backup.

En este sentido resulta mas que interesante todas y cada una de las nuevas funcionalidades de los diferentes productos de mercado:

- VMware vSphere 5 (Auto Deploy, vSphere Storage Appliance (VSA), Web Client, vCenter Server Appliance (Linux), Storage DRS, FCoE support, Virtual Hardware 8, Storage Profiles, Driver Storage Providers, Secure Syslog, Dump Collector, VMFS5, VDS5, Enhanced Firewall, etc...)

- Citrix XenServer 5.6 (Snapshots Commit & Rollback, Dynamic Workload Balancing, Integrated StorageLink, Distributed Virtual Switching, Web Self Service, etc...)

- RHEV 3.0 (V2V Migration, OVF Import / Export, Dedicated Monitoring & Reporting, VDI Support, Power User Portal (Autoservice), RHEV-Manager Java application, RHEL 6 based, etc...)

- HyperV 3.0 (Cluster Shared Volumes, Storage and network resource pools, Bandwidth Management, Virtual Switch Extensions, etc...)

Sin embargo, desde el dia despues de la entrega del proyecto y su paso a produccion comienza la explotación de esta nueva plataforma que debemos enmarcar dentro del marco de trabajo de la Gestión de Servicios y de las buenas practicas de ITIL teniendo en cuenta todas y cada una de las recomendaciones realizadas en este blog (Gestión del Virtual Sprawl, Gestion de la Capacidad, Gestión de la Configuración, Gestión de la Disponibilidad, etc...).

En este sentido, en el articulo se representan desde el punto de vista cualitativo cada uno de los 34 aspectos mas relevantes de la Virtualizacion y si el mismo supone una Ventaja (V), Desventaja (D) o Riesgo (R) a considerar. Posteriormente, del mismo modo se propone un analisis cuantitativo de esos mismos aspectos con una valoración del 1 (bajo impacto) al 4 (alto impacto) sobre los 6 aspectos troncales (Capacidad, Gestión, Disponibilidad, Coste y Seguridad).

Finalmente, se muestra una tabla de mapeo basada en la correlacion de cada uno de los 34 aspectos mas relevantes indicados anteriormente acerca de la VIRTUALIZACION con la mayoria de los procesos tanto de la parte de soporte al Servicio (Service Suppport) como de entrega de Servicio (Service Delivery) de ITIL v2.

Como conclusion, indicar que el impacto de los aspectos listados (18) de gestión y disponibilidad de la virtualización es alto con respecto al resto. Asimismo con un mayor detalle, los procesos de gestión finaciera, gestión de niveles de servicio, gestión de la continuidad y gestión de la disponibilidad son aquellos en los cuales el impacto de la virtualización es significativo.

lunes, 25 de julio de 2011

¿Como combatir el VIRTUAL SPRAWL?

Tras un proyecto de implantación de una infraestructra de Virtualizacion de Servidores con su solucion integrada de gestión de Almacenamiento (SAN ó NAS) y Backup (VTL ó Libreria de Cintas) o más aun tras el proceso P2V que suele ser el driver de este tipo de proyectos, desde el dia despues de su paso a producción una de sus mayores justificaciones y/o ventajas comienza a ser su gran paradijma. Me refiero a la rápida capacidad de la nueva infraestructura virtual de provisionar VMs (Virtual Machines) es decir disminuir de forma considerable el "time to service" de un Servicio Informático o el "time to market" de un proveedor de Internet.

En la mayoria de los clientes que he podido visitar, el crecimiento indiscriminado sin seguimiento ni control de la proliferación de VMs comienza a ser un problema no solo en cuanto al espacio en disco ocupado en el sistema de Almacenamiento (lugar donde residen las VMs y su snapshots realizados con vCenter, independientemente de su capacidad de "Thin Provisioning", "Deduplicación" y "Tiering"), en el sistema de Backup (Librerias de cintas tradicionales o VTLs con "Deduplicación offline") sino por el riesgo operativo que supone esta situación.

Existen 3 lineas de trabajo a desarrollar para combatir dicho crecimiento descontrolado de VMs:

1.- Gestión de la Configuración
2.- Gestión de la Capacidad
3.- Gestión de la Seguridad


En el primer caso, podemos recurrir a heramientas comunes de gestión de la configuración, las cuales deberian proveernos de lineas base capaces de comparar en el tiempo este tipo de crecimiento e identificar las nuevas VMs; aunque en el caso concreto de VMWare vSphere (ESX y/o ESXi) existen herramientas de ecosistema como v-Scout o su nueva versión v-Commander las cuales permiten identificar las VMs con atributos personalizados e incluso generar politicas activas tras llegar al fin del ciclo de vida de cada una de las VMs. De hecho en esta linea ya esta trabajando el propio fabricante VMWare como se puede apreciar con: vCenter Configuration Manager y vCenter Discovery Manager.

En el segundo caso, resulta esencial trabajar en la linea de la gestión de la capacidad ya que será la herramienta que permitirá diagnosticar el consumo de infraestructura mas alla que la propia alta-disponibilidad intrinseca de los entornos virtuales. Esta es una de las actividades menos desarrolladas y con mayor efectividad y esta directamente relaccionado igualmente con la monitorización en Virtualización.

El tercer y ultimo caso de las medidas para disminuir este riesgo, reside en la correcta configuración de las directivas de permisos y privilegos de los usuarios locales o remotos (si estan mapeados los permisos contra un determinado Directorio Activo) en lo que se refiere a las politicas de seguridad de vCenter. Es decir restringir la capacidad de los usuarios para crear VMs, clones, templates y snapshots de las mismas.

Este tipo de medidas son especialmente relevantes en aquellas organizaciones IT que ya han comenzado a tras sus primeros pasos hacia el modelo de nube privada y/o nube hidrida dentro del Cloud Computing, aunque cobra su maximo exponente en el caso de la nube publica y aquellos proveedores que utilizan infraestructuras compartidas con multipropiedad (mas conocido como multitenancy) para albergar a sus clientes.

Gestion de la Configuración - CMDB (ITIL)

Dentro de la Gestión de Servicios y mas aun en el mundo de los Servicios Gestionados, al margen de si se constituye una Oficina de Servicio dedicada a velar por la funcion y garantia de ó de los Servicios o si se gobiernan de otra forma mas departamental y por extension mas jerarquica y tradicional; la gestión de la configuración es una de las piezas mas importantes en la gestión de los activos de informacion y su pieza angular sobre la que pivota toda la informacion es la CMDB (Configuration Management DataBase).

Como ya se mostró en la siguiente presentación, al margen de los cambios organizativos que supone la aparición de roles con responsablidades funcionales y la resistencia a este nuevo modelo donde la dependencia organica aporta poco valor; OneCMDB es una herramienta Open Source que proporciona de serie funcionalidades de descubrimiento y carga de Elementos de Configuración (CIs: Configuration Items).

En los proyectos de implantación de una CMDB, mas alla del correcto diseño del modelo de datos una de las tareas que se representa en el camino critico es la carga inicial de activos y su posterior mantenimiento. En este caso concreto OneCMDB proporciona de serie la integración con NMAP para realizar el descubrimiento y al mismo tiempo y de forma compatible la integracion con NAGIOS en cuanto a la incorporación de aquellos componentes que estan siendo monitorizados, lo cual representa una alternativa mas que valida en consideracion con otros productos de mercado.

Finalmente es un hecho conocido que el éxito o fracaso de este tipo de proyectos se basa fundamentalmente en el hecho de no morir de exito, es decir, es preferible tener identificadas aquellas aplicaciones que utilizan mayoritariamente los usuarios y sobre las mismas realizar un mapeo similar a este modelo sencillo: APLICACION (atributos de definición y de utilización) -> SOFTWARE BASE (atributos de definición y utilización de web server, j2ee server, bbdd server, ldap server, etc...) -> HARDWARE BASE (atributos de definición y de utilización de servidor, sistema operativo, interfaces de LAN, LUNs de cabina de discos, DRIVES de robotica de backup, etc... ) -> HARDWARE COMUN (atributos de definición y utilización de redes LAN, redes SAN, cabinas de discos, robótica de backup, etc...); al hecho de tener que configurar de forma completa un Catalogo de Servicios con sus diferentes Niveles de Servicio y en base a los mismos empezar a diseñar el modelo de datos que dará soporte a la CMDB.

sábado, 25 de junio de 2011

Backup en entornos de VIRTUALIZACION !!!

Del mismo modo que ya comentamos como la monitorización es una de las piezas mas olvidada dentro de los proyectos de implementación de un plataforma de Virtualizacion en la que de forma progresiva se comienza realizando un proceso de P2V de aquellos servidores x86_x64 que ya no tiene sentido mantener standalone y posteriormente de forma gradual se van incorporando servicios mas criticos a la misma; lo mismo sucede con el backup.

Esto suele ser debido a que el objetivo principal del proyecto se basa en la miración de todos esos servidores x86_x64 que se han decidido decomisar tras el correcto P2V a la nueva plataforma de Virtualizacion. Sin embargo, como suele ocurrir el dia despues de la puesta en produccion de la plataforma (prestación de Servicio) comienza a ser vital no solo cubrir su monitorizacion sino igualmente el backup de las VMs que estan alojadas en la cabina de almacenamiento o dispositivo NAS, maxime cuando la idea que reside tras una inverson similar es evolucionar la plataforma para sacarle el maximo partido posible con el proposito de amortizar la inversion.


Dicho esto, dentro del mercado en el caso particular de VMWare vSphere existe un ecosistema de soluciones de backup entre los cuales Veeam Backup y Quest vRanger gozan de un mayor reconocimiento y base instalada. Lo mismo sucede en el caso concreto de Citrix XenServer con la solucion PHD Virtual Backup entre otras muchas.

Sin embargo, a titulo personal he podido apreciar como en las grandes compañias y en las corporaciones resulta poco habitual encontrarse con este tipo de soluciones de backup mas orientadas al ecosistema de cada hypervisor y backup a disco. Es por esto que dicho articulo se centra en la integración de una solucion de mercado de tipo enterprise como puede ser Symantec Veritas NetBackup compatible en todo momento con una infraestrucutra tradicional de libreria de cintas como con una infraestrucutra de tipo VTL al igual que una infraestrucutra mixta de tipo VTL frontend y libreria de cintas backend.

Como todo fabricante, en su ultima versión (NBUv7) aparece todo un listado de nuevas funcionalidades entre las que se resaltan la compresion y deduplicacion en origen, el backup de grano fino, la integración con las plataformas de virtualizacion mas habituales, etc... Con respecto a VMWare vSphere (ESX/ESXi), como se puede apreciar en los pantallazos adjuntos se posibilita la integracion directa con la herramienta de gestión Virtual Center (compatible tanto para ESX como ESXi) y la creación de politicas comunes (igualmente ESX/ESXi) a traves de snapshots propias de las maquinas virtuales (VMs) definidas. Asimismo se permite un backup de grano fino de tipo sin agente (agentless) en el caso de los sistemas operativos RedHat Enterprise Linux y Suse Enterprise Linux.

Finalmente, para aprovechar la nueva funcionalidad de compresion y deduplicacion de datos en origen (lo que por otro lado deberia representar una importante ventaja en lo que supone la ventana de backup por LAN), en principio resulta necesaria la instalación del agente de NetBackup dentro del sistema operativo propio de la maquina virtual (VM) maxime cuando no se trata de las opciones anteriormente citadas con respecto a la copia de seguridad de grano fino a traves del API de vCenter.

Fuente origen: Angel Ferras

Oficinas de Servicio (ITIL) en WHYFLOSS 11

Dentro del marco de la celebración de la Conferencia Internacional WHYFLOSS 2011 que se celebro en las instalaciones de Madrid del IE (Instituto de Empresa), tuve el placer de poder participar como ponente exponiendo la alternativa que supone en todo momento la constitucion e implantación de una Oficina de Servicio de tipo LOW COST mediante la utilización e integración de herramientas Open Source.

El cuerpo principal del mensaje de la ponencia se basa en la idea que el objetivo principal de una Oficina de Servicio debe ser velar por la funcion y la garantia del Servicio a lo largo de sus fases de Transicion y Operación basandose periodicamente en la identificación e implemetación de planes de mejora.

Mas alla de las herramientas y de los cambios organizativos (aparicion de nuevos roles); resulta de vital importancia la correcta definicion e implantación no solo de un modelo de relaccion sino mas aun de un modelo de gestion adecuado que permita en todo momento aportar valor al cliente/s y evidenciar la calidad del Servicio que se esta prestando. Este control y seguimiento se convierte imprescindible si ademas de este objetivo principal se persigue la certificación de la ISO 20000 y el mantenimiento de dicha certificacion.

PONENCIAS:
http://www.whyfloss.com/es/conference/madrid11/speakers

domingo, 20 de febrero de 2011

Monitorizacion de entornos en VIRTUALIZACION !!!

Una de las partes en la que menos enfasis se realiza normalmente en los proyectos de migracion ó implantacion de infraestrucutruas de Virtualizacion (sea de Servidores o de Escritorios) reside en el aspecto de la Monitorizacion. Sin embargo, desde el primer momento de su puesta en produccion y de la responsabilidad de la gestion de la explotacion de este nuevo entorno virtual (dentro del Datacenter) comienza a ser critico todo aquello relaccionado con la monitorizacion; maxime si el servicio esta dentro del marco de las buenas practicas de ITIL o mas aun el cumplimiento de la ISO 20000.

En este sentido, los productos de Virtualización (ya vimos que es posible realizar Virtualizacion de Servidores sin la necesidad de la figura del hypervissor aqui) basados en los hypervisores mas conocidos del mercado como son VMWare vSphere, Citrix XenServer y RHEV permiten su monitorizacion directa o indirecta mas alla del contenido de las VMs (Maquinas Virtuales) que permiten ejecutar.

En el caso de vSphere ESX, XenServer y RHEV es posible realizar su monitorizacion mediante software tradicional de monitorizacion de infraestructuras fundamentalmente basado en el modelo cliente/servidor como son: Nagios, Zabbix, Hyperic, Zenoss, etc. o por el contario a traves del protocolo SNMP (indispensable con vSphere ESXi) como por ejemplo con Cacti tal y como es posible apreciar en las imagenes adjuntas.

Sin embargo en el caso concreto de vSphere ESX/ESXi es posible recurrir a software denominado del ecosistema de VMWare como es el caso tanto de Quest como de Veeam.



La diferencia fundamental de este tipo de software de ecosistema VMWare con respecto al software tradicional de monitorizacion, reside en que el primero de ellos utiliza directamente llamadas a la API de vCenter lo cual no resulta nada intrusivo (no hay necesidad de instalar ningun tipo de agente) ni requiere la modificacion de las politicas de seguridad a nivel de firewall interno) de los hypervisores citados anteriromente.


Por otro lado, volviendo al caso particular de vSphere ESX/ESXi, la integración del software de ecosistema de VMWare (Veeam y Quest) con respecto a la monitorizacion es total y permite el descubrimiento automatico de todos los elementos del vCenter: Cluster de ESX, hosts de ESXi standalone, vAPPs (Virtal Applications) como conjunto logicos de VMs (Virtual Machines), VMs, Datastores, etc. como es posible apreciar en las imagenes adjuntas.


En esta ultima linea de trabajo, en la monitorizacion de la evolucion del consumo de disco por parte de todos y cada uno de los diferentes Datastores del vCenter, es posible conocer dicha evolucion no solamente de los Datastores locales sino igualmente de los remotos como dispositivos de bloques (ya sea via FCP o iSCSI) o sistemas de ficheros (NFS, CIFS) esten o no esten en uso. Detalle de la imagen adjunta con cabinas/NAS de NetApp y EMC.


martes, 8 de febrero de 2011

Convergencia de ALMACENAMIENTO y VIRTUALIZACION !!! - Parte II

Mas allá de la integración, en el caso de la Virtualizacion de VMWare vSphere, con las tecnologias de Almacenamiento de fabricantes como NetApp y EMC como se puede apreciar en este anterior articulo, dicha integración es posible igualmente con otros productos de Virtualización como Citrix XenServer objeto de este nuevo post.


Dicha integración no solo proporciona información en la gestión de la infraestructura virtualizada acerca del almacenamiento utilizado con el maximo nivel de detalle; un correcto alineamiento de los bloques de datos, sino que ademas permite utilizar las funcionalidades de tercera copia propias del sistema de almacenamiento como puede ser el uso de snapshots y clones compatible en todo momento con las capacidades de replicación (mayoritamente sincrona) a nivel hardware y mas que interesantes en el ciclo de vida de las VMs (Maquinas Virtuales).


Como se puede apreciar en los pantallazos adjuntos (Detalle: cluster de dos hypervisores XenServer en HA con acceso compartido a una cabina de discos de proposito general de NetApp que ejecuta DATAOntap), la herramienta de gestión XenCenter permite conectar directamente con cada uno de los agregados y crear Storage Resources directamente especificando incluso el numero de volumenes a crear en la cabina y si estos son servidos con funcionalidades avanzadas como Thin Provisioning y Deduplicacion.


En paralelo, desde la herramienta StorageLink es posible descubrir la configuracion existente del Datacenter virtual, incluyendo el detalle acerca del estado de las VMs y las posibles plantillas existentes o generadas. Asimismo, se permite declarar la configuración de la cabina utilizada donde residen las VMs proporcionando información en base a la utilización de dicho sistema de almacenamiento al igual que la posibilidad de generar nuevos Storage Resources en la infraestrucutra de Virtualización directamente desde los propios agregados de la cabina de discos; posibilitando incluso el hecho de poder especificar igualmente aquellas funcionalidades avanzadas como Thin Provisioning y Deduplicacion y el propio protocolo de almacenamiento FCP/iSCSI.


Finalmente, una de sus funcionalidades menos conocida pero no por ello menos importante, reside en la capacidad como complemento añadido a dicha herramienta de soportar de serie la opcion de diseño y creacion de forma guiada de un plan automatizado de Contigencia del entorno Virtual. Normalmente este "Disaster Recovery Plan" (DRP) formaria parte del "Business Continuity Plan" (BCP) que representa un nivel superior al tecnologico.


La configuracion de este Plan de Contigencia se realizaria por fases como se puede apreciar en la imagen adjunta. En una primera fase seria necesario realizar todas las tareas guiadas sobre el Datacenter Virtual en el SITE principal (normalmente el que da servicio) para lo cual es requisito indispensable tener conectividad IP con el SITE secundario (tanto de la infraestrucutra de Virtualización como la de Almacenamiento).


En una segunda fase posterior, seria necesario realizar igualmente las tareas guiadas sobre el SITE secundario (el que daria servicio ante una caida del principal), lo que incluiria las pruebas funcionales del plan de Contigencia generado y por extencion la puesta en marcha del failover entre SITES de forma automatizada.

Destacar que en las ultimas versiones de XenServer, se ha incorporado StorageLink como parte del core de dicho producto de Citrix al igual que un buen numero de mejoras representativas entre las que seria necesario destacar: Web Self-Service y Distributed Virtual Switching como indica la release notes.


domingo, 9 de enero de 2011

"Capacity Planning" en entornos FISICOS y VIRTUALES

Al igual que la fase de diseño resulta de extraordinaria importancia en los proyectos de implantación y/o migración de infraestructura de servidores, almacenamiento y backup en lo que se conoce como conjunto de medidas para evitar en la medida de lo posible la desviación del camino critico; en la explotación del Datacenter la gestión de la capacidad resulta si cabe de mayor relevancia por aquello que dicha infraestructura condicionara el servicio que se entrega directamente a los usuarios en el dia a dia de la operaciones y la futura evolución tanto del Datacenter como del Servicio que se presta.


Al margen de la necesidad de invertir en la gestión a nivel de proceso de la capacidad de cada uno de los servicios que se prestan maxime cuando la infraestructura citada anterormente es compartida, seria mas que positivo considerar la posibilidad de aqduirir una herramienta que posibilite medir de forma sencilla y eficaz la evolución de la infraestructura en la que se apoyan los servicios que ofrece el Datacenter con el animo de intervenir como elemento facilitador en la toma de decisiones en base al control y seguimiento periódico que hay que realizar.


Como se puede apreciar en los pantallazos adjuntos, la posibilidad de poder gestionar igualmente infraestructuras fisicas y virtuales tanto de servidores, como de sistemas de almacenamiento y de backup puede representar mas que una ventaja competitiva en este sentido.


En el caso particular de la Virtualizacion de Servidores implementada con vSphere (ESX/ESXi) de VMWare se deberia permitir la gestión de la capacidad no solo de cada uno de los hosts (mas conocidos como hypervisores) sino ademas de las agrupaciones logicas en modo cluster de los mismos al igual que las VMs (Maquinas virtuales) contenidas o no en vAPPs (Aplicaciones Virtuales) todo ello dentro del ámbito del Datacenter Virtual. Como se puede apreciar en la imagen anexa, se deberia posibilitar igualmente la identificación y evolución de todos y cada uno de los DataStores asociados.


Del mismo modo en el caso concreto de los sistemas de almacenamiento tanto cabinas de discos de proposito general (FCP e iSCSI), como dispositivos de tipo NAS (NFS y CIFS) multifabricante (EMC, NetApp, Sun Microsystems) deberia ser posible medir su evolucion y consumo maxime cuando estan habilitadas las nuevas funcionalidades de Thin Provisioning y Deduplicación online ya que cobra especial relevancia la sobresuscripción y por extencion el posible compromiso del disco logico ofrecido a los sistemas y el disco fisico libre del almacenamiento global.


Para finalizar, con respecto a los sistemas de backup de tipo software mas conocidos en el mercado (Backup Exec, NetBackup, TSM, Commvault, Legato, ARC Serve) tanto si estan basados en las tradicionales librerias fisicas de cintas, como si estan basados en las nuevas VTLs con o sin backend de discos y/o con o sin backend de cintas; deberia ser posible medir la evolución del consumo de GBs, de cintas fisicas y/o drives logicos al mismo tiempo que el rendimiento de los trabajos que son necesarios respaldar en referencia a las distintas politicas de seguridad configuradas. Asimismo, es de remarcar que en cuanto a las VTLs formaria parte de la gestión de su capacidad la medida de la evolución de su ratio de deduplicación y la diferencia entre el espacio nominal y el espacio fisico consumido de manera conjunta a la evolución del uso de la caché.

Al igual que el resto de articulos orientados a la gestión unificada y convergente de las infraestructuras de Almacenamiento y Virtualización, un correcto y periódico "Capacity Planning" representa mas que un avance en la evolución de la Explotación del Datacenter hacia el camino de la nube privada o "Cloud Privado" como fase previa de la nube hibrida en la gestión IT.