viernes, 31 de diciembre de 2010

"Best Practices" en gestión de ALMACENAMIENTO con VIRTUALIZACION

Un nivel superior en la convergencia de la gestión conjunta de las infraestructuras de Almacenamiento y Virtualización lo representan las buenas practicas.
Se basan en la necesidad de orquestar cambios organizativos mas allá que la integración de los productos de Virtualización de VMWare, Citrix y RedHat (basados en la figura del hypervisor, OJO que es posible virtualizar servidores sin hypervisor como ya se indico en este blog) con los productos de los fabricantes de Almacenamiento como NetApp, EMC y Sun Microsystems como ya se trató anteriormente en este anterior articulo.

El objetivo de dichas buenas practicas se centra en el requisito que supone el hecho que los administradores de Virtualizacion y los administradores de Almacenamiento trabajen conjuntamente para lograr una mayor eficiencia, control y seguimiento en la explotacion del Datacenter. La idea se basa en evitar los errores de una de las consecuencias mas comunes de la gestión de los entornos virtuales, como es la proliferación sin orden ni criterio de las VMs (Maquinas Virtuales)... mas conocido como VIRTUAL SPRAWL.

Dentro de lo que se conoce como ecosistema VMWare (vSphere: ESX/ESXi) seria necesario considerar la posibilidad de aqduirir una herramienta que posibilite mostrar e identificar de un modo end-to-end la configuración vigente desde la propia VM (Maquina Virtual) hasta el conjunto de bloques (FCP e iSCSI) y ficheros (NFS, CIFS) pasando por todas las rutas I/O a cada Almacenamiento fisico utilizado pudiendo ser cabinas de disco de proposito general o dispositivos de almacenamiento de tipo NAS.

Como se puede apreciar en los pantallazos adjuntos es posible identificar tanto en el lado del Almacenamiento todos aquellos componentes necesarios en la gestión de la/s cabina/s y/o dispositivo/s NAS (RAID, grupos de discos, discos fisicos, volumenes, LUNs, ficheros, etc.), como en el lado de la SAN (Switches de tipo FC como iSCSI) al igual que todos y cada uno de los componentes de los Virtual Datacenters como son los Clusters de hypervisores ESX/ESXi, hosts standalone del mismo tipo ESX/ESXi asimismo como los Datastores utilizados por cualquiera de los protocolos citados.

En el caso concreto y particular de cada una de la VMs (Maquinas Virtuales) se posibilita el conocimiento de su camino fisico y su camino logico desde su host owner (en la arquitectura del Datacenter) hasta el LUN exacto del Almacenamiento que utiliza como Datastore asociado. Del mismo modo que si dicha VM se encuentra en una vAPP (Aplicacion Virtual) como conjunto de VMS desplegadas en un unico cluster como agrupación de varios nodos del tipo hosts ESX/ESXi.


El fondo de toda esta gestion integrada y convergente de las infraestructuras de almacenamiento y virtualización, lo que se persigue es un escalón mas en el ciclo de vida de la evolución del Datacenter hacia lo que se conoce como nube privada o cloud privado como paso previo hacia la expansión a la nube hibrida para poder aprovechar sus capacidades de elasticidad y disponibilidad ante determinadas situaciones bajo demanda, como se puede apreciar en el resumen inferior de dicho post:


lunes, 20 de diciembre de 2010

Novedades en VIRTUALIZACION !!!

Este articulo se centra en el cambio que supone en la ejecución de proyectos y en las operaciones de la infraestrucutra virtualizada del Datacenter de las organizaciones, el anuncio que ha realizado VMware en el cual trasmite para las proximas versiones la continuidad de su hypervisor (vsphere) basado en ESXi en detrimento de su versión mas tradicional e implantada conocida como ESX, fundamentalmente por cuestiones de seguridad.

El impacto fundamental se debe a la perdida de la interfaz de comandos propia de cualquier distribucion Linux denominada Service Console existente en todas las versiones de ESX hasta la v4.1. En su lugar para poder gestionar ESXi, aparecen diferentes alternativas listadas a continuación y en los pantallazos adjuntos igualmente:

1.- vCLI
2.- vPowerCLI
3.- vMA (vSphere Management Assistant)

Al margen de todas estas nuevas herramientas (otras nos tan nuevas ;-) dependiendo de la licencia del ESXi es posible gestionarlo con vCenter al igual que el resto de hosts y clusters de o de los virtual Datacenters existentes de tipo ESX.


Del mismo modo, se posibilita la utilización de mas herramientas como vSphere Host Update como se puede apreciar en las imagenes adjuntas y VUM (vSphere Update Manager) la cual permite realizar lineas base a lo largo del tiempo en base a la actualización de los sistemas operativos de las VMs (Linux, Windows, UNIX, etc...) al igual que la de los propios hosts que actuan como hypervisores de la infraestructura virtual.

En los próximos articulos se trataran las novedades de las últimas versiones/releases del resto de productos de mercado que se incorporan en la temática de este blog dentro del área de la Virtualizacion de Servidores como son pueden ser Citrix XenServer y RHEV (Red Hat Enterprise Virtualization) fundamentalmente.

martes, 9 de noviembre de 2010

Convergencia de ALMACENAMIENTO y VIRTUALIZACION !!! - parte I

Es conocido que la gran mayoria de las organizaciones IT ya han virtualizado en mayor o menor medidad sus servidores o están en proceso de virtualización de sus CPDs (...y los que no, se lo están planteando seriamente por todas aquellas ventajas competitivas que supone) ya sea en el caso de arquitecturas de procesador cerradas (sparc, itanium, power, etc.) o en el caso de procesadores de consumo (x86 y/o x64).

Si bien es cierto que la consolidación de servidores supone unicamente un paso previo a la virtualización completa del CPD, el siguiente escalon lo representa el hecho (en algunas organizaciones IT comienza a ser una realidad... aunque es pronto para ello) de ser capaces de orientar las operaciones IT en servicios gestionados como una nube privada y en el futuro porque no como una nube hibrida (Cloud Computing).

En esta linea de trabajo, la convergencia en la gestión unificada de las infraestructuras de almacenamiento y virtualización (de servidores y/o escritorios) de forma centralizada representa mas que un avance en el camino de la automatización del ciclo de vida de las maquinas virtuales y su operativa diaria. Este post trata de exponer como es posible este cambio tecnologico y mas aun organizativo con las cabinas de disco multiprotocolo y dispositivos NAS de NetApp en el caso concreto de DataONTAP como se puede apreciar en los pantallazos adjuntos tanto con Datastores iSCSI como NFS.


Al igual que ocurria con OpenStorage de Sun Microsystems, es relevante tener en cuenta que es posible realizar la gestión del almacenamiento de la infraestrucuta virtual (particularmente con vsphere [tanto ESX como ESXi] de VMware) con las mas que necesarias funcionalidades de "Thin Provisioning" y "Deduplicación" contando con las ventajas de las opciones multiprotocolo en lo referente al almacenamiento: FC, iSCSI, NFS, CIFS y FCoE (he hechado en falta Infiniband).

Como se puede apreciar la integración de las cabinas y/o dispositivos de NetApp en vCenter es lo que permite este cambio siendo en todo momento compatible con las diferentes herramientas de administración de la citada plataforma de almacenamiento (FilerView, System Manager y CLI).


Sin embargo la integración permite igualmente aprovechar la capacidad de tercera copia (tanto snapshots como clones) de los FlexVolumes lo que posibilita la gestión de la copia de seguridad de las VMs de forma independiente y completamente integrada en la infraestructura de almacenamiento de la cual posteriormeente seria posible realizar backup a cinta con destino VTLs o librerias fisicas si es necesario ir mas allá de la recuperación y dar cabida a los planes de respaldo y continuidad de negocio de la organización.

En el caso concreto del almacenamiento EMC asignado (directamente a los hypervisores ESX/ESXi) mediante el equipamiento NAS Celerra como frontend y como backend el equipamiento de tipo cabina de discos SAN Clariion, es de destacar que con las ultimas versiones del operativo DART del Celerra es posible realizar Thin Provisioning y Deduplicacion como se puede apreciar en la imagen adjunta.


Sin embargo la integracion de los equipos de almacenamiento de EMC con la tecnologia de virtualizacion de servidores de VMWare es posible no solo con los equipos citados (NAS Celerra y cabinas SAN Clariion) sino ademas con el equipamiento de tipo cabina de discos SAN Symmetrix (tanto los antiguos DMXs como los novedosos vMAX) apreciable igualmente en los pantallazos adjuntos.


Como apunte final de dicho articulo, destacer la existencia del software multipath PowerPath compatible con cualquier sistema de almacenamiento, el cual a diferencia del software multipath propio de VMWare (vsphere) citado anteriormente en este blog; soporta configuracion multipath en modo Round Robin pero de forma concurrente.

En posteriores articulos de este blog se tratará dicha integración en el caso particular de otros productos de virtualizacion de servidores como pueden ser Citrix XenServer cuya integración de la tecnologia de NetApp con su consola de gestión XenCenter es también posible aunque en menor medida que la indicada anteriormente. En el caso ultimo de RHEV practicamente no se aprecia dicha integración ni en el caso de la tecnologia de almacenamiento de EMC ni de NetApp, seguramente esto suponga un reto mas que importante a desarrollar en futuras releases y versiones de dicho producto.

sábado, 31 de julio de 2010

Nueva gestión del Almacenamiento en ORACLE !

En este post me gustaria tratar el cambio sustancial que supone no solo desde el punto de vista tecnologico la gestión del almacenamiento de las diferentes instancias de una BBDD Oracle directamente por el propio software de Oracle (al margen del sistema operativo) sino por este mismo motivo el cambio organizativo que representa en las operaciones y servicios IT de cualquier organización al igual que ya lo esta suponiendo la Virtualización de Servidores y la Virtualización de Escritorios (VDI).


En concreto el articulo se centra en la versión Oracle11gR1 bajo una maquina en este caso virtual que corre OEL: Oracle Enterprise Linux 5.5 (aunque por este motivo deberia funcionar sin problemas en distribuciones similares como RHEL 5.5, CentOS 5.5 e incluso UNIX como Solaris 10, aunque quedaria pendiente su posible integración con ZFS).

Para esta prueba piloto a nivel funcional se han escogido diferentes escenarios:

1.- Discos asignados directamente a la maquina virtual y posteriormente ofrecidos de forma completa a ASM (Automatic Storage Management) como gestor de almacenamiento de todas las instancias de la BBDD que correran en dicha instalacion

2.- Discos asignados directamente a la maquina virtual, se ha realizado un RAID por software (en particular RAID 1: Mirror) y el dispositivo de bloques resultante si se ha ofrecido de forma completa a ASM

3.- Discos asignados directamente a la maquina virtual, se ha realizado un VOLUMEN DINAMICO por software (en particular con LVM2) y el dispositivo de bloques resultante si se ha ofrecido de forma completa a ASM

4.- Discos asignados directamente a la maquina virtual mediante una SAN iSCSI, los discos asignados mediante el iSCSI initiator se han ofrecido de forma completa a ASM

En cualquiera de los 4 casos anteriormente citados, el resultado ha sido satisfactorio tanto en cuanto al almacenamiento de los datos estructurados de cada una de las instancias de BBDD como el del almacenamiento de los archives de las que tenian dicha funcionalidad de registro activada para mejorar su copia de seguridad, como se puede apreciar en las imagenes adjuntas.

El hecho de funcionar 100% en una SAN iSCSI, hace preveer el mismo resultado satisfactorio en una SAN Fibre Channel tanto con singlepath como con multipath. En ambos casos seria necesario evaluar importantes funcionalidades de cualquier cabina de discos actual como son el "Thin Provisioning" y "Deduplicación".

Por otro lado en la versión Oracle11gR2 se ha incorporado el hecho por el cual ASM es capaz de gestionar no unicamente el almacenamiento de los datos estructurados y archives de las diferentes instancias de una instalación, sino igualmente cualquiera de los sistemas de ficheros con datos no estructurados del sistema operativo (sorprendentemente sin recurrir al mismo) al igual que la incorporación de ACFS (ASM Cluster File System) como sistema de ficheros global en instalaciones de tipo RAC como parte de un nuevo producto y nuevo licenciamiento como es Grid Infraestructure.

domingo, 20 de junio de 2010

Alta Disponibilidad y Balanceo de Carga en acceso a disco con VIRTUALIZACION

El objetivo de este articulo es dar a conocer las diferentes opciones de Alta Disponibilidad y Balanceo de Carga en cuanto a la gestión del acceso al Almacenamiento (ya sean configuraciones singlepath o multipath) que se pueden realizar por parte de los 3 hypervisores comentados anteriormente en este blog (vSphere, XenServer y RHEV) utilizando para ello OpenStorage como cabina de discos.




Antes de nada es importante destacar que en el caso de las redes SAN de tipo FibreChannel (FCP) es habitual que los frontend de los Storage Processors de las cabinas de almacenamiento de proposito general soporten de serie dichas opciones de configuracion. Sin embargo en las cabinas de almacenamiento multiprotocolo y/o dispositivos NAS en el caso concreto de las redes SAN de tipo iSCSI es necesario para poder habilitar el acceso a disco mediante multipath que soporten el estandard ALUA (Asymmetric Logical Unit Access).



Concretamente vSphere (tanto vía CLI como a través de su conocida GUI vCenter) soporta de serie configurar estos tres metodos de acceso a disco de tipo multipath: Fixed, Most Recently Used y Round Robin, tal y como se puede apreciar facilmente en los pantallazos adjuntos a dicho post.


En particular XenServer soporta igualmente de serie acceso a disco mediante configuración multipath, sin embargo sus opciones de configuración vía CLI y mucho mas a través de su GUI XenCenter resultan bastante mas limitadas en cuanto a plantear las distintas opciones que facilmente hemos revisado con vSphere. En esta linea es necesario recurrir a StorageLink el cual permite una gestión visual y mucho mas avanzada del almacenamiento.

La configuración de Cluster (local o metropolitano) de agrupaciones de varios hypervisores XenServer utilizan asimismo datastores iSCSI y/o NFS para supervisar su estado mediante heartbeat entre los nodos implicados y la capacidad de Live Migration en cuanto a sus VMs.


Finalmente, en cuanto a RHEV al tratarse en todo momento del hypervisor KVM en empotrado en un sistema RHEL las opciones de configuración via CLI son las mismas que en el caso del software multipath (soporta Round Robin) que viene de serie con esta conocida distribución y derivadas (CentOS y Fedora). Sin embargo al igual que XenServer las opciones de configuración a través de su GUI RHEV Manager adolece de las mismas limitaciones en comparación con vSphere.



Imagen diseño SAN iSCI: Angel Ferras

domingo, 23 de mayo de 2010

Datacenter Activo - Activo con VIRTUALIZACION - parte I

A raiz de la realización en la oficina de una propuesta para un cliente, aprovecho este post para exponer el planteamiento de como distribuir la produccion entre dos CPDs en la modalidad Activo - Activo tras un proceso de consolidación basado en la Virtualización de Servidores.


Con cualquiera de las tres principales tecnologias identificadas en anteriores entradas de este blog, tanto en el ecosistema de VMWare vSphere, de Citrix XenServer y de RHEV es posible utilizar con los requerimientos de LAN Extendida y SAN extendida la implementación de un MetroCluster formado por los diferentes hypervisores de cada uno de los productos de mercado citados.

En el caso concreto de VMWare vSphere al margen de la utilización de las tecnologias HA, DRS, VMotion, Storage VMotion, VCB y Fault Tolerance, de forma particular es posible respaldar igualmente vCenter con un enfoque Activo - Pasivo mediante el uso de VCenter Heartbeat, lo que incluye la replicación de todos y cada uno de sus datos de forma consistente.

En el caso opuesto, basado en un enfoque Activo - Pasivo es posible agilizar todo el proceso tradicional de Contingencia mediante la utilización de Site Recovery Manager (SRM) con el propósito de automatizar la Contigencia de un CPD a otro al tratarse las VMs de ficheros. Destacar que SRM soporta este proceso tanto de forma unidireccional como bidireccional y que se apoya fuertemente el la replicación (sincrona o asincrona) propia de las cabinas de almacenamiento de proposito general.

lunes, 5 de abril de 2010

Mejora de procesos (ITIL) en WHYFLOSS 10

Dentro del marco de la celebración de la Conferencia internacional WHYFLOSS 2010 en las instalaciones de Madrid de la EOI (Escuela de Organización Industrial), tuve el placer de poder participar como ponente exponiendo un caso de exito real y facilmente reproducible en cuanto a la orientación y mejora de procesos con el objetivo de obtener la Certificación de la ISO 2000 de un importante organismo de la administracion publica local en base a una solución de integración con diferentes herramientas Open Source.

En esta ocasión no hablamos de todos aquellos aspectos relevantes que considero necesarios dar a conocer y dominar a dia de hoy en el mundo IT... tanto en el ámbito tecnologico como en el de gestión tales como son la Virtualización, el Almacenamiento, el Cloud Computing, la Seguridad y el Open Source; temás a los que suelo estar mas orientado.

Sin embargo, está en mi ánimo y asi lo espero (y deseo ;-) que la siguiente presentación pueda aportar valor en el conocimiento de esta serie de iniciativas pioneras al igual que en la propia gestión de Servicios en base a las buenas practicas de ITIL (Information Technology Infraestructure Library):

PONENCIAS:
http://www.whyfloss.com/es/conference/madrid10/speakers

domingo, 28 de febrero de 2010

Seguridad en Redes de ALMACENAMIENTO (SAN)

Tradicionalmente en el mundo de las Redes de Almacenamiento (SAN) desde el punto de vista del protocolo Fibre Channel (FCP) las medidas de seguridad podian ser:

* Físicas: caso del Mapping, es decir la relación entre las diferentes LUNs de los DiskGroup definidos en el RAID hardware de las cabinas de discos de proposito general y los puertos de fibra del Storage Procesor de las mismas.

* Lógicas: caso del Masking, es decir la relación entre los WWPNs de las HBAs de los servidores con respecto a los LUNs (previamente mapeados en el Mapping) de las cabinas de discos; como desde el lado del Switch al realizar el Zonning, es decir la relación entre los distintos puertos de fibra de las cabinas y de los servidores ó mediante la relación de los WWPNs de las HBAs de los servidores y los WWPNs de los puertos de fibra de las cabinas.

Sin embargo, actualmente se esta produciendo un importante avance en la convergencia de las Redes de Almacenamiento al mundo TCP/IP, es decir al de las Redes de Datos. Este es el caso del protocolo Fibre Channel over Ethernet (FCoE) como de iSCSI. En el primer caso (debido a que se trata en todo momento de Ethernet) el equivalente al Zonning en el lado del Switch sería realizar el establecimiento de VLANs a Nivel II (MAC), es decir similar a la segmentación física de los dominios de broadcast tal y como se realiza a nivel físico en las Redes de Datos.

En el segundo caso, iSCSI funciona igualmente bajo Ethernet con lo cual la seguridad física se implementaría del mismo modo citado anteriormente para FCoE, en el lado del Switch. La diferencia aparece en el lado de las cabinas de discos de tipo iSCSI desde el punto de vista de la seguridad lógica. Es posible definir el Masking, es decir establecer una relación entre los IQNs de los Servidores y los LUNs que sirven las cabinas de discos y por otro lado posibilita igualmente el realizar autenticación CHAP unidireccional ó bidireccional (tanto en el lado del target como en el del initiator).

En esta ultima linea, adjunto los diferentes pantallazos de la realización de dichas medidas de seguridad en una SAN de tipo iSCSI, teniendo en cuenta la cabina de discos esta basada en ZFS como gestor de discos (RAID Z con doble paridad) y de volumenes dinamicos implementando de serie importantes funcionalidades como es el caso de ILM en cuanto al reparto de las caches de lectura y escritura, deduplicación en origen, replicación asincrona y thin provisioning al margen de otras ya citadas anteriormente en este blog.

Tal y como se puede apreciar, desde el punto de vista de los servidores (los cuales tienen acceso a los diferentes LUNs que sirve la cabina de discos iSCSI, de forma selectiva) se han realizado las pruebas con los sistemas operativos mas comunes y utilizados en este momento como es el caso de MS Windows 2008 Server R2, CentOS Linux 5.4, Sun Solaris 10u8 y OSX 10.4.11.

De forma similar se podrian implantar igualmente las medidas de seguridad lógica descritas en el caso concreto de entornos basados en la Virtualización de Servidores utilizando los hypervisores mas demandados en el mercado como es el caso de VMWare vSphere (ESX v3.5/4), Citrix XenServer (v5.0/5.5) y RHEV.