domingo, 9 de enero de 2011

"Capacity Planning" en entornos FISICOS y VIRTUALES

Al igual que la fase de diseño resulta de extraordinaria importancia en los proyectos de implantación y/o migración de infraestructura de servidores, almacenamiento y backup en lo que se conoce como conjunto de medidas para evitar en la medida de lo posible la desviación del camino critico; en la explotación del Datacenter la gestión de la capacidad resulta si cabe de mayor relevancia por aquello que dicha infraestructura condicionara el servicio que se entrega directamente a los usuarios en el dia a dia de la operaciones y la futura evolución tanto del Datacenter como del Servicio que se presta.


Al margen de la necesidad de invertir en la gestión a nivel de proceso de la capacidad de cada uno de los servicios que se prestan maxime cuando la infraestructura citada anterormente es compartida, seria mas que positivo considerar la posibilidad de aqduirir una herramienta que posibilite medir de forma sencilla y eficaz la evolución de la infraestructura en la que se apoyan los servicios que ofrece el Datacenter con el animo de intervenir como elemento facilitador en la toma de decisiones en base al control y seguimiento periódico que hay que realizar.


Como se puede apreciar en los pantallazos adjuntos, la posibilidad de poder gestionar igualmente infraestructuras fisicas y virtuales tanto de servidores, como de sistemas de almacenamiento y de backup puede representar mas que una ventaja competitiva en este sentido.


En el caso particular de la Virtualizacion de Servidores implementada con vSphere (ESX/ESXi) de VMWare se deberia permitir la gestión de la capacidad no solo de cada uno de los hosts (mas conocidos como hypervisores) sino ademas de las agrupaciones logicas en modo cluster de los mismos al igual que las VMs (Maquinas virtuales) contenidas o no en vAPPs (Aplicaciones Virtuales) todo ello dentro del ámbito del Datacenter Virtual. Como se puede apreciar en la imagen anexa, se deberia posibilitar igualmente la identificación y evolución de todos y cada uno de los DataStores asociados.


Del mismo modo en el caso concreto de los sistemas de almacenamiento tanto cabinas de discos de proposito general (FCP e iSCSI), como dispositivos de tipo NAS (NFS y CIFS) multifabricante (EMC, NetApp, Sun Microsystems) deberia ser posible medir su evolucion y consumo maxime cuando estan habilitadas las nuevas funcionalidades de Thin Provisioning y Deduplicación online ya que cobra especial relevancia la sobresuscripción y por extencion el posible compromiso del disco logico ofrecido a los sistemas y el disco fisico libre del almacenamiento global.


Para finalizar, con respecto a los sistemas de backup de tipo software mas conocidos en el mercado (Backup Exec, NetBackup, TSM, Commvault, Legato, ARC Serve) tanto si estan basados en las tradicionales librerias fisicas de cintas, como si estan basados en las nuevas VTLs con o sin backend de discos y/o con o sin backend de cintas; deberia ser posible medir la evolución del consumo de GBs, de cintas fisicas y/o drives logicos al mismo tiempo que el rendimiento de los trabajos que son necesarios respaldar en referencia a las distintas politicas de seguridad configuradas. Asimismo, es de remarcar que en cuanto a las VTLs formaria parte de la gestión de su capacidad la medida de la evolución de su ratio de deduplicación y la diferencia entre el espacio nominal y el espacio fisico consumido de manera conjunta a la evolución del uso de la caché.

Al igual que el resto de articulos orientados a la gestión unificada y convergente de las infraestructuras de Almacenamiento y Virtualización, un correcto y periódico "Capacity Planning" representa mas que un avance en la evolución de la Explotación del Datacenter hacia el camino de la nube privada o "Cloud Privado" como fase previa de la nube hibrida en la gestión IT.