Pocas tecnologías han obtenido tanta atención en la década pasada que la virtualización de servidores. Y por un buen motivo. Hace 10 años, la organización promedio sufría de problemas graves de servidores dispersos.
“Una aplicación, un servidor” era la consigna entonces. La seguridad y el desempeño previsible tuvieron prioridad sobre la eficiencia y la utilización.
Los hipervisores y las máquinas virtuales han ayudado a poner orden en este asunto. Al permitir que múltiples aplicaciones compartan memoria, poder de procesamiento y otros recursos en el mismo servidor host físico, la virtualización ha reducido los costos e hizo más ágiles los centros de TI.
Pero existe un lado oscuro de la virtualización. El secreto bien guardado consiste en que las tecnologías de virtualización tradicionales son magníficas para consolidar el trabajo de recursos pero no son nada adecuadas para las aplicaciones de las que las organizaciones dependen para ejecutar sus procesos más importantes, delicados y críticos para el negocio.
Los motivos tienen que ver, en gran medida, con la seguridad y la conformidad, que representan la segunda gran área de preocupación cuando tiene que ver con colocar aplicaciones de misión crítica en entornos virtualizados. Debido a que los servidores virtuales comparten recursos, es más difícil (si no imposible) aislar o endurecer aplicaciones y cargas de trabajo específicas para seguridad.
Por todos estos motivos, la virtualización ha golpeado el techo cuando tiene que ver con el mundo de aplicaciones de misión crítica. Se estima que aproximadamente 70% de los entornos de servidor fueron virtualizados en 2013. El restante 30%, que representa en gran medida cargas de trabajo de misión crítica complejas, de transacciones intensas, permanece sin ser tocado por la virtualización.