“Me lo contaron y lo olvidé, lo vi y lo entendi; lo hice y lo aprendi” - Confucio
La obligación de virtualizar Reviewed by Momizat on . Bajo este título me gustaría esta semana compartir con vosotros una idea que me viene rondando la cabeza desde hace un par de semanas. Como siempre procuro hace Bajo este título me gustaría esta semana compartir con vosotros una idea que me viene rondando la cabeza desde hace un par de semanas. Como siempre procuro hace Rating:
You Are Here: Home » Estandars » La obligación de virtualizar

La obligación de virtualizar

Bajo este título me gustaría esta semana compartir con vosotros una idea que me viene rondando la cabeza desde hace un par de semanas. Como siempre procuro hacer cuando elijo títulos algo “llamativos”, me gustaría poneros un poco en antecedentes acerca de los motivos de esta reflexión.

A estas alturas de la película plantearse las bondades de la virtualización parece una cuestión que fuera de toda duda. Sin embargo, es precisamente en estos momentos cuando me gusta volver a hacerme mi eterna pregunta “¿Por qué?” Y la respuesta siempre viene siendo la misma, por las ventajas que me aporta la virtualización:

  • Flexibilidad de la gestión de recursos
  • Mejora del retorno de la inversión
  • Disminución de la carga administrativa
  • Mejora del aprovisionamiento
  • y un largo etcétera que no pongo para no aburriros.

Lo que no hace más que confirmarme que virtualizar sigue siendo la mejor opción.

Sin embargo, en este punto, se me plantea otra pregunta motivada por las dudas que muchos clientes, e incluso yo mismo en más de una ocasión, me han manifestado, “¿se puede virtualizar todo?” Y aquí la prudencia se impone sobre la ilusión y mi respuesta es siempre: hay que estudiar cada caso.

Pues bien, esta respuesta es precisamente el quid de la cuestión, “¿Cuáles son los motivos para que un servidor, un servicio o una aplicación no pueda ser virtualizada?” En ocasiones la respuesta a esta pregunta son imperativos físico como requisitos de hardware que no pueden ser virtualizados. En otras ocasiones, sin embargo, el hándicap resulta ser el rendimiento que da la aplicación sobre un entorno virtualizado.

Referente a este último punto, hace poco he descubierto un concepto bastante interesante que creo importante a la hora de diseñar soluciones de cloud o barajar opciones para virtualizar un servicio/aplicación, la latencia de la infraestructura.

Todos entendemos el concepto de latencia como el retardo de tiempo experimentado en un sistema. Pues bien, aplicando este concepto a las infraestructuras de virtualización estaremos hablando del retardo de tiempo en la oferta de un servicio experimentado en un sistema de virtualización, lo que traducido a palabras un poco más espartanas vendría a ser equivalente a la famosa “experiencia de usuario”.

Para afrontar los problemas derivados de esta latencia de la infraestructura las opciones parecen más que evidentes, monitorizar, monitorizar y monitorizar. Sin embargo, estamos acostumbrados a monitorizar “rendimientos” y no “experiencias de usuario” por lo que un cambio en el modelo de monitorización parece necesario. En este sentido ya existen este tipo de monitorizaciones para las aplicaciones web, por lo que sería necesario extender este modelo a la virtualización.

No soy un visionario de la virtualización ni nada por el estilo, las grandes empresas ya se han dado cuenta de esto y están dando los pasos adecuados en este sentido, lo que deriva en nuevas iniciativas, nuevas tecnologías y nuevos conceptos que dentro de poco serán tan comunes para nosotros como lo es ahora el cloud computing. Uno de estos conceptos que ya se empiezan a barajar es el de IT as a Service, donde básicamente se está tratando de virtualizar todos los sistemas de los que depende la virtualización (red y almacenamiento principalmente) para conseguir medir y mejorar la latencia de infraestructura que antes comentaba.

Todo esto no hace más que poner de manifiesto que si bien es cierto que el concepto de Cloud sigue siendo el presente de la informática, también es igual de cierto que estamos llegando al punto en el que hace falta una redefinición de ciertos conceptos y que quizás sea interesante “reinventar la rueda” de algunas infraestructuras que dábamos por sentadas para que se ajuste a la realidad de la virtualización que estamos viviendo.

A continuación os propongo un par de enlaces bastante interesantes acerca de la Latencia de la infraestructura y de IT as a Service.

¿Crees que este artículo puede interesar a alguien a quien conoces? Compártelo clicando los botones de Twitter y Facebook de abajo. Gracias.

La obligación de virtualizar




¿Quieres aprender VMware?
Cursos Oficiales de VMware para la certificación con José María González. Suscríbete y recibe un 30% de descuento!
We hate spam just as much as you

About The Author

Santi Fernández Muñoz, es experto en Linux, Microsoft y virtualización. Santi ha sido formador de sistemas y seguridad informática y actualmente es consultor Senior de tecnologias Microsoft y VMware en el departamento de I+D de QoS IT Consulting

Number of Entries : 28

Comments (6)

  • Akuma

    Esto mismo es lo que yo he comentado en un post del foro hace un par de días sobre la experiencia del usuario ) como factor determinante a la hora de realizar migraciones existentes de infraestructuras.
    Sin embargo, el, como yo lo llamo, factor usuario es relativo, ya que esa “experiencia del usuario” viene condicionada por la “educación tecnológica” del usuario. Es decir, está claro que hay factores de rendimiento y de funcionamiento que afectan directamente a la productividad y que son realmente los que deben tenerse en cuenta. Que a un usuario se le de una “experiencia de usuario” sobredimensionada sólo tiene sentido si eso se va a aprovechar para algo, como por ejemplo que transfiera antes un archivo de gran tamaño para trabajar con él lo antes posible, en cambio si se consigue el esfuerzo de que ese fichero tarde la mitad en transferirse pero el usuario se va a tomar un café el mismo tiempo que antes, ese esfuerzo no habrá servido para nada.

    Respecto a si todo es virtualizable, desde el punto de vista técnico en lo que se refiere a la circuitería, operatividad y funcionamiento sí, sin duda. Sin embargo, yo creo que la pregunta es más bien “¿merece la pena virtualizar todo?”, respondiendo a esta pregunta la respuesta es desde luego que no. ¿Por qué? porque no todo lo que es susceptible de ser virtualizable es funcionalmente satisfactorio. Para que me entendais, a mi parecer existen cuatro tipos distintos de sistemas tecnológicos: los físicos (lo que es el producto original), los emulados (lo que es una copia exacta del funcionamiento del sistema físico pero en software), los simulados (los que imitan el funcionamiento del sistema físico pero sólo en aquellos puntos que son perceptibles para nosotros o para otros sistemas que interactuan con ellos. Un ejemplo de estos sistemas es la paravirtualización) y los virtualizados (los que utilizan partes emuladas y simuladas indistintamente para conseguir un fin).
    El problema está en por ejemplo, para que lo entienda todo el mundo, una Nintendo 3DS es susceptible de ser virtualizable porque se podría emular completamente, ahora, imaginemos que esa virtualización la desarrollan para una arquitectura que no es capaz de aprovechar la funcionalidad de la 3DS de modo satisfactorio, es decir, su movilidad, su pantalla en 3D, su pantalla tactil, etc. como por ejemplo pueda ser SPARC. Qué sentido tiene tener una Nintendo 3DS en un equipo SPARC o en un ordenador de escritorio, pues poco o ninguno por dos motivos: uno es el que he mencionado antes de la funcionalidad satisfactoria y el otro es que concretamente una de las características del fin o propósito que busca la virtualización es el retorno del esfuerzo o inversión en un periodo de tiempo corto. Nadie va a virtualizar algo que tenga que amortizar a largo plazo y menos en un mundo tan cambiante como lo es el tecnológico. Esto podría tener sentido por ejemplo para sistemas emulados, ya que el fin último de la emulación es conseguir una copia exacta del sistema físico, sin importar los tiempos, ya que mayormente la gente que hace emuladores lo que buscan es aprender como realizar una arquitectura física determinada en software (por supuesto también es gratificante que funcione). Y si un emulador de la 3DS se consigue que sea funcional en 2014 (cuando ya probablemente exista la Nintendo 3DSXXLPlusAlpha) puede que se pueda utilizar para algo que pueda tener una rápida amortización. El ejemplo lo tenemos en los emuladores de Playstation 1 que se venden para Android o iPhone, el esfuerzo es mínimo, porque simplemente lo que se hace es un port de un emulador ya existente hecho hace muchos años para otra plataforma, pero ¿quién a día de hoy usa Playstation 1 física? pues nadie o casi nadie.

    En resumen, que me lío y tampoco es cuestión de relatar devaneos mentales, yo creo que la pregunta clave es ¿merece la pena el esfuerzo de virtualizarlo?

    Responder
    • Santi

      Hola Akuma,

      Estoy completamente de acuerdo contigo en que la “experiencia de usuario” es relativa en terminos de si se debe o no virtualizar un sistema o servicio en particular. De hecho el ejemplo que has puesto de la nintendo DS me parece muy clarificador :).

      Sin embargo mi intención era “ir un paso más allá”, una vez resuelta la pregunta de la necesidad de virtualizar, y asumiendo una “experiencia de usuario”, ¿debemos ser capaces de adecuar la capacidad de nuestra infraestructura, o lo que llamaba “latencia de infraestructura”, según la demanda que tengamos? o mejor dicho ¿estamos usando la mejor métrica para medir el rendimiento de una infraestructura virtual?. El modelo de IT está cambiando enormemente gracias a la virtualización (y por dios que siga así :)), la cuestión que creo importante resolver es ¿debemos cambiar nuestra forma de medir (o “vigilar”) como de bien se comporta nuestra infraestructura virtual? Quizá la “experiencia del usuario” no sea una metrica válida o factible, pero si creo sinceramente que al menos hace falta una reflexión profunda en este punto.

      Un saludo y un placer como siempre leer tus comentarios :)

      Responder
      • Akuma

        Hombre, yo creo el responder a la pregunta de si algo se debe de virtualizar o no, significa que ya se ha contado previamente con la experiencia del usuario, medidas de rendimiento, etc. para determinar que es factible hacerlo. Si eso ya está hecho se virtualiza.
        Ahora bien, si se está en el proceso de respuesta a esa pregunta, midiendo el rendimiento de la infraestructura, latencias, etc. lo suyo es tomar como referencia el modo de funcionamiento de ese aparato en el mundo físico. Existen siempre unos baremos respecto a la calidad de servicio que determinan la viabilidad de que algo funcione de una determinada manera. Si el servicio virtualizado está fuera de esos valores que son considerados razonables para prestar un servicio, entonces se habrá de ajustar lo máximo posible la virtualización para entrar en dichos valores o directamente desechar su virtualización.

        Yo creo que si que estamos usando la mejor métrica, ya que siempre (al menos yo) comparamos respecto a un entorno no virtualizado y ponderamos los resultados.

        Salu2.

        Responder
        • Santi

          Si, ¿pero que ocurre si una vez que se ha optado por virtualizar nos encontramos con esta casuistica?, quiero decir, hemos estimado que un entorno es virtualizable porque la experiencia de usuario es (al menos) adecuada, y durante la operativa normal de la plataforma nos encontramos con una “latencia de la infraestructura” excesivamente alta… Mi pregunta es ¿como medimos esa latencia de la infraestructura? ¿son los contadores que usamos actualemente los suficientemente descriptivos como para medir la “experiencia del usuario”?.

          Mi reflexión no es tanto en si debemos medir o no, que creo que estamos todos de acuerdo en que debe ser así (y que de hecho se hace), sino si la métrica que usamos es la más adecuada para los entornos virtualizados. Por intentar ilustrar un poco más mi cuestión… ¿es posible medir un campo de futbol con un compás? (y disculpa la exageración del ejemplo). La respuesta evidente es que SI. Ahora bien a la pregunta, ¿es el compás la mejor herramienta (o metrica) para medir un campo de futbol? La respuesta esta claro que es NO.

          No digo con esto que las metricas que usamos en la actualidad sean “el compás pa’ medir el campo de futbol”, sino si nos hemos planteado la segunda cuestión. ¿estamos usando las métricas apropiadas? A lo mejor la respuesta es que SI, en ese caso perfecto, pero ya se ha hecho el trabajo de reflexión que entiendo que es necesario de vez en cuando.

          Y cuando digo la “mejor métrica”, no digo que compararlo con entornos no virtualizados no sea lo más adecuado, sino que una vez virtulizado el entorno, ¿como mido el rendimiento, el tiempo que tarda en ejecutar una operación cuando se hace un click de ratón (por poner un ejemplo), de una aplicación?. Aunque pueda parecer una “salvajada” medir todas esas interacciones con el usuario, creo que ahora mismo no se hacen las medidas “orientadas a la aplicación” (y de aquí deriva el concepto de “latencia de la infraestructura”), sino “orientadas a la plataforma”.

          Un saludo

          Responder
  • Ruben Ortiz

    Hola

    pues no está de más hacer esta reflexión. Sobretodo cuando, de vez en cuando, te en encuentras con supuestas estrellas del sector, afamados CTOs o directores de proyecto con muy buena imagen en su mundo, que te cuestionan una y mil veces si la virtualización es una opción viable. He tenido que llegar a excusarme por proponer esta práctica para proyectos de bastante calado, porque los desarrolladores no veían clara esa línea. Lo que demuestra que, muchas veces, esta pregunta que haces no es en vano. Hay quien todavìa no lo entiende.

    El esfuerzo en virtualizar vale la pena. Para mi no hay discusión.

    Si hay otros que prefieren el viejo estilo, de tener hosts hiperdimensionados que hacen a la vez de servidor web, de servidor de estático, de cluster de bbdd, pues…que se le va a hacer. Conmigo que no cuenten :)

    Saludos

    Responder
  • Santi

    Hola Ruben,

    tristemente tengo que darte la razón. Y digo tristemente no porque no esté de acuerdo contigo, que sin duda lo estoy, sino precisamente por esto. En demasiadas ocasiones me he visto, como tu bien comentas, en esas mismas situaciones en las que poco menos te tachan “de loco” por querer virtualizar. Sin embargo creo firmemente que esas posturas suelen venir devilmente (la falta de ortografía la he cometido a propósito :)) fundamentadas por el desconocimiento o el miedo a las nuevas tecnologías, por lo que es casi nuestra “obligación” poner a disposición de estos compañeros de profesión la información necesaria para que se despejen estas dudas.

    Afortunadamente siempre existiran detractores de las nuevas iniciativas y de las nuevas tecnologías. Y digo afortunadamente porque son precisamente los escollos los que hacen que nos replanteemos las cosas, que veamos nuevas aproximaciones a problemas existentes, o directamente nuevos problemas que antes no veíamos y que todo esto no deje de traducirse en mejoras continuas. Todo esto evidentemente si el enfrentamiento de posturas se realiza desde el respeto, y entiendo que en la mayoría de los casos así es.

    De cualquier modo estoy contigo Ruben en que virtualizar merece la pena :)

    Un saludo y gracias por tu comentario

    Responder

Leave a Comment

VMware vSphere nuestros nuevos cursos de formación oficial VMware a un precio increíble:

Una Web de JmgVirtualConsulting empresa especializada en formación Oficial VMware y servicios de Virtualización | Copyrights © 2014

Scroll to top