Virtualización, lo que se viene

Escribe Manuel
Sabariz


Está será una nota netamente técnica, así que prepárense para algunos conceptos más o menos
estrictos. Sin embargo vamos a intentar que esta nota pueda ser entendida con conocimientos medios de computación.

Hace más de 10 años que apareció en el mercado el software de virtualización, un tipo de programas que permitía hacer un ?computadora
virtual? dentro de una computadora real.

¿Y para que servía eso? Bueno, uno de sus mayores usos es en la prueba de aplicaciones, sistemas operativos, software de servidores,
etc.

El tema es así, si Ud. desea probar una aplicación cualquiera y la instala en la PC, puede pasar que tenga tantos problemas que
termine arruinando a su PC. Esto es, más o menos habitual en las versiones de software llamadas alfa y beta, o sea que todavía están
en la etapa de evaluación y corrección de errores y, por lo tanto, no se han liberado al público.

Lamentablemente hay muchas ocasiones en que algunas herramientas deben ser evaluadas por el área IT ni bien se tiene la primera
versión liberada por el fabricante del software, dado la posible importancia que puede tener para el negocio de la compañía.

Muy bien, el profesional a cargo de la evaluación instala la aplicación y ésta es todavía tan inestable que le destruye a la PC o
servidor de prueba.

Esto significa que lo obligue a instalar desde el sistema operativo hasta las aplicaciones que usualmente el equipo tiene.
O sea unos días de trabajo si el equipo se utiliza con una buena cantidad de software.

Por otro lado si se necesita evaluar más de una aplicación, se debe utilizar un equipo por cada una de estos aplicativos. Sino no se
sabe si interfieren entre si o cual de las aplicaciones produce las fallas.

Para eso se utilizaba, y utiliza, la virtualización. Si el software instalado en el equipo produce una falla catastrófica, solo
destruye la ?computadora virtual?. Dejando al equipo original intocado.

Para entender como funciona esto, veremos que es la estructura de una computadora actual (PC o servidor).

En la figura que encabeza este artículo se distinguen tres capas

La de abajo es el hardware, o sea ?el fierro?. La máquina misma.
Sobre este hardware corre el sistema operativo (Windows, Linux, Unix, OS X, etc.) que es el encargado de que la máquina funcione y nos
deje correr las aplicaciones.

Encima del sistema operativo corren las aplicaciones. Como se puede observar, las aplicaciones no pueden acceder al hardware
directamente, solo lo hacen por medio del sistema operativo. En el caso de Windows, esto es cierto para NT, 2000 y XP, las versiones
9x si permitían el acceso de las aplicaciones al hardware (tal vez empiecen a entender por que se colgaban tanto).

Cuando se instala el software de virtualización el esquema es el que se aprecia -abajo, al finalizar esta nota- en la figura 2.

O sea que una aplicación es el software de virtualización.

Este software se comporta como un nuevo hardware que permite que se le instale encima otro sistema operativo, que a su vez permite que
se instalen sobre él las aplicaciones.

Como se ve claramente, ante una colgadura fatal de las aplicaciones instaladas que arruinen al sistema operativo, solo se dañará al
sistema virtual y no al resto del equipo.

Formalmente para la PC o servidor real, la virtualización no es más que un archivo en el disco rígido, con que lo más grave que puede
pasar es que halla que tirarlo y se acabaron los problemas.

El tema que todo lo explicado hasta ahora está cambiando. Las nuevas generaciones de procesadores incluyen instrucciones de
virtualización y que permiten que la estructura cambie críticamente.

Esto es que la virtualización se realice según el gráfico 3, al final de esta nota.

O sea que el software se coloca entre el hardware y el sistema operativo y, desde esa posición comienza el proceso de virtualización o
de creación de varios hardwares virtuales.
Dicho de otro modo se crean varias computadoras virtuales a partir de una real, con solo instalar el software de virtualización.
Aunque no parezca una gran cosa, este cambio es radical.
Primero vemos que la ?capas? se redujeron dramáticamente, lo que significa que tenemos mucho menos software al que hay que atender y
que reduce la potencia del equipo.
Ya no tenemos el hardware, encima el Sistema operativo, encima de este la aplicación de virtualización, por encima el nuevo sistema
operativo y por último la aplicación.
Acá solo se agrego una capa a la estructura original de la computadora, lo que redunda en la eficiencia del equipo.
Este incremento en la capacidad permitirá realizar lo conocido como ?consolidación de servidores?.
¿Y que es esto? Supóngase que en un departamento de IT tienen un servidor para imprimir, otro para e-mail, otro para file Server, etc.
O sea que dan una serie de servicios dentro de la organización y cada servicio requiere un servidor independiente.
Normalmente esta configuración implica que algún servidor este netamente subutilizado, otro se utilice al 50% y otro al 80%. Además
cuantos más equipos físicos a mantener, más trabajo de mantenimiento y mayor posibilidad de fallas tenemos dado que hay un mayor
número de componentes involucrados (procesadores, discos, memoria, etc.).
Otro problema es el back-up de servicios, lo que obliga a mantener un duplicado físico de los servidores si necesitamos el o los
servicios siempre activos.
Por último, y no menor, tenemos los problemas de espacio físico, calor y consumo eléctrico.
Por ejemplo, hoy en día hay una gran cantidad de empresas que tienen servicios sobre servidores con procesadores del tipo Pentium III
o equivalente y que, por las prestaciones y necesidades de capacidad de cómputo que estas tienen, no tiene sentido migrar hacia un
nuevo equipo.
O sea que pueden haber tres, cuatro, cinco o más servidores con diversos servicios y que esta tecnología les permitirá a realizar
migrar todos esos servicios a un solo servidor con un procesador de doble núcleo y con sobrante de capacidad.
Desde ya que el software de virtualización se puede configurar para determinar la cantidad de recursos que se le da a cada equipo
virtual, con lo que funcionan exactamente como equipos independientes y más pequeños que el equipo físico.
O sea que podemos reducir una serie de servidores de varios a uno solo (dos si consideramos en back-up), con lo que reducimos la carga
de trabajo, costos, espacio, consumo eléctrico y calor.
Creo que no es poco ¿no?
Solo queda una duda, por ahora teórica, y que es ¿Qué va a pasar cuando esa nueva capa, la capa de virtualización, sea atacada por
virus?
Sin embargo las ventajas son tan claras que en pocos años más vamos a ver la virtualización con total habitualidad.
Para los que estén interesados en profundizar el tema pueden ver los siguientes links:

VMWare

Microsoft Virtualización

Hasta la próxima

Dejar un comentario