verdades de la virtualización

No hay ninguna duda de que la virtualización se ha convertido en una opción muy popular en la industria IT y la principal razón probablemente sea su capacidad de rendimiento y su versatilidad.

Un poco de historia sobre la virtualización

Según el sitio web oficial de VMware, la práctica de la virtualización comenzó en la década de 1960, cuando IBM intentó mejorar la segmentación de los computadores centrales o mainframes en un esfuerzo por mejorar  la utilización del CPU. El resultado final fue un mainframe que  podría llevar a cabo varias operaciones de forma simultánea. Con el inicio de la década de 1980 y 90, la arquitectura x86 se convirtió en la arquitectura escogida, mientras la “computación distribuida” comenzaba a tomar fuerza dentro de la industria TI. La proliferación de la arquitectura x86 efectivamente causó un éxodo masivo a la virtualización y el modelo cliente-servidor comenzó un rápido aumento en su popularidad.

En 1998, VMware fue fundada por un grupo de investigadores de la Universidad de California, que trataban de resolver algunas de las deficiencias de la arquitectura x86. Entre estas deficiencias era conocido el uso insuficiente de la CPU, pues los promedios de utilización de CPU eran de entre 10% y 15% de su capacidad total. Una de las principales razones detrás de esto,  se encontraba en la práctica común de ejecutar  un servidor por CPU para aumentar el rendimiento de cada servidor individual. Esto hizo aumentar el rendimiento, pero a costa de la eficiencia del hardware.

Las ventajas de la virtualización

No hay ninguna duda de que la virtualización se ha convertido en una opción muy popular en la industria IT, pero ¿por qué? Algunas de las más obvias razones implican un incremento en el uso de la CPU, el aumento de la utilización del espacio, y la capacidad de estandarizar la configuración de un servidor. En cuanto a la utilización de la CPU, más servidores en una sola máquina física se traduce normalmente en más trabajo para la CPU. Así que en vez de recibir todo el tráfico Web en una máquina, todo el tráfico SMTP en otra máquina, y todo el tráfico FTP en otro, es posible recibir todo el tráfico mencionado en una máquina física, lo que aumenta el uso de la CPU. Sin embargo, hacer esto con éxito implica el uso de un margen de discreción en la colocación de múltiples máquinas virtuales en una máquina para alojar, pues hay un potencial escenario de que disminuye el rendimiento.

El uso de la CPU que proporciona la virtualización, afecta indirectamente el uso de espacio. Teniendo en cuenta el escenario antes mencionado, donde varios servidores se colocan en una máquina física, es lógico pensar que con la virtualización, se necesitan menos máquinas físicas y eso da como resultado que menos espacio es consumido.

Desventajas de virtualización

La mayoría de las desventajas establecidas en cuanto a virtualización se refieren principalmente a  la seguridad. La primera, y quizás lo más importante desventaja implica el concepto de punto único de fallo. En pocas palabras, si el servidor web de una organización, servidor SMTP o cualquier otro tipo de servidor están todos en la misma máquina física, un hacker sólo necesitaría realizar un ataque de denegación de servicio en la máquina para desactivar varios servidores.

Que se caiga el servidor de una organización es devastador en si mismo, pero que se caigan varios puede ser catastrófico.

En segundo lugar, una práctica de seguridad común es colocar un sistema de detección de intrusiones (IDS). Si está bien configurada, esta puede ser una herramienta útil para estudiar las tendencias y otras actividades dentro de la red. Sin embargo, este es casi imposible en un entorno virtualizado donde varios sistemas operativos se colocan en una máquina, debido al hecho de que  los sistemas de detección de intrusión sólo son capaces de monitorear interfaces de red físicas. En otras palabras, el IDS funciona a las mil maravillas al supervisar la entrada y salida del tráfico en la interfaz de red física, pero cuando el tráfico se está moviendo entre los servidores virtuales, el IDS sólo oye los grillos en el bosque.

La mayoría de los esfuerzos de las empresas para mantenerse a flote tecnológicamente ha dado a luz una sed insaciable de más capacidad y mayor rendimiento. Por lo mismo, no debería sorprender que la virtualización se haya convertido rápidamente en un elemento básico de la administración de sistemas. Hasta que una nueva innovación en arquitectura de CPU tome al mundo TI por sorpresa, la virtualización continuará considerándose como un  infaltable en cualquier red IT respetable.

Periodista en Hostname (www.hn.cl)

Visita mi perfil en Google Plus