Un mapa es una herramienta útil. Puede ayudarle a entender dónde estamos, dónde planeamos estar y cómo llegar hasta allí. Sin embargo, también está limitado por la forma en que entendemos el mundo. El Hereford Mappa Mundi, por ejemplo, era una obra de arte cuando se construyó alrededor del año 1300 DC. Sin embargo, hoy en día, acostumbrados a las vistas desde el espacio, Google Earth y mapas 3D, parece anacrónico.

Para los equipos de TI, la visibilidad de los activos de TI puede suponer un problema similar. Cuando todos los activos de TI estaban en una red de la empresa en un único centro de datos y vivían en escritorios específicos, obtener una visión de todos estos elementos en un solo lugar era sencillo. Hoy en día, con más activos en la nube y más puntos finales móviles que nunca, lo que era efectivo en el pasado ya no es tan útil. La visibilidad debe ser dinámica. Cualquier enfoque que no ofrezca visibilidad de todos los activos de TI es anacrónico y no funcionará de forma eficaz. 

Visualización de la TI local en contexto

Para los centros y redes de datos tradicionales, el reto es ganar visibilidad sobre todo el volumen de activos de TI implicados. En el pasado, los administradores de empresas gestionaban 1:1.000 dispositivos, hoy gestionan 1:10.000 dispositivos y en el futuro -con el crecimiento explosivo de la IoT- gestionarán 1:100.000 dispositivos. En este entorno, la visibilidad implica mirar a través de todos los servidores, clientes y dispositivos de red y seguridad. 

Para complicar aún más las cosas, todos estos dispositivos y activos ejecutarán una variedad de software del sistema operativo, dependiendo de su actualización. Hay potencial para diferentes plataformas de sistemas operativos, diferentes versiones de los respectivos sistemas operativos y plataformas de sistemas operativos específicas de dispositivos, como por ejemplo, distribuciones Linux personalizadas para teléfonos IP y dispositivos IoT. 

Además, la virtualización sigue siendo un estándar de facto en la mayoría de los centros de datos, ya que proporciona una mayor agilidad y flexibilidad a la hora de instanciar nuevos servidores y responder a las demandas del negocio. Por si fuera poco, la virtualización también puede extenderse a los escritorios, donde los clientes finales pueden ser representados y puestos a disposición para un acceso rápido.

Obtener una visibilidad dinámica centralizada es un reto y gestionar todos estos activos es un reto aún mayor, pero obtener una visibilidad continua y global a través de dispositivos y activos heterogéneos, y un número cada vez mayor de ellos, es extremadamente importante. Del mismo modo que un mapa preciso es fundamental para varias tareas, como navegar del punto A al punto B y delimitar el territorio, la visibilidad en TI es un requisito fundamental para muchos procesos e iniciativas de TI. La visibilidad facilita la verdadera comprensión del riesgo, impulsa la eficiencia y la reducción de costes y garantiza el cumplimiento. De hecho, la mayoría de los marcos de seguridad y cumplimiento requieren un inventario completo y actualizado como primer requisito.

Cada plataforma necesita tender a evitar problemas que se desarrollen con el tiempo y a asegurar que las máquinas no sean vulnerables. Esto implica comprender los procesos que deben seguirse para mantener actualizado cada conjunto de activos. 

Por ejemplo, ¿cómo identificar y desmantelar el software al final de su vida útil o al final de la venta? Del mismo modo, ¿cómo saber que las instalaciones de software se han desmantelado porque eran demasiado vulnerables a los problemas y se han eliminado de esas imágenes de la máquina? ¿Cómo priorizar la solución de esta situación, en función de la exposición real y la explotabilidad de la superficie vulnerable? En primer lugar, ¿cuánto tiempo necesita para darse cuenta de esta situación?

Todas estas preguntas se aplican a los activos que se despliegan -desde escritorios y dispositivos hasta servidores y máquinas virtuales- cada uno tendrá su propio método de implementación y un conjunto de imágenes estándar, que deberán ser mantenidas y actualizadas. Estos dispositivos también necesitarán ser escaneados en busca de nuevos problemas o variaciones con el tiempo. Al reunir la información sobre todos estos conjuntos de activos fijos en un solo lugar, se puede facilitar el proceso. La elaboración de listas de activos utilizando estos datos (y la actualización continua de las mismas) también puede facilitar la gestión de las prioridades en torno a los cambios y los problemas de seguridad.

Nube, contenedores y contexto

Sin embargo, al igual que los mapas tienen que cambiar basándose en nuevas formas de crear o manejar datos, la TI también está evolucionando rápidamente. Este año, IDC aseguró que la inversión en infraestructura de cloud computing ha superado por primera vez a la de hardware de TI tradicional, informando que en el tercer trimestre del año los ingresos de los proveedores procedentes de las ventas de productos de infraestructura de TI en entornos de cloud computing han superado a los ingresos de las ventas en entornos de TI tradicionales, frente al 43,6% del año pasado.

La adopción de la nube es una sutil expansión de la forma en que las empresas deben abordar la TI, aprovechando la potente y flexible infraestructura disponible bajo demanda. Sin embargo, no es posible transponer simplemente los enfoques tradicionales de gestión a la nube y esperar el éxito. Incluso el traslado de las aplicaciones existentes a la nube implicará el uso de diferentes plataformas y la implementación de nuevas herramientas para gestionar esos servicios.

Junto a los despliegues más sencillos habrá nuevas aplicaciones basadas en la nube que aprovecharán los nuevos servicios. Las aplicaciones se despliegan a menudo sobre la base de microservicios, lo que implica desensamblar las aplicaciones tradicionales en sus componentes: almacenamiento, lógica de aplicaciones, funciones, redes, balanceo de carga, bases de datos, gestión de identidades y accesos, etc.

Cada uno de estos elementos deberá ser gestionado y actualizado. Además de esta visibilidad, hay otras preguntas adicionales que deben ser respondidas. Por ejemplo, ¿cómo se puede saber dónde y cuándo se instancian estas partes? ¿Cómo gestionar su seguridad? ¿Cómo añadir este universo expandido al enfoque actual? Mientras que la TI local podría mapearse a través de implementaciones de agentes tradicionales y análisis de red pasivos de forma regular para realizar un seguimiento de los cambios, estas técnicas tienen que evolucionar para seguir el ritmo de las implementaciones de cloud computing, que pueden cambiar con mucha más frecuencia.

Junto a la nube, existe otro enfoque cada vez más popular. La contenedorización implica el uso de envoltorios de software más pequeños y dedicados para reunir y construir todos los elementos necesarios. En lugar de incluir sistemas operativos completos, los contenedores incluyen sólo lo que se necesita para ejecutar el componente de aplicación específico y nada más. Limitar el contenedor de esta manera lo hace más pequeño y más eficiente, mientras que la capacidad de ejecutar múltiples contenedores uno al lado del otro puede ayudar a que las aplicaciones se amplíen cuando necesitan más energía. 

Los contenedores pueden, por lo tanto, satisfacer las demandas empresariales de agilidad, mayor flexibilidad y potencia bruta. Sin embargo, pueden disminuir potencialmente la visibilidad en torno a lo que se despliega y dónde. Por ejemplo, la capacidad de responder rápidamente a los picos y altibajos de la demanda puede ayudar enormemente cuando hay muchos clientes que usan sus aplicaciones al mismo tiempo. Por el contrario, esta infraestructura efímera puede ser difícil de rastrear. Las propias imágenes necesitan ser actualizadas, y cualquier remedio debe ser gestionado a lo largo del tiempo. Rastrear esto es aún más difícil, ya que las instancias pueden ir y venir únicamente en función de la demanda.

Para las implementaciones en nube y en contenedores que se ejecutan de forma continua, proporcionar información de gestión sobre las instalaciones, por lo tanto, implica observar lo que está ocurriendo de forma continua también. Al obtener información sobre las actividades que se llevan a cabo en todo momento, el departamento de TI puede controlar cualquier activo que esté en funcionamiento y si está actualizado. Y lo que es más importante, esta información debe colocarse en el mismo lugar que cualquier dato sobre los puntos finales tradicionales o los activos de TI locales, de modo que se pueda generar una imagen completa de los activos de TI. Esto proporciona contexto sobre cualquier problema que surja y ayuda a trazar un mapa de las actualizaciones que deben implementarse primero en función de las prioridades del negocio y de las TI.

About Author

Raúl Benito

Territory Account Manager de Qualys para España y Portugal

Deja un comentario