¿Situaciones de crisis tecnológicas como el apagón de España podrían seguir sucediendo?

Las vulnerabilidades en los sistemas TI y la posibilidad de corregirlas antes con el uso del software de código abierto ya que el código fuente está disponible lo que permite que especialistas independientes y comunidades globales revisen, prueben y mejoren continuamente su funcionalidad.
Recientemente hemos vivido situaciones de crisis en todo el mundo debido a la infraestructura TI, tanto de empresas como de gobiernos, el caso más reciente y más mediático fue el apagón en España, donde hubo una interrupción generalizada del suministro eléctrico en la zona peninsular, Portugal continental, y Andorra, así como zonas del sur de Francia, esto afectó a más de 50 millones de personas, con dificultades severas en las telecomunicaciones y el sistema de transporte. Si bien este hecho no generó componentes catastróficos, sucesos derivados del apagón cobraron la vida de 8 personas.
La infraestructura TI se refiere al conjunto de recursos físicos y virtuales que periten a una organización operar y gestionar sus sistemas de información; incluye hardware, software, redes de servicios necesarios para el procesamiento, almacenamiento y transmisión de datos. Su correcta gestión es crucial para la eficiencia y el éxito de cualquier empresa en la era digital.
Ante este panorama, El Economista platicó con Luciano Alves, CEO de Zabbix LATAM experto en infraestructura de TI y en México cuenta con el Centro de Control Nacional de Energía como cliente, por lo que escuchar su opinión respecto a sucesos de esta naturaleza se vuelve una guía para entender cómo prepararnos, como grandes usuarios, pero también a nivel individual.
—¿Qué se encuentra detrás de las caídas de sistemas como las de Microsoft o apagones masivos como en España y Portugal a nivel tecnológico?
Eventos como caídas globales de sistemas o apagones de gran escala suelen ser consecuencia de la falla en alguno de los tres pilares fundamentales de la tecnología: herramientas, procesos y personas. En entornos altamente digitalizados, contar con tecnología robusta no es suficiente. Se requiere que los procesos estén claramente definidos, alineados con los objetivos del negocio, y que las personas estén capacitadas para operar las herramientas y responder ante crisis. Cuando uno de estos pilares falla —ya sea por una herramienta desactualizada, un proceso ineficaz o un error humano—, el sistema puede colapsar. No todo es necesariamente una falla atribuible únicamente a la tecnología. El desafío está en la orquestación efectiva de estos tres elementos para garantizar la resiliencia operativa.
—¿Es posible proteger la infraestructura de TI para evitar vulnerabilidades que afectan a millones de personas? ¿Cómo?
Sí, es totalmente posible proteger la infraestructura de TI y prevenir la mayoría de los problemas operativos, siempre que exista una cultura sólida de monitoreo y análisis de datos en tiempo real. Todo sistema tecnológico genera señales constantemente —logs, métricas de rendimiento, alertas de fallos—. La pregunta es: ¿estamos preparados para interpretar esas señales y actuar con anticipación? Con herramientas adecuadas, como plataformas de observabilidad y monitoreo inteligente, es posible no solo reaccionar rápidamente ante fallas, sino anticiparse a ellas. La clave está en construir una base de datos sólida sobre el comportamiento normal de la infraestructura y detectar desviaciones que indiquen posibles anomalías. Es la diferencia entre ser reactivo y ser proactivo.
—¿La complejidad de la infraestructura de TI es parte del problema de vulnerabilidades?
La creciente complejidad de la infraestructura de TI no es en sí un problema, sino una característica natural del entorno digital actual. El aumento de sistemas, integraciones y plataformas responde a la demanda de mayor agilidad, personalización e innovación. El desafío surge cuando no hay una gestión adecuada de esa complejidad. Sin una estrategia clara, puede traducirse en riesgos. Sin embargo, con planificación estratégica y equipos capacitados, esa complejidad puede transformarse en una ventaja competitiva. El uso de consultorías especializadas, soluciones modulares y la capacitación continua son prácticas clave para navegar este entorno de forma segura.
—¿Qué diferencia existe entre sistemas de código abierto y licenciados en la infraestructura tecnológica?
La diferencia principal entre software de código abierto y licenciado radica en el modelo de negocio, no necesariamente en la calidad o seguridad de la tecnología. El software open source, cuando es desarrollado y mantenido por empresas serias —como es el caso de Zabbix—, puede ser tan seguro o incluso más que las soluciones propietarias. Su gran ventaja es la transparencia: el código está disponible para ser auditado por cualquiera, lo que multiplica la capacidad de identificar fallos o vulnerabilidades. Además, la comunidad open source suele ser más amplia y activa, lo que impulsa mejoras constantes y respuestas rápidas ante incidentes. En cambio, el software propietario depende exclusivamente del equipo interno del proveedor. En ambos casos, lo que realmente determina la seguridad es la seriedad de la empresa que desarrolla, mantiene y da soporte a la solución.
—¿Está suficientemente generalizado el monitoreo de infraestructura de TI?
El monitoreo de infraestructura de TI es un pilar clave en la prevención de crisis. Sin embargo, aún es común encontrar implementaciones superficiales, enfocadas únicamente en indicadores básicos como disponibilidad de red o estado de servidores. El verdadero valor del monitoreo radica en su capacidad de correlacionar datos de múltiples fuentes para generar insights sobre el comportamiento de los sistemas.
Es crucial cruzar información de infraestructura con indicadores de experiencia del usuario, por ejemplo. Solo así se puede comprender el impacto real de una falla y actuar con precisión. Aunque su importancia es clara, el uso avanzado del monitoreo aún no está lo suficientemente extendido, especialmente en organizaciones sin una cultura de TI consolidada. Es común ver empresas que no aprovechan al máximo sus herramientas, ya sea por exceso de plataformas, mal uso, falta de capacitación o servicios contratados en el “mercado gris”, ofrecidos por empresas sin vínculo alguno con los fabricantes, lo que compromete la garantía y seguridad de la operación.
—Dado que CENACE en México usa Zabbix para monitorear parte de su infraestructura de TI, ¿es posible un apagón masivo como el de España en México?
Ninguna herramienta, por más poderosa que sea, puede por sí sola evitar incidentes. El uso de Zabbix por parte de CENACE es un excelente ejemplo de cómo el monitoreo puede integrarse en procesos críticos. Pero su eficacia depende de cómo se configure, supervise y utilice dentro del contexto de los procesos y por las personas adecuadas. La clave está en tratar los incidentes desde su causa raíz y no solo sus síntomas. Si un evento crítico no es analizado y corregido adecuadamente, puede repetirse o combinarse con otros eventos menores y escalar a una crisis mayor. Lo que sí se puede y debe hacer es trabajar de forma preventiva, mitigando al máximo los riesgos mediante una buena gobernanza de TI.
—Con el avance de la IA, ¿las infraestructuras de TI se vuelven más vulnerables o puede esta tecnología ayudar a detectar riesgos a tiempo?
La inteligencia artificial es una aliada poderosa en la gestión de infraestructura de TI. Aumenta la capacidad humana al analizar grandes volúmenes de datos con rapidez y precisión, identificando patrones y anomalías antes de que causen impacto. Con IA, tareas que antes requerían horas de análisis manual pueden realizarse en segundos. No obstante, es esencial que su uso esté alineado con procesos bien definidos y que haya supervisión humana. La IA ofrece recomendaciones basadas en probabilidades, pero la decisión final debe estar en manos del operador. Bien implementada, la IA no hace a los sistemas más vulnerables; al contrario, fortalece su resiliencia, mejora la toma de decisiones y acelera la respuesta ante crisis.
Eleconomista