Ayer, gran parte de la Ciudad Autónoma de Buenos Aires y el Conurbano quedó sin luz. No fue la primera vez, y no será la última. Hasta ahí, un evento externo, conocido y perfectamente modelable desde gestión de riesgos.
Lo que sí fue llamativo, y preocupante, fue otra cosa.
La cadena de farmacias más importante de Buenos Aires tenía luz, pero no tenía sistemas. Resultado, no podía vender medicamentos. No por falta de stock, no por falta de personal, sino porque los sistemas estaban caídos. Tampoco funcionaba la app de una de las empresas distribuidoras de energía, justo cuando más necesitaban comunicarse con sus clientes,
Esto no es un problema de electricidad.
Es un problema de disaster recovery mal pensado y de mapa de dependencias tecnológicas incompleto.
Tener luz no es tener continuidad operativa
En gestión de riesgos solemos cometer un error clásico, confundir infraestructura con operación. Tener energía no garantiza continuidad del negocio. Tener data centers, cloud o backups tampoco.
La pregunta correcta nunca fue “¿tenemos DRP?”, sino:
¿Qué procesos críticos dependen de qué servicios? ¿Qué pasa si la energía vuelve pero la conectividad no? ¿Qué pasa si el core funciona pero el punto de venta no puede autenticar ni facturar?
En el caso de una farmacia, la venta de medicamentos no es un proceso accesorio. Es crítico, sensible y, en muchos casos, vital. Que ese proceso dependa de una única vía de conectividad es una falla de diseño, no un accidente.
El riesgo no estaba en el corte, estaba en la dependencia
Un corte masivo es un escenario base en cualquier análisis serio de impacto en el negocio. No es un cisne negro. Es un evento recurrente, histórico y previsible en Argentina.
La verdadera falla está en no haber identificado dependencias simples y baratas de mitigar:
¿Cuánto cuesta un módem 4G o 5G por sucursal? ¿Cuánto cuesta una línea de respaldo con failover automático? ¿Cuánto cuesta comparado con horas sin vender medicamentos?
Estamos hablando de decisiones que no requieren grandes inversiones, sino criterio de riesgo. Y, sobre todo, de entender que la conectividad hoy es tan crítica como la energía.
Disaster Recovery no es solo data center
Muchos DRP están bien escritos, bien auditados y perfectamente inútiles en la práctica. Porque se concentran en sistemas centrales y se olvidan del último eslabón, el que factura, atiende al cliente y ejecuta el negocio.
Un DRP que no contempla:
sucursales, puntos de venta, conectividad alternativa, operación manual controlada,
no es un plan de recuperación, es un documento de cumplimiento.
Lo mismo aplica a las empresas de servicios. Si la app de atención al cliente cae justo durante un evento masivo, el problema no es solo técnico. Es de diseño de escenarios y priorización de riesgos.
El verdadero apagón fue de criterio
Ayer no falló la tecnología más avanzada. Falló lo básico:
análisis de impacto en el negocio, mapa de dependencias reales, decisiones simples de mitigación.
El riesgo no estaba oculto. Estaba a la vista.
Y cuando el riesgo es obvio y no se mitiga, deja de ser riesgo para convertirse en mala gestión.
La continuidad operativa no se prueba en auditorías, se prueba en días como ayer. Y ayer quedó claro que muchas organizaciones siguen creyendo que tener luz es lo mismo que poder operar.
No lo es. Y el costo de aprenderlo en tiempo real siempre es más alto que el de haberlo previsto.
Soy Diego San Esteban y te dejo pensar tranquilo. Cualquier inquietud o debate me escribes