Alerta !
Durante años hablamos de inteligencia artificial como una herramienta.
Después, como un asistente.
Ahora estamos entrando en una fase distinta, incómoda y mal entendida: agentes de IA que interactúan entre sí, toman decisiones y coordinan acciones sin supervisión humana directa.
La noticia que circula, más de 1,6 millones de agentes uniéndose a plataformas como Moltbok, no es anecdótica. Es una señal débil que muchos ejecutivos todavía están ignorando.
Y eso es peligroso.
El error conceptual que estamos cometiendo
La mayoría de las organizaciones sigue evaluando la IA con lentes viejos:
- ¿Reduce costos?
- ¿Aumenta productividad?
- ¿Automatiza tareas?
Esas preguntas ya quedaron chicas.
El verdadero cambio no es que la IA haga más cosas, sino que empiece a coordinarse sola. Cuando los agentes conversan entre ellos, negocian, se corrigen o se optimizan mutuamente, el sistema deja de ser una herramienta y pasa a comportarse como un ecosistema.
Y los ecosistemas no se controlan con dashboards.
De asistentes a actores operativos
Un agente que:
- Llama a un restaurante,
- Agenda una mesa,
- Coordina con otros agentes,
- Ajusta decisiones en función del contexto,
ya no está “asistiendo” a una persona.
Está actuando en su nombre.
Eso tiene implicancias profundas en banca, seguros, retail, salud y sector público:
- ¿Quién responde si el agente toma una mala decisión?
- ¿Dónde queda la trazabilidad?
- ¿Cómo se audita una conversación entre máquinas?
- ¿Qué pasa cuando optimizan entre ellas algo que no estaba en el objetivo original?
Este no es un escenario futurista. Ya está pasando.
El riesgo que casi nadie está modelando
En la mayoría de los comités de riesgo, la IA sigue apareciendo, si aparece, como “riesgo tecnológico”.
Ese encuadre es insuficiente.
Los agentes autónomos introducen al menos cuatro riesgos nuevos:
- Riesgo de comportamiento emergenteNo programado, no previsto, no testeado.
- Riesgo de delegación implícitaDecisiones que nadie aprobó formalmente, pero que ocurren igual.
- Riesgo de opacidad operativaNo hay logs humanos, hay diálogos máquina-máquina.
- Riesgo reputacional aceleradoUn error se escala solo, sin fricción.
Si esto no entra en el mapa de riesgos, no existe para el comité.
Y si no existe, no se gobierna.
No es miedo, es gobernanza
Aclaremos algo. Esto no va de frenar la innovación.
Va de entender en qué momento una tecnología deja de ser una herramienta y se convierte en un actor.
Las organizaciones maduras no preguntan “¿podemos usarlo?”, sino:
- ¿Dónde lo dejamos actuar?
- ¿Con qué límites?
- ¿Con qué evidencia mínima exigible?
- ¿Con qué capacidad de apagado real?
Hoy, muchas empresas están desplegando agentes sin:
- pruebas de control,
- simulaciones de falla,
- test de manipulación,
- planes de rollback.
Eso no es transformación digital. Es irresponsabilidad.
La pregunta incómoda que viene
Cuando un agente de IA hable con otro agente y ambos optimicen algo que impacta clientes, dinero o reputación, ¿quién va a levantar la mano?
El CIO ya no alcanza.
El área de innovación tampoco.
Esto es agenda de CEO y de directorio.
Porque cuando las máquinas empiezan a hablar entre ellas, el silencio humano es la mayor falla de control.
Si este tema te incomodó, hablemos
Diego San Esteban