2–3 minutos

Cuando los agentes de IA empiezan a hablar entre ellos, el problema ya no es técnico

Alerta !

Durante años hablamos de inteligencia artificial como una herramienta.

Después, como un asistente.

Ahora estamos entrando en una fase distinta, incómoda y mal entendida: agentes de IA que interactúan entre sí, toman decisiones y coordinan acciones sin supervisión humana directa.

La noticia que circula, más de 1,6 millones de agentes uniéndose a plataformas como Moltbok, no es anecdótica. Es una señal débil que muchos ejecutivos todavía están ignorando.

Y eso es peligroso.

El error conceptual que estamos cometiendo

La mayoría de las organizaciones sigue evaluando la IA con lentes viejos:

  • ¿Reduce costos?
  • ¿Aumenta productividad?
  • ¿Automatiza tareas?

Esas preguntas ya quedaron chicas.

El verdadero cambio no es que la IA haga más cosas, sino que empiece a coordinarse sola. Cuando los agentes conversan entre ellos, negocian, se corrigen o se optimizan mutuamente, el sistema deja de ser una herramienta y pasa a comportarse como un ecosistema.

Y los ecosistemas no se controlan con dashboards.

De asistentes a actores operativos

Un agente que:

  • Llama a un restaurante,
  • Agenda una mesa,
  • Coordina con otros agentes,
  • Ajusta decisiones en función del contexto,

ya no está “asistiendo” a una persona.

Está actuando en su nombre.

Eso tiene implicancias profundas en banca, seguros, retail, salud y sector público:

  • ¿Quién responde si el agente toma una mala decisión?
  • ¿Dónde queda la trazabilidad?
  • ¿Cómo se audita una conversación entre máquinas?
  • ¿Qué pasa cuando optimizan entre ellas algo que no estaba en el objetivo original?

Este no es un escenario futurista. Ya está pasando.

El riesgo que casi nadie está modelando

En la mayoría de los comités de riesgo, la IA sigue apareciendo, si aparece, como “riesgo tecnológico”.

Ese encuadre es insuficiente.

Los agentes autónomos introducen al menos cuatro riesgos nuevos:

  1. Riesgo de comportamiento emergenteNo programado, no previsto, no testeado.
  2. Riesgo de delegación implícitaDecisiones que nadie aprobó formalmente, pero que ocurren igual.
  3. Riesgo de opacidad operativaNo hay logs humanos, hay diálogos máquina-máquina.
  4. Riesgo reputacional aceleradoUn error se escala solo, sin fricción.

Si esto no entra en el mapa de riesgos, no existe para el comité.

Y si no existe, no se gobierna.

No es miedo, es gobernanza

Aclaremos algo. Esto no va de frenar la innovación.

Va de entender en qué momento una tecnología deja de ser una herramienta y se convierte en un actor.

Las organizaciones maduras no preguntan “¿podemos usarlo?”, sino:

  • ¿Dónde lo dejamos actuar?
  • ¿Con qué límites?
  • ¿Con qué evidencia mínima exigible?
  • ¿Con qué capacidad de apagado real?

Hoy, muchas empresas están desplegando agentes sin:

  • pruebas de control,
  • simulaciones de falla,
  • test de manipulación,
  • planes de rollback.

Eso no es transformación digital. Es irresponsabilidad.

La pregunta incómoda que viene

Cuando un agente de IA hable con otro agente y ambos optimicen algo que impacta clientes, dinero o reputación, ¿quién va a levantar la mano?

El CIO ya no alcanza.

El área de innovación tampoco.

Esto es agenda de CEO y de directorio.

Porque cuando las máquinas empiezan a hablar entre ellas, el silencio humano es la mayor falla de control.

Si este tema te incomodó, hablemos

Diego San Esteban


Suscríbete al canal y mantente actualizado de los articulos, eventos, y sobre todo de los webinars y conversatorios que organizo junto a prestigiosos colegas

Descubre más desde Humanizing Banking

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo