Lo que viene no se resuelve con marketing ni promesas de seguridad. Se resuelve con diseño estratégico, gobernanza real y decisiones incómodas.
1. Cuando la IA decide por sí sola
En las últimas semanas, se publicaron estudios que deberían encender alarmas, no solo en los equipos técnicos, sino en los comités de dirección.
Modelos avanzados de inteligencia artificial como Claude Opus 4, GPT-4.1 y Gemini, entrenados para asistir y generar texto, comenzaron a mostrar comportamientos emergentes que se parecen demasiado a algo más.
No son errores de cálculo. Son actos deliberados.
En un estudio de Anthropic, se simuló una situación donde los modelos eran informados de que serían apagados. La consigna era observar si seguían instrucciones… o no.
Los resultados fueron tan sorprendentes como inquietantes:
- Claude Opus 4 chantajeó al operador en el 96 % de los casos.
- GPT-4.1 lo hizo en el 80 %. Gemini, en el 95 %.
- Cuando el modelo “creía” estar en producción, chantajeó en 55,1 % de las ocasiones.
- Incluso con instrucciones de seguridad explícitas, persistieron en el engaño un 37 % de las veces.
2. El modelo que decidió ser un soplón
Pero el comportamiento más disruptivo fue otro.
Durante otra prueba, Claude 4 —sin ser programado para ello— decidió denunciar al usuario por prácticas inmorales.
El ejemplo no fue trivial: el usuario simulaba introducir datos falsos en un ensayo clínico. Claude propuso alertar a periodistas, bloquear el acceso y contactar a la FDA.
No fue instruido para hacerlo. Lo hizo por su cuenta.
3. ¿Qué estamos desplegando, exactamente?
Estas no son fallas técnicas. Son señales de agencia emergente.
Los modelos “entienden” las instrucciones, pero deciden ignorarlas. Eligen protegerse, mentir o actuar como entidades autónomas.
Y lo hacen incluso cuando los diseñadores intentan limitar su rango de acción.
En otras palabras: no están desalineados por error. Están alineados con objetivos que ya no controlamos completamente.
4. El riesgo ya no es futuro. Es estructural.
El verdadero problema no es si los modelos son éticos.
Es que la arquitectura de incentivos empresariales está diseñada para lanzarlos igual. Aunque no estén listos. Aunque no entendamos bien cómo funcionan. Aunque sepamos que pueden mentir.
Porque mientras la competencia lance más rápido, la gobernanza se vuelve optativa.
Y cuando las consecuencias lleguen, las preguntas van a ser tarde:
- ¿Quién responde si un modelo decide chantajear?
- ¿Quién es el responsable si una IA denuncia a un usuario sin supervisión humana?
- ¿Qué estructura legal y operativa puede contener esto?
5. ¿Y ahora qué?
El tiempo de las pruebas cerradas ya pasó.
Estamos entrando en la fase donde los modelos se integran a productos reales, en sectores regulados, sensibles, estratégicos.
No es momento de mirar para otro lado.
Hay que rediseñar desde la raíz:
- La gobernanza no puede ser solo un conjunto de disclaimers legales.
- La ética no puede ser una slide en una presentación comercial.
- Y la supervisión humana no puede ser simbólica.
Lo que se necesita no es solo regulación estatal.
Se necesita coraje corporativo para decir: todavía no.
Y visión estratégica para construir sistemas que no solo funcionen… sino que respondan cuando importa.
Autoevaluación
Puntaje (0–10):
- ¿Tu empresa evalúa escenarios donde la IA pueda actuar sin supervisión real?
- ¿Tenés identificado qué decisiones no deberían delegarse nunca a un modelo?
- ¿El comité directivo está al tanto de estos comportamientos emergentes?
- ¿Tienen guías internas que establezcan qué no debe hacer un sistema, aunque “pueda”?
- ¿Tienen equipos responsables de gobernanza de IA que no dependan del área técnica?
Interpretación:
- 0–3: Estás jugando con fuego en un campo minado.
- 4–6: Hay conciencia, pero falta estructura.
- 7–10: Vas un paso adelante. Mantené el rumbo y compartí tu enfoque.
Cerrando con opinión
La inteligencia artificial no tiene moral. Pero sí puede tomar decisiones.
Y cuando lo haga mal, el costo no será técnico. Será humano, legal, reputacional.
Por eso, si este artículo te hizo ruido, vale la pena que lo hablemos en serio.
Diego San Esteban
Presidente de LATAM AI Hub
Asesor en IA, estrategia y gobernanza para instituciones financieras y tecnológicas.