5–7 minutos

Identidad en riesgo: lo que Dinamarca entendió sobre la IA y Latinoamérica aún no quiere ver

Hay temas que uno preferiría no tener que escribir. Porque no son agradables, ni cómodos, ni inspiradores. Pero son urgentes. Y silenciarlos sería, en el fondo, una forma de complicidad.

Hace unos días vi un video en el que aparecía alguien hablando con mi misma voz. No era yo. Pero el timbre, la cadencia, las pausas… eran exactas. Una copia perfecta, hecha por una IA, en menos de tres minutos. Nadie la usó con mala intención. Esta vez. Pero la sensación fue brutal: por primera vez, mi voz dejó de ser mía.

Y entonces me pregunté: ¿qué pasa si alguien toma tu cara, tu cuerpo o tu forma de hablar… y los usa para vender, para manipular, para engañar? ¿Qué pasa cuando ya no podés demostrar que no dijiste lo que aparece en un video? ¿Y qué marco legal te protege —en serio— cuando te convierten en una réplica digital sin tu consentimiento?

Ese día entendí que la identidad también necesita defensa. Que no basta con proteger los datos personales o los derechos de autor. Que hoy, con la potencia de las IA generativas, lo que está en juego es mucho más profundo: es el derecho a no ser clonado, el derecho a seguir siendo uno mismo en un mundo que puede imitarte sin pedirte permiso.

Y mientras Dinamarca propone una ley para declarar que tu rostro, tu voz y tu cuerpo son legalmente tuyos, en América Latina seguimos mirando para otro lado. Como si el riesgo fuera lejano. Como si los deepfakes no pudieran afectarnos. Como si no tuviéramos suficiente con las noticias falsas, la manipulación política o el fraude digital.

No escribo esto para alarmar. Lo escribo porque me preocupa. Porque no estamos preparados. Y porque si no actuamos ahora, va a ser demasiado tarde para arrepentirse.


Cuando tu rostro deja de ser tuyo

Mientras en América Latina seguimos discutiendo si regular o no la IA, Dinamarca acaba de proponer algo tan simple como disruptivo: que tu cara, tu voz y tu cuerpo te pertenezcan legalmente frente a cualquier intento de clonación por sistemas de inteligencia artificial. Ni más ni menos.

La ley —que cuenta con apoyo transversal del Parlamento danés— busca modificar su sistema de propiedad intelectual para incorporar la identidad física como un derecho protegido, con capacidad de exigir retiro inmediato de deepfakes no autorizados y compensación económica por su uso indebido.

No es solo una discusión jurídica. Es un salto cultural. Porque por primera vez se reconoce que la persona es también un dato, una imagen, una presencia replicable. Y que si eso no se protege desde el diseño normativo, entonces será el mercado (o peor aún, la tecnología sin control) quien decida por nosotros.


El deepfake ya no es ciencia ficción

En América Latina ya hay casos de figuras públicas, artistas y hasta políticos suplantados por IA en videos falsos que circulan como si fueran reales. Pero también hay situaciones más invisibles: ejecutivos usados en estafas B2B con su voz clonada, profesores que aparecen “enseñando” lo que nunca dijeron, o influencers replicados sin permiso.

No hace falta esperar al escándalo. Lo que está en juego no es solo la reputación, sino el derecho a existir sin ser replicado, a no convertirse en contenido explotable sin consentimiento. Dinamarca lo entendió antes que el resto.


¿Y Latinoamérica?

¿Dónde estamos nosotros?

  • Con regulaciones dispersas, sin leyes específicas sobre IA generativa.
  • Con marcos de protección de datos personales que no alcanzan para frenar el uso sintético de voces o rostros.
  • Con una asimetría creciente entre lo que las plataformas pueden hacer y lo que los ciudadanos pueden defender.
  • Y con un silencio peligroso sobre los derechos de imagen en entornos digitales masivos.

Lo más grave: en muchos países, ni siquiera se discute este tema. Como si no ver el problema fuera una forma de protegernos de él.


Lo que deberíamos hacer (ya)

Latinoamérica no puede importar el modelo danés tal cual. Pero sí puede tomarlo como base para avanzar en tres niveles:

1. Marco normativo urgente

  • Reconocer legalmente el derecho sobre la identidad digital personal (rostro, voz, cuerpo y gestos).
  • Incluir explícitamente en las leyes de propiedad intelectual o de datos personales el uso sintético o automatizado.
  • Crear figuras como la suplantación algorítmica no autorizada, con sanciones civiles y penales.

2. Responsabilidad tecnológica

  • Obligar a las plataformas a etiquetar y detectar contenido generado por IA.
  • Establecer plazos para retirar deepfakes a pedido del afectado.
  • Implementar sistemas de trazabilidad de origen, tal como propone el AI Act europeo.

3. Alfabetización crítica

  • Incluir en escuelas y medios formación sobre manipulación digital, suplantación y consentimiento algorítmico.
  • Formar periodistas, jueces y docentes en el análisis crítico de contenido alterado por IA.
  • Promover campañas públicas que visibilicen el problema y las herramientas de defensa.

No se trata solo de leyes. Se trata de dignidad.

Cada vez que la tecnología puede imitarte sin permiso, se debilita tu capacidad de decidir quién sos. Si tu voz puede ser usada para vender lo que no dijiste, o tu rostro puede aparecer apoyando lo que jamás defendiste, entonces ya no estamos hablando de innovación. Estamos hablando de desposesión.

La identidad —igual que la tierra, el trabajo o la intimidad— necesita fronteras claras. Límites éticos, jurídicos y culturales. O nos convertiremos en materia prima para modelos que ni entendemos ni controlamos.


AUTOEVALUACIÓN

¿Cuánto está haciendo tu país, tu empresa, tu equipo para anticipar este desafío?

🔲 0-2 pts: Aún no reconocemos el riesgo.

🔲 3-5 pts: Hay consciencia, pero sin acción concreta.

🔲 6-8 pts: Hemos empezado a actuar, pero falta coherencia.

🔲 9-10 pts: Estamos diseñando políticas claras, con foco en protección.


PLAN DE ACCIÓN

  • Si sos parte del gobierno, poné el tema en agenda. No esperes a que llegue el escándalo.
  • Si sos parte de una empresa tecnológica, priorizá la trazabilidad y el consentimiento.
  • Si sos educador, comunicador o líder social, hablá de esto en público. No alcanza con saberlo. Hay que visibilizarlo.

NO ES UN CIERRE

Si este artículo te incomodó, bien. Significa que todavía te importa.

Lo que viene requiere algo más que buenas intenciones.

Requiere que lo hablemos en serio. Y que lo legislemos aún más en serio.


Soy Diego San Esteban, presidente de latam ai Hub, ocupándome de algunos temas que son mas que importantes.

Autor de 3 newsletters en LinkedIn:

• Banco Invisible | Estrategia e innovación bancaria

• IA en Serio | Avances, riesgos y oportunidades reales

• Verdades Incómodas | Lo que nadie dice sobre ventas complejas



Suscríbete al canal y mantente actualizado de los articulos, eventos, y sobre todo de los webinars y conversatorios que organizo junto a prestigiosos colegas

Descubre más desde Humanizing Banking

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo