Publicado el 02-07-2025 en Comercio y Justicia

Ficción peligrosa: deepfakes, política y violencia digital

Por Pablo Sanchez Latorre (*)

La reciente difusión de un video manipulado/generado mediante inteligencia artificial (IA) -y cuya autoría se atribuyó el diputado Rodrigo de Loredo-, en el que el gobernador de Córdoba, Martín Llaryora, aparece parodiado sin su consentimiento, revela una amenaza que trasciende lo partidario: el uso de deepfakes como instrumentos de violencia simbólica, desinformación y erosión democrática.

¿Hasta dónde puede ampararse la falsificación digital en la libertad de expresión? ¿Cuándo la sátira deja de ser legítima para convertirse en agresión?

Deepfakes: manipular la realidad con apariencia de verdad

Los deepfakes son videos generados por IA -mediante redes neuronales generativas- capaces de simular gestos, voces y rostros con realismo extremo. Aunque surgieron como curiosidad técnica, su evolución los convirtió en herramientas de manipulación con alto impacto social.

Según el Observatorio de Deepfakes del ISMS Forum, esta tecnología ha sido utilizada para estafas financieras, campañas electorales falsas y pornografía no consentida. Los autores lituanos Ignas Kalpokas y Julija Kalpokiene advierten que este fenómeno promueve una “anarquía epistémica”: una realidad en la cual lo falso y lo verdadero se vuelven indistinguibles, debilitando los pilares informativos de la democracia.

Libertad de expresión, pero no de engaño

La libertad de expresión es esencial en toda sociedad democrática, pero no es absoluta. La Corte Interamericana de Derechos Humanos ha afirmado que puede ser limitada cuando colisiona con el ejercicio de otros derechos fundamentales: el honor, la imagen, la privacidad y la integridad moral.

Como advierte Davey Gibian en Hacking artificial intelligence, la manipulación algorítmica de la percepción social representa un riesgo no sólo informativo sino también estructural para la convivencia. No se trata de censurar el humor político sino de establecer límites frente a contenidos que se presentan como reales sin serlo, induciendo al error y provocando perjuicios.

El video en cuestión, no fue una sátira identificable sino una falsificación digital con apariencia de autenticidad. No es crítica política: es suplantación de identidad con fines de descrédito. En términos jurídicos, configura un abuso del derecho. El artículo 10 del Código Civil y Comercial argentino es claro: “La ley no ampara el ejercicio abusivo de los derechos”, especialmente cuando se contradicen la buena fe, la moral o las buenas costumbres.

Modelos comparados

La comunidad internacional ya ha comenzado a actuar frente a esta amenaza.

Unión Europea

En marzo de 2024, el Reglamento de Inteligencia Artificial (AI Act) estableció que todos los contenidos generados por IA, incluidos los deepfakes, deben ser identificados como tales, salvo contadas excepciones. También impone a las plataformas la obligación de detectar y frenar contenidos manipulados que puedan causar daños o alterar procesos electorales.

Estados Unidos

Algunos estados han adoptado normas específicas. California y Texas prohíben el uso de deepfakes engañosos en campañas electorales. Nueva York penaliza la difusión de contenidos sexuales falsificados y avanza en la protección de la identidad digital.

China

En un enfoque más restrictivo, desde 2023 exige que todo contenido generado con IA esté claramente marcado como “contenido sintético” y no pueda alterar hechos ni difundir falsedades. La difusión requiere autorización estatal. Aunque su modelo plantea tensiones con la libertad de expresión, reconoce el riesgo estructural que implican los deepfakes.

Brasil

El pasado 26 de junio, el Supremo Tribunal Federal dictó una resolución clave: plataformas como Google, Meta y TikTok serán responsables civilmente si no eliminan contenidos denunciados que inciten al odio o contengan discursos ilícitos. También deberán establecer sistemas de notificación, debida diligencia, autorregulación e informes de transparencia.

Ética digital y responsabilidad pública

Usar deepfakes para ridiculizar o engañar no es libertad de expresión: es violencia simbólica amplificada tecnológicamente. Las herramientas digitales deben fortalecer el debate democrático, no convertirlo en un espectáculo degradante.

El caso De Loredo-Llaryora debe ser un punto de inflexión. Es hora de legislar con claridad, establecer estándares de responsabilidad política y garantizar que quienes ocupan cargos públicos, usen la tecnología dentro de las fronteras de una ética virtuosa. La IA no puede ser un campo al margen de la ley y la ética.

Porque en un entorno donde la mentira se puede programar y viralizar en segundos, defender la verdad no es neutralidad: es justicia.

(*) Profesor Titular de Historia del Derecho Argentino (UCC), investigador de la Red Iberoamericana de Investigación en Derecho y Disciplinas Sociales y director de la Diplomatura de Legaltech y Argumentación Constitucional – ITESO de Guadalajara y el Capítulo de Occidente del Ilustre y Nacional Colegio de Abogados de México.

Medio Publicado: Comercio y Justicia

Temática: UCC

Autor/Redactor: Pablo Sánchez Latorre

Fecha de Publicación: 02-07-2025