Código Penal

Sagasti presentó un proyecto para penalizar con hasta 6 años de prisión la pornografía generada con IA

La senadora mendocina busca incorporar al Código Penal el delito de crear imágenes sexuales falsas de personas reales sin su consentimiento

Mientras la precisión de la Inteligencia Artificial Generativa avanza permitiendo crear imágenes con pocas señales de que son artificiales, el Congreso busca formas de sancionar a quienes la utilicen de forma malintencionada. Es el caso, por ejemplo de las "deepfakes pornográficas", contra las que hay 2 proyectos de ley en Diputados y 1 en el Senado. Este último de la mendocina Anabel Fernández Sagasti.

En Argentina, el Código Penal aún no tiene una figura específica que castigue directamente la creación artificial de material sexual a partir de la imagen de una o varias personas reales. Sin embargo, puede ser ilegal en ciertos casos dependiendo de cómo se produzca o se utilice ese contenido.

inteligencia artificial
Generación de imágenes con Inteligencia Artificial.

Generación de imágenes con Inteligencia Artificial.

Por ejemplo, si involucra a menores, el artículo 128 ya castiga la producción, distribución o tenencia de pornografía infantil. Algunos fallos y análisis jurídicos sostienen que debe aplicarse el artículo aún cuando la imagen sea generada con IA.

A mediados de 2025, un fallo de la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana, determinó que el artículo 128 es aplicable y penaliza las representaciones (el término clave) de abuso sexual infantil generadas o modificadas con IA, incluso cuando no hay víctimas reales.

El proyecto de Anabel Fernández Sagasti

Este lunes, la senadora peronista por Mendoza, Anabel Fernández Sagasti presentó un proyecto de ley para que se penalice el uso de Inteligencia Artificial en la creación de pornografía sin consentimiento.

senado presupuesto anabel fernandez sagasti
La senadora nacional por Mendoza, Anabel Fernández Sagasti.

La senadora nacional por Mendoza, Anabel Fernández Sagasti.

La propuesta pretende incorporar el artículo 128 bis al Código Penal, estableciendo penas de 3 a 6 años de prisión para quienes creen, generen o modifiquen imágenes, audios o videos de contenido sexual explícito de personas reales mediante tecnologías de generación sintética sin su consentimiento.

"La pena se eleverá un tercio en su mínimo, cuando las representaciones correspondan a personas que aparenten ser menores de 18 años; o representaciones que, sin corresponder a una persona física identificable, exhiban una apariencia infantil que resulte indistinguible de la realidad

Para la configuración de este delito, no será necesaria la existencia de una víctima real o física identificable. El tipo penal se perfecciona cuando la representación posea un nivel de realismo o verosimilitud tal que resulte indistinguible de la realidad o cuando la apariencia de minoridad sea el elemento central de la pieza sintética", dice el proyecto.

Además, establece penas de 1 mes a 1 año al que tenga estas representaciones para su propio uso o visualización. Esta pena aumenta a 4 meses y hastav 2 años cuando la tenencia sea respecto de imágenes o videos de menores de edad.

"La escala penal se incrementará en un tercio en su mínimo y en su máximo si la representación simulada aparente ser o corresponda a la de un menor de 13 años", completa.

El fallo contra la distribución de material de abuso sexual infantil que cambió todo

El 3 de julio del año pasado, la Justicia Argentina sentó en un precedente histórico e inédito del país: la aplicación del artículo 128 del Código Penal comprende y penaliza las representaciones de abuso sexual infantil generadas o modificadas mediante IA, incluso cuando no hay víctimas reales identificadas.

El fallo es inédito porque redefine la persecución de la explotación de menores en la era digital.

El dictamen judicial comenzó con la denuncia contra un hombre que fue acusado de publicar y distribuir imágenes y videos de menores de 18 años en actividades sexuales.

La defensa del sospechoso aseguró que el artículo 128 del Código Penal busca proteger a menores de edad y no a representaciones ficticias.

Sin embargo, los jueces rechazaron el argumento y sostuvieron que el artículo contempla las representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas. Y la clave de esta interpretación está en la palabra "representación", que incluye la "imágen o idea que sustituye a la realidad".

Además, determinaron que una "simple observación de los materiales permite concluir que se trata de niños y niñas de entre 3 y 8 años, más allá de que no puedan ser identificados".

El tribunal también explicó que de no castigarse esta conducta, llevaría a normalizar la pedofilia lo que pone en peligro el bien jurídico protegido que es la libertad e integridad sexual de las infancias.

¿Qué son las deepfakes?

Las deepfakes son registros de voz, imágenes o videos generados con inteligencia artificial que muestran a personas reales en situaciones falsas.

El término "deepfakes" combina la palabra anglosajona "fake" (falso, ya que estos archivos son siempre falsos, aunque se intente que parezcan reales) y "deep" que proviene de "deep learning" (en castellano significa aprendizaje profundo).

ciberseguridad-inteligencia-artificial-freepik-(1)
El término "deep fake".

El término "deep fake".

En el último tiempo han atraído mayor atención por su uso potencial en la creación de material de abuso sexual infantil, videos de celebridades, pornografía de venganza, noticias falsas, fraude, acoso y estafas.

Actualmente, las tecnologías para identificar deepfakes son altamente precisas pero no infalibles. Una de las técnicas para descubrirlas es el análisis de los metadatos, es decir, la información textual sobre la producción del audio, imagen o video (cámara, ISO, fecha de creación, etcétera), para analizar si la imagen fue manipulada. No es 100% eficaz pero es un método para detectarlas.

También es posible identificar residuos de la creación de rostros o cuerpos falsos, como por ejemplo, cuando el iris del ojo derecho de una cara generada tuviera un color diferente al izquierdo. O que se produzca un error de iluminación imprecisa y distorsionada en las figuras debido al intento de fusionar varias imágenes con diferente luz.

Por último, los especialistas señalan que las deepfakes tienen errores en la estructura de los rostros. Sobre todo porque se utilizan una infinidad de rostros reales para crear las imágenes faciales sintetizadas, y como las personas tienen estructuras de caras diferentes, la tecnología no termina de conseguir que todos los puntos de referencias de una cara se alineen correctamente.