Naturaleza AristeguiNaturaleza Aristegui

Inteligencia Artificial: La nueva era del abuso sexual infantil Naturaleza Aristegui

Los reportes masivos y testimonios de expertas, activistas y organizaciones revelan cómo la Inteligencia Artificial impulsa una nueva ola de Material de Abuso Sexual Infantil, protegida por vacíos legales y la inacción institucional.

  • Redacción AN / JFA
20 Aug, 2025 08:51
Inteligencia Artificial: La nueva era del abuso sexual infantil

Por: Julia Frías Aguilar

La Inteligencia Artificial (IA) ya es utilizada para crear Material de Abuso Sexual Infantil (MASI) a nivel internacional. Miles de imágenes generadas mediante esta tecnología circulan en la web pública en distintos países, incluyendo México, sin que exista un consenso sobre cómo hacer frente a este ilícito.

Organizaciones internacionales como la Internet Watch Foundation, la Europol, y la ONU han identificado imágenes explícitas de abuso sexual de menores generadas por IA publicadas en páginas de la “clear web” o “web limpia”, es decir la sección del internet que es accesible al público en general, incluyendo niños y niñas, porque se encuentra en buscadores como Google.

Internet Watch Foundation clasifica este tipo de contenidos como “Categoría C”, es decir, la de mayor gravedad en virtud de que representan formas extremas de agresión.

Foto: Internet Watch Foundation

La organización logró infiltrarse en un foro de la dark web en el que creadores de MASI con IA discuten sobre este tipo de videos: “¿Cuánto falta para que podamos usar este nuevo software Sora para hacer cualquier video que queramos? Quiero poner fotos de mi hermana cuando era niña y hacer que haga cosas desagradables”, preguntó uno de ellos.

Además, el desarrollo acelerado de la IA, particularmente en el aprendizaje automático, permite generar materiales con niveles de realismo cada vez más altos, conocidos como hiperrealistas.

Foto: Mikhail Nilov vía Pexels

“Con la llegada de esta tecnología (la IA), lo que estamos haciendo es sistematizando la violación masiva de cuerpos” expresa en entrevista Olimpia Coral, pionera de la Ley Olimpia, en entrevista para Aristegui Noticias. 

“El debate no es moral. El debate es económico”, considera la activista. “Al final, hablar de explotación sexual infantil digital es hablar de un circuito de economías ilícitas semi institucionalizadas que han impulsado, incluso desde la narrativa, la normalización de estas prácticas”, afirma.

Consultada para este reportaje, Tania Ramírez, Directora Ejecutiva de la Red por los Derechos de la Infancia en México (REDIM) comentó que la normalización de este tipo de contenidos puede abrir la puerta a que el abuso se tolere en la realidad.

“El efecto de esa naturalización es que después en la práctica se permita el abuso en lo doméstico, en lo familiar, en lo escolar” explicó.

A nivel mundial, México es el segundo mayor generador de MASI, de acuerdo con la diputada Gloria Elizabeth Núñez Sánchez, de Movimiento Ciudadano, quien presentó una iniciativa de ley para castigar la generación de este tipo de contenidos mediante IA.

Frente al avance de tecnologías como la Inteligencia Artificial, el país tiene una legislación que según diputadas, activistas y abogadas es insuficiente para hacer frente a la creación MASI con IA, mientras que organizaciones como la Red en Defensa de los Derechos Digitales (R3D) y la Red por los Derechos de la Infancia en México (REDIM) alertan sobre la incapacidad de las fiscalías para perseguir este delito.

Foto: Pexels

A su vez, tanto Olimpia Coral como REDIM consideraron que las plataformas de redes sociales no quieren asumir su responsabilidad frente a la creación de MASI con Inteligencia Artificial, a pesar de que pueden ser utilizadas para difundir este contenido o incluso generarlo.

A nivel mundial no existe un tratado o mecanismo para hacer frente en conjunto a la creación de MASI con IA, a pesar de que este fenómeno es un problema global. En México, hay posturas encontradas y la respuesta institucional sigue siendo lenta.

Diversas iniciativas legislativas en México han advertido al Estado sobre el uso creciente de la Inteligencia Artificial para crear MASI, siendo presentadas incluso por partidos opositores. Todas coinciden en lo mismo: es urgente legislar.

Las propuestas van desde crear un tipo penal específico para quienes produzcan, distribuyan o consuman este tipo de contenido, hasta ampliar las penas del actual delito de pornografía infantil.

Foto: Donald Tong vía Pexels

Por otro lado, la Red en Defensa de los Derechos Digitales (R3D) sostiene que no es necesario crear nuevas leyes, pues la normativa para castigar estos delitos ya existe. Lo necesario, afirman, es garantizar la aplicación efectiva de la legislación existente.

En entrevista para Aristegui Noticias, Francia Pietrasanta, Oficial Jurídica de R3D, señala que las fiscalías enfrentan graves limitaciones para investigar la creación de contenido explícito de menores mediante la IA sin revictimizar, y que el Poder Judicial está rezagado ante los retos actuales, en parte por los efectos de la reforma judicial.

¿Quién es la víctima si la imagen no muestra a una persona de carne y hueso?

Aunque las imágenes generadas por IA pueden no representar a una persona “real”, el daño social y simbólico sigue presente. Se trata de una forma de violencia que afecta a un colectivo: la niñez. Y esa producción, aunque digital, no deja de estar anclada en deseos, sesgos y estructuras de poder que perpetúan la violencia sexual infantil.

Muchos de los contenidos creados por modelos generativos retratan actos tan violentos, grotescos e incluso físicamente imposibles para un niño que llegan a superar los límites de la realidad.

Foto: Mue Ervive vía Pexels

Si la infancia es representada y percibida así, los mismos niños y niñas pueden comenzar a verse de esta manera, a buscar este tipo de contenido o a asumir que es normal, alerta Tania Ramírez, de REDIM.

Aunque no hubiera una víctima de carne y hueso, cada imagen vulnera los derechos colectivos de la niñez mexicana, protegidos por tratados internacionales y por el principio de interés superior del menor.

Como explican integrantes de REDIM, nuestro cerebro reacciona de forma automática ante la imagen de una infancia violentada, sin importar si fue generada por un humano o una máquina.

Foto: Sergi Montaner vía Pexels

Cuando el abuso sexual infantil, aunque simulado, se normaliza, se estetiza o incluso se sexualiza en los espacios digitales, se corre el riesgo de generar una cultura de aceptación frente a la violencia que ocurre en el mundo real, advierte la organización.

El peligro no está solo en las imágenes, sino en la pérdida de nuestra capacidad como sociedad para identificar, rechazar y frenar el abuso en cualquiera de sus formas.

El contenido y consumo de MASI está arraigado en “un gusto por el control y un placer a través de la dominación que implica la vulneración de otra persona”, explica REDIM. Es decir, el efecto social y psicológico es igual aunque la persona que se puede ver sea falsa ya que “se sigue cometiendo el efecto de la opresión”.

El peligro se manifiesta en más de un sentido: por un lado, la normalización de este contenido abre una “ventana de permisividad”, según Tania Ramirez.

“Que esto se normalice en el mundo adulto, puede autorizar y permitir – al menos de forma inconsciente- a los adultos que sí están abusando sexualmente de niñas y niños”, comenta Ramírez.

“Al final, se trata de una cuestión de poder. Y en el caso de las niñas y adolescentes, se da una mezcla doblemente tóxica: por un lado, la necesidad de ejercer poder y control masculino sobre lo femenino; y por otro, la necesidad del cuerpo adulto masculino de abusar y someter al cuerpo de niñas y adolescentes” , explica la Directora Ejecutiva de REDIM.

¿Crear nuevas leyes es la solución?

“No hay un tipo penal específico que sancione la creación de contenido sexual de menores mediante la Inteligencia Artificial” enfatiza la diputada Gloria Elizabeth Núñez Sánchez, de Movimiento Ciudadano. “Hay un laguna”

En 2023, como senadora, Núñez Sánchez presentó una iniciativa para reformar el artículo 199, 200 y 202 del Código Penal Federal. Su propuesta buscaba sancionar hasta con 12 años de prisión a quien utilice la IA para generar imágenes sexuales simuladas de menores, utilizando sus datos biométricos.

La iniciativa sirvió como una advertencia sobre los crecientes peligros del mal uso de la Inteligencia Artificial, pero fue desechada por falta de antecedentes penales concretos que la respaldaran.

La diputada considera necesario legislar incluso cuando el material no esté mostrando a un menor de carne y hueso, pues la imagen afecta a la niñez como colectivo.

Foto: Cuarto Oscuro

Dos años después de la iniciativa de Núñez Sánchez, la diputada Rosa Guadalupe Ortega Tiburcio, de Morena, presentó una propuesta legislativa para modificar los artículos 199, 200 y 202 del Código Penal Federal, incorporando explícitamente el uso de tecnologías digitales e Inteligencia Artificial dentro del delito de pornografía infantil.

Al ser entrevistada por Aristegui Noticias sobre su iniciativa, la diputada sostuvo que “la Inteligencia Artificial debe ser ingresada en el marco [legal]” con una definición clara. “Ahora no está ni siquiera mencionada”.

“Estos delitos muestran la falta de interés en la cultura digital de la población; la ausencia de procedimientos que realmente sean ágiles; la apremiante necesidad de que las plataformas cuenten con mayores controles y que reflejen, en definitiva, lo mucho que aún nos falta construir para erradicar la violencia digital, o esto se va a salir de las manos” añadió Ortega Tiburcio.

La iniciativa justifica la necesidad de legislar mencionando que el pasado 23 de abril de 2025, el Pleno de la Suprema Corte de Justicia de la Nación planteó la necesidad de establecer un marco regulatorio para la Inteligencia Artificial que priorice el interés superior de niñas, niños y adolescentes.

Esta conclusión derivó del análisis de la reforma aprobada por el Congreso de Zacatecas para incluir el término Inteligencia Artificial en La Ley de los Derechos de Niñas, Niños, y Adolescentes local, específicamente en el apartado sobre violencia digital.

Así, la ley de Zacatecas ahora dice que las infancias tienen el Derecho a una “vida libre de violencia cibernética, digital, así como todas aquellas mediante el uso de inteligencia artificial”.

Foto: Congreso de Zacatecas

Por otro lado, Olimpia Coral puso especial énfasis en la urgencia de legislar sobre las redes sociales para frenar la circulación de este material, así como sobre las plataformas digitales responsables de generarlo.“La legislación tiene que ser a la Ley de Telecomunicaciones, a las condiciones de permisos, a las condiciones económicas y directamente a las plataformas digitales” afirma la activista.

Actualmente, los legisladores se enfrentan al desafío de que la tecnología avanza más rápido que el Derecho y su normatividad, lo que podría hacer que una ley destinada a regular específicamente la Inteligencia Artificial quede obsoleta y se convierta en letra muerta en muy poco tiempo.

¿Más leyes o mejor justicia?; El delito detrás de la imagen

Frente a la creciente presión por reformar el marco legal, organizaciones como la Red en Defensa de los Derechos Digitales y la Red por los Derechos de la Infancia en México argumentan que el problema no es la ausencia de leyes, sino la falta de aplicación de las que ya existen.

Desde su perspectiva, R3D señala que crear nuevas figuras penales para abordar el uso de IA en la creación de MASI no va a resolver el problema, y podría incluso derivar en leyes que no se apliquen jamás. 

“Hoy es la Inteligencia Artificial, pero mañana se llamará de otra manera, y entonces ya nos queda corta la ley” señala Francia Pietrasanta, Oficial Jurídica de R3D. “Antes de sacar nuevas disposiciones, habría que mejorar la implementación de las que ya existen”. 

Desde la perspectiva de la organización, el marco legal actual debería de ser suficiente para enfrentar la creación de MASI generada con IA.

Tanto R3D, como REDIM, y la iniciativa de ley que presenta la Diputada Núñez Sánchez coinciden en que el verdadero delito no radica únicamente en la posesión o distribución de estas imágenes, sino también en su creación y todo lo que implica. 

“Las plataformas de creación de la IA usan como base a niños reales”, explica Tania Ramirez, Directora Ejecutiva de REDIM. “En el origen hubo algún niño, alguna niña, alguna voz, alguna cara, algún cuerpo”. 

Para generar una imagen de este tipo hay una base de datos entrenada con millones de fotografías, muchas veces obtenidas sin consentimiento de redes sociales.

Lo que se ve en pantalla no es producto del azar, sino de una lógica humana que programó un sistema para llegar a la explotación del cuerpo infantil y adolescente.

“¿Cómo es que han sido explotados sin límites nuestros datos personales, al punto en que son susceptibles de ser generadas estas imágenes de menores?” cuestiona Pietrasanta. “Tenemos que cuestionarnos cómo es que los desarrolladores de IA han podido acceder a  nuestros datos a este grado, sin permiso, sin consentimiento, sin un tratamiento debido”. 

Frente a esto, la iniciativa de Núñez Sánchez establecía “requisitos sólidos para la recopilación, el almacenamiento y el uso de datos, asegurando que se obtenga el consentimiento adecuado y que se implementen medidas de seguridad para proteger la información personal”

Foto: Pexels

Otro de los riesgos de legislar sobre la IA, de acuerdo con R3D, es que el Estado podría buscar limitar todos los contenidos generados con esta tecnología, afectando la libertad de expresión. Esto abriría la puerta a la censura de contenidos legítimos – como la sátira política o la crítica social – bajo el pretexto de prevenir delitos, consolidando un monopolio estatal sobre el desarrollo y uso de esta tecnología.

“La protección infantil no es cuestionable, es indudable. Pero tampoco podemos poner en riesgo nuestra libertad de expresión” afirma Pietrasanta. 

Por su parte REDIM explica que la forma más eficiente de proteger a la niñez mexicana consiste en mejorar la educación sexual, los esfuerzos por prevenir la sexualización de niños, niñas y adolescentes, y la capacidad de navegar la red con precaución. 

“Si dedicáramos los esfuerzos institucionales a cuidar lo que ya está previsto en la ley, tendríamos un primer paso que es suficiente. Es decir, no tenemos por qué inventar el paso 10 en donde se legisle esta realidad futurista”, comentó Ramirez de REDIM. 

Por lo tanto, ambas organizaciones aseguran que uno de los puntos más importantes del debate debería de ser la protección de datos personales y la rendición de cuentas de quienes los usan sin autorización para la generación de este tipo de contenidos, al igual que las estructuras sociales que propician esta violencia. 

Tan solo dedicarse a legislar, sin implementar medidas culturales que modifiquen las ideas establecidas de abuso, violencia y explotación sobre los cuerpos de las infancias “sería como “ponerle un dedito a un dique de agua” considera REDIM. 

Un desafío internacional

Como el internet opera a una escala global, el alcance de cualquier marco normativo nacional podría estar limitado, según R3D y REDIM. 

Aunque en México ciertas prácticas lleguen a ser consideradas ilegales, surge una limitante cuando el contenido en cuestión es creado o difundido desde otro país, según REDIM.

Foto: NastyaSensei vía Pexels

Uno de los avances más importantes son los Principios de la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre IA, respaldados por más de 40 países, que promueven el desarrollo de sistemas de Inteligencia Artificial que sean seguros, éticos y respetuosos de los derechos humanos. 

La UNESCO también dio un paso clave en 2021 al aprobar una recomendación sobre la ética de la IA, enfocada en proteger a las poblaciones más vulnerables – como la infancia – y exigir transparencia y responsabilidad en el uso de estas tecnologías.

La Unión Europea ha ido más allá con su futura Ley de Inteligencia Artificial, que busca regular los usos más peligrosos, como la vigilancia biométrica.

El caso Diego “N.” expone las fallas del sistema de justicia

Los deep fakes se refieren a un tipo de contenido digital manipulado mediante Inteligencia Artificial, generalmente utilizando técnicas de aprendizaje profundo (deep learning) para crear fotos, videos o audios falsos que parecen reales. Estos materiales involucran a una persona real cuya imagen es alterada mediante la IA. 

Uno de los casos más emblemáticos sobre el uso de deep fakes para vulnerar la intimidad sexual es el de Diego “N.”. 

El caso involucra a un estudiante del Instituto Politécnico Nacional (IPN), acusado por ocho de sus compañeras de haber creado y compartido imágenes sexualmente explícitas de ellas. 

Foto: X (Fiscalía CDMX)

Como explica la abogada de las víctimas, Valeria Martínez, cuando alguien toma tu rostro o cuerpo para crear y difundir este tipo de contenido sin consentimiento o conocimiento, la afectación no solo es emocional, sino también social y legal. El rostro de una persona está directamente ligado a su identidad, y su exposición en contextos sexuales, aunque falsificados, puede tener consecuencias graves y duraderas. 

“El compartir una fotografía en la red, con un clic puedes dar alcance hasta otro continente en un solo segundo”, dijo Martínez. El daño ocurre sin que las víctimas tengan siquiera la oportunidad de saber que están siendo expuestas. 

En un inicio, el caso fue desechado, ya que se resolvió que no se pudo encontrar una tipificación penal específica

Sin embargo, tras esa primera resolución las víctimas apelaron y el área de Informática de la Fiscalía General de Justicia de la Ciudad de México revisó el iPad del acusado encontrando 166 mil archivos, entre los cuales había imágenes sexuales de algunas compañeras menores de edad. Por ello, Diego fue condenado a cinco años de prisión por posesión de pornografía infantil. 

Según explicó Martinez, ni el Código Penal Federal ni de la Ciudad de México contemplan la creación de imágenes sexuales con el uso de IA como un delito, así como tampoco la posesión de este contenido. 

En entrevistas con Aristegui Noticias, la litigante expuso que esto fue uno de los varios obstáculos con los que se enfrentaron durante el proceso.

“Una de las mayores complicaciones que hemos encontrado en esta denuncia es la falta de protocolos para poder investigar y juzgar este tipo de delitos”, comparte Martínez. Aspectos como el procesamiento de imágenes o las bases de datos de entrenamiento se traducen con dificultad al lenguaje jurídico, generando una brecha entre la tecnología y la justicia, consideró.

De acuerdo con ella, tanto el proceso de investigación como el de judicialización de este tipo de delitos está plagado de impedimentos técnicos al utilizar lenguaje que no podría dimensionar o entender un jurista sin conocimientos de informática. 

Según Martínez, es por eso que es importante contar con una legislación clara y específica para este tipo de delito

Estas lagunas denunciadas por la abogada provocaron que, según su interpretación, la justicia fuera insuficiente para la magnitud de lo cometido por Diego “N.” 

Foto: Cuartoscuro

Todo esto en un caso de deep fakes, es decir, que muestran rostros de personas reales. En este caso hay personas físicas afectadas, con rostro y voz. 

Si frente a una situación con ocho denunciantes, abogadas y activistas involucradas, el sistema judicial no logró emitir una condena satisfactoria para las víctimas, ¿qué se puede esperar cuando el contenido es completamente “ficticio”?