Este contenido, producto de las herramientas de inteligencia artificial, es utilizado como método de venganza, extorsión, desacreditación y negocio en contra de las mujeres, en el que se roba su identidad para implantarla en escenarios pornográficos y denigrantes

Por Diana Alonso

La violencia machista no obedece a un tiempo ni a un espacio. Sucede en la calle, en la oficina, en el transporte, en la escuela, en los hospitales, supermercados y en nuestros hogares. Nos queda el alivio de que no se tenga registro de ella en el espacio. Aunque, que no se tengan vestigios de algo no significa que no haya existido. 

En lo que respecta al tiempo, puede estar allí desde que sale el sol hasta que se esconde la luna, en nuestra infancia y vejez. Incluso mientras somos expulsados del vientre de nuestra madre. También ha sido razón del último aliento de muchas. No es omnipresente, a pesar de que lo parezca, porque no es un fenómeno sobrenatural, sino que se hace presente y se reproduce a través de acciones de personas comunes.

Es por todo lo anterior y más, que tal vez no debió sorprendernos cuando empezó a manifestarse en los “espacios” virtuales, que se han vuelto indispensables para nuestras actividades cotidianas. Una dimensión intangible, pero con repercusiones reales que actualmente evoluciona de forma frenética e imparable. Todos los días hay novedades y herramientas al alcance de la mayoría de los usuarios.

El deepfake hace referencia al deep learning y, a pesar de que el desarrollo de imágenes o avatares similares a los humanos existe desde 1990, este término se acuñó en 2017 por un subreddit en el que se distribuían montajes de índole sexual con rostros de celebridades. Con el lanzamiento de diversos programas de inteligencia artificial (IA) en 2022, como Chat GPT, la producción de contenidos para los que antes se necesitaba un estudio o un equipo especializado, ahora es gratuito y solo necesitan un par de minutos.

“Consiste en utilizar IA para modificar imágenes de la cotidianidad y ponerles cuerpos desnudos que parecen reales […], y que se comparten en otros espacios sin que la persona se dé cuenta. Ahí entra en juego la cuestión del consentimiento”, menciona Guadalupe Orozco, coordinadora de la Comisión para Atender Casos de Violencias de Género en el ITESO.

Según un artículo, el 99% de la pornografía deepfake es protagonizada por mujeres y, entre 2022 y 2023 su producción aumentó en un 464%. Orozco señala que los objetivos suelen ser “venganza, difamar y lastimar”, también desde satisfacer morbo individual hasta lucrar con las imágenes en plataformas (explotación sexual digital), como sucedió en el caso de Diego N, estudiante del Instituto Politécnico Nacional (IPN), quien poseía casi 167 mil imágenes y más de 20 mil videos alterados. El 40% eran de alumnas de la institución, con edades de entre 17 y 25 años.

En 2024, Diego N fue absuelto del delito contra la intimidad sexual, estipulado en la Ley Olimpia, por el juez Francisco Salazar Silva quién, a pesar de haberse encontrado todas estas pruebas en su iPad personal, mencionó que no existían pruebas de que el acusado las hubiese creado.

La Ley Olimpia fue precursora al reconocer como delitos el ciberacoso y la difusión sin consentimiento de contenido íntimo, sin embargo, casos como este evidencian que la constante transformación de nuestro contexto gracias las nuevas tecnologías demanda no solo una respuesta rápida del poder judicial y una actualización del legislativo, sino que ambos lo ejerzan con perspectiva de género.

“No existe ninguna norma o elemento jurídico que proteja a las personas en cuestión de ciberseguridad más enfocado al género. […], hay vacíos legales”, añadió sobre este tipo de casos la coordinadora de la Ingeniería en Ciberseguridad Elsa Cedillo, quien recomendó mantener en privado los perfiles de redes sociales y ser conscientes de los términos y condiciones en estas.

Que en México los casos de este tipo no hayan tenido un gran alcance mediático, no significa que no sucedan. Han afectado incluso a la propia comunidad universitaria. “Han llegado casos. Justamente a raíz de eso hemos empezado a tratar de abordar el tema, desde una cuestión de prevención y de atención a quienes hacen las imágenes […], poder concientizar sobre las responsabilidades que implica el uso de la IA y el impacto que tiene en otras personas”, señaló Orozco quien asegura que la prevención por parte de las mujeres no es suficiente, ni justa. Es necesario atender el problema desde raíz y evitar la existencia de estas redes de intercambio.

Quienes reciben estas imágenes y que a su vez las comparten deben ser conscientes que ese acto también tiene responsabilidad y sobre todo pensar en las afectaciones”, que van desde depresión, ansiedad, aislamiento, discriminación y las consecuencias de ello como bajo rendimiento académico, sarpullido, baja de peso, falta de apetito, caída del cabello, e incluso el suicidio según Cedillo.

Según el diario El País, el 74% de los consumidores de pornografía deepfake no siente culpa al verlo. Sin embargo, 73% lo denunciaría si involucra a alguien conocido y 68% se sentiría indignado.

Orozco señala que en vista de esta nueva problemática se ha actualizado el Protocolo para atender casos de violencias de género en el ITESO, y que la comisión ofrece un acompañamiento integral desde la no revictimización y la construcción de redes de apoyo.  También recalcó la importancia de denunciar formalmente para no obstaculizar el debido proceso, como lo sucedería con las acusaciones públicas o en redes.

“Es dar un antecedente […], tal vez si yo denuncio ahora no tengo opciones, pero mañana, las chicas que estén pasando por lo que yo pasé, sí. […], con este antecedente nadie podrá decir que estas cosas no suceden”, menciona Cedillo, quien también alienta a denunciar dentro de las plataformas el contenido íntimo no consensuado y a informar cuidadosamente a las infancias de los riesgos y responsabilidades del uso de las tecnologías.

Cuando se le preguntó a una IA por qué las mujeres tenían que tomar precauciones en lugar de educar e informar a los creadores de las deepfake el daño y las afectaciones que pueden provocar, esta respondió que la tecnología evoluciona más rápido de lo que la gente tarda en comprenderla y asimilarla.

 

FOTO: Zyan André