¿Te acuerdas de cuando el terror máximo era descubrir tu foto o vídeo subido de tono (ese que, probablemente, le enviaste a un tío que parecía majo o incluso a tu novio) en un grupo de WhatsApp? Pues existe un panorama aún peor que una sesión de 'sexting' que se te vuelve en contra.

Ya no hace falta que exista un contenido sexual real para extorsionar o dañar a una persona. Gracias a la inteligencia artificial, hasta un niño puede obtener un vídeo de porno, de porno duro, con la cara de la persona que elija. La gran mayoría de las veces mujeres, claro, pues son ellas las víctimas favoritas de la violencia de este tipo. Son ellas las avergonzadas y acalladas al verse expuestas. Hay quien disculpa los 'deepfakes' como una broma. No son ningún chiste. Son un arma de destrucción masiva de la libertad sexual. El empoderamiento que te da el perreo, ellos te lo quitan.

Fáciles de crear

No creas que necesitas complejos programas para colocar la cara de cualquiera en una escena sugerente. Basta con descargar 'apps' cuyo manejo está al alcance de cualquiera. Conseguir un vídeo erótico de un minuto sólo cuesta tiempo: unos 25 minutos. En 2019, la compañía de IA Deeptrace estimó que el 96% de los 'deepfakes' existentes eran pornográficos y habían sido creados sin el consentimiento de la protagonista. Entre 2022 y 2023, el contenido para adultos 'deepfake' aumentó un 464%, según el informe 'State of Deepfakes', de Home Security Heroes. El 99%, contra las mujeres.

Objetivo, ‘celebs’

Las actrices de Hollywood fueron las primeras víctimas de desnudos creados con inteligencia artificial, pero el caso más brutal fue el de Taylor Swift. Su vídeo sexual fue visto por 47 millones de personas antes de que X (entonces Twitter) lo borrara, 17 horas después de su publicación. Rosalía denunció al cantante sevillano Juan Manuel Cortés Reyes por fabricar una falsa foto suya semidesnuda, que la misma cantante calificó como "un tipo de violencia".

Rocío Vidal, conocida divulgadora científica que está tras el perfil @lagatadeschrodinger, descubrió que un artista de IA que vendía desnudos por encargo había publicado en un foro unas imágenes porno suyas que eran un 'fake', como señuelo comercial. "El foro en sí te deja un mal cuerpo impresionante. Qué injusto que, por hacer cosas por internet, tengas que estar expuesta a que te sexualicen y te desnuden sin tu consentimiento".

Caso Almendralejo

Ninguna mujer está a salvo, y mucho menos las más jóvenes. Da igual en qué lugar del globo te encuentres. En México, un estudiante del Instituto Politécnico Nacional tomó fotos de las redes sociales de sus compañeras de clase y generó 166.000 imágenes y vídeos sexuales para vender en Telegram. En New Jersey, un grupo de alumnos difundió 'deepfakes' de más de 30 compañeras. En Almendralejo (Badajoz), más de 20 adolescentes de entre 12 y 17 años descubrieron que desnudos suyos falsos fabricados con IA circulaban de móvil en móvil. Sus autores, todos compañeros de clase, llegaron a pedir dinero a cambio de no difundirlos.

La madre de una de las víctimas, la ginecóloga y divulgadora Miriam Al Adib Mendiri, no dudó en denunciar el caso a través de Instagram. "Nos preocupaba que subieran los vídeos a plataformas de porno, cosa que aún hoy no sabemos si ha ocurrido. Queríamos decirles a esos chavales: 'Oye, que os vamos a demandar, que esto es delito'. Y que nuestras hijas no se sintieran culpables ni tuvieran vergüenza. Que supieran que las íbamos a apoyar al cien por cien". No fue así en todos los casos.

"Ha habido alguna niña castigada por sus padres–confirma Miriam Al Abib Mendiri–. Le echaban la culpa al hecho de que tuviera móvil". Su iniciativa no sólo ayudó a las víctimas, sino que también orientó a los padres a la hora de reaccionar ante un fenómeno tan nuevo y desconcertante. "Una madre que participó en uno de mis vídeos me pidió que la borrara: tenía miedo a las represalias. Yo le dije: '¿Qué mensaje quieres darle a tu hija, que hay que tener miedo? No. Queremos decirles: aquí estamos nosotras y no vamos a consentir esto'".

La Ley Orgánica de Garantía Integral de la Libertad Sexual, la famosa ‘ley del sólo sí es sí’, pudo incluir en el Código Penal un nuevo tipo delictivo específico para los 'deepfakes' pornográficos, pero se rechazó la propuesta. Aun así, su fabricación no queda sin castigo judicial. El abogado especializado en delitos informáticos Carlos Sánchez Almeida señala dos vías: el delito de ciberacoso y el trato degradante contra la integridad moral, castigados con penas que van de seis meses a dos años. Si, además, las imágenes afectan a menores o existe extorsión, pueden solicitarse penas de hasta nueve años.

Los que se ríen

El objetivo de las madres y las damnificadas en Almendralejo estaba claro: parar a los que se burlan. "Las mujeres que han terminado cometiendo suicidio al verse sexualmente expuestas no lo hacen por el delito en sí, sino por la humillación social –explica Miriam Al Adib Mendiri–. Se sienten indefensas porque la gente se ríe, cuchichea… Esa mayoría silenciosa que mira los vídeos amplifica el daño del delito en sí. El día que mi hija llegó a casa diciendo que se habían reído de ella por la calle, lo advertí en Instagram: 'No voy a permitir ni una sola burla con este tema. El próximo que haga un comentario, que sepa que voy a por él a título personal. Voy a denunciar y a hacer lo que tenga que hacer. No voy a consentir ni media'. A ver si mi hija no va a poder salir mientras ellos entran y salen de su casa tranquilamente".

Obsesión sexual

"Desviste a cualquiera con nuestro servicio gratuito", reza el mensaje de bienvenida de la 'app' Nudify. Pero lo que parece un juego, en realidad contribuye a un fenómeno llamado pornificación que supera en violencia la mera sexualización. No se trata ya de observar a las mujeres sólo en su dimensión sexual, sino desde el prisma de lo pornográfico.

Un 72% de los jóvenes españoles consume contenido X, según el último informe de Fad Juventud. La mitad (45,8%) admite que ve demasiado y que ha intentado reducirlo pero no ha podido (45,7%). En este contexto, consumir, producir y difundir 'deepfakes' parece bastante inocuo. Y rentable.

La circulación de material obsceno genera incalculables beneficios a las empresas tecnológicas, donde una mayoría de empleados masculinos (el 77% en España) lo contempla como algo inofensivo. Inofensivo para ellos, claro. Quien hace circular un 'deepfake' puede decirse a sí mismo que es sólo entretenimiento, pero tiene graves consecuencias.

"Los chavales aprenden a cosificar a las mujeres para su divertimento, una conducta que va a condicionar su manera de relacionarse en la edad adulta –explica Bárbara Zorrilla, psicóloga experta en violencia machista–. Ellas sienten emociones muy parecidas a las de las víctimas de violencia presencial: vergüenza, culpa, un concepto negativo de sí mismas, ansiedad, pensamientos intrusivos, alteraciones del sueño y de la alimentación, depresión, autolesionesHasta llegar a ideas suicidas". Para Zorrilla, reconocer este daño es clave. "Si este problema se silencia en el entorno familiar y social, no puede haber reparación".

Terror y control

No todo lo que debe repararse atañe a la salud mental de las víctimas. También existe un daño social, colectivo, muy difícil de paliar. La politóloga Nerea Barjola, autora del ensayo 'Microfísica sexista del poder', ha mostrado a través de su análisis del llamado crimen de Alcàsser –el asesinato de las adolescentes Desirée Hernández, Miriam García y Antonia Gómez en 1992– cómo se inocula el miedo, se controla y se recorta la libertad de las mujeres de cada generación. Es lo que esta investigadora ha llamado terror sexual. "Los 'deepfakes' son los avisos aleccionadores que hoy tratan de recortar la libertad sexual de las mujeres" –afirma–.

Un 'fake' contra una en concreto se convierte en un castigo para todas las demás. ¿Cómo? Por un lado, envía el mensaje de que las mujeres no tienen derecho al placer. Por otro, las responsabiliza de cualquier agresión que puedan sufrir. En el caso Almendralejo, esto se vio claramente en algo que dijo uno de los menores implicados: "De qué os quejáis, si luego vais casi sin ropa por la calle". Pero además de amedrentar y mermar la confianza de las chicas, también las 'educan' sobre cómo deben ser sus relaciones íntimas: como dice el porno. Sin embargo, como apunta Francisca Molero, sexóloga clínica y presidenta de la Federación Española de Sociedades de Sexología, este modelo no sirve para la vida real.

El porno tiene consecuencias sobre el sexo: "Hace que muchos hombres piensen que las mujeres tienen un tipo de placer que no existe, mientras que ellas creen que tienen que sentir excitación haciendo las cosas que aparecen en las películas". Así, las relaciones entendidas como disfrute compartido se vuelven imposibles. De hecho, el consumo diario de material erótico atrofia la sensibilidad, literalmente. "Vemos cada vez más chicos con bajo deseo –advierte Molero–. No pueden tener sexo con su pareja porque no les estimula igual".

QUÉ DEBES HACER SI UTILIZAN TU CARA

  • Reúne pruebas suficientes: recoge todas las evidencias: descarga el vídeo o la foto, haz capturas de pantalla de mensajes, apunta nombres de usuarios implicados y cómplices y, si puedes, también su dirección IP.
  • Contacta vía 'online' con el infractor: si has logrado localizar a los creadores del falso vídeo pornográfico, escríbeles para que lo borren. También con el foro o plataforma donde lo hayan colgado.
  • 'Stop' a la viralización: acude rápidamente al canal prioritario de la Agencia Española de Protección de Datos, desde donde pueden impedir que se siga difundiendo el 'deepfake' del que eres protagonista. Las recomendaciones de la Policía son fundamentales, pero las víctimas recurren a otras vías para parar la difusión. Toma nota de los pasos a seguir si te sucede.
  • Denuncia en la Policía: Policía Nacional, Guardia Civil y Mossos d’Esquadra tienen brigadas tecnológicas que se encargan de identificar y perseguir los ciberdelitos. Lleva las pruebas bien claras.
  • Busca a las otras víctimas: el silencio juega a favor de los perpetradores. Busca en tu entorno y a través de las redes sociales a otras personas damnificadas y da la voz de alarma. Activa el rechazo social a quien violenta.
  • Pide ayuda: acude a tus jefes en el trabajo, los profesores en la escuela o tus familiares y amigos: necesitarás apoyo para soportar el ataque. No dudes en acudir a terapia si sufres ansiedad, tristeza o miedo. Te ayudará.