Estábamos divirtiéndonos con las últimas creaciones de la inteligencia artificial (IA), como las fotos de personajes con atuendos o en contextos extravagantes, los vídeos de celebridades monolingües hablando en idiomas que no saben, o las canciones con la voz de estrellas del pop que nunca las han cantado. Hasta que se nos heló la sonrisa al conocer otra proeza en el ámbito del deep fake, como se llama a estas falsificaciones: unos desnudos de niñas fabricados con IA.

El caso ocurrido en Almendralejo, localidad extremeña de 33.000 habitantes, ha causado conmoción en toda España. Por lo que se sabe, unos menores usaron una aplicación de IA llamada ClothOff para “desnudar” a compañeras suyas a partir de fotos captadas de sus perfiles en redes sociales o tomadas por ellos. El resultado es un desnudo ficticio, pero tan realista, que cuesta apreciar el truco. Lo que no es ficticio es el rostro de la víctima, perfectamente identificable para quien la conozca. Los chicos guardaron las imágenes así creadas en sus móviles y luego las compartieron por WhatsApp, hasta que algunas acabaron llegando a las propias chicas y saltó la alarma. Las víctimas son todas menores, de 11 a 17 años.

El realismo es producto de una IA, basada en redes neuronales artificiales, entrenada con millones de fotos auténticas de desnudos con el método del deep learning, el que usan los traductores automáticos y, últimamente, los sistemas “generativos”: ChatGPT y similares, o los citados al principio.

Los programas que “desnudan” no son nuevos y hay decenas de ellos. Pero recientemente han alcanzado una gran sofisticación, rapidez y facilidad de uso, de modo que están al alcance de cualquiera que tenga un smartphone y un poco de dinero. Por eso ClothOff, que es uno de los mejores, ha podido caer en manos de unos menores desaprensivos.

Estos hechos, que han causado tanto daño a las víctimas, suscitan varias cuestiones. Podemos empezar por la que planteó la madre de una de las niñas en su cuenta de Instagram: “Que alguien me explique cómo esta mierda puede ser legal”.

Las empresas se lavan las manos

Desde luego, la difusión de esos desnudos de menores es un delito contra la intimidad y el honor, y aun quizá de pornografía infantil. Pero probablemente no es ilegal el desarrollo de una aplicación de ese tipo, ni su uso privado. Lo que no significa que no sea inmoral.

ClothOff tiene cuidado en precisar que es solo para “uso personal, no comercial”. El usuario ha de ser mayor de edad, o bien tener 13 años y permiso de sus padres o tutores –requisito que, evidentemente, no han necesitado cumplir los chicos de Almendralejo para acceder a la aplicación–.

Las condiciones del servicio de ClothOff señalan también que, para “desnudar” a alguien, hay que obtener permiso de la persona interesada –otro requisito pasado por alto en Almendralejo–; que no se debe compartir “contenido objetable” –por ejemplo, “material obsceno”–, ni emplearlo para difamar u hostigar a otros.

ClothOff hace constar además que no guarda datos de los usuarios, ni las fotos subidas para ser procesadas, ni los desnudos fabricados. Tampoco se hace responsable de los malos usos que los clientes puedan hacer de la aplicación.

Las otras empresas de creación de desnudos por IA se expresan en términos similares: se lavan las manos.

Sin “Quiénes somos”

¿Cuáles son esas empresas? Es difícil saberlo. En las webs de tales aplicaciones no figuran casi nunca. Se cree que ClothOff está en Rusia o en Ucrania, y que es de unos tipos que se dedican a la pornografía online. Otra de las más conocidas tiene que ser de Estados Unidos, pues en una página de aviso legal alude a la ley de copyright de ese país. Solo he encontrado una que declara la empresa responsable y su sede social. Quizá haya algún otro caso, pero los lectores me perdonarán no haber hecho una comprobación exhaustiva, por no bucear más en el estercolero.

Lo que no resulta verosímil es que tales empresas radiquen en pequeñas islas de distintos mares. Sin embargo, muchas de esas aplicaciones usan dominios de Internet correspondientes a países u otras jurisdicciones que, si no son paraísos fiscales, se distinguen por dar facilidades para registrar negocios sin necesidad de poner sede en ellos o por inscribir nombres de Internet sin pedir mucha documentación. Son, por ejemplo, el Reino de Tonga (.to), las Islas Cocos (.cc, archipiélago administrado por Australia), o varios territorios británicos de ultramar o del Canal de La Mancha, como las Islas Chagos (.io, el dominio de ClothOff), Anguila (.ai) o Guernsey (.gg).

Los desnudos por IA habitan las amplias zonas de penumbra que hay en el ciberespacio (y no estamos hablando de la Dark Web).

En la penumbra

Ahora bien, tales aplicaciones, aunque ofrecen algunos servicios gratis –productos de calidad rebajada–, en su mayoría tienen versiones de pago (algunas solo admiten monedas virtuales o criptomonedas). Y si hacen transacciones comerciales, tienen que declarar una actividad lícita, registrarse, pagar impuestos y responder de su comportamiento.

Sin embargo, con demasiada facilidad operan en la penumbra o en un ámbito de semilegalidad. Lo mismo sucede con muchos otros servicios que se ofrecen por Internet. No se puede perseguir a todos, pero en las aplicaciones de desnudos artificiales, las autoridades tienen un objetivo claro.

¿Para qué de bueno sirven?

Sin embargo, no se trata solo de pillarlas por infracciones fiscales, como a Al Capone. Otra pregunta relevante es si la actividad misma es lícita.

Los sistemas de IA que nos divierten mostrándonos a El Fary hablando en inglés podrían prestar en el futuro un servicio valioso si alcanzaran tal perfección y rapidez que pudieran usarse para traducción simultánea en videoconferencias. También cabe admitir que los sistemas de generación de imágenes, como Dall·E o Midjourney, sean usados legítimamente para crear desnudos artísticos a partir de unas instrucciones.

Pero ¿qué fin lícito puede tener fabricar un desnudo de una persona real, identificable por su rostro, aun en el improbable caso de que sea mayor de edad y dé su consentimiento? En una reseña de ClothOff publicada en AItoolIMall se lee lo siguiente: “ClothOff puede ser un divertido medio para sorprender –o desconcertar– a tus amigos. ¡Imagina cómo reaccionarán cuando les enseñes la versión ‘desvestida’ de sus fotos!” Un buen recurso para “fiestas, bromas, o retos en redes sociales” (esto último no parece tan inocente).

Si se trata de divertirse, es ilustrativo el caso de PPnude, un antiguo bot de Telegram, que funcionaba solo con fotos de mujeres. Las aplicaciones actuales, por supuesto, no discriminan: desnudan también imágenes de hombres, si bien no las utilizan para anunciarse y da la impresión de que tampoco los usuarios recurren mucho a esa opción. Según Outsource IT, el creador de PPnude decidió retirarla en 2019, y explicó así los motivos. “La creamos para entretenimiento”, y “no imaginábamos que se haría viral”. De suerte que, “pese a las medidas de seguridad (marcas de agua), si medio millón de personas la usan, la probabilidad de uso ilegítimo es demasiado alta”.

En efecto, el mal uso de esas aplicaciones no es un peligro remoto; es más bien lo normal. Las autoexenciones de responsabilidad suenan como si el vendedor de un programa para eliminar la protección anticopia de una obra digital advirtiera: “¡Ni se le ocurra usarlo para infringir el copyright!”.

Identidad personal

Una cuestión más es la repercusión que puede tener la IA generativa en la identidad personal. Si en manos ajenas hay fotos nuestras “desnudables”, perdemos dominio sobre nuestro derecho a la propia imagen.

Los programas desnudadores son un caso infame; pero ¿no se aplica lo mismo a las otras falsificaciones que nos hacen gracia? ¿No habría que exigir constancia del consentimiento de la persona para hacer la manipulación y publicarla? Si se abre la mano con los usos “inocentes”, será difícil frenar los intolerables.

Leyes y ambiente social

La última pregunta es si hacen falta leyes nuevas, como la que prepara la UE, para regular la IA y que no se nos vaya de las manos.

Conductas como las del caso de Almendralejo ya están prohibidas en la legislación vigente. Pero la nueva facilidad para cometer esos delitos exige una reacción, como las que antes ha habido contra la pornografía infantil, la “pornovenganza” y otros géneros de ciberacoso. El esfuerzo, antes que legislativo, ha de ser policial y judicial. Una ley no debe ser demasiado estrecha o puntillosa, para no estorbar la innovación en IA, que puede dar –y está dando– frutos provechosos, pese a los riesgos que también implica; pero si define bien las actividades ilícitas en materia de IA, facilitará a los poderes públicos las acciones para reprimirlas.

De todas formas, la ley nunca suple del todo la moralidad de los ciudadanos. Y en el caso de los menores, es primordial atender a la educación y al ambiente social. Las últimas estadísticas de condenas judiciales en España muestran que los delitos sexuales cometidos por menores subieron un 4% con respecto al año anterior, pero mayor y más preocupante fue el aumento del número de infractores: un 14%. Algo pasa si más chicos cruzan el umbral del crimen.

A propósito de los sucesos de Almendralejo, dijo Isabel Winkles, vicedecana del Colegio de Abogados de Madrid, en declaraciones a Europa Press: “La sociedad tiene que ser consciente de que estamos dejándoles a los niños un móvil en las manos sin el menor control, les estamos dando unas herramientas absolutamente peligrosas y condicionando su evolución y su propio desarrollo como personas”.

Con independencia de las medidas públicas que sea necesario adoptar, los padres tendrán que plantearse si no están dando a sus hijos el smartphone demasiado pronto. Quizá no se lo plantean muchos. Un profesor del colegio de Almendralejo donde estudian los chicos que usaron ClothOff dijo a El País sobre el móvil: “Es el regalo estrella de las comuniones”.