Publicado 20/10/2025 09:38

Portaltic.-Una adolescente demanda a los creadores de ClothOff por las secuelas que arrastra tras desnudarla sin consentimiento

Chica caminando por la calle con el móvil
Chica caminando por la calle con el móvil - UNSPLASH/MAURO LIMA

   MADRID, 20 Oct. (Portaltic/EP) -

   Una adolescente víctima de la aplicación ClothOff, que usa la inteligencia artificial generativa para desnudar a cualquiera a partir de una imagen con ropa, ha demandado a los creadores por las secuelas arrastra y por el potencial uso que estén haciendo de sus imágenes para entrenar modelos de IA.

    En 2023, compañeros de instituto de Jane Doe -nombre genérico que se usa para no identificar a la menor de edad, en este caso, de 17 años- obtuvieron y usaron imágenes de ella para cargarlas en la aplicación ClothOff, que con solo tres clics desnuda a la persona, ofreciendo un resultado que no puede diferenciarse de una imagen real.

    "Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces", recoge el texto de la demanda, presentada en el Tribunal de Distrito de Los Estados Unidos del Distrito de Nueva Jersey.

    Ello le ha llevado a demandar junto con sus padres a la empresa AI/Robotics Venture Strategy 3, responsable de la aplicación, por entender que su modelo de negocio no solo facilita la creación de desnudos ilegales, sino también su distribución y la monetización a través de los planes de pago, e incluso a través de la provisión de la tecnología de base a desarrolladores y otras plataformas.

    "Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos", se indica, en referencia a las imágenes hiperrealistas de desnudos de personas sin su consentimiento que produce, ya sean menores (lo que se llama material de abuso sexual infantil) o adultos (imágenes íntimas sin consentimiento) "convirtiéndolo en un caldo de cultivo por pornografía infantil, explotación y abuso sexual".

   También se señala que, "porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su CSAM permanezca disponible en ClothOff y en otros lugares. Le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas".

Según se recoge en la demanda, ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas. La propia promoción de la app invita a los usuarios a "desnudas a cualquiera" con su servicio gratuito.

Contador