Las redes neuronales de DeepNude y su impacto
DeepNude ha planteado importantes cuestiones éticas sobre el uso de la IA.
¿Qué es DeepNude y por qué se habla de ello todavía hoy?
DeepNude es un programa de inteligencia artificial que ha generado controversia por su capacidad de crear versiones modificadas de fotografías de personas vestidas, haciendo que los sujetos parezcan desnudos. El software fue desarrollado por un programador ruso conocido con el seudónimo de Alberto. La idea, según se ha declarado, nació como un experimento técnico inspirado en los famosos “gafas de rayos X” de los anuncios de los años 60 y 70. Sin embargo, DeepNude fue retirado poco después de su lanzamiento, debido a las críticas relacionadas con el uso no consensual de las imágenes y los riesgos éticos asociados a este tipo de inteligencia artificial.
¿Qué tecnologías de inteligencia artificial hacen posible DeepNude?
En la base de DeepNude hay dos conceptos clave del machine learning: las GAN (Redes Generativas Antagónicas) y la tecnología pix2pix. Las GAN son un tipo de red neuronal compuesta por dos modelos que trabajan juntos: un generador, que crea imágenes; y un discriminador, que evalúa si la imagen generada parece real o no. Con el tiempo, el generador se vuelve cada vez mejor en producir imágenes realistas, mientras que el discriminador mejora en reconocer los errores. Es un juego de dos que lleva a la red a aprender a crear imágenes creíbles. Pix2pix, en cambio, es una tecnología de traducción de imagen a imagen. Sirve para transformar una foto de un formato visual a otro — por ejemplo, de “foto con ropa” a “foto sin ropa” en el caso de DeepNude.
¿Cómo fue entrenado el algoritmo de DeepNude?
El algoritmo fue entrenado con más de 10,000 fotografías de mujeres desnudas, recopiladas de internet. Este conjunto de datos permitió al sistema “aprender” cómo aparecen las diversas partes del cuerpo femenino — piel, formas, proporciones y colores — en diferentes condiciones de luz y en distintas poses. Gracias a esta información, la red neuronal aprendió a reconocer las zonas cubiertas por la ropa y a reconstruirlas digitalmente imaginando qué habría debajo, basándose en los modelos aprendidos. Es importante destacar que DeepNude funciona casi exclusivamente con imágenes de mujeres, porque el conjunto de datos de entrenamiento estaba compuesto casi exclusivamente por fotos femeninas. Cuando se intenta usar el algoritmo en imágenes masculinas, los resultados son distorsionados y poco realistas.
¿Qué hace exactamente la red neuronal cuando recibe una foto?
Cuando un usuario inserta una foto de una persona vestida, la red neuronal ejecuta una serie de pasos automáticos: 1. Reconocimiento de los contornos corporales. El algoritmo identifica la forma del cuerpo y las zonas cubiertas por la ropa. 2. Segmentación de la imagen. Divide la foto en áreas: ropa, piel, fondo y detalles. 3. Reconstrucción artificial. Basándose en los datos aprendidos durante el entrenamiento, la red genera nuevos píxeles que representan piel y detalles anatómicos coherentes con la pose y la iluminación originales. 4. Composición final. Los nuevos píxeles “sustituyen” digitalmente la ropa, creando la ilusión de un cuerpo desnudo, sin mostrar nunca una foto real del sujeto. DeepNude utiliza las GAN:
¿qué significa en palabras simples?
Las GAN funcionan como un juego entre dos inteligencias artificiales. Una (el Generador) crea imágenes falsas, mientras que la otra (el Discriminador) intenta entender si son verdaderas o falsas. Al principio, el generador produce imágenes crudas, llenas de errores. Pero, con miles de iteraciones, aprende a imitar cada vez mejor la realidad. Este tipo de aprendizaje es lo que permite a DeepNude crear imágenes coherentes y visualmente realistas, aunque sean totalmente artificiales. Las GAN se utilizan hoy en muchos otros ámbitos: desde la restauración de fotos antiguas hasta la creación de personajes virtuales en videojuegos, pasando por los filtros fotográficos en las redes sociales.
¿Qué significa que DeepNude usa la tecnología “pix2pix”?
Pix2pix es un tipo de modelo de inteligencia artificial que transforma una foto en otra versión visual de la misma imagen. Por ejemplo: puede convertir un boceto en un rostro realista; o un mapa de carreteras en una imagen satelital. En el caso de DeepNude, pix2pix se utiliza para pasar de “imagen con ropa” a “imagen sin ropa”, siguiendo la lógica aprendida durante el entrenamiento. No se trata de una simple “superposición” de capas gráficas: el modelo genera nuevos píxeles basándose en las estadísticas de los datos que ha estudiado.
¿Por qué fue retirado DeepNude?
Después del lanzamiento inicial en 2019, DeepNude fue retirado por su propio creador. Las críticas fueron inmediatas y contundentes: la aplicación podía ser utilizada para crear imágenes no consensuales, violando la privacidad y la dignidad de las personas. El riesgo era que cualquiera pudiera cargar la foto de una mujer vestida y obtener una versión manipulada en pocos segundos. El creador de DeepNude declaró que no había previsto el uso malicioso que se le daría y retiró el proyecto, explicando que “el mundo no estaba preparado para una tecnología de este tipo”.
¿Cuál es el impacto ético y social de tecnologías como DeepNude?
DeepNude ha planteado cuestiones éticas fundamentales sobre la relación entre inteligencia artificial, privacidad y consentimiento. Las mismas técnicas utilizadas para crear imágenes manipuladas se emplean hoy en contextos positivos, como la medicina, el cine o la restauración digital. Sin embargo, sin reglas y control, pueden convertirse en herramientas de abuso. Esto ha llevado a gobiernos, empresas e investigadores a hablar de Ética de la IA, pidiendo mayor responsabilidad en el desarrollo y uso de redes neuronales generativas.
¿Las tecnologías como DeepNude todavía se utilizan hoy?
Aunque DeepNude ha sido eliminado, la tecnología subyacente — las GAN y los modelos pix2pix — sigue siendo ampliamente utilizada. Existen cientos de proyectos de IA generativa que aprovechan principios similares para fines legales y creativos: regenerar fotos dañadas, crear avatares realistas o reconstruir rostros a partir de imágenes parciales. Al mismo tiempo, han surgido versiones ilegales y clones del software original, que operan en la dark web o en canales privados, a menudo con fines dañinos.
¿Es posible usar técnicas como las de DeepNude de manera ética?
Sí, pero con límites y reglas claras. Las mismas redes neuronales que DeepNude utilizó para generar imágenes pueden ser empleadas para reconstruir rostros faltantes en pinturas antiguas, para recrear paisajes o para modelar objetos en 3D. El problema no es la tecnología en sí, sino el uso que se le da. Muchas empresas de inteligencia artificial están ahora implementando sistemas de control para prevenir manipulaciones no autorizadas de imágenes de personas reales.
¿Cómo se entrenan hoy las redes neuronales generativas de manera responsable?
Hoy en día, los desarrolladores buscan utilizar conjuntos de datos éticos, compuestos por imágenes generadas artificialmente o por contenidos liberados con licencias abiertas. Además, se adoptan sistemas de filtrado de contenido sensible y trazabilidad de los modelos para saber cómo y con qué datos han sido entrenados. Esta transparencia es fundamental para evitar que se repitan casos como DeepNude y para mantener la confianza del público en la inteligencia artificial.