Le reti neurali di DeepNude e il loro impatto
DeepNude ha sollevato importanti questioni etiche sull'uso dell'IA.
Che cos’è DeepNude e perché se ne parla ancora oggi?
DeepNude è un programma di intelligenza artificiale che ha fatto discutere per la sua capacità di creare versioni modificate di fotografie di persone vestite, facendo apparire i soggetti come se fossero nudi. Il software è stato sviluppato da un programmatore russo conosciuto con lo pseudonimo di Alberto. L’idea, secondo quanto dichiarato, nacque come esperimento tecnico ispirato ai famosi “occhiali a raggi X” delle pubblicità degli anni ’60 e ’70. Tuttavia, DeepNude è stato ritirato poco dopo la sua uscita, a causa delle critiche legate all’uso non consensuale delle immagini e ai rischi etici associati a questo tipo di intelligenza artificiale.
Quali tecnologie di intelligenza artificiale rendono possibile DeepNude?
Alla base di DeepNude ci sono due concetti chiave del machine learning: le GAN (Generative Adversarial Networks) e la tecnologia pix2pix. Le GAN sono un tipo di rete neurale composta da due modelli che lavorano insieme: un generatore, che crea immagini; e un discriminatore, che valuta se l’immagine generata sembra reale o no. Con il tempo, il generatore diventa sempre più bravo a produrre immagini realistiche, mentre il discriminatore migliora nel riconoscere gli errori. È un gioco a due che porta la rete a imparare a creare immagini credibili. Pix2pix, invece, è una tecnologia di image-to-image translation, cioè traduzione da immagine a immagine. Serve per trasformare una foto da un formato visivo a un altro — per esempio da “foto con vestiti” a “foto senza vestiti” nel caso di DeepNude.
Come è stato addestrato l’algoritmo di DeepNude?
L’algoritmo è stato addestrato su oltre 10.000 fotografie di donne nude, raccolte da internet. Questo dataset ha permesso al sistema di “imparare” come appaiono le varie parti del corpo femminile — pelle, forme, proporzioni e colori — in diverse condizioni di luce e in differenti pose. Grazie a queste informazioni, la rete neurale ha imparato a riconoscere le zone coperte dai vestiti e a ricostruirle digitalmente immaginando cosa ci sarebbe sotto, basandosi sui modelli appresi. È importante sottolineare che DeepNude funziona quasi solo su immagini di donne, perché il dataset di addestramento era composto quasi esclusivamente da foto femminili. Quando si prova a usare l’algoritmo su immagini maschili, i risultati sono distorti e poco realistici.
Cosa fa esattamente la rete neurale quando riceve una foto?
Quando un utente inserisce una foto di una persona vestita, la rete neurale esegue una serie di passaggi automatici: 1. Riconoscimento dei contorni corporei. L’algoritmo individua la forma del corpo e le zone coperte dagli abiti. 2. Segmentazione dell’immagine. Divide la foto in aree: vestiti, pelle, sfondo e dettagli. 3. Ricostruzione artificiale. Sulla base dei dati imparati durante l’addestramento, la rete genera nuovi pixel che rappresentano pelle e dettagli anatomici coerenti con la posa e l’illuminazione originali. 4. Composizione finale. I nuovi pixel “sostituiscono” digitalmente i vestiti, creando l’illusione di un corpo nudo, pur non mostrando mai una foto reale del soggetto.
DeepNude utilizza le GAN:
cosa significa in parole semplici?
Le GAN funzionano come un gioco tra due intelligenze artificiali. Una (il Generatore) crea immagini false, mentre l’altra (il Discriminatore) cerca di capire se sono vere o false. All’inizio il generatore produce immagini grezze, piene di errori. Ma, con migliaia di iterazioni, impara a imitare sempre meglio la realtà. Questo tipo di apprendimento è ciò che permette a DeepNude di creare immagini coerenti e visivamente realistiche, anche se sono totalmente artificiali. Le GAN sono oggi utilizzate in moltissimi altri ambiti: dal restauro di foto antiche alla creazione di personaggi virtuali nei videogiochi, fino ai filtri fotografici nei social network.
Cosa significa che DeepNude usa la tecnologia “pix2pix”?
Pix2pix è un tipo di modello di intelligenza artificiale che trasforma una foto in un’altra versione visiva della stessa immagine. Per esempio: può convertire uno schizzo in un volto realistico; o una mappa stradale in un’immagine satellitare. Nel caso di DeepNude, pix2pix viene usato per passare da “immagine con vestiti” a “immagine senza vestiti”, seguendo la logica appresa durante l’addestramento. Non si tratta di una semplice “sovrapposizione” di livelli grafici: il modello genera pixel nuovi basandosi sulle statistiche dei dati che ha studiato.
Perché DeepNude è stato ritirato?
Dopo il rilascio iniziale nel 2019, DeepNude è stato ritirato dal suo stesso creatore. Le critiche sono state immediate e forti: l’app poteva essere usata per creare immagini non consensuali, violando la privacy e la dignità delle persone. Il rischio era che chiunque potesse caricare la foto di una donna vestita e ottenere una versione manipolata in pochi secondi. Il creatore di DeepNude ha dichiarato di non aver previsto l’uso malevolo che ne sarebbe stato fatto e ha rimosso il progetto, spiegando che “il mondo non era pronto per una tecnologia del genere”.
Qual è l’impatto etico e sociale di tecnologie come DeepNude?
DeepNude ha sollevato questioni etiche fondamentali sul rapporto tra intelligenza artificiale, privacy e consenso. Le stesse tecniche usate per creare immagini manipolate vengono oggi impiegate in contesti positivi, come la medicina, il cinema o il restauro digitale. Tuttavia, senza regole e controllo, possono diventare strumenti di abuso. Questo ha spinto governi, aziende e ricercatori a parlare di AI Ethics, chiedendo maggiore responsabilità nello sviluppo e nell’uso di reti neurali generative.
Le tecnologie come DeepNude sono ancora usate oggi?
Sebbene DeepNude sia stato rimosso, la tecnologia alla base — le GAN e i modelli pix2pix — è ancora largamente utilizzata. Esistono centinaia di progetti di AI generativa che sfruttano principi simili per scopi legali e creativi: rigenerare foto rovinate, creare avatar realistici, o ricostruire volti da immagini parziali. Allo stesso tempo, sono nate versioni illegali e cloni del software originale, che operano nel dark web o su canali privati, spesso con finalità dannose.
È possibile usare tecniche come quelle di DeepNude in modo etico?
Sì, ma con limiti e regole chiare. Le stesse reti neurali che DeepNude ha usato per generare immagini possono essere impiegate per ricostruire volti mancanti in dipinti antichi, per ricreare paesaggi o per modellare oggetti in 3D. Il problema non è la tecnologia in sé, ma l’uso che se ne fa. Molte aziende di intelligenza artificiale stanno ora implementando sistemi di controllo per impedire manipolazioni non autorizzate di immagini di persone reali.
Come si addestrano oggi le reti neurali generative in modo responsabile?
Oggi gli sviluppatori cercano di usare dataset etici, composti da immagini generate artificialmente o da contenuti rilasciati con licenze aperte. Inoltre, vengono adottati sistemi di filtro dei contenuti sensibili e tracciabilità dei modelli per sapere come e con quali dati sono stati addestrati. Questa trasparenza è fondamentale per evitare che si ripetano casi come DeepNude e per mantenere la fiducia del pubblico verso l’intelligenza artificiale.