Il corpo digitale e la nuova violenza: quando l’IA riscrive il confine del consenso

Deepfake e consenso

Non servono più telecamere, né set fotografici. Bastano pochi dati, un algoritmo e una manciata di minuti per generare un corpo che non esiste. È così che deepfake e intelligenza artificiale hanno dato vita a una forma inedita di violenza: quella che trasforma volti reali in corpi digitali senza consenso.

La vicenda che ha travolto artiste come Annalisa, Elodie, Michelle Hunziker, Laura Pausini, Chiara Ferragni, Maria De Filippi e altre figure pubbliche italiane non riguarda solo la privacy o la tecnologia. Riguarda la struttura sociale del desiderio e del potere.
Dietro ogni immagine manipolata, infatti, si nasconde una dinamica antica: l’idea che il corpo femminile sia un bene comune, accessibile, riproducibile, disponibile.

Nell’era digitale il corpo è diventato un campo di simulazione. Non serve toccarlo, basta riprodurlo. La pornografia sintetica, creata dall’intelligenza artificiale, mette in scena una nuova forma di appropriazione: non più fisica, ma simbolica e algoritmica.

La sociologia ci insegna che ogni società produce il suo tipo di violenza sessuale. Quella contemporanea, mediata dai pixel, si esercita sul diritto all’immagine e alla rappresentazione di sé.
È un potere invisibile che passa per la rete, travestito da curiosità, intrattenimento o “gioco tecnologico”. Ma non è un gioco. È un dispositivo di dominio.

Contenuti

Il consenso nell’era digitale

Come ricordava Edgar Allan Poe — “non credete a nulla di ciò che sentite e solo alla metà di ciò che vedete” — oggi anche vedere non significa più sapere.
Il consenso, fondamento del diritto e della libertà individuale, diventa un concetto fragile, quasi impossibile da verificare.

Un volto può essere catturato da un video, una foto o un selfie, e diventare materia prima per la manipolazione. La tecnologia cancella il confine tra reale e falso, tra partecipazione e violazione.
Eppure, dal punto di vista sociologico, la questione non è solo giuridica: è identitaria.
Quando un’immagine falsa di te circola nel mondo, non sei più padrone del tuo corpo simbolico. La tua identità sociale — quella che altri vedono, commentano, giudicano — viene riscritta.

La legge e il vuoto culturale

Con la Legge 23 settembre 2025 n.132, l’Italia ha introdotto nel Codice Penale l’articolo 612-quater, che punisce la “diffusione illecita di contenuti generati o alterati con l’intelligenza artificiale”.
È un passo importante ma insufficiente a risolvere il nodo più profondo: quello culturale. La legge può punire l’atto, ma non può cambiare la mentalità collettiva che lo alimenta.
Il “piacere di guardare” — anche quando si sa che è falso — è un gesto che appartiene a una cultura ancora impregnata di voyeurismo e dominio patriarcale.
Il problema non è solo che le immagini esistano, ma che trovino milioni di spettatori pronti a cliccare, commentare, condividere.

Il fenomeno dei deepfake non è solo un effetto collaterale della tecnologia, ma uno specchio della società.
Mostra quanto fragile sia il concetto di verità nel mondo digitale, ma anche quanto persistente sia la logica del possesso sul corpo femminile.
L’algoritmo, in questo senso, non crea nuove disuguaglianze: le replica e amplifica.
Ogni clic è un atto di partecipazione collettiva alla cultura dell’abuso.

I forum come SocialMediaGirls, con milioni di iscritti, non sono solo luoghi di consumo pornografico. Sono spazi sociali dove si consolidano narrazioni di potere. Lì, le donne diventano “dataset” da modificare, sezionare, condividere. Il linguaggio tecnico — “render”, “output”, “prompt” — maschera l’antica logica della mercificazione del corpo.

È una pornografia che non ha bisogno di desiderio, solo di dati. Il paradosso è che per smascherare un falso dovremo ricorrere ad altre intelligenze artificiali, addestrate a riconoscere gli inganni delle prime.
Una battaglia tra algoritmi, in cui l’unico elemento realmente umano sarà la consapevolezza di chi osserva.

Non è la nudità delle immagini a scandalizzare, ma quella del nostro sguardo.
Ciò che il deepfake rivela è quanto poco abbiamo imparato a guardare responsabilmente.
Il corpo digitale è l’ultima frontiera della libertà individuale: se non sappiamo difenderlo, non sarà la tecnologia a salvarci.

Go up