Meloni e il deepfake in lingerie: quando la disinformazione artificiale colpisce al centro del potere
Giorgia Meloni ha pubblicato lei stessa la foto falsa che la ritrae in lingerie, generata con l’intelligenza artificiale e circolata sui social come autentica. “Chi l’ha realizzata mi ha anche migliorata parecchio”, ha scritto, prima di arrivare al punto: i deepfake non sono un problema solo suo, sono un problema di tutti. “Io posso difendermi. Molti altri no.”
La foto ritoccata della premier è però solo il caso più recente.
Un report pubblicato da NewsGuard all’inizio di maggio 2026 ha messo insieme i pezzi di un fenomeno che si trascinava almeno dall’estate precedente. Sedici dichiarazioni false attribuite a membri del governo italiano, quasi 29 milioni di visualizzazioni su X. Quattro di queste, concentrate tra gennaio e aprile 2026, hanno un filo comune: costruire l’immagine di una Meloni rivoltata contro Trump. Lei che minaccia di chiudere le basi americane. Lei che sostiene il diritto dell’Iran a bloccare Hormuz. Lei che rimprovera il presidente americano sulla gestione del nucleare.
Niente di tutto questo è mai stato detto, ma la scelta del bersaglio non è di certo casuale. Meloni è, tra i leader europei, quello politicamente più allineato a Washington; questo la rende il soggetto più esposto alla manipolazione. Una Meloni in rottura con Trump renderebbe credibile la narrazione di un Occidente fratturato, e il falso funzionerebbe in entrambe le direzioni: letto come coraggio dai suoi sostenitori, come conversione tardiva dai suoi critici.
Il caso più emblematico è un video su TikTok dell’aprile 2026: una Meloni artificiale che attacca Trump sulla guerra in Iran, costruita a partire da un suo discorso reale del 3 marzo in cui non aveva detto nulla di simile. Gli strumenti di analisi lo hanno classificato come generato dall’IA con il 99% di probabilità, ma aveva già accumulato migliaia di visualizzazioni prima che qualcuno lo smascherasse. Un altro post, da quasi 4 milioni di visualizzazioni, estrapolava e stravolgeva una sua risposta ironica durante una conferenza stampa di gennaio, trasformandola in una dichiarazione di rottura con Washington.
A Bruxelles la notizia della foto falsa ha riacceso un dibattito che già esisteva ma faticava a trovare urgenza. La vicepresidente del Parlamento europeo Antonella Sberna ha parlato di un fenomeno che “colpisce in modo particolarmente insidioso le donne impegnate nelle istituzioni”. I deputati FdI Carlo Fidanza e Stefano Cavedagna hanno annunciato una risoluzione per rendere operativo l’obbligo di marcatura previsto dall’AI Act, quella norma che esige il watermarking dei contenuti generati artificialmente, ma che fino ad agosto 2026 non è ancora pienamente sanzionabile e nel frattempo resta applicata su base volontaria. Il problema tecnico è reale: molti watermark si rimuovono con software elementari, e non esiste ancora uno standard condiviso tra le piattaforme.
In Italia la risposta istituzionale si è fermata a una legge approvata a settembre 2025 che introduce un reato specifico per la diffusione di deepfake, ma senza strumenti per la rimozione rapida dei contenuti. A febbraio 2026 la proposta della deputata dem Anna Ascani – takedown entro 24 ore, poteri rafforzati per l’Agcom – era stata bocciata dalla maggioranza. “Oggi Meloni si accorge che i deepfake sono pericolosi perché a esserne vittima è lei”, ha commentato Ascani dopo il post della premier. Dall’interno della coalizione, la presidente della Commissione parlamentare sul femminicidio Martina Semenzato ha chiesto di accelerare su un pacchetto di misure elaborato in sede bipartisan: daspo digitale, obbligo di intervento tempestivo per le piattaforme, nuovo reato specifico per i deepnude.
Il dibattito è ancora aperto su più tavoli, senza una direzione comune. L’appuntamento con l’applicabilità piena dell’AI Act è fissato per il 2 agosto 2026.




