Tre figure oscure, un solo risultato: inquinare il dibattito pubblico con immagini contraffatte.
- I creatori. I bufalari professionisti: fauna abietta. Per loro nutro la stessa stima che riservo alla schiuma di fagioli avariata. Costruiscono immagini deepfake con Midjourney o DALL-E, caricano su un account usa-e-getta e aspettano che il veleno si propaghi. Obiettivo: disinformazia, nel senso sovietico del termine, confondere e ingannare, senza vergogna.
- Propalatori consapevoli. Più protervi, per certi versi, dei creatori stessi. Il dubbio lo hanno magari avvertito baluginare. Ma hanno condiviso lo stesso, con la scusa di essersi limitati a girarlo con un click. Tesi farraginosa e moralmente lubrica. Diffondere menzogne altrui è un atto che comporta responsabilità precise e pesanti, non evitabili né attenuabili.
- Propalatori inconsapevoli. Nel 2026 ancora non si fanno tre domande in croce prima di cliccare “condividi”: “Questa foto è autentica?”; “Non sarà stata creata da AI?”; “Che figura ci faccio se mi rendo complice di una bufala sesquipedale?” L’ignavia non li assolve, anche perché gli strumenti per accertare l’autenticità di un’immagine esistono e sono gratuiti. Qui di seguito ne trovate 7 a complessità ed efficacia crescente:
- TinEye: specializzato nel trovare versioni modificate e rintracciare la fonte originale.
- Google Lens/Immagini: per capire se è stata scattata in un luogo diverso da quello dichiarato
- Yandex Images: trova duplicati esatti o volti simili, utile per smascherare profili fake.
- AI or Not: verdetto immediato su immagini, video e audio.
- Illuminarty: ricerca artefatti generativi e fornisce una mappa di calore delle zone sospette.
- ZeroGPT AI Image Detector: semplice, per un verdetto rapido sull’origine sintetica.
- Fotoforensics: analisi forense dei livelli di compressione JPEG, rivela manipolazioni anche sottili.
- E poi c’è il top per chi vuole approfondire davvero: InVID& WeVerify: potentissima estensione solo per browser (Chrome/Firefox). Include analisi dei metadati, ricerca inversa e analisi del fotogramma.
La reputazione e la credibilità sono una cosa seria!
Rassegna di casi più o meno recenti
PAPA FRANCESCO IN PIUMINO BALENCIAGA (marzo 2023). Generata con Midjourney, condivisa 35 milioni di volte in un solo weekend. Gli occhiali deformati e la bottiglia impossibile erano lì, visibili. Definita “il primo caso di disinformazione AI su scala globale”.
TRUMP ARRESTATO (marzo 2023). Immagini AI di Trump in manette, generate da Eliot Higgins di Bellingcat come esperimento dichiarato. Cinque milioni di visualizzazioni in 24h. Narrativa fraudolenta costruita sul nulla.
MELANIA E EPSTEIN (dal 2023 fino a circolazione max attuale). Fotografia AI di Melania Trump in atteggiamenti intimi con Jeffrey Epstein, viralizzata su X, Instagram, FB e Telegram: la pulsione a credere ciò che si vorrebbe vero è tremenda e ha generato oltre 150M di visualizzazioni in tutto il mondo.
LA MACCHINA “AI SLOP” DI GAZA (report HonestReporting, febbraio 2026). Durante le piogge invernali su Gaza, per due inverni, social inondati di clip AI di bambini immersi nell’acqua fino alla vita in tende allagate, con voci meccaniche che recitavano: “Abbiamo paura, aiutateci”. Glitch perspicui con vestiti asciutti su corpi immersi nell’acqua, movimenti labiali fuori sync, bandiere palestinesi sventolanti prive di palo, e altri particolari grossolani, come la padella protesa al dì la di una rete a maglie fitte.. HonestReporting nel febbraio 2026 ha documentato e archiviato l’intera produzione, propalata (un caso di suffissazione) come notizia. Materiale esiziale che inquina e neutralizza la situazione esistente per spremere contributi o amplificare sdegno.
Ogni click di condivisione è un atto, di cui non si risponde davanti a un giudice ma al cospetto della propria reputazione e della propria credibilità, che i bufalari erodono gratuitamente, ogni giorno, con strumenti di consumata perfidia.
Giulio Galetti, 20 aprile 2026
Nicolaporro.it è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati (gratis).
Immagine generata da AI tramite GPT Image 1.5 di OpenAI


