

La disinformazione e la propaganda non sono una deviazione della modernità: sono strumenti antichi, da sempre impiegati per orientare le opinioni e piegare la percezione collettiva della realtà. All’alba dell’era digitale, con l’ascesa di internet, molti temevano che la Rete potesse amplificare queste distorsioni fino a renderle incontrollabili. Per anni, fortunatamente, quella minaccia non si è materializzata nella sua forma più estrema.
L’avvento dell’intelligenza artificiale segna invece una frattura netta. Non solo oggi è incredibilmente semplice produrre contenuti che appaiono autentici, credibili, persino “documentali”; per la prima volta assistiamo anche a crisi reali profondamente influenzate e deformate dalla diffusione di disinformazione generata artificialmente.
Mi riferisco al Sudan e alla crisi umanitaria in corso che si è sviluppata a seguito della brutale guerra civile tra le forze governative e le RSF.
In questo contesto, l’intelligenza artificiale è stata utilizzata per fini altamente sovversivi e distruttivi. Video e immagini deepfake sulla situazione umanitaria sudanese hanno circolato in modo capillare, raggiungendo un pubblico globale e imponendosi spesso sulle testimonianze reali di chi si trova sul campo.
Il risultato è stato devastante. L’abuso deliberato di strumenti di IA e le campagne organizzate per saturare lo spazio pubblico con contenuti manipolati hanno alimentato una sfiducia profonda e generalizzata, ben oltre i confini del Sudan. Allo stesso tempo, hanno accresciuto la confusione sulle cause, sulle responsabilità e sugli sviluppi di una guerra già di per sé complessa e opaca.
Immagini e video generati dall’IA che rappresentano violenze e atrocità in Sudan sono diventati virali, spesso superando per diffusione e impatto la documentazione autentica prodotta da testimoni oculari. Alcuni dei contenuti più condivisi, presentati come riprese dal terreno, sono stati successivamente analizzati da inchieste di fact-checking rigorose condotte da BBC, Deutsche Welle e AFP.
Le conclusioni sono state inequivocabili: quei materiali non erano reali, ma costruiti attraverso strumenti di intelligenza artificiale generativa. È una verità sconvolgente, ma ormai tutt’altro che isolata. I conflitti contemporanei sono sempre più attraversati da narrazioni falsificate, prodotte sfruttando il progresso tecnologico come moltiplicatore dell’inganno.
Quando un contenuto fake viene smascherato, l’effetto non si limita a correggere un errore. Quasi sempre produce un danno collaterale più ampio: aumenta lo scetticismo verso tutte le informazioni provenienti da quello stesso contesto. È il meccanismo del cosiddetto liar’s dividend, il “dividendo del bugiardo”: più materiale manipolato circola, più cresce il dubbio, fino al punto in cui anche le prove autentiche vengono messe in discussione.
Nel caso del Sudan, questo processo ha avuto conseguenze drammatiche che vanno ben oltre il piano informativo. La distorsione della realtà ha compromesso la capacità di garantire aiuti umanitari a chi ne ha un bisogno disperato. Le ONG, spesso le prime a intervenire sul terreno, dipendono non solo dal sostegno dei governi e dell’opinione pubblica, ma anche da informazioni affidabili per individuare le aree più colpite.
Le campagne di disinformazione e la confusione prodotta dai deepfake hanno eroso la fiducia nei report umanitari autentici. Raccontare la realtà dei bisogni è diventato più difficile; comprenderla, per il pubblico e per i donatori, ancora di più.
In Sudan, i dubbi generati dalla scoperta di materiali falsificati hanno spinto donatori, organizzazioni e singoli individui a mettere in discussione la validità di numerosi appelli all’assistenza — compresi quelli legittimi. Il risultato è stato un rallentamento dei finanziamenti e, di conseguenza, un ostacolo concreto alla distribuzione di aiuti vitali.
Ho toccato con mano questi effetti nel mio lavoro per l’ONG Lombardi nel mondo e per il neonato Delphi Institute. Fonti di supporto che in passato si erano dimostrate affidabili hanno scelto di tirarsi indietro, disorientate dalla proliferazione di narrazioni contrastanti. Sul campo, operatori umanitari sono stati indirizzati verso aree che non corrispondevano ai bisogni più urgenti, sottraendo tempo e risorse a interventi essenziali.
L’uso di documentazione falsa e di video creati con l’intelligenza artificiale — in particolare dei deepfake — non può essere considerato una semplice dérive tecnologica. È un problema di portata internazionale. Non possiamo permettere che la sofferenza venga sottratta allo sguardo pubblico attraverso la manipolazione, né che venga artificiosamente costruita per sostenere narrazioni illegittime.
Difendere la verità, oggi, non è un esercizio astratto. In contesti come il Sudan, significa difendere la possibilità stessa di intervenire, di soccorrere, di salvare vite. Per questo è necessario riscoprire il valore della verità. Oggi più che mai indispensabile.
Se ti è piaciuto o se non ti è piaciuto questo articolo, scrivilo nei commenti.

InOltre è completamente gratuito ed è il frutto della competenza e della passione di molte persone che lavorano senza fini di lucro. Se desideri contribuire con un piccolo supporto, puoi farlo effettuando un bonifico come di seguito specificato oppure cliccando sui pulsanti che vedi, scegliendo l’opzione che più preferisci. Le donazioni verranno utilizzate per i costi di mantenimento del sito e per altre attività editoriali.
Grazie per il vostro supporto!
Bonifico bancario intestato a Inoltre Ente del Terzo Settore con Causale: donazione/erogazione liberale a favore di Inoltre ETS.
Codice Iban: IT55A0306909606100000404908



Scopri di più da InOltre
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
