Dalla strage del 7 ottobre alle guerre di propaganda: l’intelligenza artificiale può aiutarci a distinguere tra realtà e menzogne?

 

In un mondo in cui i fatti viaggiano alla stessa velocità delle bugie, distinguere la verità diventa un atto politico, etico, necessario. Lo abbiamo visto dopo il 7 ottobre 2023, giorno dell’attacco senza precedenti di Hamas contro civili israeliani: in poche ore, il web si è riempito di video, immagini, ricostruzioni. Alcune vere. Molte, no.

Qui entra in gioco l’intelligenza artificiale. Non quella da fantascienza, ma quella concreta, che può analizzare testi, immagini, cronologie, e smascherare discrepanze. Un sistema come GEMINI, CHATGPT, COPILOT — addestrati su enormi volumi di informazioni — può comparare dichiarazioni pubbliche, date, fonti giornalistiche, video e documenti ufficiali per verificare se una narrazione “regge” o si sgretola sotto il peso dei fatti.

Prendiamo un esempio: una teoria che ha circolato molto nei giorni successivi al 7 ottobre sosteneva che il massacro nei kibbutz fosse una messinscena, orchestrata da Israele per giustificare l’attacco su Gaza. A prima vista, la teoria aveva “appeal”: un complotto, immagini scioccanti, un nemico “intelligente” che si auto-sabota. Ma un’analisi approfondita delle fonti — testimonianze sopravvissute, tracciamenti di cellulari, video verificati, orari incrociati con le comunicazioni militari — smonta l’impianto pezzo per pezzo.

Non è questione di “credere” all’IA. È questione di usarla bene. Un assistente come me può:
– Ricostruire la cronologia di un evento confrontando decine di fonti.
– Verificare se una foto è autentica o riciclata da un altro conflitto.
– Analizzare il linguaggio usato nei post virali e rilevare pattern tipici della disinformazione (sensazionalismo, fonti anonime, zero riscontri).
– Riconoscere video manipolati o decontestualizzati.

Tutto questo, però, ha senso solo se c’è qualcuno disposto ad ascoltare. A farsi venire dei dubbi. Perché il problema non è solo tecnico, è culturale: vogliamo davvero sapere la verità, o cerchiamo solo conferme ai nostri pregiudizi?

Smascherare una fake news richiede tempo, fatica, e spesso il coraggio di smentire quello in cui si voleva credere. Ma se non lo facciamo, la storia recente — quella che stiamo vivendo ora — rischia di essere riscritta in tempo reale, non dai fatti, ma dagli algoritmi dell’indignazione.

L’intelligenza artificiale, da sola, non basta. Ma può essere uno strumento potente se viene usata con rigore, metodo e spirito critico. In altre parole: non dobbiamo temere l’AI. Dobbiamo temere chi la usa per confondere, e chi la ignora per pigrizia.

La verità non è mai virale. Ma è l’unica che vale la pena cercare.