Abstract
L’intelligenza artificiale generativa sta introducendo una trasformazione strutturale nei processi di comunicazione politica, modificando profondamente le condizioni epistemiche entro cui si sviluppa la decisione democratica, in particolare nei contesti referendari costituzionali. Il referendum presuppone l’esistenza di un ecosistema informativo accessibile, verificabile e condiviso, entro cui il cittadino possa formare un orientamento consapevole. L’emergere di sistemi capaci di generare contenuti sintetici, personalizzare messaggi e mediare l’accesso all’informazione introduce una nuova dimensione di vulnerabilità epistemica. Il presente contributo analizza la trasformazione della propaganda referendaria nell’era dell’intelligenza artificiale, esaminandone i fondamenti tecnologici, le evidenze empiriche, le implicazioni per la sovranità democratica e le strategie di difesa necessarie per garantire la resilienza dei sistemi costituzionali. L’analisi evidenzia come l’intelligenza artificiale non rappresenti semplicemente un nuovo strumento di propaganda, ma una nuova infrastruttura epistemica che ridefinisce il rapporto tra informazione, verità e decisione democratica.
-
Introduzione: il referendum come processo epistemico
Il referendum costituzionale rappresenta una delle forme più dirette di esercizio della sovranità popolare, consentendo ai cittadini di intervenire direttamente nella definizione dell’assetto normativo fondamentale dello Stato. Tale strumento presuppone l’esistenza di condizioni epistemiche che garantiscano la possibilità per l’elettore di accedere a informazioni affidabili e di formare una decisione autonoma.
Storicamente, la propaganda referendaria si è sviluppata all’interno di un ecosistema mediatico relativamente stabile, caratterizzato da una diffusione centralizzata dell’informazione. In tale contesto, pur nella pluralità delle posizioni politiche, esisteva una base informativa condivisa.
L’emergere dell’intelligenza artificiale generativa ha radicalmente alterato questa configurazione, introducendo sistemi capaci di generare contenuti autonomamente, personalizzare messaggi e mediare l’accesso alla realtà informativa.
Il referendum non si svolge più soltanto nello spazio politico, ma all’interno di un ecosistema informazionale algoritmico.
-
L’intelligenza artificiale come infrastruttura epistemica
I sistemi di intelligenza artificiale generativa consentono la produzione automatica di contenuti testuali, visivi e audiovisivi caratterizzati da elevata plausibilità semantica e realismo percettivo. Questa capacità introduce una discontinuità qualitativa nella propaganda politica.
La propaganda non è più limitata dalle capacità produttive umane, ma diventa potenzialmente illimitata nella sua scala. Il costo marginale della produzione di contenuti propagandistici tende a zero.
Parallelamente, la capacità degli algoritmi di analizzare dati comportamentali consente la personalizzazione dei messaggi su scala individuale.
Questo fenomeno trasforma la propaganda da comunicazione collettiva a comunicazione individualizzata.
-
Frammentazione dello spazio pubblico e personalizzazione cognitiva
La propaganda politica tradizionale operava all’interno di uno spazio informativo condiviso. L’intelligenza artificiale introduce una frammentazione radicale di questo spazio.
Attraverso il micro-targeting, gli algoritmi possono generare messaggi specificamente progettati per ciascun individuo, sfruttando vulnerabilità cognitive, bias psicologici e predisposizioni ideologiche.
L’elettore non riceve più informazioni comuni a tutti, ma una configurazione informativa unica.
La propaganda non agisce più soltanto sul contenuto, ma sull’architettura cognitiva della percezione.
-
La simulazione sintetica e la crisi della verificabilità
Le tecnologie di generazione sintetica consentono la creazione di contenuti indistinguibili dalla realtà empirica. Deepfake audiovisivi, clonazione vocale e contenuti sintetici introducono una crisi epistemica.
Il problema non risiede esclusivamente nella diffusione di contenuti falsi, ma nell’erosione della possibilità stessa di distinguere il vero dal falso.
Quando ogni contenuto può essere simulato, la fiducia epistemica diventa strutturalmente fragile.
La propaganda non deve più convincere: è sufficiente rendere incerta la verità.
-
Evidenze empiriche: casi studio internazionali
5.1 Stati Uniti (2024): clonazione vocale e soppressione elettorale
Durante le primarie presidenziali del New Hampshire, migliaia di elettori ricevettero telefonate automatiche contenenti una voce sintetica che imitava quella del Presidente Joe Biden, esortando a non votare.
Questo episodio rappresenta uno dei primi casi documentati di utilizzo dell’intelligenza artificiale per influenzare direttamente la partecipazione elettorale.
5.2 Slovacchia (2023): deepfake e interferenza elettorale
Durante le elezioni parlamentari slovacche, venne diffuso un file audio sintetico che attribuiva dichiarazioni compromettenti a un candidato politico. La diffusione avvenne in prossimità del voto, limitando la possibilità di verifica.
Questo caso evidenzia il ruolo critico della tempistica nella manipolazione informativa.
5.3 Argentina (2023): propaganda sintetica e saturazione cognitiva
L’intelligenza artificiale è stata utilizzata per generare immagini propagandistiche iper-realistiche, contribuendo alla costruzione di una realtà simbolica parallela.
La propaganda ha assunto una dimensione estetica e simbolica che ha sostituito il contenuto politico con rappresentazioni sintetiche.
5.4 India (2024): simulazione identitaria e amplificazione simbolica
L’intelligenza artificiale è stata utilizzata per simulare la presenza di figure politiche decedute e amplificare la diffusione dei messaggi politici attraverso traduzione automatica e generazione sintetica.
Questo fenomeno ha trasformato la percezione della presenza politica.
-
Implicazioni per la sovranità democratica
La sovranità popolare presuppone la capacità dei cittadini di formare decisioni autonome basate su informazioni affidabili.
Quando l’ambiente informativo è mediato da sistemi algoritmici, la decisione democratica diventa il risultato di un’interazione tra individuo e infrastruttura tecnologica.
La propaganda non agisce più soltanto sulla volontà, ma sull’ambiente cognitivo in cui la volontà si forma.
-
Strategie di difesa e resilienza democratica
La protezione dell’integrità referendaria richiede un approccio sistemico articolato su più livelli.
7.1 Trasparenza e tracciabilità dei contenuti sintetici
Tecnologie di watermarking, firme crittografiche e sistemi di provenienza computazionale consentono di identificare i contenuti generati artificialmente.
Questi strumenti ristabiliscono la tracciabilità epistemica dell’informazione.
7.2 Rafforzamento delle infrastrutture informative istituzionali
Le istituzioni devono sviluppare canali informativi ufficiali capaci di fornire informazioni verificabili e tempestive.
La presenza di fonti autorevoli riduce la vulnerabilità alla disinformazione.
7.3 Regolamentazione dell’uso politico dell’intelligenza artificiale
La regolamentazione deve garantire:
- trasparenza nell’uso dell’intelligenza artificiale;
- divieto di impersonificazione sintetica ingannevole;
- tracciabilità dei contenuti propagandistici.
7.4 Educazione alla consapevolezza informazionale
La difesa più efficace è cognitiva.
I cittadini devono sviluppare competenze epistemiche che consentano di comprendere la natura dell’ambiente informativo.
La cittadinanza digitale diventa una condizione necessaria per la cittadinanza democratica.
7.5 Il principio di human oversight
Il mantenimento della supervisione umana garantisce che le decisioni democratiche rimangano espressione autentica della volontà popolare.
Il principio di human oversight rappresenta un elemento fondamentale per la tutela della democrazia costituzionale.
-
Verso una nuova resilienza democratica
L’intelligenza artificiale rappresenta una nuova infrastruttura della comunicazione politica.
La resilienza democratica dipenderà dalla capacità delle istituzioni e dei cittadini di comprendere e governare questa trasformazione.
La sfida non è tecnologica, ma epistemica.
-
Conclusioni
La propaganda referendaria nell’era dell’intelligenza artificiale non è semplicemente più efficace. È ontologicamente diversa.
Essa non agisce soltanto sul contenuto dell’informazione, ma sull’infrastruttura epistemica della realtà.
Il futuro della democrazia dipenderà non dalla capacità di limitare la tecnologia, ma dalla capacità di governarla consapevolmente.
La sovranità democratica nel XXI secolo è inseparabile dalla sovranità epistemica.
Riferimenti bibliografici essenziali
Floridi, L. (2015). The Onlife Manifesto. Springer.
Floridi, L. (2014). The Fourth Revolution. Oxford University Press.
European Union (2024). Artificial Intelligence Act.
UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence.
Castells, M. (2010). The Rise of the Network Society. Wiley.
© 2026 Gianfranco Bordoni. Tutti i diritti riservati. Nessuna parte del presente articolo può essere riprodotta, distribuita o trasmessa, in qualsiasi forma o con qualsiasi mezzo, senza preventiva autorizzazione scritta dell’autore, fatto salvo il diritto di citazione per finalità scientifiche, didattiche e di ricerca, con esplicita indicazione della fonte.
