Il femminicidio è un fenomeno strutturale e trasversale che colpisce ogni anno migliaia di donne in Europa.
In Italia, nonostante la crescita della consapevolezza sociale, la violenza di genere continua a rappresentare un’emergenza. L’intelligenza artificiale (IA), se guidata da criteri etici e integrata con la partecipazione attiva della cittadinanza, può rappresentare uno strumento concreto nella prevenzione.
Analizzo il ruolo dell’IA nella lotta al femminicidio, confrontando esperienze europee e proponendo un modello di azione fondato sulla sinergia tra tecnologia e responsabilità civica.
Viene inoltre introdotta una riflessione critica attraverso il parallelo cinematografico con Minority Report, per discutere i rischi di un approccio iper-predittivo e non sufficientemente umano-centrato.
Il femminicidio in Italia: un quadro preoccupante
-
L’Osservatorio Non Una di Meno registra per il 2025, aggiornati all’8 maggio, un totale di 82 casi tra femminicidi, lesbicidi e transcidi in Italia: incluse 70 donne uccise, 3 suicidi indotti di donne, 1 suicidio indotto di un ragazzo trans, 1 suicidio indotto di una persona non‑binaria, 1 suicidio indotto di un ragazzo, e 6 casi in fase di accertamento.
-
Sempre nel 2025, su un periodo più ampio, l’Ministero dell’Interno (report ottobre) segnala che nei primi 9 mesi del 2025 gli omicidi commessi in ambito partner/ex partner erano 53 (‑4% rispetto allo stesso periodo del 2024), mentre le vittime femminili sono 44 (‑8%).
-
Ancora: al 31 luglio 2025, secondo il Viminale, si contano 60 femminicidi in Italia (‐1,6% rispetto allo stesso periodo dell’anno precedente). Tra questi, 38 i casi di partner/ex partner (+15,1%), e un aumento del 20% delle vittime di origine straniera.
-
Per il contesto europeo: secondo l’European Institute for Gender Equality (EIGE), in 22 Stati membri dell’UE nel 2022 sono state uccise 1 231 donne in contesti riconducibili alla violenza di genere; di queste 678 (per 18 Stati membri) in contesto domestico – pari a quasi 13 vittime alla settimana.
Intelligenza Artificiale e prevenzione: potenzialità applicative
L’IA, attraverso il machine learning e l’elaborazione del linguaggio naturale (NLP), può:
– analizzare grandi moli di dati per individuare pattern di rischio
– supportare la previsione di comportamenti violenti sulla base di segnalazioni pregresse
– creare assistenti virtuali per l’ascolto protetto e l’accesso alle informazioni
– rafforzare il lavoro delle forze dell’ordine con sistemi di priorità d’intervento
Alcuni algoritmi possono incrociare denunce, precedenti, segnalazioni e comportamenti online per classificare il rischio in tempo reale. Questo può facilitare l’attivazione tempestiva di misure protettive, ma apre anche a nuove sfide sul piano etico e sociale.
Il ruolo della cittadinanza consapevole
La prevenzione non può essere delegata solo alle tecnologie. Serve una cittadinanza attiva, formata al riconoscimento dei segnali, capace di segnalare situazioni sospette e supportare le vittime. L’IA può amplificare le capacità del singolo cittadino se integrata in:
– app che permettono segnalazioni anonime
– campagne digitali di sensibilizzazione geolocalizzate
– strumenti educativi personalizzati nelle scuole e nelle comunità locali
Una cittadinanza consapevole è il prerequisito per una tecnologia efficace: senza alfabetizzazione civica e digitale, l’IA rischia di agire in un contesto sociale disinformato o passivo.
Esperienze europee: un confronto utile
– Spagna: pioniera nell’uso dell’IA contro la violenza di genere. Il sistema VioGén monitora in tempo reale casi di rischio e li classifica secondo una scala di priorità. Collaborano polizia, servizi sociali, giudici e centri antiviolenza.
– Francia: utilizza chatbot nei centri antiviolenza e app come “App-Elles” che consentono l’invio rapido di allarmi a contatti fidati. L’intelligenza artificiale viene usata anche per analisi predittive territoriali.
– Regno Unito: progetti sperimentali di IA a supporto della polizia locale per mappare i casi ripetuti di violenza domestica e valutare il rischio di recidiva.
Queste esperienze mostrano che l’integrazione di IA e infrastrutture sociali può ridurre i tempi di reazione, migliorare l’efficienza del sistema e salvare vite.
Metafora cinematografica: Minority Report e il rischio della pre-criminalizzazione
Nel film Minority Report (Steven Spielberg, 2002), ambientato in un futuro distopico, una speciale unità di polizia chiamata “PreCrime” arresta le persone prima che commettano un crimine, basandosi su previsioni ottenute da esseri “precognitivi”. Il film solleva una domanda inquietante: è giusto punire qualcuno per un’azione che potrebbe compiere ma non ha ancora commesso?
Questa narrazione assume oggi una rilevanza sorprendente: l’IA viene sempre più spesso impiegata per analizzare segnali premonitori e comportamenti anomali. Ma quando il rischio predetto giustifica l’intervento? E a quale prezzo per la libertà personale?
Il parallelismo con Minority Report aiuta a sottolineare la necessità di una vigilanza etica. L’analisi predittiva, pur utilissima per prevenire tragedie, non deve mai sostituire il giudizio umano né cancellare il principio di presunzione d’innocenza. In tema di femminicidio, è essenziale agire prima che sia troppo tardi, ma l’azione deve essere sempre calibrata, proporzionata e fondata su criteri trasparenti.
Rischi, bias e limiti etici
L’uso dell’IA nella prevenzione del femminicidio comporta alcuni rischi:
– Bias algoritmici: se i dati storici riflettono discriminazioni, anche l’algoritmo le riproduce.
– Privacy e sicurezza: la gestione di dati sensibili (denunce, localizzazioni, conversazioni) richiede protezione avanzata.
– Deumanizzazione: l’automatizzazione del giudizio può far perdere empatia e attenzione al singolo caso.
Minority Report ci avverte: il rischio non è solo tecnico, ma culturale. La prevenzione tecnologica deve rafforzare, non sostituire, la giustizia umana.
Una proposta integrata per l’Italia
- -Sviluppare una rete nazionale di IA predittiva ispirata al modello spagnolo VioGén, ma con supervisione umana e partecipazione dei centri antiviolenza.
- Inserire l’educazione alla cittadinanza digitale e alla cultura del rispetto nei programmi scolastici, anche con simulazioni AI-based.
- Creare un osservatorio nazionale per monitorare l’impatto etico e sociale delle tecnologie applicate alla prevenzione della violenza.
- Finanziare startup e soluzioni open source che usino l’IA per l’empowerment delle vittime (chatbot, alert, raccolta prove cifrata).
Alleanza tra umani e macchine
La lotta al femminicidio richiede un cambio di paradigma. L’intelligenza artificiale può essere un alleato strategico nella prevenzione se utilizzata con criterio, trasparenza e senso etico. Ma senza il coinvolgimento attivo dei cittadini, delle istituzioni, della scuola e dei media, ogni tecnologia è destinata a fallire. La sfida è duplice: umanizzare l’intelligenza artificiale e digitalizzare la cittadinanza consapevole.
