Autorevoli nella forma. Ingannevoli nella sostanza.

Le fake news create con l’intelligenza artificiale non sono più un’anomalia: sono diventate parte integrante dell’ecosistema digitale.
Testi generati da LLM (Large Language Models), immagini deepfake, video sintetici e cloni vocali ultra-realistici stanno ridisegnando i confini del falso.
Il rischio? Una società dove l’apparenza supera la verità.
Per i professionisti ICT e gli esperti di etica AI, questo è terreno critico.
Non si tratta solo di cybersecurity o fact-checking: si parla di responsabilità, di trasparenza e di salvaguardia della fiducia pubblica.

Come si creano le fake con l’AI?

Oggi, chiunque con accesso a strumenti pubblici può generare:

  • Testi persuasivi tramite modelli come GPT, Gemini, Copilot, ecc..
  • Deepfake video tramite software come DeepFaceLab, Synthesia o HeyGen.
  • Voci sintetiche tramite modelli TTS (Text-to-Speech) evoluti, spesso indistinguibili da quelle reali.
  • Immagini artificiali fotorealistiche con Midjourney, DALL·E, Stable Diffusion.

Perché sono pericolose?

Le fake AI sfruttano due fattori: credibilità visiva e velocità di diffusione.

  • Credibilità: un contenuto video o audio “parla da sé”. Quando la percezione visiva/vocale è credibile, l’attenzione critica crolla.
  • Diffusione virale: bastano pochi secondi su X, TikTok o WhatsApp per propagare contenuti falsi prima che siano verificati.

Le conseguenze? Manipolazione politica, truffe finanziarie, diffamazione reputazionale, disinformazione scientifica.

Riconoscere le fake: segnali e strumenti

Segnali sospetti:

  • Dettagli incoerenti in mani, occhi, proporzioni (nelle immagini).
  • Errori di sincronizzazione tra voce e labbra (nei video).
  • Tono piatto, pause innaturali (negli audio sintetici).
  • Informazioni generiche, senza fonti verificabili (nei testi AI).

Strumenti utili:

  • Text detection: GPTZero, ZeroGPT, OpenAI Classifier.
  • Reverse image search: Google Lens, TinEye.
  • Deepfake detection: Deepware Scanner, Sensity AI.
  • Controllo fonti: Snopes, Facta, OpenFact.

Difendersi è possibile, ma serve un cambio di cultura

Per un professionista ICT, la risposta non può essere solo tecnica. Serve un approccio sistemico:

Policy aziendali chiare

  • Definire linee guida sull’uso dell’AI nei contenuti pubblici e interni.
  • Obbligo di disclosure sull’impiego di contenuti generati da AI.

Alfabetizzazione mediatica avanzata

  • Promuovere training specifici per il personale: non basta sapere come funziona l’AI, bisogna imparare a riconoscere l’inganno.

Etica come design principle

  • L’etica non è un’aggiunta: è parte del codice.
  • Responsabilità significa anche creare modelli e interfacce che non incentivino la manipolazione.

La lotta alla disinformazione è una battaglia tecnica, ma anche morale

Il rischio non è solo “essere ingannati”. È disimparare a distinguere. Se tutto è credibile, nulla lo è più. Per questo l’ICT e l’etica AI devono muoversi insieme: progettare strumenti, normative e cultura capaci di restaurare la fiducia nell’informazione.