In questi giorni è balzato alla cronaca, con importante visibilità mediatica, un episodio che merita una riflessione profonda sul rapporto tra persone e intelligenza artificiale.
Nel tentativo di ridurre il consumo di sale per tutelare la propria salute, un sessantenne si è affidato ai consigli di un chatbot basato su AI. L’indicazione ricevuta, interpretata come definitiva, si è rivelata dannosa per il suo stato di salute.

Al di là del fatto specifico, ciò che colpisce è il ruolo attribuito all’AI: non più strumento di supporto, ma oracolo moderno.

Perché vediamo l’AI come un oracolo

Tre fattori principali alimentano questa percezione:

  1. Interfaccia conversazionale
    L’AI “parla” in linguaggio naturale, con fluidità e coerenza, e questo genera un senso di competenza percepita. È facile dimenticare che dietro non c’è un medico, un avvocato o un nutrizionista, ma un modello statistico.
  2. Bias di autorevolezza
    Il tono sicuro, la struttura ordinata e l’assenza di esitazioni inducono a fidarsi senza verificare. È lo stesso meccanismo psicologico per cui crediamo a chi parla con fermezza, anche senza prove.
  3. Carenza di cultura dell’AI
    Molti utenti non conoscono il funzionamento dei modelli linguistici e non percepiscono la distinzione tra informazione generale e prescrizione personalizzata.

Le conseguenze di una fiducia cieca

Quando l’AI è vista come fonte unica e infallibile, i rischi aumentano:

  • decisioni critiche senza supervisione umana: in salute, finanza, diritto, questo può avere conseguenze gravi.
  • erosione della responsabilità personale: si delega il giudizio all’AI, riducendo la valutazione critica.
  • fffetto “tradimento”: quando l’AI sbaglia, l’errore viene percepito come colpa di chi “doveva sapere tutto”.

Come passare da oracolo a strumento di affiancamento

La soluzione non sta nel demonizzare l’AI, ma nel ridisegnare la relazione tra utente e strumento:

  • progettazione responsabile
    Inserire in modo visibile e costante il contesto d’uso: “Queste informazioni sono di carattere generale. Consulta un professionista per il tuo caso.”;
  • risposte contestuali e scenari multipli
    Nei settori sensibili, fornire alternative, vantaggi, rischi e fonti, evitando risposte uniche che sembrino prescrittive;
  • educazione digitale diffusa
    Insegnare a leggere l’AI come supporto informativo, non come sostituto di un esperto;
  • integrazione con processi umani
    L’AI può essere il primo passo: raccoglie dati, orienta, ma la decisione finale resta a un professionista.

Uno sguardo avanti

L’episodio del sessantenne e del sale non è un fallimento della tecnologia in sé, ma un segnale di allarme sulla percezione sociale dell’AI.
Finché continueremo a vedere l’AI come “voce che decide” (oracolo) e non come “voce che accompagna” (strumento), ogni risposta rischierà di essere un verdetto, non un consiglio.

Il futuro dell’AI non dipenderà solo dalla potenza degli algoritmi, ma dalla nostra capacità di costruire un rapporto equilibrato: un’alleanza tra intelligenza artificiale e intelligenza umana, dove la prima potenzia la seconda, senza sostituirla.

Il problema dell’oracolo, umano o artificiale, è che la gente non gli chiede la verità, ma la rassicurazione. E la rassicurazione, come il sale, va usata con molta parsimonia.