Category: Intelligenza Artificiale

Il termine “bias” indica un pregiudizio o una distorsione che può influenzare i risultati prodotti da un sistema di Intelligenza Artificiale. Il bias nasce dal fatto che gli algoritmi di AI non creano conoscenza dal nulla: apprendono dai dati. Se i dati contengono errori, squilibri o discriminazioni, l’AI non fa altro che replicarli e amplificarli. Ad esempio, se un algoritmo di selezione del personale viene addestrato con dati storici in cui erano privilegiati i candidati uomini, tenderà a penalizzare le donne anche in futuro. Questo è un problema serio perché rende l’AI non solo inaffidabile, ma anche potenzialmente ingiusta. Esistono vari tipi di bias: quello di selezione (campioni poco rappresentativi), quello di conferma (il modello cerca solo ciò che conferma ipotesi già presenti), o quello culturale (riflette pregiudizi sociali o geografici). Contrastare il bias richiede dataset più bilanciati, tecniche di audit degli algoritmi e, soprattutto, la supervisione costante dell’uomo, per evitare che il pregiudizio diventi regola automatica.