L’intelligenza artificiale non è più un tema da addetti ai lavori, relegato a laboratori di ricerca o a convegni specialistici. È diventata una presenza pervasiva nella nostra quotidianità: la ritroviamo nei nostri smartphone che suggeriscono la parola successiva, nei software educativi che personalizzano l’apprendimento, nei motori di ricerca che affinano i risultati, e persino nei suggerimenti musicali e video che plasmano le nostre esperienze di intrattenimento. E ora, in un’evoluzione naturale ma significativa, l’IA ha fatto il suo ingresso anche nelle aule scolastiche e negli ambienti di apprendimento, trasformando le metodologie didattiche e le dinamiche interattive. In questo scenario in continua e rapida trasformazione, l’Europa ha compiuto un passo di portata storica: ha approvato l’AI Act, il primo regolamento al mondo che si propone di normare l’intelligenza artificiale in modo organico e, soprattutto, coerente con i diritti fondamentali e i valori etici che sono alla base della società europea.

Come educatore e formatore, ho accolto con grande interesse e un senso di urgenza questo passaggio normativo, poiché le sue implicazioni toccano da vicino il cuore del sistema scolastico: dalla valutazione degli studenti al lavoro quotidiano degli insegnanti, fino alla formazione di una cittadinanza digitale consapevole e responsabile. Ma, al di là dei titoli e delle dichiarazioni, di cosa si tratta, davvero? E quali sono le sue reali conseguenze per il mondo dell’istruzione?

AI Act: una cornice per un’IA giusta, trasparente e “umana”

L’AI Act è un regolamento dell’Unione Europea, approvato nel 2024, che diventerà pienamente operativo entro il 2026. La sua importanza risiede nel fatto di essere la prima legge a livello globale a tentare di disciplinare l’uso dei sistemi di intelligenza artificiale, introducendo un principio chiave e innovativo: non tutte le IA sono uguali, e la regolamentazione deve dipendere dal livello di rischio che esse comportano per i diritti e la sicurezza delle persone. Questo approccio basato sul rischio è fondamentale per bilanciare l’innovazione tecnologica con la protezione dei cittadini. L’obiettivo non è frenare il progresso, ma incanalarlo verso uno sviluppo responsabile e etico dell’IA.

Il regolamento individua quattro categorie principali di rischio, ciascuna con specifiche implicazioni e requisiti:

  • Rischio inaccettabile: questa categoria include sistemi di IA considerati una minaccia chiara e inaccettabile per i diritti fondamentali delle persone, e pertanto sono vietati. Esempi lampanti sono i sistemi di sorveglianza di massa biometrica in tempo reale in spazi pubblici (con rare eccezioni strettamente definite), o i sistemi di “social scoring” che assegnano punteggi ai cittadini basandosi sul loro comportamento, un concetto che evoca scenari distopici e mina i principi di libertà e dignità umana (Cina). La proibizione di queste IA sottolinea l’impegno dell’UE a non tollerare applicazioni che possano ledere in modo irreversibile le libertà individuali.
  • Alto rischio: qui rientrano le IA che, pur non essendo vietate, presentano un potenziale significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone. Questi sistemi richiedono controlli severi, rigorose valutazioni di conformità prima della loro immissione sul mercato e una costante supervisione durante il loro ciclo di vita. Nel contesto educativo, un esempio cruciale è l’IA utilizzata per la valutazione scolastica automatica o per la selezione degli studenti. L’impatto di un errore o di un bias algoritmico in questi contesti potrebbe avere conseguenze profonde e durature sulla vita degli individui, giustificando quindi un elevato livello di scrutinio e responsabilità.
  • Rischio limitato: questa categoria comprende le IA che presentano un rischio minore, ma che devono comunque garantire un certo grado di trasparenza per consentire agli utenti di prendere decisioni informate. Esempi tipici sono i chatbot o gli assistenti virtuali: gli utenti devono essere consapevoli di interagire con una macchina e non con un essere umano. Questo permette di prevenire manipolazioni o aspettative irrealistiche, garantendo che l’interazione sia chiara e onesta.
  • Rischio minimo: La maggior parte dei sistemi di IA rientra in questa categoria. Si tratta di IA che comportano un rischio minimo o nullo per i diritti o la sicurezza dei cittadini e sono quindi libere da obblighi normativi specifici, pur essendo incoraggiate a seguire codici di condotta volontari. Esempi includono i filtri antispam nelle email, i sistemi di raccomandazione musicale o video, o i videogiochi basati su IA. Queste applicazioni, pur essendo onnipresenti, non minacciano in modo significativo i diritti fondamentali e beneficiano di un approccio meno restrittivo per favorire l’innovazione.

In sintesi, l’AI Act non mira a fermare l’innovazione tecnologica, ma piuttosto a orientarla verso uno sviluppo responsabile, che ponga al centro la tutela delle persone, la loro dignità e i loro diritti. È un tentativo ambizioso di creare un equilibrio tra progresso e protezione.

Perché l’AI Act parla anche alla scuola

Il regolamento ha un impatto diretto e profondo sul mondo dell’istruzione, riconoscendo la scuola come un ambiente sensibile in cui l’applicazione dell’IA richiede particolare cautela. In particolare, se un sistema di intelligenza artificiale viene utilizzato per:

  • valutare le prestazioni degli studenti, ad esempio attraverso analisi automatiche di testi o risposte;
  • assegnare punteggi o classificazioni che influenzano il percorso accademico o le opportunità future;
  • suggerire percorsi educativi automatizzati o personalizzati che potrebbero limitare la scelta o l’autonomia dello studente,

allora tale sistema viene categorizzato come ad alto rischio. Questa classificazione non è arbitraria, ma riflette la consapevolezza che le decisioni prese da un’IA in questi contesti possono avere conseguenze significative sulla vita e sul futuro degli studenti.

Essere classificato come “alto rischio” comporta requisiti stringenti. Ciò significa che un tale sistema non potrà operare senza un significativo controllo umano. Questo “controllo umano” implica che la decisione finale e la supervisione del processo rimangano sempre nelle mani di un docente o di un tutor qualificato, che deve poter intervenire, correggere e, se necessario, annullare le decisioni dell’IA. Inoltre, il sistema dovrà essere:

  • Trasparente nei criteri di valutazione: gli algoritmi e i dati utilizzati per la valutazione devono essere comprensibili e accessibili, in modo che sia chiaro come un determinato punteggio o suggerimento sia stato generato. Questo include la possibilità di identificare eventuali bias o errori nel sistema.
  • Supervisionato da docenti o tutor: la presenza umana non è solo un requisito formale, ma una garanzia che l’IA sia utilizzata come uno strumento di supporto, e non come un sostituto del giudizio pedagogico e della relazione educativa. I docenti devono essere formati per comprendere il funzionamento di queste IA e per interpretare i loro output in modo critico.
  • Conforme a norme sulla privacy e sul diritto alla spiegazione: i dati personali degli studenti devono essere trattati con la massima cura, rispettando le normative sulla privacy (come il GDPR). Inoltre, gli studenti e i loro genitori devono avere il “diritto alla spiegazione”, ovvero il diritto di comprendere le ragioni dietro una decisione automatizzata che li riguarda, e di contestarla se necessario.

In pratica, l’AI Act ribadisce un principio fondamentale: l’IA può supportare e potenziare il lavoro dell’insegnante, offrendo strumenti per una didattica più personalizzata ed efficiente, ma non può e non deve sostituire la complessità, l’empatia e il giudizio critico che solo un essere umano, il docente, può portare nella relazione educativa. E questa è una notizia estremamente positiva per chi, come me, crede fermamente in una scuola in cui la tecnologia è un mezzo per arricchire l’esperienza di apprendimento, senza mai annullare il valore insostituibile della relazione umana e del ruolo formativo del maestro.

IA generativa e creatività: cosa dice la legge

L’avvento di modelli di IA generativa come ChatGPT per la produzione di testi, DALL·E per la creazione di immagini, o Gemini per la generazione di contenuti multimediali complessi (testi, immagini, musiche, video), ha rivoluzionato il panorama digitale e sollevato nuove sfide, in particolare nel campo dell’istruzione e della creatività. L’AI Act affronta anche questi strumenti, imponendo requisiti specifici per garantire trasparenza e responsabilità. Questi modelli dovranno:

  • Dichiarare quando un contenuto è stato creato artificialmente: questo può avvenire tramite “digital watermarking” (marcature digitali invisibili o visibili) o metadati che accompagnano il file, indicando chiaramente che il contenuto non è opera umana. L’obiettivo è combattere la disinformazione e consentire agli utenti di distinguere tra creazioni umane e quelle generate da IA, promuovendo l’educazione alla verità e alla consapevolezza digitale.
  • Documentare i dati di addestramento: i fornitori di modelli generativi dovranno fornire documentazione dettagliata sui set di dati utilizzati per addestrare l’IA. Questo include informazioni sulla provenienza dei dati, sulle metodologie di raccolta e sulle eventuali misure adottate per mitigare i bias. Questa trasparenza è cruciale per comprendere le potenziali distorsioni o limitazioni dell’IA e per affrontare questioni legate al copyright e alla proprietà intellettuale.
  • Fornire strumenti per il controllo e la verifica: saranno necessari meccanismi che permettano agli utenti, inclusi educatori e studenti, di verificare l’autenticità e la provenienza dei contenuti. Ciò potrebbe tradursi in strumenti per l’analisi del testo o dell’immagine che rilevano tracce di generazione artificiale, o in database consultabili per risalire all’origine di un contenuto.

Questa normativa tocca direttamente l’educazione alla verità, al pensiero critico e alla creatività. La scuola non potrà ignorare questo tema, né limitarsi a proibirne l’uso. Anzi: dovrà entrarci dentro con decisione, educando gli studenti all’uso consapevole dell’IA generativa come un potente strumento di potenziamento della creatività e dell’apprendimento, piuttosto che come un mezzo per il plagio o la riproduzione acritica. Si tratta di insegnare a interrogare l’IA, a valutarne gli output, a utilizzarla come un co-creatore o un assistente, mantenendo sempre la propria autorialità e responsabilità intellettuale.

Non solo tecnologia: anche governance e cultura digitale

L’AI Act ci ricorda con forza che la trasformazione digitale non è esclusivamente una questione di strumenti tecnologici avanzati, ma è intrinsecamente legata a un più ampio dibattito su regole, valori e diritti che devono guidare l’innovazione. Per questo, trovo che questo regolamento rappresenti un’occasione preziosa per ripensare collettivamente e in modo più approfondito:

  • L’etica dell’automazione nella scuola: dobbiamo interrogarci su come l’automazione, anche se supportata dall’IA, influenzi la relazione educativa, la valutazione, l’inclusione e l’equità. Come possiamo garantire che l’IA non amplifichi le disuguaglianze esistenti o introduca nuove forme di discriminazione? È fondamentale sviluppare un quadro etico che guidi l’implementazione dell’IA in ogni aspetto della vita scolastica.
  • Il ruolo dei dati e della trasparenza: la scuola raccoglie una quantità enorme di dati sugli studenti. L’AI Act ci spinge a riflettere sulla gestione di questi dati: chi ne è proprietario? Come vengono utilizzati? Sono protetti adeguatamente? La trasparenza non riguarda solo gli algoritmi, ma anche l’intero ecosistema dei dati, dalla raccolta all’elaborazione e all’archiviazione.
  • La responsabilità educativa nel formare cittadini capaci di comprendere, interrogare e guidare l’intelligenza artificiale: la scuola ha il compito cruciale di formare cittadini non solo “utenti” di tecnologia, ma “cittadini digitali” attivi e critici. Ciò significa sviluppare competenze che vadano oltre il semplice utilizzo degli strumenti, includendo la capacità di comprendere il funzionamento dell’IA, di interrogare le sue decisioni, di riconoscere i bias, e di partecipare al dibattito pubblico sulla sua governance. Si tratta di educare alla consapevolezza che l’IA è un prodotto umano, con tutte le sue potenzialità e i suoi limiti, e che il suo futuro dipende dalle scelte che facciamo oggi.

Il target: educare alla complessità

È innegabile che l’AI Act, come ogni normativa pionieristica, non sia perfetto. La sua attuazione, che avverrà gradualmente, sarà sicuramente oggetto di dibattito, revisione e adattamento man mano che la tecnologia evolverà e si manifesteranno nuove sfide. Tuttavia, al di là delle sue imperfezioni, questo regolamento rappresenta un segnale politico e culturale di straordinaria forza. Esso afferma con chiarezza che l’intelligenza artificiale non può essere lasciata esclusivamente alle logiche di mercato o alla sola discrezione degli algoritmi e delle aziende che li sviluppano.

Serve un quadro normativo solido, capace di fornire linee guida chiare e di stabilire confini etici. Serve una visione democratica che garantisca che lo sviluppo e l’implementazione dell’IA siano allineati con i valori della società e con i diritti dei cittadini. E, forse, serve soprattutto una scuola che sappia interpretare questo cambiamento epocale, mediare tra le sue promesse e i suoi rischi, e governare la sua integrazione nella vita quotidiana. La scuola, in questo senso, diventa un laboratorio fondamentale per la costruzione di una cittadinanza digitale matura e consapevole.

Perché l’intelligenza artificiale, se non gestita con saggezza e lungimiranza, può effettivamente rappresentare un rischio significativo per la privacy, la libertà e l’equità. Ma, al contempo, se approcciata con intelligenza critica e una visione educativa, può anche trasformarsi in una grande occasione educativa, un catalizzatore per nuove forme di apprendimento, creatività e partecipazione. Il suo impatto finale dipenderà, in ultima analisi, dalle scelte che noi, come individui e come società, faremo. Dipende da noi educatori, da noi legislatori, e da noi cittadini, plasmare un futuro in cui l’IA sia al servizio dell’umanità.

Regolamento AI Act - UE CONSIL_PE_24_2024_REV_1_IT_TXT

Ascolta il podcast