Introduzione

L’Intelligenza Artificiale (IA) rappresenta una delle sfide più significative per il sistema educativo contemporaneo. La sua diffusione nei contesti scolastici non riguarda solo gli strumenti digitali, ma implica un ripensamento complessivo della cultura pedagogica, della governance istituzionale e delle competenze professionali dei docenti.

Nel 2024, con l’entrata in vigore del Regolamento (UE) 2024/1689 – AI Act, l’educazione è stata formalmente riconosciuta come settore ad alto rischio per i diritti fondamentali dei cittadini. A ciò si affianca la cornice del Regolamento (UE) 2016/679 – GDPR, la Raccomandazione UNESCO sull’Etica dell’IA (2023) e le Linee guida MIM (2025), che insieme delineano un quadro complesso di obblighi, opportunità e responsabilità.

L’esperienza di elaborazione del Regolamento AI Scuola promosso nell’ambito delle attività dell’Équipe Formativa Territoriale (EFT) Lombardia da me coordinata, rappresenta un modello operativo per integrare tali riferimenti in un documento di policy scolastica coerente, applicabile e formativo.

2. Quadro teorico e normativo di riferimento

La riflessione sulla governance dell’IA in ambito educativo si fonda su tre pilastri concettuali:

  1. La centralità della persona e il principio antropocentrico (UNESCO, 2023);

  2. La responsabilità e la supervisione umana (AI Act, art. 14);

  3. La protezione dei dati e la trasparenza algoritmica (GDPR, art. 5–35).

A livello pedagogico, il regolamento si colloca in continuità con i framework DigComp 2.2 e DigCompEdu, che definiscono le competenze digitali dei cittadini e dei docenti come base per una cittadinanza digitale critica e responsabile.
L’obiettivo non è solo “regolare” l’uso della tecnologia, ma educare all’uso consapevole e al pensiero computazionale etico, in una prospettiva costruttivista e metacognitiva.

3. Metodologia di costruzione del Regolamento

Il Regolamento AI Scuola è stato elaborato attraverso un processo partecipativo e interdisciplinare, che ha coinvolto i membri dell’EFT Lombardia in un tavolo tecnico da me coordinato.

La metodologia ha previsto:

  • Analisi comparata delle fonti (AI Act, GDPR, Linee guida MIM, UNESCO);

  • Strutturazione gerarchica in 16 articoli e allegati operativi;

  • Integrazione del linguaggio giuridico e pedagogico per favorire comprensione e applicabilità;

  • Allineamento alla terminologia dell’AI Act (HRAIS, Deployer, supervisione umana, DPIA);

  • Definizione di un ciclo di vita dell’IA scolastica: valutazione preliminare, adozione, formazione, monitoraggio, segnalazione incidenti.

La versione definitiva  include tre allegati operativi:

  • Scheda di autovalutazione docenti sull’uso etico e pedagogico dell’IA;

  • Modello DPIA semplificato per la valutazione d’impatto sui dati;

  • Protocollo di segnalazione incidenti AI per la gestione dei rischi algoritmici.

4. Risultati e impatto sul sistema educativo

Il regolamento ha prodotto un triplice impatto:

  1. Culturale, perché promuove una nuova consapevolezza dell’IA come strumento educativo e non solo tecnologico;

  2. Organizzativo, introducendo figure, procedure e responsabilità chiare (Comitato AI, formazione obbligatoria, audit annuale);

  3. Etico e civico, in quanto integra il tema dell’IA nel nucleo concettuale dell’Educazione Civica e della Cittadinanza Digitale.

Il documento fornisce alle istituzioni scolastiche un framework di compliance che garantisce:

  • trasparenza nelle scelte tecnologiche;

  • tutela dei diritti di studenti e famiglie;

  • responsabilità condivisa tra scuola, docenti e genitori.

Dal punto di vista formativo, le schede di autovalutazione docente e le procedure DPIA semplificate favoriscono lo sviluppo di una cultura della riflessività digitale, promuovendo la crescita professionale e la sicurezza dei processi didattici.

5. Discussione

L’introduzione dell’IA nella scuola non può essere lasciata all’improvvisazione.
Il regolamento agisce come dispositivo di mediazione tra innovazione e tutela, tra libertà didattica e obblighi giuridici.
L’approccio “AI-ready school” implica che ogni istituto costruisca un proprio ecosistema regolato, eticamente orientato e pedagogicamente fondato, in cui l’IA sia parte integrante del curricolo e non semplice accessorio tecnologico.

Tale modello risponde anche al principio di accountability del GDPR e al concetto di AI Governance by Design, previsto dall’AI Act.
La scuola, in questo quadro, diventa non solo luogo di apprendimento ma anche laboratorio civico per lo sviluppo di una cittadinanza digitale europea consapevole.

6. Conclusioni

Il Regolamento AI Scuola proposto dall’EFT Lombardia costituisce un prototipo di governance etico-digitale replicabile a livello nazionale.
La sua forza risiede nella convergenza tra norma, etica e pedagogia, e nella capacità di tradurre la complessità normativa in prassi educativa concreta.

Per il futuro, si suggerisce:

  • la creazione di reti regionali AI-School per condividere buone pratiche e strumenti;

  • lo sviluppo di audit formativi annuali sugli usi dell’IA;

  • la formazione di Comitati AI di istituto come dispositivi permanenti di innovazione e vigilanza etica.

Riferimenti normativi e bibliografici essenziali

  • Parlamento Europeo e Consiglio dell’Unione Europea (2024). Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act).

  • Parlamento Europeo e Consiglio dell’Unione Europea (2016). Regolamento (UE) 2016/679 – GDPR.

  • UNESCO (2023). Recommendation on the Ethics of Artificial Intelligence.

  • Ministero dell’Istruzione e del Merito (2025). Linee guida per l’uso dell’IA nella scuola.

  • European Commission (2022). DigComp 2.2: The Digital Competence Framework for Citizens.

  • European Commission (2017). DigCompEdu: The Digital Competence Framework for Educators.

Vuoi approfondire il tema e ricevere supporto al fine di adottare il documento sviluppato dall’EFT Lombardia? Contattami privatamente al numero 3891547793 (anche su WA, Telegram, Signal)