1. Da dove nasce il “mito” delle due scadenze (febbraio + agosto 2026)

1.1 Il pezzo vero: agosto 2026 e l’AI Act

Agosto 2026 è una data reale e strategica: l’AI Act (Regolamento UE 2024/1689) prevede una progressiva entrata in applicazione e individua il 2 agosto 2026 come data di piena applicabilità della gran parte degli obblighi. Per la scuola questa data conta perché il regolamento disciplina anche l’uso di sistemi di IA in contesti educativi, con particolare attenzione a trasparenza, governance e sistemi ad alto rischio.

1.2 Perché “febbraio 2026” ricorre nei racconti (ma non come scadenza nazionale AI)

Il mese di febbraio 2026 ricorre spesso nelle conversazioni tra scuole per tre motivi ricorrenti: (1) calendari formativi con sessioni o avvii proprio a febbraio (Scuola Futura, reti territoriali, USR/UST); (2) scadenze PNRR e adempimenti amministrativi nel 2026 che dominano l’agenda delle istituzioni scolastiche; (3) confusione con “febbraio 2025”, quando (in base al cronoprogramma UE) sono divenute applicabili alcune parti iniziali dell’AI Act.

2. Il quadro nazionale: Linee guida MIM e governance dell’IA a scuola

Nel 2025 il MIM ha pubblicato linee guida dedicate all’introduzione dell’IA nelle istituzioni scolastiche. In termini operativi, il messaggio centrale è: l’adozione dell’IA deve essere consapevole, graduale e governata. Il focus è sulla responsabilità organizzativa (policy, ruoli, processi), sull’allineamento al PTOF e sulla conformità (privacy e gestione del rischio).

2.1 DPIA e, se necessario, FRIA: perché contano

Quando l’IA comporta trattamenti di dati personali (soprattutto se innovativi, su larga scala o con potenziali impatti su minori), la valutazione d’impatto (DPIA) diventa un passaggio determinante. Se l’uso rientra nei casi di IA “ad alto rischio” ai sensi dell’AI Act, si aggiunge una valutazione dell’impatto sui diritti fondamentali (FRIA), da integrare nella governance del progetto. In sintesi: il tema non è la data, ma la qualità e tracciabilità delle decisioni.

3. La timeline utile per le scuole (2025–2026)

3.1 2025: prime applicazioni e divieti

Nel 2025 entrano in gioco vincoli e principi che incidono anche sul contesto educativo: alcune pratiche sono vietate, altre sono soggette a requisiti di trasparenza e controllo. Indipendentemente dalle sperimentazioni didattiche, conviene usare il 2025 come anno di “set-up”: competenze, policy e strumenti.

3.2 Prima metà 2026: PNRR e scadenze amministrative (non “scadenze AI”)

Nel 2026 molte scuole sono ancora impegnate su chiusure, collaudi e rendicontazioni collegate agli investimenti PNRR. Queste scadenze possono coincidere con l’adozione o l’acquisto di soluzioni che includono componenti di IA, ma non equivalgono a un obbligo nazionale di “adozione dell’IA” entro febbraio.

3.3 Agosto 2026: switch regolatorio (AI Act a regime)

Il 2 agosto 2026 segna un passaggio fondamentale: molte disposizioni dell’AI Act diventano pienamente applicabili. Per le scuole questo implica, soprattutto, la capacità di dimostrare: (a) trasparenza verso utenti (studenti/famiglie/personale), (b) supervisione umana, (c) scelte documentate e controlli sui fornitori, (d) valutazioni d’impatto e gestione del rischio quando necessarie.

4. Cosa devono fare le scuole nel 2026: dalla sperimentazione alla governance

4.1 Due categorie di uso: “supporto didattico” vs “processi sensibili”

È utile distinguere due famiglie di utilizzo dell’IA:
• Uso di supporto didattico generico (es. brainstorming, sintesi, scaffolding, progettazione UDL, esercizi).
• Uso in processi sensibili (es. valutazione automatizzata, orientamento con impatti, proctoring/monitoraggio, decisioni).

Nel primo caso, il cuore è: regole chiare, protezione dati, trasparenza educativa e integrità delle valutazioni. Nel secondo caso, il cuore è: valutazione del rischio, DPIA/FRIA, supervisione umana robusta e attenzione alla classificazione di rischio.

5. Checklist operativa in 10 mosse (realistica per una scuola)

  1. Mappare gli usi reali (didattica, segreteria, dirigenza): strumenti, finalità, dati coinvolti.
  2. Classificare gli usi per rischio: basso/medio/alto (processi sensibili).
  3. Definire regole “no‑go” e casi vietati; chiarire cosa non si fa e perché.
  4. Selezionare strumenti con criteri minimi (privacy, log, account, controlli, contratti, ruoli).
  5. Stabilire una policy sull’uso dei prompt e sul divieto di inserire dati personali non necessari.
  6. Eseguire DPIA quando il trattamento lo richiede (innovatività, minori, scala, profilazione).
  7. Integrare FRIA e requisiti AI Act se l’uso ricade in ‘alto rischio’.
  8. Formalizzare ruoli e governance (DS, DSGA, DPO, referenti digitali, commissione/GLI/Team).
  9. Piano formazione: AI literacy, didattica, etica, sicurezza, verifiche e valutazione.
  10. Monitoraggio continuo: audit, incident response, revisioni periodiche, aggiornamenti policy.

6. FAQ rapide (anti-rumor)

D: Esiste una scadenza nazionale a febbraio 2026 per “adottare l’IA”?

R: Nei documenti istituzionali verificati, non emerge una deadline generale a febbraio 2026. Spesso è una sovrapposizione tra calendari formativi e adempimenti PNRR.

D: Agosto 2026 significa che l’IA diventa obbligatoria a scuola?

R: No. Significa che, se la scuola usa sistemi di IA, deve poter dimostrare conformità ai requisiti applicabili (trasparenza, governance, rischio, supervisione umana, ecc.).

D: Se uso IA generativa per preparare lezioni, devo fare DPIA?

R: Dipende: se non vengono trattati dati personali (o sono minimizzati) e non c’è profilazione, spesso non è necessaria. Se invece si trattano dati di studenti/minori o si usa una piattaforma che registra, profila o automatizza decisioni, la DPIA può essere necessaria.

D: Qual è il punto più delicato in assoluto?

R: Valutazione e decisioni: quando l’IA influisce su esiti, percorsi, orientamento o monitoraggio, si entra nel perimetro più sensibile, e può rilevare la categoria ‘alto rischio’ del regolamento europeo.

Gianfranco Bordoni © 2026 – Tutti i diritti riservati