Introduzione

L’Intelligenza Artificiale (AI) sta entrando in modo crescente nella vita delle scuole, portando con sé opportunità ma anche interrogativi. Le Linee guida sull’Intelligenza Artificiale del Ministero dell’Istruzione e del Merito (MIM, 2025) sottolineano che l’adozione di strumenti AI non può essere lasciata all’improvvisazione o all’uso individuale dei singoli docenti, ma deve inserirsi in una cornice regolata, consapevole e condivisa.

La scelta della piattaforma AI non è quindi un atto tecnico, bensì una decisione strategica di governance scolastica, che impatta su didattica, sicurezza dei dati, inclusione e sostenibilità.

1. Cornice normativa e governance

Le scuole sono enti pubblici e hanno obblighi stringenti nella gestione di dati e processi. GDPR (General Data Protection Regulation, Regolamento UE 2016/679): obbliga a tutelare i dati personali di studenti e docenti, in particolare se minori. DPO (Data Protection Officer, Responsabile della protezione dei dati): figura che in ogni scuola deve valutare la conformità degli strumenti digitali adottati. Trasparenza algoritmica: una piattaforma AI deve chiarire come utilizza i dati inseriti.

2. Sicurezza e privacy

La prima domanda da porsi non è ‘cosa fa la piattaforma?’, ma ‘come tratta i dati?’. Età minima di utilizzo, server in Europa o in paesi che rispettano il GDPR, funzioni di Single Sign-On (SSO, accesso unico) e possibilità di log e tracciabilità delle attività sono elementi fondamentali.

3. Valore didattico e pedagogico

L’AI deve essere uno strumento per potenziare la didattica e non per sostituire il pensiero critico. DigComp 2.2 (Digital Competence Framework for Citizens) e DigCompEdu (Digital Competence Framework for Educators) aiutano a valutare se una piattaforma AI sviluppa competenze digitali. UDL (Universal Design for Learning, Progettazione universale per l’apprendimento) garantisce inclusione e accessibilità.

4. Sostenibilità e integrazione

Un rischio diffuso è adottare strumenti ‘di moda’ senza valutarne la sostenibilità. Bisogna considerare costi, interoperabilità con sistemi già in uso (Moodle, Google Classroom, Microsoft Teams, registro elettronico) e la formazione dei docenti.

5. Etica e cultura digitale

Adottare una piattaforma AI significa costruire una cultura critica dell’innovazione. Bisogna prestare attenzione a bias (pregiudizi algoritmici), educazione critica degli studenti e trasparenza con famiglie e comunità.

6. Passaggi operativi per le scuole

  1. Mappare i bisogni.
    2. Creare un gruppo di lavoro AI interno.
    3. Avviare progetti pilota limitati a poche classi.
    4. Valutare con rubriche l’impatto.
    5. Scalare l’adozione dopo sperimentazione documentata.

Conclusione

La scelta di una piattaforma AI per la scuola è un atto di responsabilità educativa e istituzionale. Non si tratta di rincorrere la tecnologia più ‘alla moda’, ma di individuare strumenti che rispettino privacy e norme, che siano sostenibili, che si integrino nell’ecosistema scolastico e che accrescano le competenze critiche, creative e collaborative degli studenti.

Risorse aggiuntive

Esempio di check-list di analisi

Checklist_piattaforme_AI (file .xlsx)