Quando si parla di intelligenza artificiale e dati, si rischia sempre di finire in due estremi: la favola (“l’IA sa tutto”) o il tecnicismo (“pipeline, feature, modello”). La verità utile è molto più concreta: il valore dell’IA sta nella capacità di rendere esplicito il ragionamento, misurare con indicatori semplici e trasformare numeri grezzi in decisioni progettuali.
In questo articolo racconto passo passo come ho analizzato un file Excel di riepilogo della proposta formativa Dell’équipe Formativa Territoriale Della Lombardia, file generato da query sulla piattaforma “Scuola Futura” del Ministero dell’Istruzione e del Merito – PNRR, per estrarre pattern, KPI e possibili scenari 2026. Senza inventare dati e dichiarando apertamente cosa si può dire e cosa no.
Visiona il file in formato PDF
REPORT DEMO – EFT LOMBARDIA – SCUOLA FUTURA (FORMATO XLSX)
1) Prima regola: capire che cosa stai misurando (e che cosa no)
Un dataset non è “la realtà”: è una fotografia parziale costruita con un certo scopo. Il file conteneva 161 percorsi con informazioni su:
- tempi (inizio/fine iscrizioni; inizio/fine percorso attivo)
- stato del corso (fase: chiuso, attivo, ecc.)
- domanda e capacità (posti, candidati, confermati)
- esito (attestati)
Quindi:
- posso misurare domanda, riempimento, conversione fino all’attestato
- non posso misurare direttamente qualità didattica, impatto in classe, soddisfazione (servirebbero survey, feedback, evidenze)
Questo “vincolo” non è un limite dell’IA: è il motivo per cui l’analisi resta credibile.
2) Pulizia minima: il lavoro invisibile che decide tutto
Prima di calcolare qualunque cosa, ho fatto due operazioni semplici ma decisive:
- convertire le date da testo a date reali
- ricavare l’anno di inizio iscrizioni per leggere i trend
Senza questo, l’analisi temporale sarebbe una narrazione, non una misura.
3) Baseline: fotografia del portafoglio (e perché “chiusi” ≠ “in corso”)
La colonna FASE è cruciale: un corso “chiuso” permette analisi a consuntivo, uno “attivo” no.
Nel dataset:
- 128 corsi chiusi
- il resto tra attivi, in lavorazione, pubblicazione, iscrizioni, ecc.
Se voglio misurare “arrivo all’attestato” in modo pulito, devo farlo solo sui chiusi.
È un passaggio banale, ma è esattamente ciò che evita conclusioni sbagliate.
4) Quanti percorsi nel tempo? Il trend che racconta già una storia
Usando l’anno di inizio iscrizioni emerge una dinamica netta: picco di produzione nel 2024.
Nel Grafico 1 vedi il numero di percorsi per anno.

Come si legge: non è “meglio/peggio”, è ritmo e densità dell’offerta. E ti permette di ragionare su cicli: spinta, stabilizzazione, selezione.
5) KPI: due numeri semplici che dicono molto
KPI 1 — Riempimento (Fill rate)
Confermati / Posti disponibili
Misura se l’offerta intercetta domanda. Non è qualità didattica, è aderenza tra bisogno percepito e proposta.
KPI 2 — Conversione ad attestato (Completion proxy)
Attestati / Confermati (calcolato sui corsi chiusi)
È un proxy utile perché intercetta frizioni reali: chiarezza, sostenibilità, struttura, motivazione, design del percorso.
Nel Grafico 2 ho messo entrambi gli indicatori nel tempo (solo corsi chiusi).

La lettura importante: dal 2024 in poi la conversione “attestati/confermati” cresce nettamente rispetto al 2023.
Qui l’IA fa il suo mestiere: non inventa cause, ma segnala un pattern robusto che merita interpretazione progettuale.
6) “Non ho tag tematici”: come ho capito di cosa parlano i corsi
Il file non contiene una tassonomia per macro-temi. Quindi ho usato un metodo dichiarato e replicabile:
Clustering euristico dai titoli
Ho letto i titoli e assegnato “etichette” cercando parole chiave (es. AI/GenAI, inclusione PEI/BES/UDL, metodologie PBL/IBL/debate, STEAM/coding/robotica, privacy/cyber, media education, metaverso/VR/AR…).
Perché funziona (nonostante non sia perfetto):
- è veloce
- è ripetibile
- è trasparente (non è una scatola nera)
Il limite (che va detto): se un titolo è generico o usa sinonimi non previsti, il cluster può essere incompleto.
Se volessi alzare il livello “data science”, il passo successivo sarebbe usare embeddings o topic modeling. Ma spesso, in ambito operativo, l’euristica è già sufficiente per prendere buone decisioni.
7) Dai numeri agli scenari 2026: cosa proporre “con criterio”
Qui avviene il passaggio più interessante: dai KPI alla progettazione.
Ho incrociato tre segnali:
- trend temporale
- KPI (riempimento + conversione)
- evoluzione tematica (cluster dai titoli)
Ed ecco scenari plausibili di sviluppo (non previsioni numeriche “inventate”):
- IA a prova di fonte: dossier, citazioni, verificabilità, workflow documentali (alto valore per scuole e governance)
- Inclusione potenziata dall’IA: UDL/PEI/BES con regole chiare su dati e trasparenza
- Metodologie “augmentate”: PBL/IBL/EAS/debate con IA come supporto progettuale e valutativo
- STEAM 2.0: dal tinkering a ML “semplice” + riflessione su bias nei dati
- Cittadinanza digitale anti-bias: disinformazione/deepfake/hate speech integrati nel tema IA (più centrali, meno “di nicchia”)
8) L’onestà metodologica: dichiarare limiti aumenta autorevolezza
Dal file non posso dedurre:
- “questo corso è didatticamente migliore”
- impatto sugli apprendimenti o sul trasferimento in classe
- soddisfazione dei corsisti
Posso però fare ciò che serve spesso per decidere: leggere dinamiche, stimare cosa regge, dove investire, cosa ripensare e come costruire un’offerta modulare.
Conclusione: l’IA non indovina ma rende il ragionamento controllabile.
La promessa più interessante dell’IA, quando lavora sui dati, non è la velocità: è la tracciabilità.
Cosa ho letto. Cosa ho calcolato. Che pattern ho trovato. Quali ipotesi restano da validare.
In un tempo in cui tutti possono “dire qualcosa”, la differenza la fa chi sa dimostrare come ci è arrivato.
Box: metodo replicabile in 7 righe
- leggi il dataset (righe/colonne)
- normalizza date e numeri
- separa “chiusi” da “in corso”
- calcola KPI minimi (fill rate; attestati/confermati)
- segmenta i temi (anche euristico)
- cerca pattern temporali
- traduci in scenari, dichiarando limiti e ipotesi.
Metodo replicabile: come ho analizzato l’Excel (con prompt copiaincolla)
L’idea è semplice: trasformare un file Excel in evidenze (cosa succede nei dati) e poi in scenari (cosa conviene proporre), senza confondere le due cose. Per farlo ho seguito una sequenza di prompt, ognuno con un obiettivo preciso.
Nota: i prompt sotto sono pensati per un assistente che possa leggere il file e fare calcoli (come un ambiente con analisi dati). Se l’assistente non può “aprire” allegati, bisogna incollare i dati o esportare tabelle.
Step 0 — Regole anti-allucinazione (il “contratto” iniziale)
Perché: prima di partire, metto vincoli espliciti: niente numeri inventati, separazione tra dato e interpretazione.
Prompt:
Devi analizzare il file Excel allegato.
Regole:
- Non inventare dati o numeri: usa solo ciò che è nel file.
- Se un’informazione non è presente, dillo esplicitamente.
- Mostra le formule dei KPI che usi.
- Se fai inferenze, separa chiaramente: "dato" vs "interpretazione".
Output in italiano, stile divulgativo ma rigoroso.
Step 1 — Profilazione del dataset (capire “che cosa c’è dentro”)
Perché: prima di calcolare, devo sapere: fogli, colonne, righe, qualità del dato.
Prompt:
Apri il file Excel allegato e descrivi:
1) fogli presenti e loro contenuto
2) numero di righe e colonne del foglio principale
3) elenco colonne con breve spiegazione (cosa misurano)
4) controlli di qualità: valori mancanti, date in formato testo, campi numerici incoerenti
Restituisci una tabella riepilogativa e segnala eventuali criticità.
Cosa ottengo: una “scheda tecnica” del file. È la base per dire: questo dataset permette di misurare X, non permette di misurare Y.
Step 2 — Preparazione (normalizzazione date e variabili derivate)
Perché: le date spesso sono testo, e senza anno non posso fare trend. Inoltre definisco KPI oggettivi.
Prompt:
Prepara i dati per l’analisi:
- converti le colonne data in formato data (day-first)
- crea YEAR_ISCR = anno di DATA INIZIO ISCRIZIONI
- crea KPI:
FILL_RATE = CONFERMATI / POSTI DISPONIBILI
ATTESTATI_RATE = ATTESTATI / CONFERMATI
Gestisci divisioni per zero e valori mancanti.
Mostra quante righe valide restano per ciascun KPI.
Cosa ottengo: dataset “analizzabile” + definizioni chiare dei KPI (utilissimo per credibilità).
Step 3 — Baseline portafoglio (stato corsi e perché separare “chiusi”)
Perché: per misurare “attestati” devo guardare i corsi conclusi; sui corsi in corso sarebbe un errore.
Prompt:
Calcola la distribuzione della colonna FASE:
- conteggio per fase
- percentuale sul totale
Poi spiega perché per alcuni KPI ha senso usare solo i corsi con FASE = "Chiuso".
Output: tabella + breve interpretazione.
Cosa ottengo: fotografia del portafoglio e una decisione metodologica esplicita.
Step 4 — Trend temporale (quanti percorsi per anno)
Perché: il trend è il “metronomo” dell’offerta: mi dice quando hai spinto e quando hai stabilizzato.
Prompt:
Usa YEAR_ISCR per calcolare:
- numero di percorsi per anno
- (opzionale) per anno e per CATEGORIA
Genera:
- tabella anno → numero percorsi
- grafico a barre (percorsi per anno)
Interpreta i trend senza inventare cause.
Cosa ottengo: un grafico semplice ma potente che rende l’articolo “visivo” e immediato.
Step 5 — Funnel (posti → candidati → confermati → attestati)
Perché: è il passaggio più “business”: mostra dove si perde valore (domanda, conferma, completamento).
Prompt:
Costruisci un funnel con:
POSTI DISPONIBILI → CANDIDATI → CONFERMATI → ATTESTATI
Calcola per l’intero dataset e per i soli "Chiuso":
- tasso di riempimento (CONFERMATI/POSTI)
- tasso di conversione (ATTESTATI/CONFERMATI)
- tasso candidati/posti (CANDIDATI/POSTI)
Mostra media, mediana e percentili (25/75) e commenta la variabilità.
Cosa ottengo: KPI robusti e confrontabili, con variabilità (non solo medie “furbe”).
Step 6 — KPI per anno (solo chiusi) + grafico comparativo
Perché: voglio vedere se nel tempo cambia la capacità di “portare a termine” i percorsi.
Prompt:
Filtra i corsi con FASE="Chiuso".
Aggrega per YEAR_ISCR:
- somma POSTI, CANDIDATI, CONFERMATI, ATTESTATI
Calcola per anno:
- fill_rate = confermati/posti
- attestati_rate = attestati/confermati
Crea tabella e un grafico lineare con entrambe le serie.
Poi evidenzia eventuali salti o inversioni di tendenza, ma senza attribuire cause.
Cosa ottengo: una lettura “storica” dei KPI e l’individuazione di cambiamenti (es. salto 2024 vs 2023).
Step 7 — Segmentazione tematica dai titoli (quando i tag non ci sono)
Perché: spesso mancano “categorie” tematiche; serve un metodo trasparente per ricostruirle.
Prompt:
Poiché il file non contiene tag tematici, crea una classificazione euristica basata sul campo NOME PERCORSO:
1) definisci un dizionario di cluster e keyword (AI/GenAI, Inclusione, Metodologie, STEAM, Cyber/Privacy, Media Education, Metaverso/VR/AR, Valutazione, Altro).
2) assegna uno o più cluster a ciascun corso in base alla presenza di keyword nel titolo.
3) restituisci:
- conteggi per cluster
- pivot YEAR_ISCR x cluster (quanti corsi per anno per cluster)
Spiega limiti del metodo (sinonimi, titoli generici, falsi positivi).
Cosa ottengo: una mappa tematica e la sua evoluzione nel tempo, con limiti dichiarati (che aumenta fiducia).
Step 8 — Dai dati agli scenari 2026 (proposte “basate su evidenze”)
Perché: questo è il passaggio che interessa davvero al lettore: usare numeri per decidere cosa proporre.
Prompt:
Usa i risultati (trend annuo, KPI, cluster tematici) per proporre scenari futuri di sviluppo dell’offerta formativa.
Regole:
- Gli scenari devono essere plausibili, non previsioni numeriche.
- Collega ogni scenario a evidenze: trend, tassi, crescita/decrescita dei cluster.
- Per ogni scenario descrivi:
a) bisogno/driver
b) target
c) 3 titoli di percorsi (base, lab, avanzato)
d) output concreti (template, checklist, dossier, rubriche)
e) rischi e mitigazioni (privacy, governance, qualità fonti)
Separa chiaramente "evidenza dai dati" vs "proposta".
Cosa ottengo: una sezione “futura” autorevole: non “opinioni”, ma ipotesi motivate.
Step 9 — Audit finale (coerenza, limiti, assunzioni)
Perché: è la parte che fa la differenza tra contenuto serio e content marketing.
Prompt:
Fai un controllo di coerenza sul report:
- verifica che tutti i numeri citati compaiano nelle tabelle calcolate
- elenca le assunzioni fatte
- elenca ciò che NON è possibile concludere dal dataset (es. qualità didattica, impatto in classe)
Produci un box "Limiti e prossimi dati utili".
Limiti e dati che servirebbero
Cosa posso misurare bene con questo file
- domanda (candidati)
- riempimento (confermati/posti)
- esito amministrativo (attestati/confermati sui corsi chiusi)
- dinamiche temporali (per anno)
- macro-temi (con classificazione euristica)
Cosa non posso dimostrare con questo file
- qualità didattica “reale”
- trasferimento in classe / impatto sugli studenti
- soddisfazione (NPS, gradimento)
- cause dei cambiamenti (servono variabili di contesto)
Quali dati aggiungere per un’analisi “completa”
- survey post-corso (soddisfazione, utilità percepita)
- evidenze di prodotto (artefatti realizzati, UDA, rubriche)
- indicatori di engagement (tempo, completamento moduli, drop-off per unità)
- segmentazione utenza (ordine di scuola, ruolo, provincia)
