1. Introduzione: l’Italia attore consapevole nella rivoluzione AI

1.1 Contesto strategico e motivazioni nazionali

L’Intelligenza Artificiale (IA) ha trasceso la sfera della speculazione futuristica per affermarsi come una forza trasformativa che rimodella i paradigmi sociali ed economici globali.  Di fronte a questa rivoluzione tecnologica, la Strategia Italiana per l’Intelligenza Artificiale 2024-2026, curata dall’Agenzia per l’Italia Digitale (AgID), rappresenta la scelta consapevole della nazione di non subire passivamente il cambiamento, ma di guidarlo attivamente, assumendo il ruolo di “attore consapevole”.

Questa strategia è motivata dalla necessità di salvaguardare le eccellenze nazionali e il benessere dei cittadini, evitando la dipendenza strategica e l’omogeneizzazione culturale che deriverebbe dalla mera importazione di tecnologie straniere, elementi particolarmente critici per la tutela del “Made in Italy”.  Il piano d’azione è strutturato attorno a quattro macroaree interconnesse – Ricerca, Pubblica Amministrazione, Imprese e Formazione – che definiscono il percorso italiano per una transizione epocale.  L’ambizione dichiarata è sviluppare soluzioni che siano antropocentriche, affidabili e sostenibili, in linea con i valori europei e volte a rafforzare la competitività economica e la qualità della vita.

1.2 Interazione strategica: piano nazionale e quadro europeo (AI Act)

Il documento strategico italiano non è un’iniziativa isolata, ma si inserisce in un contesto normativo sovranazionale stringente. La sua pubblicazione nel luglio 2024 è avvenuta a ridosso dell’entrata in vigore del Regolamento sull’IA (AI Act, Regolamento (UE) 2024/1689) nell’agosto 2024. Questa stretta correlazione temporale stabilisce la Strategia come il meccanismo nazionale primario per l’adattamento e l’esecuzione degli obblighi europei.

La normativa nazionale, compreso il Disegno di Legge (DDL) S. 1146 (divenuto Legge n. 132/25 nel settembre 2025), completa l’AI Act definendo la governance interna e gli strumenti di sostegno all’innovazione.  L’obiettivo strategico per l’Italia è quindi duplice: da un lato, massimizzare i benefici tecnologici, e dall’altro, minimizzare i potenziali effetti avversi attraverso un approccio normativo rigoroso e inclusivo, coerente con il principio di affidabilità (Trustworthy AI) promosso dall’Unione Europea.

 

2. Il framework regolatorio europeo: architrave di sviluppo e compliance

2.1 Il regolamento AI Act: l’approccio basato sul rischio

Il Regolamento sull’IA rappresenta il primo quadro giuridico completo al mondo sull’IA, stabilendo un insieme di norme armonizzate essenziali per sviluppatori e utilizzatori di sistemi IA. Il suo meccanismo centrale è l’approccio basato sul rischio, che impone obblighi proporzionati all’impatto potenziale dei sistemi sui diritti fondamentali e sulla sicurezza.

Il Regolamento classifica i sistemi IA in quattro categorie principali:

  1. Rischio Inaccettabile: Sono sistemi esplicitamente vietati, in quanto considerati una chiara minaccia per i diritti fondamentali, come i sistemi di social scoring gestiti da governi o imprese.
  2. Alto Rischio: Questa categoria è la più rilevante per le strategie nazionali, specialmente per la Pubblica Amministrazione e alcuni settori industriali strategici. Rientrano qui i sistemi con un impatto significativo (ad esempio, software medici basati sull’IA o sistemi utilizzati nella selezione e assunzione di personale). I fornitori e gli utilizzatori di questi sistemi devono rispettare requisiti rigorosi, tra cui l’elevata qualità dei set di dati, la mitigazione proattiva dei rischi, la trasparenza per gli utenti e la sorveglianza umana.
  3. Rischio Specifico per la Trasparenza: Sistemi come i chatbot o quelli che generano contenuti (IA generativa) sono soggetti all’obbligo di disclosure, cioè devono informare chiaramente gli utenti che stanno interagendo con una macchina e, nel caso dei contenuti generati, etichettarli come tali.
  4. Rischio Minimo: La maggior parte dei sistemi IA (come filtri spam o videogiochi) non sono soggetti a obblighi cogenti, ma le imprese sono incoraggiate ad adottare volontariamente codici di condotta.

L’applicazione del Regolamento è graduale. Le proibizioni sui sistemi a rischio inaccettabile iniziano ad applicarsi a febbraio 2025. Per la Pubblica Amministrazione, l’obbligo di conformità per i fornitori e gli utilizzatori di sistemi ad alto rischio è posticipato fino ad agosto 2030 per i sistemi legacy. Nel frattempo, la Commissione Europea e l’Ufficio AI stanno elaborando linee guida per i modelli di IA per finalità generali (GPAI), con orientamenti attesi per il luglio 2025.

2.2 L’Etica al centro: i sette pilastri della Trustworthy AI

I principi etici europei costituiscono la base concettuale che sottende la Strategia Italiana per un’IA “antropocentrica”.  Tali principi sono stati formalizzati nelle Ethics Guidelines for Trustworthy AI elaborate dall’High-Level Expert Group on AI (AI HLEG).

Queste linee guida traducono i principi etici astratti in sette requisiti operativi, promossi anche attraverso l’Assessment List for Trustworthy AI (ALTAI).  I sette requisiti che i sistemi di IA dovrebbero soddisfare lungo l’intero ciclo di vita sono: Human agency and oversight (Sorveglianza e controllo umano); Technical robustness and safety (Robustezza tecnica e sicurezza); Privacy and data governance (Riservatezza e governance dei dati); Transparency (Trasparenza); Diversity, non-discrimination, and fairness (Diversità, non discriminazione ed equità); Environmental and societal well-being (Benessere sociale e ambientale); e Accountability (Responsabilità).

Questi requisiti etici non sono meramente consultivi, ma servono da ponte tra la visione strategica italiana e gli obblighi legali del Regolamento. Ad esempio, i requisiti di Data Quality e Trasparenza sono direttamente imposti per i sistemi ad alto rischio dall’AI Act.  L’attuazione di un’IA affidabile richiede l’impiego di metodi sia tecnici che non tecnici e l’intervento di un team multidisciplinare che includa, oltre a sviluppatori e data scientists, anche legali, compliance officers e procurement officers.

2.3 Governance nazionale e adattamento (DDL S. 1146)

Per garantire la piena attuazione del quadro normativo europeo e l’esecuzione della Strategia, l’Italia ha definito una specifica governance attraverso il DDL S. 1146 (Legge n. 132/25).

La Legge sull’IA stabilisce una governance nazionale basata su un modello duale, identificando l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID) come Autorità Competenti.  Il coordinamento strategico della politica IA è affidato alla Presidenza del Consiglio, che approva la Strategia IA con cadenza almeno biennale.

La scelta di distribuire le responsabilità tra ACN e AgID, pur mantenendo il ruolo del Garante per la Protezione dei Dati Personali (GPDP), introduce una potenziale complessità giurisdizionale. Il successo della governance dipende dalla chiara demarcazione dei confini operativi, in particolare dove gli obiettivi di sicurezza nazionale (promossi da ACN, ad esempio, nell’uso dell’IA per il rafforzamento della cybersicurezza) si intersecano con gli obiettivi di interoperabilità e digitalizzazione della PA (di competenza AgID).

A supporto dell’innovazione e della sperimentazione conforme, il DDL prevede finanziamenti significativi (1 miliardo di euro per startup e PMI).  Inoltre, l’Italia sta implementando strumenti come le Regulatory Sandboxes [(I.5)], che consentono a imprese e PA di testare soluzioni innovative in un ambiente controllato, garantendo il rispetto della normativa europea prima del rilascio sul mercato.7

 

3. La macroarea ricerca: pilastri per la sovranità tecnologica

La macroarea Ricerca è il fondamento della Strategia Italiana, con l’obiettivo ambizioso di posizionare il Paese non semplicemente come un utilizzatore, ma come un “creatore delle tecnologie di IA di domani”.  La visione si concentra sullo sviluppo di tecnologie che rispondano in modo specifico alle esigenze del sistema-Paese, valorizzando le filiere produttive e il patrimonio culturale.

 

3.1 Consolidamento dell’Ecosistema e Attrattività dei Talenti

Per raggiungere l’obiettivo di competitività internazionale, la Strategia delinea sei azioni chiave.  L’Azione R.  si focalizza sul consolidamento dell’ecosistema di ricerca, promuovendo una solida rete di collaborazione tra università, centri di ricerca (come la Fondazione FAIR) e imprese. Questo ecosistema pubblico-privato integrato è progettato per accelerare il trasferimento delle idee innovative dal mondo accademico a prodotti e servizi concreti sul mercato, con risultati attesi sia a livello di ricerca fondamentale (basso TRL) che applicata.

Un elemento critico per la crescita è l’attrattività del capitale umano. L’Azione R. risponde direttamente al fenomeno della “fuga dei cervelli” attraverso un piano straordinario di assunzioni mirato a trattenere i talenti formati in Italia e ad attrarre ricercatori e professori esperti di IA dall’estero, dotando il Paese delle competenze necessarie per competere globalmente.

L’investimento nella ricerca fondazionale e blue-sky (R.5) è altrettanto cruciale. Questo sostegno a programmi di ricerca ambiziosi e ad alto rischio mira a generare le innovazioni dirompenti necessarie per il medio-lungo periodo, garantendo che l’Italia mantenga un ruolo attivo nella frontiera tecnologica.

3.2 Il progetto LLM italiano/multilingue: sfide legali e sovranità culturale

L’Azione Rche prevede il finanziamento di progetti per creare Large Language Models (LLM) basati sulla lingua italiana e multilingue, rappresenta un pilastro della sovranità tecnologica e culturale italiana.  L’obiettivo primario di questa iniziativa è evitare la dipendenza culturale e strategica da modelli stranieri, sviluppando un’IA capace di comprendere e valorizzare le specificità del contesto nazionale, in particolare nei settori critici come la sanità e la Pubblica Amministrazione.

Il perseguimento di tale sovranità linguistica e tecnologica, tuttavia, è immediatamente vincolato da complesse questioni di Proprietà Intellettuale (IP) e gestione dei dati. Lo sviluppo di un LLM competitivo richiede l’addestramento su vasti corpus di dati testuali, che inevitabilmente includono materiale protetto da copyright, come articoli scientifici e pubblicazioni accademiche.

Nonostante le normative europee sul Text and Data Mining (TDM) consentano l’uso di contenuti per la ricerca, la prassi mostra che gli editori, detentori dei diritti di pubblicazione, possono implementare meccanismi di “opt-out” per prevenire l’utilizzo dei loro contenuti nell’addestramento di LLM commerciali. L’efficacia dell’Azione R.  dipende quindi in larga misura dalla capacità dell’Italia di navigare questo complesso panorama legale, sia negoziando accordi di licenza strategici (come emerso nel contesto internazionale con il caso Anthropic/Reddit) sia definendo i limiti legali e operativi per lo data scraping su materiali rilevanti per il contesto italiano.

 

3.3 Data Governance per la Ricerca

Per supportare l’ambizione degli LLM nazionali e garantire che la ricerca produca risultati riutilizzabili, la Strategia richiede una solida governance dei dati per l’ecosistema scientifico. È considerata essenziale il lancio di una “piattaforma italiana di dati e software per la ricerca sull’IA”.

Questa piattaforma unica e condivisa è fondamentale per generare una massa critica di dataset aperti e software progettati a livello di ricerca, resi accessibili secondo il principio FAIR (Findable, Accessible, Interoperable, Reusable). La finalità è duplice: mantenere la proprietà intellettuale dei risultati scientifici italiani e fornire un rapido time-to-market all’industria nazionale, in particolare a start-up e aziende che possono riutilizzare e ingegnerizzare questi prototipi. Il finanziamento di tali infrastrutture è in parte correlato agli investimenti del PNRR, come l’Investimento M4C2 3.

 

4. La trasformazione digitale della Pubblica Amministrazione (PA)

L’obiettivo per la Pubblica Amministrazione è ambizioso: trasformarla da un’entità burocratica complessa in un partner digitale efficiente.  L’IA è il catalizzatore di questa trasformazione, lavorando sia per l’efficienza interna che per la qualità dei servizi esterni.

4.1 Obiettivi di efficienza e i principi guida

L’IA è impiegata su due fronti:

  1. Semplificazione per cittadini e imprese (Azione PA. ): Si prevede l’introduzione di strumenti concreti come assistenti virtuali istituzionali capaci di rispondere a domande complesse 24/7 e sistemi in grado di pre-compilare automaticamente moduli e domande utilizzando i dati già in possesso della PA, riducendo drasticamente l’onere amministrativo per l’utente.
  2. Efficientamento dei processi interni (Azione PA.5): L’IA opera “dietro le quinte” per velocizzare la macchina burocratica, ad esempio attraverso la verifica automatica della conformità degli atti amministrativi alle leggi e l’archiviazione intelligente di grandi volumi di documenti. L’efficienza operativa è l’obiettivo principale del 42% dei progetti di IA censiti nelle amministrazioni centrali.

Questa trasformazione è guidata da principi cardine del Codice dell’Amministrazione Digitale (CAD), inclusa la neutralità tecnologica.  Ai sensi dell’Art. 68 del CAD, le amministrazioni devono rispettare la neutralità tecnologica, l’interoperabilità e il riuso. Questo è cruciale per evitare la frammentazione, dove enti diversi sviluppano sistemi incompatibili tra loro, garantendo uno standard di qualità nazionale.  L’interoperabilità è favorita anche dagli impegni assunti a livello europeo attraverso programmi come ISA2, che mirano a facilitare l’interazione transfrontaliera e intersettoriale tra le amministrazioni.

 

4.2 Adempimenti regolatori: AI Act e alto rischio nella PA

La PA è un deployer critico e, data la natura dei suoi servizi essenziali (giustizia, sanità, cybersicurezza), molti dei sistemi IA che adotterà rientrano nella classificazione di Alto Rischio dell’AI Act.  Questo implica l’obbligo di conformità ai requisiti rigorosi definiti dal Regolamento.

Per supportare le amministrazioni in questa complessa transizione, AgID è impegnata nella creazione di Linee Guida Chiare (Azioni PA) per la selezione, l’acquisto e lo sviluppo sicuro di soluzioni di IA.  Le bozze di linee guida AgID forniscono un quadro metodologico dettagliato che copre l’intero ciclo di vita di un sistema IA. Questo include:

  • gestione dei Dati: operazioni di selezione e tuning dei dataset, essenziali per aderire ai requisiti di Privacy and Data Governance della Trustworthy AI;
  • testing e Validazione: sottoporre il sistema a test rigorosi prima dell’operatività;
  • monitoraggio continuo: Dopo il deployment, i sistemi devono essere monitorati costantemente per rilevare variazioni operative, anomalie o insorgenza di bias che potrebbero compromettere l’affidabilità delle decisioni.

L’Italia sta inoltre lavorando, anche tramite l’azione di AgID, per definire standard normativi che integrino le lacune degli standard ISO esistenti (come ISO 23894 e 42000).  Nello specifico, si sta definendo una norma europea per il Risk Management che prioritizzi i rischi degli individui, aspetto centrale dell’AI Act. Analoghi sforzi sono dedicati alla definizione di standard specifici per la Data Quality e la Trasparenza, aspetti fondamentali per i sistemi utilizzati dalla PA.

 

4.3 Data governance sovrana e interoperabilità

La realizzazione della sovranità digitale e la sicurezza dei dati della PA sono assicurate attraverso il Polo Strategico Nazionale (PSN). Il PSN, costituito nel 2023, è un pilastro cruciale del cloud sovrano italiano, garantendo l’infrastruttura di data governance necessaria per la protezione dei dati critici, la cybersecurity e la continuità operativa.

Il PSN non è solo un fornitore di servizi cloud; esso funge da ambiente infrastrutturale sicuro e conforme, essenziale per abilitare le azioni della Strategia IA. In particolare, il collegamento tra il PSN e l’Azione R.  (LLM italiani) è fondamentale.  Per addestrare in sicurezza modelli linguistici sovrani su dati sensibili della PA (come quelli sanitari o legali), è indispensabile un’infrastruttura che assicuri la data sovereignty e la protezione dei dati critici.

 

 

 

4.4  Sfide operative: dati, bias e competenze

L’ambizione di trasformazione della PA deve confrontarsi con significative sfide operative. Le indagini rivelano che le principali criticità nell’adozione dell’IA includono:

  1. timori sull’accuratezza o sul bias dei dati (45%);
  2. carenza di dati proprietari sufficienti per personalizzare i modelli (42%);
  3. competenze inadeguate nell’IA generativa tra il personale (42%);

Il problema del bias è particolarmente critico per un ente pubblico che utilizza l’IA per il supporto decisionale.  Se i dataset storici della PA contengono bias sistemici, l’automazione dei processi rischia di istituzionalizzare e amplificare le disuguaglianze, minando l’obiettivo di “benessere sociale” (R. ) e i requisiti di Diversity/Fairness della Trustworthy AI.  L’efficacia delle linee guida AgID per il monitoraggio continuo sarà determinante per mitigare questo rischio, garantendo che l’efficienza non sia ottenuta a scapito dell’equità etica e legale.

 

5. innovazione e competitività nel tessuto produttivo (imprese)

 

La Strategia per le Imprese persegue l’obiettivo di supportare l’intero tessuto produttivo, con una particolare enfasi sulle Piccole e Medie Imprese (PMI), per l’adozione dell’IA e il rafforzamento della competitività del “Made in Italy”.

5.1  Il supporto strategico alle PMI e il modello dei facilitatori

Le PMI rappresentano il motore economico italiano, ma spesso incontrano ostacoli significativi nell’adozione di soluzioni IA a causa della complessità strategica e delle risorse limitate. Per superare questa inerzia, l’Azione I.  prevede la creazione di una rete di ‘facilitatori’ operanti sul territorio, coordinati dalla Fondazione per l’IA.

Il ruolo del facilitatore è cruciale. Questa figura funge da enabler e promotore, fornendo consulenza, supporto pratico e formazione mirata alle PMI.  Con l’entrata in vigore dell’AI Act, la funzione del facilitatore si è evoluta, rendendolo un vero e proprio “Referente AI e Conformità Normativa”. Molte PMI utilizzano infatti soluzioni con componenti IA esternalizzate, spesso senza esserne pienamente consapevoli, esponendosi a rischi normativi.

I facilitatori sono essenziali per assistere le PMI nella mappatura dei sistemi IA in uso e nell’assessment del rischio, garantendo la conformità agli obblighi normativi imposti dall’AI Act. Questo supporto strategico trasforma l’onere della compliance in un servizio gestibile per le piccole imprese.

 

5.2 Strumenti finanziari e sviluppo di soluzioni settoriali

Il sostegno finanziario è un altro pilastro per l’innovazione. L’Azione I. prevede la creazione di un fondo dedicato che erogherà aiuti concreti, utilizzando strumenti diversificati come voucher per l’innovazione, finanziamenti agevolati e corporate venture capital, per sostenere sia le aziende che sviluppano IA (fornitori ICT) sia quelle che la adottano.  Questi strumenti sono cruciali per catalizzare l’investimento privato e pubblico nel settore.

Inoltre, la Strategia prevede un rafforzamento del legame tra mondo della ricerca e industria attraverso l’Azione I. : la creazione di laboratori congiunti pubblico-privati. Questi laboratori saranno dedicati allo sviluppo e al testing di soluzioni di IA specifiche per i settori industriali strategici italiani (es. manifatturiero e farmaceutico).  Questa sinergia garantisce che la ricerca (Macroarea 3) produca applicazioni rilevanti e immediatamente trasferibili al sistema produttivo.

Per quanto riguarda il supporto normativo, l’Azione I.5 si concentra sull’aiutare le aziende ICT a gestire la complessa normativa europea e a utilizzare le regulatory sandbox per il testing in ambienti sicuri prima del lancio sul mercato.

5.3  Navigare la compliance: vantaggio competitivo per il Made in Italy

Sebbene l’AI Act imponga nuove e rigorose regole alle aziende, la Strategia Italiana inquadra la conformità come un’opportunità strategica. Adottare un’IA Trustworthy e conforme non è solo un obbligo, ma un elemento che rafforza la reputazione del “Made in Italy” sui mercati globali, associando l’eccellenza produttiva a valori europei di affidabilità, sicurezza e centralità della persona.

Per le aziende, la capacità di dimostrare l’aderenza ai requisiti di Technical robustness and safety e Accountability (come richiesto per i sistemi ad alto rischio) può diventare un vantaggio competitivo distintivo, specialmente nei settori regolamentati.

 

6. Discussione e implicazioni prospettiche

6.1 La coerenza strategica e la sinergia tra macroaree

La Strategia Italiana per l’Intelligenza Artificiale 2024-2026 è concepita come un sistema olistico e interconnesso.  Il successo di una macroarea è interdipendente dal successo delle altre. La Ricerca, investendo nei talenti (R.) e sviluppando asset strategici come gli LLM sovrani (R. ), genera la conoscenza e la tecnologia che alimentano l’innovazione nelle Imprese (Ilaboratori congiunti) e modernizzano la Pubblica Amministrazione (PAPA.5). A sua volta, una PA più efficiente crea un ambiente normativo e operativo più favorevole per le aziende e i cittadini.

 

 

La seguente tabella sintetizza le interconnessioni strategiche e l’ancoraggio normativo europeo.

Mappa Strategica Italia: Obiettivi, Azioni e Contesti Critici

 

Macroarea Obiettivo Strategico Azione Chiave (Es.) Corrispondenza AI Act / Etica UE Contesto Critico Associato
Ricerca Sovranità tecnologica e eccellenza accademica. Progettazione di LLM italiani (R. ). Privacy e Data Governance (Trustworthy AI). Sfide legali e costi di acquisizione dati (IP/TDM).
Pubblica Amministrazione Servizi più semplici ed efficienti. Efficientamento processi interni (PA.5). Alto Rischio (Allegato III) e Technical Robustness. Qualità dei dati (Data Quality) e gestione del Bias.
Imprese Innovazione del Made in Italy e supporto PMI. Rete di ‘Facilitatori’ (I. ). Rischio Minimo/Trasparenza e compliance normativa. Necessità di trasformare la conformità in vantaggio competitivo.

 

6.2 Rischi e opportunità derivanti dall’implementazione

L’attuazione di questa strategia è vincolata da sfide complesse.

Rischi operativi e legali

Il roll-out graduale dell’AI Act impone una pianificazione estremamente rigorosa, specialmente per la PA, che è soggetta alla conformità per i sistemi ad alto rischio. L’alto costo e la complessità della compliance (Data Quality, Test, Audit) potrebbero fungere da barriera all’ingresso per gli operatori meno strutturati, come le amministrazioni locali e le PMI meno attrezzate, nonostante il supporto dei facilitatori. Se i requisiti di Data Quality e mitigazione del bias non sono applicati rigorosamente (come richiesto dalle linee guida AgID), l’adozione dell’IA, specialmente in contesti ad alto rischio, potrebbe portare a decisioni inaffidabili o discriminatorie.

Inoltre, il successo dell’Azione R.  (LLM sovrani) è a rischio se non si risolvono proattivamente le questioni legali relative all’IP e al TDM. L’accesso a corpus di dati critici per l’addestramento, essenziale per la competitività e la rilevanza culturale del modello, non può prescindere da una chiara strategia di gestione del copyright.

 

Opportunità e strumenti abilitanti

Parallelamente ai rischi, l’Italia dispone di opportunità uniche per accelerare lo sviluppo dell’IA:

  • infrastruttura di sovranità: la combinazione di finanziamenti per la ricerca, la Fondazione FAIR 1, e l’infrastruttura di cloud sovrano (PSN) fornisce il quadro necessario per lo sviluppo e l’hosting sicuro di modelli IA strategici sul territorio nazionale.
  • investimenti dedicati: l’investimento straordinario per l’attrazione dei talenti (R.) e i fondi dedicati alle imprese (I.), uniti alle risorse PNRR, rappresentano un’opportunità critica per superare i deficit storici di investimento in ricerca e sviluppo.
  • compliance come leva: sfruttare l’AI Act e i principi di Trustworthy AI per sviluppare soluzioni native e conformi posiziona le aziende e la PA italiana all’avanguardia nell’IA etica, un fattore di differenziazione cruciale nel mercato globale.

6.3  Conclusioni e raccomandazioni strategiche

La Strategia Italiana 2024-2026 dimostra la volontà politica di governare attivamente la rivoluzione IA, ancorando saldamente lo sviluppo tecnologico nazionale al rigore normativo europeo. L’Italia ha correttamente identificato i pilastri necessari — talento (R.), infrastruttura di dati sovrana (PSN) e specializzazione settoriale (IR. ) — per tradurre la visione di un’IA “antropocentrica” in realtà operativa. Il passo critico risiede ora nell’efficacia dell’implementazione. Si identificano tre raccomandazioni strategiche fondamentali per garantire il successo della Strategia:

  1. definizione operativa della governance duale: è indispensabile chiarire con urgenza i confini operativi e le procedure di coordinamento tra ACN e AgID, le Autorità Competenti designate dal DDL S. 1146. La minimizzazione della potenziale ambiguità giurisdizionale è essenziale per non rallentare l’innovazione e l’adozione nella PA e nelle imprese.
  2. strategia legale proattiva per gli llm: per assicurare la realizzazione degli LLM italiani (R. ), il Paese deve affiancare agli investimenti tecnologici una strategia legale robusta sulla Proprietà Intellettuale. Si raccomanda di concentrare gli sforzi di addestramento su corpus di dati della PA e scientifici proprietari che offrano un vantaggio competitivo e siano meno esposti a contenziosi sul TDM, garantendo al contempo la data governance attraverso il PSN.
  3. standardizzazione rigorosa della qualità dei dati nella pa: dato che la PA è il principale deployer di sistemi ad alto rischio, è vitale stabilire metriche standardizzate e non negoziabili per la Data Quality e la mitigazione del bias, come previsto dalle linee guida AgID.5 Questo garantisce che l’efficienza amministrativa non comprometta l’equità e la fiducia, elementi centrali del paradigma Trustworthy AI.

L’integrazione di questi passaggi operativi nella Strategia esistente permetterà all’Italia di consolidare la propria posizione di leader nello sviluppo di soluzioni IA affidabili, trasformando la conformità normativa europea da vincolo in un potente elemento di differenziazione e competitività nazionale.

 

 

Meccanismi di governance nazionale (DDL S. 1146) e ruoli esecutivi

 

Istituzione Ruolo Principale (Strategia e DDL) Funzione AI Act / Normativa UE Ruolo Critico nell’Ecosistema IA
Presidenza del Consiglio (CITD) Coordinamento della Strategia IA (aggiornamento biennale). Visione strategica e politica sull’IA. Garantisce l’allineamento politico tra policy nazionale e Direttive UE.
AgID (Agenzia per l’Italia Digitale) Autorità Competente / Linee Guida PA. Gestione della qualità dei servizi, interoperabilità e adozione sicura di IA (PA. -3). Responsabile della conformità Trustworthy AI nella PA (Risk Management e Data Quality).
ACN (Agenzia Cybersicurezza Naz.) Autorità Competente / Cybersicurezza. Uso dell’IA per rafforzare la Cybersicurezza Nazionale. Necessaria coordinazione con AgID per sistemi ad Alto Rischio (Gestione Duale della Compliance).
PSN (Polo Strategico Nazionale) Cloud Sovrano / Infrastruttura dati.7 Fornitore dell’ambiente sicuro e conforme (Data Sovereignty) per i sistemi AI della PA. Abilita l’addestramento sicuro degli LLM italiani su dati sensibili della PA.

 

 

 

Obblighi di conformità AI Act e risposta strategica italiana

Livello di Rischio (AI Act) Obblighi Primari UE Impatto sulla PA Italiana (Deployer) Impatto sulle Imprese Italiane (Provider/Deployer)
Alto Rischio Gestione del rischio, qualità dati, sorveglianza umana, logging. Conformità obbligatoria per sistemi in Giustizia, Sanità, Selezione Personale. Deadline di conformità 2030 (legacy systems). Obbligo di adozione di Sandboxes (I.5) e investimento in Data Quality.
Trasparenza Disclosure (informare utente sull’interazione IA). Assistenti virtuali istituzionali (PA. ) devono informare chiaramente. Chatbot e sistemi di generazione contenuti devono etichettare l’output.
Minimo Rischio Volontario; Codici di condotta. Incentivi all’uso di standard etici (Trustworthy AI). Rete di Facilitatori (I. ) assiste nella mappatura volontaria e nel risk assessment.

© 2025 Gianfranco Bordoni.

Tutti i diritti riservati. È vietata la riproduzione, anche parziale, senza autorizzazione dell’autore.


 

Bibliografia

  1. Legge sull’IA | Plasmare il futuro digitale dell’Europa, https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai
  2. Intelligenza Artificiale, l’Italia ha il suo piano – Tecnologia & Innovazione, https://tinnovamag.com/intelligenza-artificiale-litalia-ha-il-suo-piano/
  3. Approvata in via definitiva la legge italiana sull’Intelligenza Artificiale, https://innovazione.gov.it/notizie/articoli/approvata-in-via-definitiva-la-legge-italiana-sull-intelligenza-artificiale/
  4. Parlamento Italiano – Disegno di legge S. 1146 – 19ª Legislatura | Senato della Repubblica, https://www.senato.it/leggi-e-documenti/disegni-di-legge/scheda-ddl?did=58262
  5. Entra in vigore il regolamento sull’IA: – Commissione europea, https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_it
  6. L’approccio basato sul rischio nell’AI Act: un nuovo paradigma di regolazione dell’intelligenza artificiale – Astrid-online.it, https://www.astrid-online.it/static/upload/d-an/d-antino_fed_18_25.pdf
  7. Implementation Timeline | EU Artificial Intelligence Act, https://artificialintelligenceact.eu/implementation-timeline/
  8. EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act, https://artificialintelligenceact.eu/
  9. ETHICS GUIDELINES FOR TRUSTWORTHY AI, https://www.aepd.es/sites/default/files/2019-12/ai-ethics-guidelines.pdf
  10. High-level expert group on artificial intelligence | Shaping Europe’s digital future, https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai
  11. AI High-Level Expert Group Publishes Ethics Checklist – eucrim, https://eucrim.eu/news/ai-high-level-expert-group-publishes-ethics-checklist/
  12. Intelligenza artificiale e protezione dei dati personali nel d.d.l. n. 1146, https://eusl.it/wp-content/uploads/2025/03/IA-e-protezione-dei-dati-personali-nel-ddl-n.-1146-Marco-Cappai.pdf
  13. Senato della Repubblica XIX Legislatura Fascicolo Iter DDL S. 1146, https://www.senato.it/leg/19/BGT/Schede/FascicoloSchedeDDL/ebook/58262.pdf
  14. XIX Legislatura, Disegno di legge n. 1146 – Disposizioni e delega al Governo in materia di intelligenza artificiale, Senato 20 maggio 2024, https://olympus.uniurb.it/index.php?option=com_content&view=article&id=33472:xix-legislatura,-disegno-di-legge-n-1146-disposizioni-e-delega-al-governo-in-materia-di-intelligenza-artificiale,-senato-20-maggio-2024&catid=245&Itemid=142
  15. Codice dell’amministrazione digitale. | Art. 68. Analisi comparativa delle soluzioni – Docs Italia, https://docs.italia.it/italia/piano-triennale-ict/codice-amministrazione-digitale-docs/it/stabile/_rst/capo_VI-articolo_68.html
  16. La Strategia Italiana per l’Intelligenza Artificiale 2024-2026 è online – Fondazione FAIR, https://fondazione-fair.it/news/la-strategia-italiana-per-lintelligenza-artificiale-2024-2026-e-online/
  17. Programma Strategico Intelligenza Artificiale 2022-2024, https://assets.innovazione.gov.it/1637937177-programma-strategico-iaweb-2.pdf
  18. Strategia Italiana per l’Intelligenza Artificiale 2024-2026, https://betteregulation.lumsa.it/sites/default/files/sites/default/files/publications/dpd_executive_summary_240503_073705–1-.pdf
  19. La Strategia italiana per l’IA 2024-2026: nuove sfide per il sistema giuridico italiano, https://www.lexia.it/2024/08/05/strategia-italiana-ia/
  20. Rivoluzione AI e copyright: regole umane per lettori artificiali | Il Bo Live – Unipd, https://ilbolive.unipd.it/it/news/societa/rivoluzione-copyright-regole-umane-lettori
  21. IA: indagine AgID sulla PA centrale. Ecco analisi e raccomandazioni, https://www.forumpa.it/pa-digitale/ia-nella-pubblica-amministrazione-analisi-e-raccomandazioni-per-unadozione-piu-efficace-lindagine-di-agid-sulla-pa-centrale/
  22. L’interoperabilità dei dati delle pubbliche amministrazioni nel PNRR, https://tesi.luiss.it/34413/1/157703_FALCO_VALENTINA.pdf
  23. Senato della Repubblica XIX Legislatura Fascicolo Iter DDL S. 1146-B – Bollettino ADAPT, https://www.bollettinoadapt.it/wp-content/uploads/2025/09/59313.pdf
  24. Bozza di linee guida per l’adozione di IA nella pubblica amministrazione – Agid, https://www.agid.gov.it/sites/agid/files/2025-02/Linee_Guida_adozione_IA_nella_PA.pdf
  25. Webinar: Regolamento UE – AI Act e normativa tecnica sull’intelligenza artificiale – YouTube, https://www.youtube.com/watch?v=sXbEtOfGOGI
  26. Polo Strategico Nazionale (PSN): infrastruttura cloud per la Pubblica amministrazione, https://www.sogei.it/it/sogei-homepage/soluzioni/polo-strategico-nazionale.html
  27. Polo Strategico Nazionale – Cloud Italia, https://cloud.italia.it/strategia-cloud-pa/polo-strategico-nazionale/
  28. La Data Governance e l’Adozione dell’Intelligenza Artificiale – Data Manager Online, https://www.datamanager.it/2025/02/la-data-governance-e-ladozione-dellintelligenza-artificiale/
  29. Sfide per l’adozione dell’AI – IBM, https://www.ibm.com/it-it/think/insights/ai-adoption-challenges
  30. Piccole imprese e AI: orientarsi tra sfide e opportunità – CNA Veneto, https://cnaveneto.it/piccole-imprese-e-ai-orientarsi-tra-sfide-e-opportunita/
  31. chi è e cosa fa – definizione per bando voucher – Ruolo Innovation Manager, https://www.alboinnovationmanager.it/blog/ruolo-innovation-manager-chi-e/
  32. AI Act e PMI. Trasforma la conformità in un vantaggio competitivo | Blog Register.it, https://blog.register.it/ai-act-e-pmi-trasforma-la-conformita-in-un-vantaggio-competitivo/
  33. AI Act: cosa devono fare oggi le PMI che usano intelligenza artificiale, https://avvocatodanielacavallaro.it/ai-act-pmi-compliance/
  34. Artificial Intelligence Act per le imprese: come gestire le sfide con strategie efficaci – Focus, https://focus.namirial.com/it/artificial-intelligence-act-vantaggi-imprese/