AI Act e Legge italiana sull’Intelligenza artificiale: un’armonizzazione “fin troppo perfetta”

Giovanna De Minico*, Emanuela Palomba**, Michela Parente***

Il 17 settembre 2025 il Senato della Repubblica ha approvato, in via definitiva, il disegno di legge d’iniziativa governativa contenente “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” (A.S. 1146-B, ora L. 132/2025)[1]. La Legge italiana sull’Intelligenza artificiale segue l’adozione a livello unionale della prima regolamentazione al mondo dedicata all’Intelligenza artificiale (IA):  il Regolamento (UE) 1689/2024 (cd. AI Act)[2]. Alla luce del quadro normativo unionale, il Legislatore nazionale ha ritenuto, infatti, necessario predisporre una parallela disciplina interna, al fine di adattare tali disposizioni alle peculiarità del contesto nostrano e garantirne così l’attuazione.

Ma che rapporto intercorre tra i due Atti? Quali sono i profili di continuità e di discontinuità tra la disciplina europea e quella nazionale?

Analizziamone, innanzitutto, l’approccio.

L’AI Act adotta una prospettiva antropocentrica che classifica i sistemi di IA in base al rischio per i diritti fondamentali dei destinatari (pratiche di IA inaccettabili, sistemi di IA ad alto rischio, sistemi di IA a basso e minimo rischio), modulando le regole ad essi applicabili secondo il canone della proporzionalità[3]. I principi generali di tutela dei diritti fondamentali, sicurezza e sostenibilità, delineati a livello europeo, sono stati poi ripresi dall’art. 2 della Legge italiana sull’IA.

Tale sovrapposizione valoriale sembra, però, riflettersi anche nella più ampia disciplina a carattere sostanziale.

Si pensi, ad esempio, alla regolazione dell’uso dell’IA nel settore dell’amministrazione della giustizia.

Il Legislatore unionale ha inquadrato fra i sistemi ad alto rischio le IA destinate a essere usate da un’autorità giudiziaria, o per suo conto, nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti (ex art. 6, par. 2, AI Act che, a sua volta, rinvia all’Allegato III, punto 8). La ratio di tale qualificazione risiede nella necessità di garantire l’imprescindibile diritto di ciascuno a essere giudicato da un “essere umano”, condizione essenziale a garantire il rispetto non solo della dignità del giudicando – che ripone fiducia nell’esito del giudizio soltanto se la valutazione proviene da un suo pari – ma anche del principio di uguaglianza formale tra imputato e giudice, perché quest’ultimo non è legibus solutus, ma soggetto alle medesime regole dell’imputato.

Allo stesso modo, in ossequio al dettato degli artt. 101, co. 2, e 104 Cost, anche la Legge italiana sull’IA (art. 15) evidenzia come tutte le decisioni sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti debbano essere di esclusiva competenza umana.

Tanto nell’AI Act, quanto nella Legge italiana sull’IA, dunque, è ammesso l’utilizzo giudiziale dei sistemi algoritmici, a condizione che essi si pongano in posizione sussidiaria, e non sostitutiva, della iurisdictio. Diversamente, l’introduzione di un’IA con un ruolo più incisivo all’interno del processo rischierebbe di comprimere tanto l’autonomia del singolo giudice quanto, più in generale,  la capacità evolutiva del diritto. Da un lato, infatti, l’output algoritmico potrebbe porsi come “pungolo gentile”[4] nei confronti del magistrato giudicante, riducendo la sua discrezionalità decisionale: sebbene possa ancora discostarsi dall’esito algoritmico, il giudice, infatti, sarebbe obbligato a giustificare la propria scelta adempiendo a un onere motivazionale più gravoso rispetto a quello normalmente richiestogli, il che lo renderebbe non più soggetto soltanto alla legge, ma anche ad un ulteriore parametro esterno di natura “tecnica”[5]. D’altro canto, i sistemi di IA rafforzano la certezza e la prevedibilità giuridica[6], ma la loro natura stocastica impedisce, al tempo stesso, un’interpretazione evolutiva del diritto: una sentenza frutto delle determinazioni algoritmiche, infatti, può solo replicare per l’avvenire quanto accaduto nel passato[7], limitando l’apporto volitivo del giudice nella chiusura delle norme aperte o nel perfezionamento delle fattispecie a formazione progressiva, nonché la possibilità di formulare nuove letture del dettato normativo.

In piena consonanza con la disciplina europea, la Legge italiana sull’IA ne condivide, dunque, i punti di forza, ma ne eredita altresì le criticità. La mera garanzia di supervisione umana non si rivela, infatti, sufficiente ad assicurare di per sé il rispetto del diritto di difesa del destinatario del provvedimento se la logica seguita dall’IA resta inaccessibile dall’esterno[8]. Il Legislatore italiano sembra, quindi, aver trascurato l’opportunità di colmare le lacune presenti nel quadro normativo unionale, non integrandolo con un catalogo di diritti specificamente orientato alla trasparenza, l’unico mezzo che avrebbe potuto garantire al destinatario l’effettivo accesso alla spiegazione dell’output algoritmico e, conseguentemente, la possibilità di contestarne la validità.

La stessa sostanziale sovrapposizione giuridica fra la regolamentazione europea e quella nazionale si evidenzia anche in materia di governance.

In una prima fase, a seguito degli emendamenti apportati dal Parlamento europeo nel giugno 2023, l’AI Act disponeva che le Autorità nazionali di controllo, autonomamente individuabili da ciascuno Stato membro, avrebbero dovuto assicurare la propria indipendenza genetica e funzionale dai rispettivi Esecutivi nazionali (ex art. 59, par. 4 bis)

Nel corso dei negoziati in sede di Trilogo, il testo dell’AI Act è stato oggetto di significativi emendamenti, al punto che alcune disposizioni appaiono oggi profondamente diverse dall’impostazione originaria. L’art. 70 dell’AI Act, nella sua formulazione attuale, ha infatti attribuito ampia discrezionalità a ciascuno Stato membro nell’individuazione delle proprie autorità competenti, richiedendo soltanto che ne sia garantita l’indipendenza funzionale.

Il Legislatore italiano ha così potuto designare quali Autorità per l’IA[9], ai sensi dell’art. 20 della L. 132/2025, due agenzie governative  preesistenti – l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) – determinando l’avvio del processo di accentramento della governance nazionalesull’IA. Tale moto centripeto si rafforza nell’articolo 19 della L. 132/2025, che affida alla struttura della Presidenza del Consiglio dei ministri competente per l’innovazione tecnologica e la transizione digitale il compito di delineare la strategia nazionale sull’IA, avvalendosi del supporto delle due Autorità.

Un impianto di questo tipo, tuttavia, rischia di subordinare le scelte in materia di IA ai continui mutamenti delle forze politiche e a valori contingenti, distogliendo così tali strumenti dalla sensibilità verso il common good[10].

Inoltre, l’applicazione dell’AI Act anche alle Pubbliche amministrazioni avrebbe richiesto che il controllante di una IA in azione fosse un soggetto distinto dal controllato. Invece, se tanto il controllante quanto il controllato sono entità pubbliche, si azzera la dualità soggettiva e, quindi, non si assicura un esito del controllo obiettivo e secondo diritto, bensì un sindacato compiacente con le ragioni egoistiche del controllato[11].

Anche in tema di governance, quindi, il Legislatore nazionale sembra aver perso la preziosa opportunità di superare il dettato della normativa europea e farsi promotore della necessaria autonomia strutturale delle Autorità nazionali dell’IA, in modo da isolare i settori sensibili dalle indebite pressioni della maggioranza di turno e prevenire fenomeni di “cattura regolatoria”[12].

Sul piano delle fonti, la Legge italiana sull’IA prosegue sul cammino europeo di destrutturazione del diritto come modello monolitico statale, progressivamente sostituito da forme di normazione reticolari e partecipate dal basso. Lo Stato diventa, infatti, “architetto di sistema”: delinea le competenze istituzionali, definisce gli obiettivi generali, riservandosi talvolta il potere di intervento correttivo, e all’interno di questa cornice riconosce la capacità delle formazioni sociali di elaborare regole efficaci, persino vincolanti per terzi estranei alla base associativa[13].

L’AI Act aveva già mostrato questo modello “poroso” di regolazione, nel quale la società civile partecipa alla costruzione delle regole[14]. Il sistema delineato dal Regolamento europeo si fonda, infatti, su una delega dell’implementation al privato secondo due forme[15]: da un lato le norme tecniche armonizzate, elaborate dagli organismi europei di standardizzazione[16]; dall’altro i Codici di condotta. All’interno di questi, si distinguono i Codici per l’IA generativa, caratterizzati da un impianto co-regolatorio in cui si dettano in prima battuta gli obblighi da recepire, e i Codici per l’IA a basso rischio, un modello di self regulation quasi pura in cui il potere pubblico si limita a dettare le linee guida.

La Legge italiana sull’IA si colloca sulla stessa traiettoria, in direzione soft law: non pone alcun argine alla privatizzazione delle fonti di secondo grado, né potrebbe farlo senza discostarsi dal paradigma europeo. Le poche integrazioni introdotte dal Legislatore nazionale seguono, infatti, la medesima logica adottata dai Codici di condotta per l’IA generativa delineati in sede europea (Artt. 53-55, AI Act), sia in termini di finalità che di mezzo attuativo.

Quanto alla finalità, gli obblighi individuati dalla L. 132/2025 riflettono la medesima filosofia dell’AI Act, fondata sulla protezione dei diritti fondamentali e sul principio di trasparenza. Questo aspetto è chiaramente individuabile nell’art. 13, il quale, nell’ambito delle “Disposizioni in materia di professioni intellettuali”, stabilisce, da un lato, a garanzia dei diritti, che l’uso dell’IA debba limitarsi alle attività strumentali e di supporto al lavoro professionale e di supporto all’esercizio della professione; dall’altro, come espressione del principio di trasparenza, che il professionista sia tenuto a informare il cliente, in modo chiaro e comprensibile, circa l’eventuale utilizzo di sistemi di IA.

Quanto al mezzo attuativo, si discute se gli obblighi previsti dalla Legge nazionale sull’IA richiedano un intervento implementativo. L’assenza di sanzioni dirette sembra suggerire che una fase di attuazione risulti necessaria, e in tal caso, in linea con la regolazione europea, i codici deontologici professionali rappresenterebbero la sede più naturale per il recepimento[17].

Emerge quindi come l’impianto normativo italiano sull’IA presenti, anche sul piano delle fonti, le medesime criticità dell’AI Act, riconducibili a un eccesso di fiducia nell’autodisciplina e nel valore della trasparenza. In assenza di un controllo pubblico sostanziale, tali meccanismi rischiano, infatti, di trasformarsi in una “finzione di legalità”, inducendo i cittadini a confidare in una sicurezza che, senza l’intervento pubblico e una cornice eteronoma forte, resta soltanto apparente.

Alla luce delle considerazioni fin qui svolte, sembra quindi possibile affermare che, in generale, il principale limite della normativa nazionale in materia di IA consista nella proprio nella sua rigorosa aderenza all’AI Act, che ha impedito al Legislatore nazionale di arricchire le disposizioni europee con una regolamentazione interna calibrata sul contesto italiano e in grado di colmare le lacune emerse a livello unionale.

Ma questa stretta interdipendenza tra disciplina nazionale ed europea mostra ulteriori limiti alla luce del possibile ridimensionamento dell’AI Act.

La Commissione europea, con la recente proposta del Digital Omnibus Package[18],avrebbe intenzione, infatti, di chiarire e migliorare l’acquis comune europeo, attraverso un processo di semplificazione di numerosi atti, tra cui il Regolamento sull’Intelligenza artificiale.

La svolta è maturata durante i vertici di Parigi e Monaco del febbraio 2025, quando la Presidente della Commissione Ursula von der Leyen ha ritirato la Product Liability Proposal[19], lasciando così ai singoli Stati membri la regolamentazione dei danni causati dall’IA.

Successivamente, il 30 giugno 2025, un gruppo di Piccole e Medie Imprese europee ha pubblicato la lettera aperta “Europe must hit pause on the AI Act”, chiedendo la sospensione dell’attuazione del Regolamento europeo perché “quality and clarity must come before speed”[20]. La normativa graverebbe, infatti, in misura maggiore sulle start-up che, incapaci di sostenere i costi della compliance, si vedrebbero costrette a orientarsi verso mercati più semplici e prevedibili, come Stati Uniti e Cina. La risposta della Commissione è stata, inizialmente, netta: “There is no stop the clock. There is no grace period. There is no pause”[21].  Nel frattempo, le critiche si sono moltiplicate: di fronte a un ecosistema digitale sempre più complesso e articolato, l’approccio regolatorio europeo andrebbe riconsiderato. Il Legislatore sovranazionale dovrebbe, infatti, “eliminare le regole superate da una realtà che è andata avanti; quelle inutilmente invasive dell’autonomia d’impresa che non procurano benefici alla contendibilità dei mercati digitali; quelle discriminatorie nel pesare di più sui piccoli e meno sui grandi e quelle che disallineano situazioni da equiordinare in presenza di uno stesso servizio, prestato con mezzi alternativi”[22].

Nel settembre 2025 l’ex Presidente della BCE Mario Draghi ha rilanciato il dibattito chiedendo di sospendere l’implementazione dell’AI Act “in attesa di comprendere gli svantaggi”[23].

Arriviamo quindi ad oggi, con la proposta di Digital Package che, nello snellire la disciplina europea sul digitale, prospetta la prevalenza del potere dei mercati sulla sovranità europea. Le ragioni alla base del nuovo pacchetto di atti sono economiche e politiche. Le minacce di ulteriori dazi da parte dell’amministrazione Trump e il lobbying delle Big Tech statunitensi, uniti al timore di un deterioramento dei rapporti transatlantici, spingono Bruxelles a considerare l’introduzione di un periodo di grazia di un anno, il rinvio delle sanzioni e l’alleggerimento degli obblighi per i fornitori di IA generativa[24].

Nonostante le rivendicazioni del portavoce della Commissione ThomasReigner, secondo cui “non spetta a un Paese terzo decidere come legifera l’UE […] è un nostro diritto sovrano”, e nonostante le posizioni di chi ritiene che ogni stop o ritardo genererebbe un’incertezza legale e lascerebbe i cittadini esposti ai rischi che la legge voleva mitigare[25], il possibile ridimensionamento dell’AI Act segna la fine dell’illusione dell’Unione europea come gigante regolatorio e mostra il Vecchio Continente in una posizione di crescente marginalità, schiacciato tra Stati Uniti e Cina.

Iure condendo, resta, quindi, un interrogativo irrisolto: qualora l’AI Act dovesse essere modificato, quale sarebbe la sorte della disciplina nazionale? L’armonizzazione “fin troppo perfetta” della L. 132/2025, che finora sembrerebbe determinare solo una ridondante e superflua sovrapposizione con la disciplina europea, a seguito della modifica dell’AI Act assumerà una funzione precettiva autonoma o collasserà sotto il peso della propria dipendenza strutturale dal quadro europeo?


[1] Legge 23 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale, in GU n. 223 del 25 settembre 2025.

[2] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).

[3] C.N. Pehlivan, N. Forgó, & P. Valcke (Eds.), The EU Artificial Intelligence (AI) Act: A Commentary, Kluwer Law International BV, 2024.

[4] Così R.H. Thaler & C.R. Sunstein, Nudge: Improving Decisions About Health, Wealth, and Happiness, Penguin book, 2008, pp. 74 ss.

[5] G. De Minico, Giustizia e intelligenza artificiale: un equilibrio mutevole, in Rivista AIC, n. 2, 2024.

[6] U. Ruffolo, Giustizia predittiva, decisione algoritmica e ruolo ancillare della machina come ausiliare necessario del giudice umano, in A. Pajno, F. Donati & A. Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, vol. II, Il Mulino, 2022; M. Luciani, La decisione giudiziaria robotica, in Rivista AIC , n. 3, 2018.

[7] C. Casonato, Giustizia e intelligenza artificiale: considerazioni introduttive, in BioLaw – Journal Rivista di BioDiritto, n. 2, 2021.

[8] F. Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard Univ Pr., 2015.

[9] S. Calzolaio, Autorità indipendenti e di governo della società digitale, in F. Pizzetti (a cura di), La regolazione europea della società digitale, Giappichelli, 2024, pp. 100-104.

[10] Così, G. De Minico, Contributo in Il Forum: Il Regolamento sull’Intelligenza artificiale, in La Rivista “Gruppo di Pisa”, n. 2, 2024, pp. 241-243.

[11] Lo stesso discorso si applica anche sul piano privatistico per le tre autodichiarazioni previste dall’AI Act per i sistemi ad alto rischio (valutazione sull’eccezionalità del sistema, sulla compliance esull’impatto sui diritti fondamentali), la cui redazione e supervisione sono gestite in house dallo stesso privato. Così già in G. De Minico, Giustizia e intelligenza artificiale: un equilibrio mutevole, cit., p. 87.

[12] In questi termini, A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw – Journal Rivista di BioDiritto, n. 1, 2019, in particolare, pp. 63-89.

[13] Per un’ampia trattazione del tema: G. De Minico, Le fonti del diritto: un argine all’intelligenza artificiale?, in Rivista AIC, n. 3, 2025.

[14] L’aggettivo “poroso” per indicare un ordinamento giuridico strutturato ma aperto al confronto con i bisogni sociali si deve a G. Teubner, Substantive and reflexive elements in modern law, in Law and Society Review, 1983, 17, 239.

[15] A questi deve aggiungersi un terzo modello normativo che si ricava per interpretazione dell’Atto europeo: la tecnica. L’IA diventa, infatti, essa stessa fonte, che avvia e chiude l’iter regolatorio. Per approfondire: G. De Minico, Le fonti del diritto, cit., pp. 91 ss.

[16] Si fa riferimento alle specifiche tecniche adottate dagli organismi di normalizzazione europei (CEN, CENELEC, ETSI) su mandato della Commissione europea. Ai sensi dell’art. 40 dell’AI Act, l’utilizzo di tali standard conferisce ai sistemi di IA una “presunzione di conformità” ai requisiti obbligatori del Regolamento (quali gestione del rischio, governance dei dati e accuratezza), facilitando l’immissione sul mercato e riducendo l’onere probatorio per i fornitori.

[17] Le linee guida stabilite dal governo sono state ulteriormente dettagliate nei Codici deontologici dei Commercialisti e dei Giornalisti. Per altre categorie, come Confprofessioni e il Consiglio Nazionale Forense, invece, il vincolo deriverebbe direttamente dalla legge stessa. In questi casi, le categorie si sono limitate a fornire uno schema per l’adempimento degli obblighi di informativa previsti dalla normativa. Cfr. Ordine dei Giornalisti, Il 10 ottobre entra in vigore la legge che regolamenta l’IA, in https://www.odg.it/il-10-ottobre-entra-in-vigore-la-legge-che-regolamenta-lai-il-cnog-ha-anticipato-con-il-nuovo-codice-deontologico-in-vigore-a-giugno/62934; Consiglio Nazionale dei Dottori Commercialisti e degli Esperti Contabili, Commercialisti: l’IA entra nel Codice deontologico, in commercialisti.it, https://commercialisti.it/commercialisti-lia-entra-nel-codice-deontologico/; Consiglio Nazionale Forense, Comunicazione ai COA – Schema di informativa sull’intelligenza artificiale, in https://www.consiglionazionaleforense.it/documents/20182/0/Comunicazione+ai+COA+-+Schema+informativa+IA.pdf.

[18] European Commission, Proposal for a Regulation of the European Parliament and of the Council amending Regulations (EU) 2016/679, (EU) 2018/1724, (EU) 2018/1725, (EU) 2023/2854 and Directives 2002/58/EC, (EU) 2022/2555 and (EU) 2022/2557 as regards the simplification of the digital legislative framework, and repealing Regulations (EU) 2018/1807, (EU) 2019/1150, (EU) 2022/868, and Directive (EU) 2019/1024 (Digital Omnibus), Brussels, 19.11.2025 COM(2025) 837 final; Proposal for a Regulation of the European Parliament and of the Council amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI), Brussels, 19.11.2025 COM(2025) 836 final.

[19] European Commission, Proposal for a Directive of the European Parliament and of the Council on liability for defective products, Brussels, 28.9.2022, COM/2022/495 final. Poi ritirata: Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Commission work programme 2025, Strasbourg, 11.2.2025  COM(2025) 45 final.

[20] J. Schildt et al., European startups call for a pause to the EU AI Act, in Sifted.eu, 30/06/2025, https://sifted.eu/articles/ai-act-pause-opinion-eu-european-startups.

[21] F. Yun Chee, EU sticks with timeline for AI rules, in Reuters, 04/07/2025, https://www.reuters.com/world/europe/artificial-intelligence-rules-go-ahead-no-pause-eu-commission-says-2025-07-04/.

[22] In questi termini, G. De Minico, Unione europea – Mercato -Tecnica, Draft della Relazione svolta al 40° Convegno annuale dell’Associazione Italiana dei Costituzionalisti “L’Unione europea a confronto con la Costituzione della Repubblica italiana, 10-11 ottobre 2025, Università degli Studi di Torino, pubblicata in https://www.associazionedeicostituzionalisti.it/images/convegniAnnualiAIC/2025_Torino/Giovanna_De_Minico.pdf.

[23] ​​ Sebbene riconosca che la prima fase si sia conclusa senza particolari difficoltà, l’ex Presidente della BCE Mario Draghi evidenzia come la seconda fase, relativa alle applicazioni “ad alto rischio” (quali quelle in sanità, infrastrutture e difesa), possa mettere a repentaglio la capacità innovativa del continente. T. Nugent, Draghi joins the call to stop EU AI Act, in Sifted.eu, 16/06/2025, https://sifted.eu/articles/draghi-joins-calls-to-pause-eu-ai-act.

[24] B. Moens, EU set to water down landmark AI act after Big Tech pressure, in Financial Times, 07/11/2025, https://www.ft.com/content/af6c6dbe-ce63-47cc-8923-8bce4007f6e1.

[25] J. Rankin, European Commission faces pressure over AI Act as Trump administration courts tech business, in The Guardian, 07/11/2025, https://www.theguardian.com/world/2025/nov/07/european-commission-ai-artificial-intelligence-act-trump-administration-tech-business.

* Professoressa ordinaria di Diritto costituzionale e pubblico – Università degli Studi di Napoli Federico II; legal chief dei Partenariati pubblico/privati “FAIR” e “Restart”, finanziati dall’Unione europea.

** Dottoranda di ricerca all’Italian National Ph.D. Program in Artificial Intelligence, Area disciplinare: Diritto costituzionale, Università degli Studi di Napoli Federico II.

*** Dottoranda di ricerca al Dottorato di Interesse Nazionale in Visual Arts, Performing Arts, New Media, New Technologies, Music and Cultural Heritage, Area disciplinare: Copyright Law and Cultural Economy.

Scarica il contributo

Condividi questo post

Lascia un commento