La normativa sull’Intelligenza Artificiale in breve
La legge n. 132/2025, in vigore dal 10 ottobre 2025, ha introdotto nel nostro ordinamento un quadro legislativo in materia di Intelligenza Artificiale
La legge, composta da 28 articoli, armonizza la legislazione nazionale con l’AI Act europeo
La normativatraccia le linee guida per l’utilizzo dell’IA in vari ambiti, dall’economia alla sicurezza digitale, mettendo al centro la protezione dei cittadini e dei valori democratici
Cos’è e come nasce la legge italiana sull’Intelligenza Artificiale
Il 23 settembre 2025 il Parlamento italiano ha approvato la Legge n. 132, recante Disposizioni e deleghe al Governo in materia di intelligenza artificiale, pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed entrata in vigore il 10 ottobre 2025. Si tratta del primo quadro normativo organico italiano dedicato all’IA, elaborato in risposta all’impegno europeo di armonizzare la legislazione nazionale al Regolamento UE 2024/1689 (AI Act) entro dodici mesi dalla sua adozione. La legge non si sovrappone all’AI Act – che, essendo un Regolamento, rimane direttamente applicabile all’interno degli Stati Membri senza necessità di trasposizione – ma lo integra, intervenendo negli spazi di competenza riservati ai legislatori nazionali e introducendo disposizioni settoriali specifiche per la realtà italiana.
In linea con quanto già statuito a livello europeo, l’approccio del legislatore italiano è dichiaratamente antropocentrico, nel senso che la persona umana rimane sempre al centro del processo decisionale, con l’algoritmo relegato a ruolo strumentale di mero supporto all’attività umana. Vengono inoltre fissati i principi cardine di trasparenza, proporzionalità, sicurezza, protezione dei dati personali e non discriminazione, con esplicito riferimento alla tutela della dignità umana e dei diritti fondamentali.
Che cos’è l’AI Act e cosa prevede
La legge 132/2025 si inserisce nel quadro definito dall’AI Act europeo, di cui riportiamo di seguito i punti principali.
L’AI Act(Artificial Intelligence Act) è il primo regolamento globale specificamente progettato per governare lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di Intelligenza Artificiale. Il regolamento mira ad assicurare che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione, stimolando contemporaneamente gli investimenti e l’innovazione nel settore dell’Intelligenza Artificiale in Europa.
Approvato dal Parlamento Europeo il 13 marzo 2024, il regolamento adotta una visione strategica dell’AI come tecnologia abilitante per il futuro dell’Europa, puntando a creare un ecosistema “trustworthy” (affidabile) che consenta alle aziende europee di competere a livello globale mantenendo standard etici elevati.
Il regolamento adotta un approccio basato sul rischio: più un sistema è potenzialmente pericoloso, maggiori sono gli obblighi per chi lo sviluppa e lo utilizza. La classificazione prevede quattro livelli:
Livello di rischio
Esempi
Obblighi / Conseguenze
Inaccettabile (vietato)
Social scoring, manipolazione comportamentale, scraping biometrico non mirato, polizia predittiva
Divieto assoluto di immissione sul mercato UE
Alto rischio
Sanità, giustizia, selezione del personale, PA, istruzione, sicurezza pubblica
Gestione rischi, qualità dati, log di sistema, trasparenza, supervisione umana obbligatoria
Rischio limitato
Chatbot, deepfake, sistemi di riconoscimento delle emozioni
Obbligo di trasparenza: l’utente deve sapere che interagisce con un sistema AI
Rischio minimo
Filtri antispam, sistemi di raccomandazione, videogiochi con AI, strumenti di produttività
Nessun obbligo specifico. Si applica la legislazione UE generale (es. GDPR)
Cosa prevede la legge 132/2025 sull’Intelligenza Artificiale
Gli ambiti di intervento del disegno di legge riguardano:
Sanità e disabilità
Gli articoli 7 e 8 della legge regolano l’uso dell’Intelligenza Artificiale in ambito sanitario. Si sancisce il principio per il quale, in sanità, l’IA costituisce un supporto nei processi di prevenzione, diagnosi cura e scelta terapeutica, lasciando impregiudicata la decisione ultima in materia di cure all’individuo, che è sempre è comunque rimessa al personale sanitario. Si stabilisce inoltre l’obbligo di informare l’interessato sull’utilizzo della tecnologia. Vengono anche stabilite le condizioni per riutilizzare i dati sanitari, opportunamente anonimizzati o pseudonimizzati, a supporto di ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario.
Lavoro
Secondo l’articolo 11 della legge, l’AI può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttuvità delle persone, purché si rispetti i principi di equità, non discriminazione, rispetto della dignità umana e del diritto alla riservatezza. Viene inoltre istituito un Osservatorio presso il Ministero del Lavoro per monitorare l’impatto occupazionale dell’IA e promuovere la formazione dei lavoratori (articolo 12). Infine, per quanto riguarda le professioni intellettuali, il lavoro intellettuale umano deve sempre risultare prevalente rispetto all’uso degli strumenti di Intelligenza Artificiale, che ha, ancora una volta una funzione di mero supporto, e fermo restando l’obbligo di informare il cliente in maniera chiara, semplice ed esaustiva dell’utilizzo di tecnologie intelligenti (articolo 13).
I dati dell’Osservatorio Artificial Intelligence confermano la rilevanza del tema. Nel 2025, il 47% dei lavoratori italiani utilizza strumenti AI in azienda. Il 41% dichiara di svolgere grazie all’AI attività che altrimenti non sarebbe in grado di fare. Sul fronte della domanda di competenze, le richieste di skill AI negli annunci di lavoro sono cresciute del 93% in un anno: oggi il 76% delle offerte per profili white-collar ad alta qualificazione include competenze di AI tra i requisiti. La domanda di competenze AI riguarda anche profili non tecnici e apicali: compaiono nel 27% degli annunci per Chief Human Resources Officer e nel 12% di quelli per Chief Marketing Officer.
Pubblica Amministrazione
L’articolo 14 regola l’impiego dell’IA all’interno delle PA, garantendo l’efficienza amministrativa nel rispetto dei principi di autodeterminazione e responsabilità umana. Nello specifico, la legge precisa che l’AI nella PA deve operare “in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”.
Secondo l’Osservatorio Agenda Digitale della School of Management del Politecnico di Milano, in Italia il 49% dei progetti di AI in ambito pubblico è operativo, il 26% in fase d’annuncio e il 25% Proof of Concept. Il 57% del tempo dei dipendenti pubblici italiani è però ancora impiegato in attività automatizzabili tramite AI. In un sistema in cui circa 700.000 persone andranno in pensione nei prossimi cinque anni, investire nell’AI diventa una leva essenziale per mantenere gli attuali livelli di erogazione dei servizi pubblici, affiancando i dipendenti nelle attività ripetitive e liberando tempo per quelle che richiedono giudizio e relazione con cittadini e imprese.
Attività giudiziaria
Con l’articolo 15 si stabilisce che l’Intelligenza Artificiale può essere uno strumento di supporto anche nell’ambito dell’amministrazione della giustizia. Spetta, in ogni caso, al magistrato “ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Cybersicurezza nazionale
Nell’articolo 18 si promuove l’IA quale strumento per rafforzare la cybersicurezza nazionale.
Strategia nazionale, autorità nazionali e azioni di promozione
L’articolo 19 introduce la Strategia nazionale per l’AI, i cui risultati vengono riportati alle camere ogni anno. L’articolo 20 designa le Autorità nazionali per l’intelligenza artificiale, quali l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN). Il ruolo di autorità di vigilanza del mercato è invece attribuito a Banca d’Italia, CONSOB e IVASS. Queste autorità hanno un ruolo fondamentale nel garantire il rispetto delle normative e nell’istituire spazi di sperimentazione per promuovere l’innovazione.
L’articolo 19 istituisce inoltre un Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’AI, presieduto dal Presidente del Consiglio dei Ministri o dall’Autorità politica delegata.
Sono previste anche misure a sostegno dei giovani, in particolare per l’acquisizione di nuove competenze in materia di utilizzo dell’AI negli istituti di scuola superiore (Articolo 12).
Nel complesso, nel settore dell’Intelligenza Artificiale, ma anche in quello della cybersicurezza e del quantum computing delle telecomunicazioni e delle tecnologie per queste abilitanti, è previsto l’investimento complessivo di 1 miliardo di euro. A questo si aggiungono ulteriori investimenti provenienti da fondi di CDP Venture Capital (Articolo 23).
Tutela degli utenti e in materia di diritto d’autore
Nell’articolo 25 della legge sull’AI si mira anche a favorire l’identificazione e il riconoscimento dei sistemi di Intelligenza Artificiale nella creazione di contenuti generati dall’AI. Sul versante del diritto d’autore, la legge chiarisce che la protezione spetta solo alle opere frutto dell’ingegno umano di carattere creativo, anche se realizzate con l’ausilio di strumenti di IA, mentre i contenuti generati interamente da sistemi automatizzati rimangono privi di tutela. Viene inoltre disciplinato il text and data mining per l’addestramento dei modelli, consentito entro i limiti fissati dalla normativa europea sul diritto d’autore.
Disciplina penale
Infine, per quanto riguarda l’ambito penale (articolo 26), la legge prevede un aumento della pena per i reati commessi con gli strumenti di AI, con un’ulteriore aggravante per l’alterazione dei risultati riguardanti competizioni elettorali.
Chi diffonde illecitamente immagini, video o voci falsificati tramite AI – i cosiddetti deepfake – senza il consenso della persona ritratta, causando un danno ingiusto, rischia una pena detentiva che va da uno a cinque anni.
Le deleghe al Governo: come si completa il quadro normativo
L’articolo 24 affida al Governo un mandato attuativo, con delega ad emanare, entro dodici mesi dall’entrata in vigore della legge – quindi entro ottobre 2026 uno o più decreti legislativi. La delega al Governo ex art. 24 della L. 132/2025 è piuttosto articolata e copre i seguenti macro-ambiti:
Adeguamento dell’ordinamento nazionale all’AI Act
I decreti dovranno attribuire alle autorità nazionali designate (AgID e ACN) i poteri di vigilanza, ispezione e sanzione previsti dal Regolamento europeo, incluse le prerogative tipiche dell’autorità di vigilanza del mercato: richiesta di informazioni, ispezioni in loco e a distanza senza preavviso, controlli sulle prove in condizioni reali e sui sistemi ad alto rischio.
Disciplina degli illeciti civili e penali connessi all’IA
Nell’esercizio della delega, l’Esecutivo è chiamato, tra l’altro, a prevedere:
strumenti, anche di natura cautelare, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente con Intelligenza Artificiale, assistiti da un sistema di sanzioni effettive, proporzionate e dissuasive;
una o più autonome fattispecie di reato dolose o colpose di omessa adozione o omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di Intelligenza Artificiale, quando da tali omissioni deriva pericolo concreto per la vita o l’incolumità pubblica o individuale o per la sicurezza dello Stato;
nei casi di responsabilità civile, strumenti di tutela del danneggiato, anche processuali con regolamentazione dell’onere della prova, in relazione alla classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi.
Nel complesso, la L. 132/2025 rappresenta un passo significativo nell’adeguamento dell’ordinamento italiano alla sfida dell’IA, con un approccio orientato al bilanciamento tra innovazione e tutela dei diritti. Tuttavia, il ricorso massiccio alla delega governativa per gli aspetti più tecnici e delicati rende l’efficacia concreta della normativa dipendente dalla qualità e dalla tempestività dei futuri decreti attuativi.
Tramite il nostro Cookie Center, l'utente ha la possibilià di selezionare/deselezionare le singole categorie di cookie che sono utilizzate sui siti web.
Per ottenere maggiori informazioni sui cookie utilizzati, è comunque possibile visitare la nostra COOKIE POLICY
Cookie tecnici (strettamente necessari)
I cookie tecnici sono necessari al funzionamento del sito web perché abilitano funzioni per facilitare la navigazione dell'utente, che per esempio potrà accedere al proprio profilo senza dover eseguire ogni volta il login oppure potrà selezionare la lingua con cui desidera navigare il sito senza doverla impostare ogni volta.
Cookie analitici
I cookie analitici, che possono essere di prima o di terza parte, sono installati per collezionare informazioni sull'uso del sito web. In particolare, sono utili per analizzare statisticamente gli accessi o le visite al sito stesso e per consentire al titolare di migliorarne la struttura, le logiche di navigazione e i contenuti
Cookie di profilazione e social plugin
I cookie di profilazione e i social plugin, che possono essere di prima o di terza parte, servono a tracciare la navigazione dell'utente, analizzare il suo comportamento ai fini marketing e creare profili in merito ai suoi gusti, abitudini, scelte, etc. In questo modo è possibile ad esempio trasemettere messaggi pubblicitari mirati in relazione agli interessi dell'utente ed in linea con le preferenze da questi manifestate nella navigazione online.