top of page

Legge Italiana Intelligenza Artificiale: La Guida Strategica al DDL A.S. 1146-B per Imprese e Manager

L'intelligenza artificiale non è più un concetto futuristico, ma una realtà economica tangibile che sta ridisegnando i contorni del mercato. In Italia, il settore dell'IA ha mostrato una vitalità notevole, raggiungendo un valore di 1,2 miliardi di euro nel 2024, con una crescita del 58% rispetto all'anno precedente. A trainare questa espansione è soprattutto l'intelligenza artificiale generativa, che da sola rappresenta il 43% del mercato. Per governare questa evoluzione, il legislatore ha introdotto il disegno di legge A.S. 1146-B, definendo la nuova Legge italiana intelligenza artificiale come un quadro normativo che bilancia innovazione e tutela. Per chi guida un'impresa, comprendere questa legge non è un'opzione, ma una necessità strategica per trasformare gli obblighi normativi in vantaggi competitivi e governare i rischi di un mercato in piena trasformazione.



  1. I Principi Fondamentali della Legge Italiana Intelligenza Artificiale: Una Guida Antropocentrica

  2. Come la Legge Italiana Intelligenza Artificiale Impulsa Sviluppo e Competitività per le PMI

  3. Impatto sul Lavoro: Cosa Prevede la Legge Italiana Intelligenza Artificiale per la Tutela dei Lavoratori

  4. La Legge Italiana Intelligenza Artificiale nella PA: Verso Efficienza e Trasparenza

  5. Investimenti e Strategia Nazionale: Le Leve Finanziarie della Legge Italiana Intelligenza Artificiale

  6. Governance e Controlli: Chi Vigila sull'Applicazione della Legge Italiana Intelligenza Artificiale

  7. Diritto d'Autore: Come la Legge Italiana Intelligenza Artificiale Protegge la Creatività Umana

  8. Usi Illeciti e Sanzioni: La Responsabilità Penale nella Legge Italiana Intelligenza Artificiale

  9. La Legge Italiana Intelligenza Artificiale nel Settore Sanitario: Opportunità e Nuovi Obblighi

  10. Dall'Italia all'Europa: Come la Legge Italiana Intelligenza Artificiale si Integra con l'AI Act

  11. Conclusioni: Riflessioni Strategiche sulla Nuova Legge Italiana Intelligenza Artificiale

  12. Domande Frequenti (FAQ)

  13. Fissa una Consulenza Strategica

Legge italiana intelligenza artificiale

1. I Principi Fondamentali della Legge Italiana Intelligenza Artificiale: Una Guida Antropocentrica

Il disegno di legge A.S. 1146-B si fonda sul principio cardine dell'approccio antropocentrico, una scelta strategica che subordina lo sviluppo tecnologico al benessere umano e ne influenza l'intero impianto normativo. L'obiettivo è duplice: da un lato, promuovere un utilizzo dell'intelligenza artificiale che sia corretto, trasparente e responsabile per cogliere appieno le opportunità di crescita; dall'altro, istituire un solido sistema di vigilanza per monitorare e mitigare i rischi economici, sociali e l'impatto sui diritti fondamentali della persona. La legge si rivolge a tutto il ciclo di vita dei sistemi e dei modelli di IA, dalla ricerca e sperimentazione fino allo sviluppo e all'applicazione concreta, stabilendo un perimetro chiaro entro cui le aziende possono operare in sicurezza.


I principi generali, definiti nell'articolo 3, fungono da vera e propria bussola etica e giuridica. I sistemi di IA devono rispettare i diritti e le libertà fondamentali garantiti dall'ordinamento italiano ed europeo. Questo si traduce in requisiti specifici di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza e non discriminazione, con un'attenzione particolare anche alla parità di genere e alla sostenibilità. Per un'impresa, questo significa che l'adozione di un sistema di IA non può essere una "scatola nera". È necessario garantire che i dati e i processi utilizzati per l'addestramento degli algoritmi siano corretti, attendibili e di alta qualità. La legge insiste sulla prevenzione del danno e sul rispetto dell'autonomia e del potere decisionale umano, stabilendo che la sorveglianza umana deve essere sempre garantita.


Un aspetto di grande rilevanza per il mondo aziendale riguarda il trattamento delle informazioni e dei dati personali. L'articolo 4 stabilisce che l'uso dell'IA non deve pregiudicare il pluralismo dei media e la libertà di espressione, ma deve anche garantire l'obiettività e l'imparzialità dell'informazione. Sul fronte dei dati, il trattamento deve essere lecito e compatibile con le finalità per cui sono stati raccolti, in piena conformità con il GDPR. Le comunicazioni all'utente relative all'uso di sistemi di IA devono essere formulate con un linguaggio chiaro e semplice, permettendogli di comprendere i rischi e di esercitare il diritto di opposizione. Per quanto riguarda i minori, viene fissata una soglia di quattordici anni: al di sotto di questa età, è necessario il consenso di chi esercita la responsabilità genitoriale per l'accesso a tecnologie di IA e per il trattamento dei dati connessi. Per i minori che hanno compiuto quattordici anni, invece, è prevista la facoltà di esprimere autonomamente il consenso, a patto che le informazioni fornite siano facilmente accessibili e comprensibili.


2. Come la Legge Italiana Intelligenza Artificiale Impulsa Sviluppo e Competitività per le PMI

Il legislatore italiano riconosce nell'intelligenza artificiale non solo una sfida regolatoria, ma soprattutto una potente leva per la crescita economica del Paese. L'articolo 5 del ddl A.S. 1146-B delinea una strategia chiara in cui lo Stato e le altre autorità pubbliche assumono un ruolo attivo nel promuovere lo sviluppo e l'adozione dell'IA come strumento per migliorare la produttività e la competitività del sistema economico. L'approccio è pragmatico e mira a tradurre il potenziale tecnologico in valore tangibile per le imprese, con un'attenzione speciale al tessuto produttivo nazionale, composto prevalentemente da micro, piccole e medie imprese (PMI). Solo il 7% delle piccole imprese e il 15% delle medie ha avviato progetti di IA, un dato che evidenzia un potenziale ancora largamente inespresso e che la legge intende stimolare.


La visione è quella di un'IA che migliori l'interazione uomo-macchina, anche attraverso l'applicazione della robotica, per ottimizzare le catene del valore e le funzioni organizzative. L'obiettivo è favorire l'avvio di nuove attività economiche e accrescere la sovranità tecnologica nazionale nel quadro della più ampia strategia europea. Per raggiungere questo scopo, la legge impegna le istituzioni a favorire la creazione di un mercato dell'IA che sia innovativo, equo, aperto e concorrenziale, promuovendo la nascita di ecosistemi innovativi dove le imprese possano prosperare. Un punto cruciale di questa strategia è facilitare la disponibilità e l'accesso a dati di alta qualità, risorsa indispensabile per l'addestramento di modelli linguistici e sistemi di IA efficaci, mettendoli a disposizione non solo delle imprese ma anche della comunità scientifica.


Un aspetto di particolare interesse per le aziende che intendono diventare fornitori della Pubblica Amministrazione è l'indirizzo dato alle piattaforme di e-procurement. La legge spinge le amministrazioni pubbliche a privilegiare, nella scelta dei fornitori di sistemi di IA, quelle soluzioni che garantiscono standard elevati. In particolare, si favoriscono le offerte che assicurano la localizzazione e l'elaborazione dei dati strategici presso data center situati sul territorio nazionale. Questo requisito si estende anche alle procedure di disaster recovery e business continuity, che devono essere implementate in data center anch'essi nazionali. Si tratta di un criterio che non solo rafforza la sicurezza nazionale, ma che può rappresentare un vantaggio competitivo per le aziende italiane ed europee che investono in infrastrutture locali. Per le imprese che ambiscono a diventare partner della PA, questo si traduce in un chiaro indirizzo strategico: investire in infrastrutture nazionali e in modelli di IA trasparenti e sicuri non è più solo una best practice, ma un fattore determinante per vincere gli appalti pubblici. Infine, viene incoraggiata la ricerca collaborativa tra imprese e organismi di ricerca, con l'obiettivo di favorire il trasferimento tecnologico e la valorizzazione economica dei risultati della ricerca scientifica.


3. Impatto sul Lavoro: Cosa Prevede la Legge Italiana Intelligenza Artificiale per la Tutela dei Lavoratori

L'ingresso dell'intelligenza artificiale nei processi aziendali sta ridefinendo le dinamiche del mondo del lavoro, sollevando interrogativi su efficienza, controllo e diritti. Il ddl A.S. 1146-B affronta direttamente questa complessa tematica, stabilendo un quadro normativo che mira a bilanciare le esigenze di produttività con la tutela dei lavoratori. L'articolo 11 adotta un approccio che valorizza la dimensione antropocentrica, indicando che l'IA deve essere utilizzata per migliorare le condizioni di lavoro, salvaguardare l'integrità psico-fisica dei lavoratori e incrementare le loro prestazioni e la produttività. Questo approccio si allinea con la visione dell'AI Act europeo, che classifica come ad "alto rischio" i sistemi di IA destinati alla gestione dei lavoratori, data la loro potenziale incidenza sulle carriere e sui diritti fondamentali.


Uno dei pilastri della nuova normativa è la trasparenza. La legge impone al datore di lavoro di fornire al lavoratore un'informativa chiara e completa sugli ambiti di impiego dei sistemi di intelligenza artificiale. Non si tratta di una comunicazione generica: la norma rinvia all'articolo 1-bis del D.Lgs. 152/1997, che dettaglia gli obblighi informativi del datore di lavoro quando utilizza sistemi decisionali o di monitoraggio automatizzati. Questi sistemi sono quelli in grado di fornire indicazioni in materia di assunzione, gestione e cessazione del rapporto di lavoro, assegnazione di compiti, sorveglianza e valutazione delle prestazioni. L'informativa deve essere fornita in un formato strutturato e leggibile, e deve essere comunicata anche alle rappresentanze sindacali. Questa disposizione mira a evitare che il lavoratore si trovi a interagire con sistemi decisionali opachi, garantendogli la consapevolezza degli strumenti che influenzano la sua vita professionale.


La legge pone un'enfasi particolare sulla prevenzione di ogni forma di discriminazione. L'utilizzo dell'IA nell'organizzazione e nella gestione del rapporto di lavoro non deve ledere la dignità umana e deve evitare discriminazioni basate su sesso, età, origine etnica, credo religioso, orientamento sessuale o condizioni personali e sociali. Per dare concretezza a questi principi, l'articolo 12 istituisce, presso il Ministero del Lavoro e delle Politiche Sociali, l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro. Questo organismo, presieduto dal Ministro, avrà il compito di definire una strategia sull'uso dell'IA in ambito lavorativo, monitorarne l'impatto sul mercato, identificare i settori più interessati e promuovere la formazione di lavoratori e datori di lavoro. Si tratta di uno strumento di governance fondamentale per accompagnare la transizione, massimizzando i benefici della tecnologia e contenendone i rischi.


4. La Legge Italiana Intelligenza Artificiale nella PA: Verso Efficienza e Trasparenza

L'adozione dell'intelligenza artificiale da parte della Pubblica Amministrazione rappresenta una delle sfide più delicate e, al contempo, più promettenti del percorso di digitalizzazione del Paese. Il ddl A.S. 1146-B, all'articolo 14, traccia un percorso chiaro, delineando finalità, principi e limiti per l'impiego di queste tecnologie nel settore pubblico. L'obiettivo primario è pragmatico: incrementare l'efficienza, ridurre i tempi di definizione dei procedimenti e migliorare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese. Tuttavia, il perseguimento di questi obiettivi non può avvenire a scapito dei principi fondamentali che governano l'agire amministrativo. La legge stabilisce infatti che l'uso dell'IA deve essere sempre strumentale e di supporto all'attività provvedimentale, lasciando intatta l'autonomia e il potere decisionale del funzionario umano.


Questo principio di subordinazione della macchina all'uomo è un punto cardine della normativa. La persona fisica resta l'unica responsabile dei provvedimenti e dei procedimenti. L'algoritmo, per quanto sofisticato, non può sostituire la valutazione e la ponderazione di interessi che spettano all'amministrazione. Questa visione è in linea con gli orientamenti della giurisprudenza amministrativa, che ha già avuto modo di sottolineare come la decisione "robotizzata" debba essere sempre riconducibile a una volontà umana e soggetta a un pieno sindacato giurisdizionale. La regola tecnica che governa l'algoritmo è, a tutti gli effetti, una regola amministrativa generale, e come tale deve rispettare i canoni di ragionevolezza e proporzionalità.


Per garantire che questi principi non restino sulla carta, la legge impone alle pubbliche amministrazioni di assicurare la conoscibilità e la tracciabilità del funzionamento e dell'utilizzo dei sistemi di IA. Questo significa che il cittadino o l'impresa che si interfaccia con un procedimento automatizzato ha il diritto di comprendere la logica che sta dietro alla decisione. Come affermato dal Consiglio di Stato, l'algoritmo deve essere "conoscibile", corredato da spiegazioni che lo traducano in una regola giuridica comprensibile. Per attuare concretamente questo approccio, le amministrazioni dovranno adottare misure tecniche, organizzative e formative volte a garantire un uso responsabile dell'IA e a sviluppare le competenze necessarie per gestire queste nuove tecnologie. È un invito a non subire passivamente l'innovazione, ma a governarla, formando personale in grado di comprendere, controllare e, se necessario, correggere l'operato degli strumenti algoritmici. Questo approccio proattivo è essenziale per costruire un rapporto di fiducia tra cittadini, imprese e una PA modernizzata.


5. Investimenti e Strategia Nazionale: Le Leve Finanziarie della Legge Italiana Intelligenza Artificiale

Per trasformare l'ambizione in realtà, il ddl A.S. 1146-B non si limita a definire regole, ma mette in campo risorse economiche significative e una chiara architettura di governance. Il cuore di questa strategia finanziaria è rappresentato dall'articolo 23, che autorizza un investimento fino a 1 miliardo di euro per sostenere le imprese che operano in Italia nei settori strategici dell'intelligenza artificiale, della cybersicurezza e delle tecnologie abilitanti, come il calcolo quantistico e le telecomunicazioni avanzate. Questo imponente stanziamento non è un finanziamento a pioggia, ma un intervento mirato a supportare lo sviluppo del capitale di rischio (venture capital), avvalendosi dell'operatività di CDP Venture Capital Sgr, il braccio di Cassa Depositi e Prestiti dedicato all'innovazione.


L'investimento, gestito dal Ministero delle Imprese e del Made in Italy (MIMIT), sarà erogato sotto forma di equity e quasi-equity, intervenendo direttamente o indirettamente nel capitale delle imprese. I destinatari sono stati attentamente identificati per coprire l'intero ecosistema dell'innovazione. Da un lato, si punta a sostenere le piccole e medie imprese (PMI) innovative e con elevato potenziale di sviluppo, che si trovano nelle fasi più delicate del loro ciclo di vita: dalla sperimentazione (seed financing) e costituzione (start-up financing), fino all'avvio dell'attività (early-stage) e allo sviluppo del prodotto (expansion). Dall'altro, la misura è pensata anche per imprese di maggiori dimensioni, con l'obiettivo di promuoverne la crescita e trasformarle in veri e propri campioni tecnologici nazionali. L'utilizzo delle risorse avverrà attraverso la sottoscrizione di quote di fondi di venture capital appositamente istituiti o tramite il coinvestimento con altri fondi gestiti dalla stessa CDP Venture Capital.


Questa iniziativa finanziaria si inserisce in un quadro più ampio definito dall'articolo 19, che disciplina la Strategia nazionale per l'intelligenza artificiale. La strategia, predisposta dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio, d'intesa con le autorità nazionali competenti e sentiti i ministeri chiave, ha il compito di coordinare l'azione della pubblica amministrazione, promuovere la ricerca, favorire la collaborazione tra pubblico e privato e indirizzare gli incentivi per lo sviluppo industriale. Il monitoraggio della sua attuazione è affidato allo stesso Dipartimento, che si avvale dell'Agenzia per l'Italia Digitale (AgID) e dell'Agenzia per la Cybersicurezza Nazionale (ACN), e che dovrà riferire annualmente alle Camere. Si delinea così un sistema integrato in cui la visione strategica e le leve finanziarie lavorano in sinergia per costruire un ecosistema nazionale dell'IA solido, competitivo e in grado di attrarre talenti e capitali.


6. Governance e Controlli: Chi Vigila sull'Applicazione della Legge Italiana Intelligenza Artificiale

Un quadro normativo sull'intelligenza artificiale, per essere efficace, necessita di una struttura di governance chiara e di autorità con poteri ben definiti. L'articolo 20 del ddl A.S. 1146-B risponde a questa esigenza, disegnando l'architettura istituzionale che avrà il compito di vigilare sull'applicazione della Legge italiana intelligenza artificiale e di attuare l'AI Act europeo. La scelta del legislatore è stata quella di non creare nuovi enti, ma di valorizzare le competenze di due agenzie già operative, attribuendo loro il ruolo di Autorità nazionali per l'intelligenza artificiale.


Le due agenzie designate sono:

  • L'Agenzia per l'Italia Digitale (AgID), che assume il ruolo di autorità di notifica. L'AgID avrà la responsabilità di promuovere l'innovazione e lo sviluppo dell'IA e, soprattutto, gestirà le funzioni di notifica, valutazione, accreditamento e monitoraggio dei soggetti terzi incaricati di verificare la conformità dei sistemi di intelligenza artificiale, in particolare quelli ad alto rischio. L'AgID è l'ente pubblico che guida la trasformazione digitale del Paese, definendo le strategie e le regole tecniche per la PA.

  • L'Agenzia per la Cybersicurezza Nazionale (ACN), designata come autorità di vigilanza del mercato. All'ACN spetterà la responsabilità della sorveglianza sui sistemi di IA, comprese le attività ispettive e sanzionatorie. Avrà inoltre il compito di promuovere lo sviluppo dell'IA per quanto riguarda i profili di cybersicurezza e fungerà da punto di contatto unico con le istituzioni dell'Unione Europea. L'ACN è l'autorità nazionale per la protezione dagli attacchi informatici e la tutela degli interessi strategici nello spazio cibernetico.


La legge precisa che, per gli operatori del settore finanziario, creditizio e assicurativo, le funzioni di vigilanza del mercato restano in capo alle rispettive autorità di settore: Banca d'Italia, CONSOB e IVASS. Questa scelta garantisce continuità e sfrutta la profonda conoscenza che queste istituzioni hanno dei mercati regolamentati. Per assicurare il coordinamento tra AgID e ACN, e tra queste e le altre amministrazioni, viene istituito un Comitato di coordinamento presso la Presidenza del Consiglio. Questa struttura di governance mira a creare un sistema efficiente e specializzato, in grado di affrontare le sfide trasversali poste dall'IA. Comprendere questo complesso quadro di competenze è fondamentale per le imprese: sapere a quale autorità rivolgersi per la certificazione di un prodotto, chi è responsabile della vigilanza sul mercato e quali sono i poteri ispettivi e sanzionatori è un elemento chiave per una corretta pianificazione strategica e per la gestione del rischio. Questa architettura di governance, sebbene necessaria, introduce un livello di complessità che le imprese devono saper gestire. Diventa quindi cruciale dotarsi di una solida governance interna. Per tradurre i requisiti normativi in azioni concrete e sostenibili, servizi di consulenza specializzati come quelli offerti da Rhythm Blues AI possono affiancare il management nella definizione di policy aziendali e piani di conformità, assicurando una navigazione sicura del nuovo panorama legale.


7. Diritto d'Autore: Come la Legge Italiana Intelligenza Artificiale Protegge la Creatività Umana

L'avvento dell'intelligenza artificiale generativa ha scosso dalle fondamenta uno dei pilastri del diritto e dell'economia creativa: il diritto d'autore. Chi è l'autore di un testo, un'immagine o una musica creata con l'ausilio di un algoritmo? A chi spettano i diritti di sfruttamento economico? L'articolo 25 del ddl A.S. 1146-B interviene direttamente su questo tema, modificando la storica legge sul diritto d'autore (L. 633/1941) per adattarla alle nuove sfide tecnologiche. La soluzione adottata dal legislatore italiano è equilibrata e riafferma un principio fondamentale: la creatività tutelata dalla legge rimane quella umana.


La prima, fondamentale modifica introdotta riguarda l'articolo 1 della legge sul diritto d'autore. Viene specificato che le "opere dell'ingegno" protette sono quelle di origine "umana". Questo chiarisce che un'opera generata in totale autonomia da un sistema di IA, senza un contributo creativo umano identificabile, non può essere oggetto di tutela autorale. Tuttavia, la legge riconosce la realtà operativa di moltissimi professionisti e imprese: l'IA è sempre più uno strumento di ausilio alla creatività. Pertanto, viene aggiunto che le opere sono protette anche quando create con l'ausilio di strumenti di intelligenza artificiale, a una condizione precisa: che la creazione sia il risultato del lavoro intellettuale dell'autore. Questo significa che se un professionista utilizza un modello di IA generativa come un "pennello digitale", guidandolo, selezionando gli output, modificandoli e assemblandoli in un'opera che riflette la sua visione e le sue scelte creative, l'opera risultante sarà protetta dal diritto d'autore e i diritti apparterranno all'autore umano.


Un secondo intervento normativo di grande importanza riguarda il processo di addestramento dei modelli di intelligenza artificiale, il cosiddetto text and data mining. La legge introduce il nuovo articolo 70-septies, che disciplina la riproduzione e l'estrazione di contenuti da opere protette (testi, immagini, suoni) presenti in rete o in banche dati, al fine di addestrare i modelli di IA. Questa pratica è consentita, ma a condizioni precise, definite dagli articoli 70-ter e 70-quater. In sintesi, la riproduzione è permessa:


  • Agli organismi di ricerca e agli istituti di tutela del patrimonio culturale per scopi di ricerca scientifica.

  • A qualsiasi soggetto, a condizione che l'utilizzo delle opere non sia stato espressamente riservato dai titolari dei diritti (il cosiddetto "opt-out").


Quest'ultima previsione è cruciale per le aziende che sviluppano o utilizzano modelli di IA. Significa che, per addestrare un algoritmo su un set di dati, è necessario verificare che i titolari dei diritti non abbiano esplicitamente vietato tale uso. Questa disposizione, in linea con la direttiva europea sul copyright, crea un equilibrio tra l'esigenza di alimentare l'innovazione tecnologica con grandi quantità di dati e la necessità di proteggere i diritti e gli investimenti dei creatori di contenuti.


8. Usi Illeciti e Sanzioni: La Responsabilità Penale nella Legge Italiana Intelligenza Artificiale

L'adozione dell'intelligenza artificiale comporta enormi benefici, ma apre anche la porta a nuovi rischi e a potenziali usi illeciti. Il legislatore italiano, con gli articoli 24 e 26 del ddl A.S. 1146-B, ha voluto costruire una solida architettura di responsabilità penale e civile per prevenire e sanzionare gli abusi. Per le imprese, comprendere questo quadro normativo è essenziale per implementare misure di sicurezza adeguate e per evitare di incorrere in pesanti sanzioni. La legge non si limita a punire l'uso malevolo, ma introduce anche responsabilità per chi non adotta le necessarie cautele nella produzione e nell'utilizzo di sistemi di IA.


Una delle novità più significative è l'introduzione di un nuovo reato specifico, l'articolo 612-quater del codice penale, rubricato "Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale". Questa norma punisce con la reclusione da uno a cinque anni chiunque, senza il consenso della persona interessata, diffonde immagini, video o voci falsificati o alterati tramite IA, idonei a trarre in inganno e a cagionare un danno ingiusto. Questa fattispecie è pensata per colpire il fenomeno dei deepfake e altre forme di manipolazione digitale che possono ledere la reputazione, la privacy e la dignità delle persone. Il delitto è punibile a querela, ma si procede d'ufficio in casi di particolare gravità, come quando il fatto è connesso a un altro delitto o è commesso ai danni di un minore o di un pubblico ufficiale.


La legge interviene anche sul tessuto normativo esistente, introducendo nuove circostanze aggravanti. L'articolo 61 del codice penale viene integrato per prevedere un aumento di pena quando un reato è commesso tramite sistemi di IA che costituiscono un mezzo insidioso, che hanno ostacolato la difesa o che hanno aggravato le conseguenze del reato. Vengono inoltre inasprite le pene per specifici delitti, se commessi con l'ausilio dell'IA:

  • Attentati contro i diritti politici del cittadino (art. 294 c.p.): Se l'inganno per impedire l'esercizio del voto è realizzato con l'IA, la pena sale da due a sei anni di reclusione.

  • Aggiotaggio (art. 2637 c.c.) e Manipolazione del mercato (art. 185 TUF): La diffusione di notizie false o altri artifizi per alterare il prezzo di strumenti finanziari, se commessa con l'IA, comporta pene più severe.

  • Plagio (art. 171 L. 633/1941): La punibilità è estesa anche a chi riproduce o estrae illecitamente testi o dati per addestrare modelli di IA, in violazione delle norme sul text and data mining.


Infine, la delega al Governo prevista dall'articolo 24 delinea un intervento organico sulla responsabilità, chiedendo di definire con precisione i criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti, tenendo conto del livello effettivo di "controllo umano significativo" sul sistema.


9. La Legge Italiana Intelligenza Artificiale nel Settore Sanitario: Opportunità e Nuovi Obblighi

Il settore sanitario è uno degli ambiti in cui l'intelligenza artificiale promette di avere l'impatto più profondo, offrendo strumenti per migliorare la prevenzione, la diagnosi e la cura delle malattie. Il ddl A.S. 1146-B dedica un'attenzione specifica a questo settore, con l'obiettivo di favorire l'innovazione garantendo al contempo il massimo livello di tutela per i pazienti e per la sensibilità dei dati trattati. Gli articoli da 7 a 10 disegnano un quadro in cui l'IA è vista come uno strumento di supporto alla decisione del medico, e non come un suo sostituto.


L'articolo 7 stabilisce che l'uso di sistemi di IA deve contribuire al miglioramento del sistema sanitario nel suo complesso. Tuttavia, pone dei paletti invalicabili: l'accesso alle prestazioni sanitarie non può essere condizionato da criteri discriminatori basati sull'uso di strumenti di IA. Viene affermato il diritto del paziente a essere informato sull'impiego di queste tecnologie e, soprattutto, viene ribadito che la decisione finale in merito a diagnosi, cura e scelta terapeutica deve sempre rimanere in capo all'esercente la professione medica. I sistemi di IA e i dati che utilizzano devono essere affidabili, verificati e aggiornati periodicamente per minimizzare il rischio di errori. La legge promuove inoltre lo sviluppo di soluzioni di IA per migliorare le condizioni di vita delle persone con disabilità, favorendo l'accessibilità, la mobilità e l'inclusione sociale.


Un punto cruciale riguarda la ricerca scientifica e l'uso dei dati sanitari per l'addestramento di modelli di IA. L'articolo 8 dichiara di rilevante interesse pubblico il trattamento di dati, anche personali e appartenenti a categorie particolari (come i dati genetici o relativi alla salute), per la ricerca e la sperimentazione scientifica finalizzata allo sviluppo di farmaci, terapie e tecnologie riabilitative. Per facilitare questa attività, la legge consente l'uso secondario dei dati personali, cioè il loro utilizzo per finalità di ricerca diverse da quelle per cui erano stati inizialmente raccolti. Questa possibilità è concessa a soggetti pubblici e privati senza scopo di lucro e agli IRCCS, a condizione che i dati siano privi di elementi identificativi diretti e che sia fornita un'informativa semplificata al paziente. Viene inoltre istituita una piattaforma nazionale di intelligenza artificiale, gestita dall'Agenzia Nazionale per i Servizi Sanitari Regionali (AGENAS), per supportare i professionisti sanitari nella pratica clinica e nell'assistenza territoriale, alimentata con i dati del Fascicolo Sanitario Elettronico.


10. Dall'Italia all'Europa: Come la Legge Italiana Intelligenza Artificiale si Integra con l'AI Act

Il disegno di legge italiano sull'intelligenza artificiale non nasce in un vuoto normativo, ma si inserisce in un contesto europeo ben definito, dominato dal Regolamento (UE) 2024/1689, meglio noto come AI Act. La normativa nazionale è stata concepita per affiancarsi e integrarsi con quella europea, disciplinando gli aspetti specifici della realtà socio-economica italiana e quelle materie che l'AI Act stesso demanda alla competenza dei singoli Stati membri. L'articolo 24 del ddl A.S. 1146-B è il fulcro di questa armonizzazione, contenendo una delega al Governo per adottare, entro dodici mesi, i decreti legislativi necessari per adeguare l'ordinamento nazionale al regolamento europeo.


L'AI Act europeo adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie a seconda del loro potenziale impatto sulla sicurezza e sui diritti fondamentali.

  • Rischio inaccettabile: Include pratiche vietate, come i sistemi di "social scoring" governativo o la manipolazione subliminale del comportamento.

  • Alto rischio: Comprende una serie di sistemi utilizzati in settori critici (infrastrutture, istruzione, lavoro, accesso a servizi essenziali, giustizia, ecc.). Questi sistemi sono soggetti a requisiti stringenti in termini di gestione del rischio, qualità dei dati, documentazione, trasparenza e sorveglianza umana, prima di poter essere immessi sul mercato.

  • Rischio limitato: Riguarda sistemi come i chatbot o i generatori di deepfake, per i quali sono previsti specifici obblighi di trasparenza (l'utente deve essere informato che sta interagendo con un'IA o che il contenuto è generato artificialmente).

  • Rischio minimo o nullo: La grande maggioranza delle applicazioni di IA rientra in questa categoria e non è soggetta a obblighi specifici.


La delega conferita al Governo italiano dall'articolo 24 copre diversi ambiti cruciali per l'applicazione concreta dell'AI Act. In primo luogo, l'adeguamento dei poteri delle autorità nazionali (AgID e ACN), compresi i poteri ispettivi e sanzionatori, per garantire l'effettiva applicazione del regolamento. Le sanzioni per le violazioni dell'AI Act possono essere molto elevate, arrivando fino a 35 milioni di euro o al 7% del fatturato mondiale per le violazioni più gravi. Un altro ambito fondamentale della delega riguarda la formazione e l'alfabetizzazione. Il Governo dovrà promuovere percorsi formativi per i professionisti, gli operatori e all'interno dei curricoli scolastici e universitari, per favorire un uso consapevole e competente delle tecnologie di IA. Verranno potenziate le discipline STEM, ma anche le competenze giuridiche ed etiche necessarie per interpretare correttamente gli output dei sistemi algoritmici. La delega tocca anche aspetti specifici come l'uso dell'IA nelle attività di polizia, la responsabilità civile in caso di danni e la valorizzazione della ricerca scientifica.


11. Conclusioni: Riflessioni Strategiche sulla Nuova Legge Italiana Intelligenza Artificiale

L'articolato quadro normativo delineato dal ddl A.S. 1146-B rappresenta per l'Italia un passo fondamentale verso la governance dell'intelligenza artificiale. L'analisi del testo rivela un approccio pragmatico, che tenta di bilanciare la spinta all'innovazione con la necessità di tutele robuste per i diritti dei cittadini e la stabilità del sistema economico e sociale. Per un imprenditore o un dirigente, la lettura di questa legge non deve essere vissuta come l'ennesimo fardello burocratico, ma come una mappa strategica per navigare un territorio nuovo e ricco di opportunità.


Il legislatore ha chiaramente compreso che il successo dell'IA in Italia dipende dalla capacità delle PMI di adottare queste tecnologie. Tuttavia, nonostante le lodevoli intenzioni e lo stanziamento di un fondo da un miliardo di euro, la sfida per le piccole realtà imprenditoriali rimane ardua. La complessità dei requisiti di conformità, specialmente per i sistemi considerati ad alto rischio, richiederà investimenti in competenze legali, tecniche ed etiche che potrebbero non essere alla portata di tutti. Qui si apre uno spazio significativo per i servizi di consulenza specializzata, che possano agire da "traduttori" tra il linguaggio della legge e le esigenze operative delle imprese, aiutandole a implementare sistemi di governance dell'IA efficaci e sostenibili.


Un altro aspetto di profonda riflessione riguarda il principio del "controllo umano significativo". La legge lo pone come un baluardo invalicabile, specialmente in ambiti decisionali critici come la giustizia, la sanità o la gestione del personale. Questo principio, sebbene eticamente ineccepibile, pone delle sfide tecnologiche e organizzative. In un'era in cui i modelli linguistici avanzati e i sistemi di deep learning evolvono verso una crescente autonomia, definire cosa costituisca un controllo "significativo" diventerà sempre più complesso. Questo non implica solo la presenza di un operatore che supervisiona la macchina, ma richiede un ripensamento dei processi e delle competenze interne. Le aziende dovranno investire nella formazione di figure ibride, capaci di dialogare sia con la tecnologia che con il business, per garantire che ogni decisione automatizzata sia validata, interpretabile e, in ultima analisi, riconducibile a una responsabilità umana.


Confrontando l'approccio italiano con quello di altre nazioni, si nota una forte adesione al modello europeo, basato sul rischio e sulla tutela dei diritti fondamentali. A differenza di un approccio più liberista come quello statunitense o di uno più statalista come quello cinese, l'Italia, in linea con l'UE, sceglie una "terza via" che vede la regolamentazione non come un freno, ma come un presupposto per uno sviluppo tecnologico affidabile e sostenibile. Per le aziende, questo significa che investire in un'IA etica e trasparente non sarà solo un obbligo di legge, ma un vero e proprio asset competitivo, un marchio di affidabilità in grado di conquistare la fiducia dei consumatori e dei partner commerciali in un mercato sempre più attento a questi valori.


Domande Frequenti (FAQ)

Qual è l'obiettivo principale della nuova legge italiana sull'intelligenza artificiale? L'obiettivo è duplice: promuovere lo sviluppo e l'adozione dell'intelligenza artificiale per aumentare la competitività del sistema economico italiano e, allo stesso tempo, stabilire un quadro di regole per mitigare i rischi, garantendo che l'uso dell'IA sia trasparente, responsabile e rispettoso dei diritti fondamentali dei cittadini.


La mia azienda usa un software di IA per il marketing. Devo preoccuparmi di questa legge? Dipende dall'uso specifico. La maggior parte delle applicazioni di marketing rientra nella categoria a "rischio minimo". Tuttavia, se il software prende decisioni automatizzate che hanno un impatto significativo sulle persone (es. profilazione per l'accesso a servizi o prezzi personalizzati), potrebbero applicarsi obblighi di trasparenza. Se l'IA genera contenuti, si applicano le nuove norme sul diritto d'autore e sull'identificazione dei contenuti artificiali (watermarking). È consigliabile una valutazione caso per caso.


In che modo la legge supporta le Piccole e Medie Imprese (PMI)? La legge prevede un fondo da 1 miliardo di euro, gestito da CDP Venture Capital, per investimenti in equity in PMI e startup innovative nei settori dell'IA e della cybersicurezza. Inoltre, mira a facilitare l'accesso a dati di alta qualità per l'addestramento dei modelli e promuove la collaborazione tra imprese e centri di ricerca per favorire il trasferimento tecnologico.


Posso usare l'IA per assumere personale? Quali sono le regole? Sì, ma con cautele significative. I sistemi di IA per il reclutamento e la gestione dei lavoratori sono classificati come ad "alto rischio" dall'AI Act europeo, a cui la legge italiana si allinea. È obbligatorio garantire trasparenza al candidato, evitare ogni forma di discriminazione algoritmica e assicurare una supervisione umana sulla decisione finale. Il datore di lavoro deve informare i lavoratori e le loro rappresentanze sindacali sull'uso di tali sistemi.


Chi è il titolare del diritto d'autore per un'opera creata con un'IA generativa? La legge stabilisce che l'autore è la persona fisica il cui lavoro intellettuale e creativo ha portato alla realizzazione dell'opera, anche se ha utilizzato strumenti di IA. L'opera è protetta se il contributo umano è prevalente e identificabile. Un output generato in piena autonomia da un'IA, senza un intervento creativo umano, non è protetto da diritto d'autore.


Quali sono i rischi penali per un uso improprio dell'IA in azienda? La legge introduce nuove fattispecie di reato e aggravanti. Ad esempio, la diffusione di deepfake dannosi è punita con la reclusione da 1 a 5 anni. L'uso dell'IA diventa un'aggravante per reati come la manipolazione del mercato o l'aggiotaggio. È fondamentale che le aziende implementino policy interne per prevenire usi illeciti, poiché la responsabilità può ricadere sia sulla persona fisica che sull'ente.


Quali sono le autorità di controllo per l'IA in Italia? Le principali autorità designate sono due: l'Agenzia per l'Italia Digitale (AgID), con funzioni di notifica e accreditamento degli organismi di certificazione, e l'Agenzia per la Cybersicurezza Nazionale (ACN), con poteri di vigilanza sul mercato, ispezione e sanzione. Per il settore finanziario, le autorità competenti restano Banca d'Italia, CONSOB e IVASS.


Cosa si intende per "approccio basato sul rischio"? È il principio cardine dell'AI Act europeo, adottato anche dalla legge italiana. Gli obblighi normativi sono proporzionati al livello di rischio che un sistema di IA può comportare per la salute, la sicurezza e i diritti fondamentali. Le applicazioni a rischio inaccettabile sono vietate, quelle ad alto rischio sono soggette a regole stringenti, mentre per quelle a rischio basso o minimo gli obblighi sono leggeri o assenti.


La legge si applica anche a modelli open source come Llama o Mistral? L'AI Act prevede delle esenzioni per i modelli open source, a meno che non rientrino nella categoria dei modelli di IA per finalità generali con "rischio sistemico". In generale, l'obiettivo è non soffocare l'innovazione e la ricerca. Tuttavia, chi integra un modello open source in un prodotto commerciale ad alto rischio deve comunque garantire la conformità del prodotto finale a tutte le normative.


Come posso garantire che la mia azienda sia conforme alla nuova legge? Il primo passo è mappare tutti i sistemi di IA utilizzati in azienda e valutarne il livello di rischio secondo i criteri della legge. Successivamente, è necessario implementare un sistema di governance interno che includa policy per la gestione dei dati, la trasparenza, la sicurezza e la supervisione umana. Per i sistemi ad alto rischio, sarà necessario seguire le procedure di certificazione e documentazione richieste. Data la complessità, è fortemente consigliato avvalersi di consulenza legale e tecnica specializzata.


Fissa una Consulenza Strategica

Navigare il complesso panorama normativo e tecnologico dell'intelligenza artificiale richiede competenza e visione strategica. Per imprenditori e dirigenti che desiderano trasformare gli obblighi di legge in opportunità di crescita, un confronto diretto è il primo passo per costruire un percorso su misura.


Rhythm Blues AI offre un affiancamento personalizzato per aiutare le aziende a comprendere e implementare l'IA in modo efficace, etico e conforme. Se desidera trasformare la complessità normativa in un vantaggio competitivo e definire una roadmap chiara per l'adozione dell'IA nella Sua azienda, il primo passo è un confronto strategico. Prenoti una consulenza gratuita per iniziare.


 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page