Autore: Andrea Viliotti
I recenti eventi che hanno visto come protagonista OpenAI hanno una nuova versione nelle terre europee, il confronto serrato fra le esigenze del mondo dell’economia e quelle dell’etica trovano un nuovo terreno di confronto nel parlamento europeo.
Il fulcro di queste discussioni strategiche è se lasciare lo sviluppo dell'IA alla discrezione delle imprese che la producono, oppure se orientarlo attraverso un approccio normativo per mitigare i rischi delle sue applicazioni più controverse.
In Europa la risposta a questa domanda sembra orientata verso un approccio regolamentato, come suggerito dalla Commissione Europea e dal Parlamento Europeo nell'emendamento dell'AI Act. Questo approccio si basa sulla classificazione delle applicazioni AI in base al rischio, distinguendo tra quelle potenzialmente dannose, che richiedono una regolamentazione attenta, e quelle che possono essere sviluppate più liberamente.
Questo dibattito si inserisce nell’amplio contesto delle preoccupazioni relative agli impatti dell'IA su lavoro, economia, finanza, disinformazione, discorsi di odio e la concentrazione del potere nelle mani di poche grandi aziende. Ci sono anche preoccupazioni etiche e strategiche, come l'uso dell'IA in ambito militare e nel controllo dei sistemi di connettività nelle zone di guerra.
L'Europa si trova in una posizione unica, con un sistema giuridico incentrato sui diritti umani che potrebbe rallentare lo sviluppo delle tecnologie AI favorendo ad altri attori globali. Tuttavia, ciò potrebbe anche essere visto come un'opportunità per progettare IA di un tipo nuovo, eticamente consapevoli e focalizzate sulla qualità dell'informazione e sui diritti dei cittadini.
In questo contesto, l'AI Act europeo appare come un elemento cruciale per determinare la direzione futura dello sviluppo dell'IA, bilanciando innovazione, etica, e sicurezza.
Contesto generale dell'AI Act
I 771 emendamenti all'AI Act da parte del Parlamento Europeo nel giugno 2023, segnano una svolta decisiva nel panorama regolatorio dell'intelligenza artificiale. Questi emendamenti non sono solo un ritocco al testo legislativo del 2021, ma una vera e propria rivoluzione che tocca le fondamenta stesse della regolamentazione, con modifiche significative anche agli allegati, in particolare all'Allegato III che elenca i sistemi AI ad alto rischio.
La riformulazione dell'AI Act riflette una maturata consapevolezza dei rischi e delle opportunità che l'intelligenza artificiale porta con sé, specialmente nel campo dei modelli di linguaggio di grandi dimensioni (LLM), ormai fenomeni di massa. È stata introdotta una definizione più ampia di intelligenza artificiale, abbracciando sistemi automatizzati con vari livelli di autonomia.
La conformità ai principi europei riveste un ruolo cruciale. L'Emendamento 10 enfatizza la necessità di orientare lo sviluppo dell'intelligenza artificiale in conformità con i valori dell'Unione Europea. Questo include il rispetto dei diritti umani e delle libertà fondamentali, come delineato nei trattati dell'Unione, nella Carta dei diritti fondamentali dell'Unione Europea e nelle normative internazionali sui diritti umani.
Il nuovo AI Act promuove un approccio antropocentrico, ponendo al centro un'intelligenza artificiale etica e affidabile, con un'enfasi sulla protezione dei diritti fondamentali, della democrazia, dello stato di diritto, della salute, della sicurezza e dell'ambiente. Gli emendamenti hanno rafforzato l'obbligo di trasparenza per i fornitori di sistemi di AI e definito chiaramente l'autorità nazionale competente per l'attuazione e l'applicazione del regolamento.
Un altro punto cruciale è la robustezza e la sicurezza dei sistemi di AI. L'importanza della robustezza tecnica e della cybersecurity è stata enfatizzata per i sistemi di AI ad alto rischio. Inoltre, il regolamento ha ridefinito e ampliato l'elenco dei sistemi di AI considerati ad alto rischio e ha introdotto norme rigide per sistemi di AI non consentiti, inclusi quelli che utilizzano l'identificazione biometrica remota "in tempo reale" e quelli che rischiano di discriminare individui o gruppi.
Gli emendamenti del 2023 hanno introdotto nuove strutture e organi per la governance dei sistemi di AI, assegnando a ogni Stato membro un'autorità nazionale di controllo e stabilendo meccanismi per la gestione dei dati relativi ai sistemi di AI.
Questo approccio europeo potrebbe servire da modello per un equilibrio tra progresso tecnologico e salvaguardia dei valori fondamentali, plasmando non solo l'ambito normativo, ma anche il futuro stesso dell'intelligenza artificiale.
Implicazioni per le aziende e la compliance
Immaginate un futuro dove ogni decisione aziendale, ogni prodotto lanciato, deve passare attraverso il setaccio di una nuova strategia di risk management. Non più un mare aperto per l'innovazione indisturbata, ma un ambiente dove trasparenza algoritmica, interoperabilità, cybersecurity, non discriminazione e sorveglianza umana diventano i pilastri fondamentali. Questo è il nuovo panorama che le aziende devono affrontare con l'AI Act.
In questo contesto, l'intelligenza artificiale si divide in quattro livelli di rischio: da inaccettabile a minimo. L'Europa pone un veto sui sistemi AI discriminatori e intrusivi, delineando un confine chiaro tra ciò che è permesso e ciò che non lo è. La responsabilità è distribuita lungo tutta la catena di produzione - dai fornitori ai produttori, dagli importatori ai distributori.
Ma attenzione, violare queste regole ha un prezzo. Le aziende che si spingono oltre i limiti dell'AI Act affrontano sanzioni pesanti, con multe che possono raggiungere i 30 milioni di euro o il 6% del fatturato annuo. Queste cifre non sono solo numeri su un foglio di carta, ma rappresentano un avvertimento serio per le aziende che si avventurano senza cautela nel territorio dell'AI.
Le aziende europee sono chiamate a bilanciare l'innovazione con una conformità attenta alle nuove norme, un equilibrio delicato ma essenziale.
Impatti dell'AI Act europeo sullo sviluppo dell'AI: un confronto internazionale
L'AI Act Europeo non mira solo a disciplinare l'uso dell'AI nel Vecchio Continente, ma aspira a diventare un punto di riferimento a livello mondiale, una sorta di "Effetto Bruxelles" per il resto del globo.
Guardando questo scenario dal punto di vista globale, emerge un contrasto netto tra l'approccio europeo e quello di altre potenze tecnologiche come Stati Uniti, Regno Unito e Cina. L'Europa, con i suoi quattro livelli di rischio per i sistemi AI, si distingue per una regolamentazione più dettagliata e prescrittiva. Al contrario, paesi come gli USA e il Regno Unito adottano un approccio più flessibile, meno vincolante, che potrebbe accelerare l'innovazione, ma con meno salvaguardie.
Tuttavia, nonostante le sue nobili ambizioni, l'impatto globale dell'AI Act europeo potrebbe essere meno incisivo di quanto sperato. La sua efficacia oltre i confini europei sembra limitata, essendo rilevante principalmente per i prodotti venduti all'interno dell'UE. Questo pone un dilemma interessante: mentre l'Europa si impegna a definire un quadro etico e sicuro per l'AI, potrebbe trovarsi in una corsa tecnologica globale con le mani legate, rischiando di essere sorpassata da nazioni con regolamentazioni meno stringenti.
Questo scenario evidenzia una sfida cruciale per l'Europa: trovare l'equilibrio tra mantenere elevati standard di sicurezza ed etica e non inibire la sua capacità di competere a livello globale nel campo dell'intelligenza artificiale.
Allineamenti e divergenze europee nell'intelligenza artificiale: Germania, Italia, Francia e l'impatto sull'AI Act
In questo delicato scenario fra esigenze economiche ed etiche Italia, Francia e Germania hanno siglato un accordo trilaterale per la regolamentazione dell'intelligenza artificiale, con particolare attenzione ai modelli generativi di AI. Questo accordo, che potrebbe influenzare l'adozione dell'AI Act europeo, pone l'accento sull'importanza dell'autoregolamentazione. Si prevede l'istituzione di un codice di condotta per gli sviluppatori di AI, enfatizzando un approccio più flessibile e adattabile, in contrasto con il modello più prescrittivo e preventivo dell'AI Act. Inoltre, l'accordo prevede un ruolo di supervisione per un'entità europea, che potrebbe avere implicazioni significative per l'armonizzazione delle normative degli Stati membri con quelle dell'UE.
Germania: Investimenti strategici in AI e la sfida dell'AI Act europeo
La Germania, con un piano di investimento di quasi 500 milioni di euro entro il 2024, mira a rafforzare le infrastrutture di supercomputing e la ricerca nell'AI, puntando a sviluppare competenze specifiche, sostenere gruppi di ricerca guidati da donne, e creare 150 nuove cattedre professorali. Nonostante l'entusiasmo per questi nuovi progetti e fondi, esistono preoccupazioni riguardo all'AI Act europeo. Bitcom, rappresentante del settore digitale tedesco, ha evidenziato una lenta adozione dell'AI, attribuendo questo fenomeno a regole restrittive sul trasferimento dei dati. L'associazione tedesca di AI, che rappresenta oltre 400 aziende, ritiene che l'AI Act potrebbe diventare un ostacolo per l'industria AI del continente, poiché le normative proposte potrebbero aumentare i costi di sviluppo per i prodotti AI e creare incertezze legali. Holger Hoos, professore di AI, ha sollevato dubbi sull'efficacia del sostegno dell'UE all'ecosistema AI, suggerendo la necessità di un obiettivo comune e ambizioso, come un "CERN per l'AI", per stimolare il progresso europeo in questo campo.
Italia: Armonizzazione tra innovazione e regolamentazione nell'intelligenza artificiale
Il governo italiano ha aumentato significativamente il suo impegno nello sviluppo dell'intelligenza artificiale, stanziando 800 milioni di euro in investimenti e adottando una strategia di regolamentazione flessibile per i modelli generativi di AI. Con questo approccio, l'Italia si allinea alle politiche similari di Francia e Germania. Questa linea di azione si differenzia dal modello più rigido e precauzionale dell'AI Act, il quale mira a un controllo proattivo basato sulla classificazione dei rischi, per garantire non solo la sicurezza, ma anche la tutela dei diritti fondamentali.
L'approccio italiano all'AI si basa su tre pilastri fondamentali: competenze e conoscenza, ricerca, sviluppo e innovazione, e un quadro di regole incentrate sull'innovazione. Questo include la rapida implementazione del Centro nazionale per l'AI di Torino e un'enfasi sulla formazione e sull'educazione per accrescere le competenze digitali, cruciale per il progresso tecnologico del Paese.
Il ruolo della Francia e la dinamica europea nell'AI Act
Il governo francese, impegnandosi nel 2021 con un finanziamento di 2,2 miliardi di euro distribuiti nell'arco di cinque anni, mira a rafforzare la sua posizione come leader globale nel settore dell'intelligenza artificiale. La strategia adottata si concentra sul sostegno all'ecosistema AI, includendo la liberalizzazione dei dati e l'elaborazione di un quadro normativo in linea con gli obiettivi dell'AI Act. Il presidente francese Emmanuel Macron, in un evento con startup a Parigi, ha invitato l'Europa a trovare un equilibrio fra innovazione e normativa, criticando un approccio eccessivamente restrittivo dell'AI Act.
Nell'ultimo decennio, la Francia si è distinta per la sua strategia proattiva nel campo dell'intelligenza artificiale, evidenziata da iniziative di spicco come Kyutai, un centro di ricerca indipendente focalizzato sulla scienza aperta. Questo progetto ha ricevuto il sostegno di figure influenti nel mondo della tecnologia e del business: Xavier Niel, noto imprenditore nel settore delle telecomunicazioni e fondatore di Free; Eric Schmidt, ex CEO di Google e veterano dell'industria tecnologica; e Rodolphe Saadé, leader di rilievo nel settore del trasporto e della logistica, presidente e CEO del gruppo CMA CGM. In aggiunta, progetti innovativi come Mistral AI hanno ulteriormente rafforzato l'impegno francese nell'AI.
La Germania, l'Italia e la Francia stanno giocando un ruolo significativo nella definizione dell'AI Act, indirizzandolo verso la promozione dell'accelerazione industriale nel settore dell'intelligenza artificiale. Questo orientamento rispecchia le tendenze osservate di recente nella gestione di OpenAI. Sebbene persista un impegno verso obiettivi etici, al momento le esigenze economiche appaiono prevalenti.
Conclusione
La realizzazione dell'AI Act segnerà un traguardo significativo per il progresso dell'intelligenza artificiale nell'ambito dell'Unione Europea. Questa legge mira a stabilire un equilibrio raffinato tra le necessità dell'industria e la protezione imprescindibile dei diritti umani e la sicurezza delle persone.
La sfida è complessa, ma è essenziale per l'Europa perseguire una strategia dinamica e adattabile, che consenta alle sue imprese di mantenersi al passo con la concorrenza a livello internazionale. Trovare una sintesi tra un'innovazione consapevole e una normativa efficace sarà decisivo per assicurare che l'Europa non solo partecipi ma anche assuma un ruolo guida nello sviluppo dell'intelligenza artificiale, affermando la propria influenza nel contesto globale.
Comments