top of page

Risultati di ricerca

654 risultati trovati con una ricerca vuota

  • Competenze e governance AI per la trasformazione del settore pubblico

    In un'era in cui l'Intelligenza Artificiale (AI) diventa sempre più prevalente, il suo potenziale per trasformare il settore pubblico è indiscutibile. Tuttavia, la diffusione dell'AI nel settore pubblico dipende in larga misura dalla presenza di competenze adeguate e dall'adozione di pratiche di governance efficaci. Questo articolo si basa su una sintesi di ricerche empiriche, letteratura grigia e politica, un workshop di esperti e interviste a rappresentanti di sette organizzazioni pubbliche europee (Ministero dell'Interno della Cechia, Comune di Gladsaxe in Danimarca, Distretto di Lüneburg in Germania, Ministero della Governance Digitale della Grecia, Istituto Nazionale di Previdenza Sociale in Italia, Comune di Amsterdam nei Paesi Bassi e Comune di Trondheim in Norvegia), al fine di identificare le competenze e le pratiche di governance necessarie per generare valore nel settore pubblico grazie all'AI. Gli autori principali della ricerca sono R. Medaglia, P. Mikalef e L. Tangi, appartenenti rispettivamente alla Copenhagen Business School, alla Norwegian University of Science and Technology e al Centro Comune di Ricerca della Commissione Europea. Il contesto normativo europeo L'impegno dell'Unione Europea verso l'AI ha avuto inizio con la Dichiarazione di Cooperazione del 2018 e ha trovato un ulteriore avanzamento nella revisione del Piano Coordinato sull'AI del 2021, che ha evidenziato il ruolo strategico dell'AI nel settore pubblico. Oggi esistono numerose iniziative e misure legislative per facilitare l'integrazione dell'AI nell'amministrazione pubblica. Tra queste spiccano l'AI Act e l'Interoperable Europe Act, entrambi adottati nel 2024. L'AI Act stabilisce un approccio basato sui rischi per la regolamentazione dell'AI, vietando i sistemi che pongono rischi inaccettabili e definendo applicazioni ad alto rischio soggette a controlli rigorosi. Questo atto promuove inoltre l'innovazione attraverso aree di sperimentazione regolatoria e ha portato alla formazione del Comitato Europeo per l'Intelligenza Artificiale e di un database dell'UE per i sistemi di AI ad alto rischio. L'Interoperable Europe Act, proposto nel novembre 2022 e adottato nell'aprile 2024, mira a migliorare l'interoperabilità transfrontaliera dei sistemi IT impiegati nei servizi pubblici. Introduce l'Interoperable European Board, responsabile della definizione di un'agenda strategica condivisa per l'interoperabilità transfrontaliera, e richiede valutazioni di interoperabilità per i sistemi IT che operano oltre confine. Inoltre, ha annunciato il lancio dell'Interoperable Europe Portal, una piattaforma collaborativa per la condivisione e il riutilizzo di soluzioni IT. Questo atto incoraggia anche l'innovazione tramite aree di sperimentazione regolatoria e partenariati GovTech. Altre leggi rilevanti includono il Digital Services Act (DSA), che mira a stabilire regole chiare per i fornitori di servizi digitali garantendo sicurezza agli utenti e maggiore trasparenza, il Digital Markets Act (DMA), progettato per assicurare condizioni eque nel mercato digitale, e il Data Governance Act (DGA), che intende aumentare la fiducia nella condivisione dei dati e superare gli ostacoli tecnici al loro riutilizzo. La normativa include anche il Data Act e il Cybersecurity Act, tutti volti a creare un ecosistema digitale sicuro e interoperabile. Un'iniziativa chiave in questo ambito è il Public Sector Tech Watch (PSTW), un osservatorio istituito nel 2023 e gestito dalla Direzione Generale per i Servizi Digitali della Commissione Europea e dal Centro Comune di Ricerca (JRC). PSTW funge da piattaforma per lo scambio di conoscenze, esperienze e risorse educative tra dipendenti pubblici, imprese private, enti accademici e strategisti politici, facilitando la trasformazione digitale e la compatibilità dei sistemi pubblici europei. PSTW include un database di oltre 1.000 casi di utilizzo dell'AI e altre tecnologie emergenti nel settore pubblico e promuove un ambiente collaborativo per lo scambio di pratiche ed esperienze, anche attraverso iniziative come competizioni per il miglior caso d'uso. Inoltre, il Technical Support Instrument (TSI) e iniziative come "AI-ready public administration" forniscono supporto tecnico su misura agli Stati membri per prepararsi all'adozione dell'AI, inclusi partenariati GovTech e contratti modello per il procurement di soluzioni AI affidabili e sicure. Governance AI per la trasformazione del settore pubblico: metodologia della ricerca Il rapporto si basa su una metodologia in tre fasi, mirata a sviluppare una visione completa e aggiornata delle competenze e delle pratiche di governance necessarie per l'uso dell'AI nelle organizzazioni pubbliche. La prima fase ha coinvolto una revisione sistematica della letteratura accademica e della documentazione politica e grigia. La seconda fase ha riguardato un workshop online con 40 esperti di settore, tenutosi il 25 ottobre 2023, finalizzato a consolidare e approfondire i risultati ottenuti nella fase di revisione della letteratura. Gli esperti provenivano da diverse organizzazioni pubbliche e il workshop è stato strutturato in sessioni di lavoro suddivise in gruppi di discussione per esplorare a fondo sia le competenze che le pratiche di governance dell'AI. I risultati del workshop sono stati utilizzati per verificare i risultati della revisione della letteratura e sono stati sintetizzati in un report. Infine, nella terza fase sono state condotte interviste semi-strutturate con responsabili di sette organizzazioni pubbliche europee in vari paesi (Cechia, Danimarca, Germania, Grecia, Italia, Paesi Bassi e Norvegia), con l'obiettivo di arricchire e validare i risultati. Sono state realizzate un totale di 19 interviste tra maggio e novembre 2023. Le interviste si sono concentrate sull'esperienza individuale con l'AI, la percezione della rilevanza dell'AI nel contesto di lavoro specifico e le difficoltà percepite nell'ottenimento delle competenze legate all'AI nel settore pubblico. Le trascrizioni delle interviste sono state elaborate con il supporto di software di trascrizione automatica e poi manualmente riviste per garantirne l'accuratezza. Quadro delle competenze per l'AI nel settore pubblico Il rapporto presenta un quadro completo delle competenze necessarie per l'adozione e l'uso dell'AI nel settore pubblico, distinguendo tra competenze tecniche, gestionali, politiche, legali ed etiche. Queste competenze sono ulteriormente classificate in tre cluster: competenze attitudinali (conoscenza del "perché"), operative (conoscenza del "come") e di alfabetizzazione (conoscenza del "cosa"). Le competenze tecniche  comprendono conoscenze approfondite in ambito tecnologico, abilità nella gestione di banche dati, capacità di valutare la qualità dei dati e selezionare le architetture di intelligenza artificiale più adeguate. Sul piano operativo, risultano fondamentali la gestione dei dati, la programmazione software mirata all'intelligenza artificiale e l'adesione agli standard tecnici previsti in questo settore. Per quanto riguarda l'aspetto attitudinale, la curiosità verso le innovazioni tecnologiche e l'impegno nel continuo apprendimento rappresentano qualità indispensabili per affrontare con successo le sfide legate all'intelligenza artificiale. Le competenze gestionali  comprendono la leadership, la gestione del cambiamento e la capacità di mediare tra diversi gruppi di interesse. In particolare, la leadership viene vista come la capacità di guidare iniziative di AI e di integrare la tecnologia in maniera etica ed efficace, mentre la gestione del cambiamento riguarda la capacità di adattare i processi organizzativi all'adozione dell'AI. Le competenze politiche, legali ed etiche  includono la consapevolezza delle implicazioni etiche e la capacità di lavorare con esperti del settore per garantire che l'adozione dell'AI avvenga in modo responsabile. È essenziale che i funzionari pubblici abbiano la capacità di formulare domande di policy compatibili con le tecniche di AI e di collaborare con esperti del dominio per tradurre concetti complessi in soluzioni pratiche. La capacità di auditing e di garantire la conformità agli standard di progettazione e responsabilità è anch'essa fondamentale. Le competenze di alfabetizzazione comprendono la comprensione dei fondamenti dell'apprendimento automatico, la visione artificiale e il natural language processing (NLP), nonché una conoscenza approfondita dei quadri legali e delle politiche pubbliche. Inoltre, la capacità di gestire il procurement di soluzioni AI in maniera compatibile con i valori dell'interesse pubblico è vista come una competenza cruciale per garantire che l'AI venga utilizzata in modo equo e trasparente nel settore pubblico. Pratiche di governance per l'AI Il rapporto distingue le pratiche di governance in tre dimensioni principali: pratiche procedurali, strutturali e relazionali. Ogni dimensione è articolata su tre livelli: strategico, tattico e operativo. L'obiettivo delle pratiche di governance è di garantire che vi sia una coerenza tra gli obiettivi dell'organizzazione e la tecnologia utilizzata per raggiungerli. Questo significa implementare norme e regolamenti che guidino l'uso responsabile dell'AI e che favoriscano una cultura dell'innovazione aperta e collaborativa. Le pratiche procedurali  si riferiscono ai processi e alle norme che devono essere messi in atto per gestire l'AI in modo responsabile. Queste includono l'adozione di linee guida per lo sviluppo etico dell'AI, la definizione di standard per la gestione dei dati e la creazione di criteri per l'auditing dei sistemi di AI. Un esempio significativo è l'utilizzo di framework di conformità che includono valutazioni di impatto etico e legale durante tutto il ciclo di vita dell'AI, al fine di garantire la conformità alle normative europee come l'AI Act e il GDPR. Le pratiche strutturali  riguardano l'organizzazione interna e la distribuzione dei ruoli e delle responsabilità in relazione all'AI. Questo implica la creazione di unità dedicate all'AI, la nomina di Chief AI Officers, e la definizione di politiche di governance per assicurare che le iniziative di AI siano in linea con la strategia complessiva dell'organizzazione. Le organizzazioni pubbliche devono istituire team multidisciplinari che comprendano esperti di AI, analisti di dati, giuristi ed esperti di etica per monitorare e supervisionare l'implementazione dell'AI. Questo garantisce che l'uso dell'AI sia gestito in modo da rispettare i valori dell'interesse pubblico. Le pratiche relazionali  si concentrano sulla gestione delle relazioni tra le diverse parti interessate, sia interne che esterne all'organizzazione. Questo include la collaborazione con altre agenzie governative, il coinvolgimento delle comunità locali, e la creazione di partnership con il settore privato e con le università. Un elemento fondamentale è la trasparenza e il coinvolgimento dei cittadini, attraverso consultazioni pubbliche e la condivisione delle informazioni sulle applicazioni di AI in uso. Queste pratiche mirano a costruire fiducia e a garantire che l'AI sia sviluppata e utilizzata in modo responsabile e con il consenso del pubblico. La governance strategica  prevede la definizione di una visione chiara sull'uso dell'AI, con obiettivi a lungo termine che includano l'innovazione e il miglioramento dei servizi pubblici. A livello tattico, le pratiche di governance comprendono la pianificazione delle risorse e la gestione del rischio associato all'implementazione dell'AI, mentre a livello operativo si concentrano sulla formazione del personale, l'allocazione delle risorse necessarie e il monitoraggio continuo delle performance dei sistemi di AI. L'adozione di un approccio basato su cicli di feedback continui è essenziale per garantire che le soluzioni di AI siano adattive e in grado di rispondere ai cambiamenti nei requisiti dell'organizzazione e alle aspettative dei cittadini.   Raccomandazioni e prospettive future Basandosi sulle analisi svolte, il rapporto presenta sei raccomandazioni per lo sviluppo delle competenze e delle pratiche di governance dell'AI nel settore pubblico. Queste raccomandazioni mirano a creare un contesto favorevole per l'adozione etica ed efficace dell'AI, promuovendo una cultura dell'innovazione, del miglioramento continuo e della responsabilità sociale. Di seguito, vengono esposte nel dettaglio le raccomandazioni principali e le azioni correlate: Formazione continua e sviluppo delle competenze : La formazione continua rappresenta un elemento essenziale per garantire che il personale del settore pubblico possa sfruttare al meglio le potenzialità dell'AI. Per sviluppare le competenze necessarie all'adozione e alla gestione efficace delle tecnologie AI, sono state identificate diverse azioni strategiche. Programmi di formazione continua : I programmi di formazione devono essere progettati per includere vari livelli di complessità, partendo da un'alfabetizzazione generale sull'AI per tutti i dipendenti pubblici fino a corsi avanzati per coloro che lavorano direttamente con tecnologie AI. I contenuti di questi corsi dovrebbero includere i fondamenti del machine learning, i concetti base del natural language processing, le implicazioni etiche dell'AI e le pratiche di gestione dei dati. Workshop pratici e casi di studio : La teoria deve essere affiancata da workshop pratici e l'analisi di casi di studio concreti. I workshop possono includere sessioni di programmazione e configurazione di modelli di AI, così come simulazioni per comprendere i processi decisionali automatizzati. L'analisi di casi di studio, invece, permetterà ai funzionari di vedere esempi di applicazioni di AI sia di successo che fallimentari, aiutando a comprendere le sfide e le opportunità reali. Collaborazioni con Università e Centri di Ricerca : Il settore pubblico dovrebbe collaborare attivamente con università e centri di ricerca per sviluppare corsi specifici e personalizzati. Questo tipo di collaborazione può garantire un accesso continuo alle ultime novità in campo tecnologico e alle best practice accademiche, oltre a favorire la co-creazione di contenuti formativi che rispondano a bisogni specifici delle amministrazioni pubbliche. Programmi di mentorship : La mentorship rappresenta uno strumento importante per accelerare il trasferimento di competenze. Esperti di AI e figure senior all'interno delle organizzazioni pubbliche possono essere assegnati come mentori a nuovi membri del personale o a coloro che hanno bisogno di sviluppare specifiche competenze sull'AI. La mentorship può essere utile non solo per trasmettere conoscenze tecniche, ma anche per affrontare aspetti legati alla gestione del cambiamento e alla comunicazione dei progetti di AI ai diversi stakeholder. Formazione in ambito etico e normativo : La formazione non deve limitarsi agli aspetti tecnici dell'AI, ma deve includere anche le competenze in ambito etico e normativo. Il personale deve essere consapevole delle implicazioni etiche dell'uso dell'AI, comprendere i potenziali rischi legati a bias algoritmici e garantire la protezione dei dati personali. La conoscenza delle normative rilevanti, come l'AI Act e il GDPR, deve essere parte integrante dei programmi di formazione. Approccio modulare e personalizzato : Un aspetto cruciale dei programmi di formazione deve essere la modularità. Ogni dipendente pubblico ha esigenze e livelli di competenza differenti; quindi, la formazione deve essere personalizzata e modulare. Questo consente di adattare i percorsi di apprendimento in base ai ruoli specifici e al livello di responsabilità dei dipendenti nell'ambito dell'adozione dell'AI. Utilizzo di piattaforme di E-Learning e certificazioni : Le piattaforme di e-learning possono essere utilizzate per garantire l'accesso continuo alle risorse formative, permettendo ai dipendenti di apprendere a loro ritmo. L'introduzione di certificazioni ufficiali può inoltre incentivare la partecipazione ai corsi e garantire il riconoscimento delle competenze acquisite. Valutazione e aggiornamento continuo dei programmi : I programmi di formazione devono essere sottoposti a valutazione periodica per garantirne l'efficacia e l'aggiornamento rispetto ai continui cambiamenti tecnologici e normativi. Le esigenze del settore pubblico evolvono, così come le tecnologie AI; pertanto, i contenuti dei corsi devono essere aggiornati regolarmente in modo da mantenere la rilevanza e l'efficacia della formazione.   Promozione di partnership pubblico-privato : Le partnership pubblico-privato rappresentano un elemento chiave per favorire l'adozione di soluzioni AI innovative e accedere a competenze e tecnologie all'avanguardia. La collaborazione tra amministrazioni pubbliche, aziende tecnologiche e istituzioni di ricerca può garantire uno sviluppo più rapido ed efficace di soluzioni AI, nonché contribuire a costruire un ecosistema di innovazione sostenibile e orientato ai bisogni della collettività. Di seguito vengono esposti in dettaglio i principali elementi e benefici delle partnership pubblico-privato: Collaborazione con aziende tecnologiche : Le amministrazioni pubbliche possono beneficiare enormemente dall'esperienza e dall'innovazione del settore privato. I partenariati con aziende tecnologiche consentono di accedere a risorse avanzate e competenze tecniche che spesso non sono disponibili internamente. Ad esempio, attraverso questi partenariati, le organizzazioni pubbliche possono beneficiare dell'uso di piattaforme di analisi avanzata, sistemi di machine learning pre-addestrati e soluzioni di cloud computing per la gestione dei dati. Progetti di ricerca e sviluppo (R&S) con istituzioni accademiche : La collaborazione con le università e i centri di ricerca è essenziale per sviluppare progetti di ricerca applicata e trasferimento tecnologico. Questi partenariati non solo favoriscono l'innovazione, ma garantiscono anche che le soluzioni AI sviluppate siano basate su solidi principi scientifici e siano testate in modo rigoroso prima dell'implementazione su larga scala. Tali collaborazioni possono anche prevedere la creazione di laboratori congiunti di innovazione e la co-progettazione di soluzioni tecnologiche con ricercatori e studenti. Accesso a finanziamenti e risorse : Le partnership con il settore privato possono anche facilitare l'accesso a risorse finanziarie aggiuntive necessarie per sostenere l'implementazione dell'AI. Le aziende private possono co-finanziare progetti di AI innovativi, riducendo il rischio finanziario per le amministrazioni pubbliche e rendendo più facile sperimentare soluzioni pionieristiche. Inoltre, i partenariati possono consentire alle amministrazioni di beneficiare di infrastrutture tecnologiche e strumenti avanzati di cui altrimenti non potrebbero disporre. Sviluppo di soluzioni condivise : Le soluzioni sviluppate attraverso partenariati pubblico-privato spesso possono essere adattate e riutilizzate in contesti diversi. Ciò riduce i costi e accelera il processo di trasformazione digitale. Ad esempio, un modello di AI sviluppato per migliorare l'efficienza dei servizi sanitari in una regione può essere utilizzato come base per sviluppare soluzioni simili in altre regioni o in altri settori dell'amministrazione pubblica, come l'istruzione o i trasporti. Garanzia di trasparenza e conformità : È fondamentale che le partnership pubblico-privato siano strutturate in modo da garantire la massima trasparenza e la protezione dei dati dei cittadini. Per questo motivo, devono essere definiti protocolli chiari per la gestione dei dati, la privacy e la sicurezza delle informazioni. La definizione di standard e linee guida per la trasparenza è essenziale per mantenere la fiducia dei cittadini nell'uso dell'AI da parte delle amministrazioni pubbliche. Le partnership devono includere accordi dettagliati che definiscano ruoli, responsabilità e modalità di condivisione dei dati. Promozione dell'innovazione attraverso competizioni e premi : Un modo per incentivare la partecipazione delle aziende private nello sviluppo di soluzioni AI per il settore pubblico è attraverso l'organizzazione di competizioni e hackathon. Questi eventi possono attirare startup, piccole e medie imprese (PMI) e grandi aziende a contribuire con idee e soluzioni innovative. La competizione sana e la possibilità di ottenere premi o contratti con le amministrazioni pubbliche stimolano la creatività e la generazione di nuove idee. Supporto alla creazione di ecosistemi di innovazione : Le partnership pubblico-privato possono anche supportare la creazione di ecosistemi di innovazione locali, coinvolgendo non solo grandi aziende ma anche startup, PMI e incubatori di impresa. Questi ecosistemi sono essenziali per creare un ambiente fertile in cui le nuove idee possano essere sperimentate e sviluppate. Le amministrazioni pubbliche possono facilitare la creazione di tali ecosistemi promuovendo l'accesso a finanziamenti, offrendo incentivi fiscali e creando spazi fisici in cui pubblico e privato possano collaborare. Queste azioni mirano a creare una sinergia efficace tra pubblico e privato, con l'obiettivo di massimizzare il valore generato dall'AI per il bene comune e garantire che le soluzioni adottate siano in linea con gli standard etici e i bisogni della collettività. Solo attraverso un impegno congiunto e una cooperazione aperta sarà possibile sfruttare appieno le potenzialità dell'AI per migliorare i servizi pubblici e la qualità della vita dei cittadini.   Sperimentazione regolatoria e aree sandbox : La sperimentazione regolatoria e le aree sandbox rappresentano strumenti fondamentali per l'adozione efficace dell'AI nel settore pubblico. Queste iniziative consentono di testare nuove tecnologie e approcci innovativi in un ambiente controllato (una sandbox è un ambiente protetto in cui si possono sperimentare soluzioni senza impattare sui sistemi reali o violare normative), riducendo al minimo i rischi associati all'implementazione e garantendo che le soluzioni siano conformi alle normative vigenti. Di seguito vengono descritti i principali elementi e le azioni correlate alle aree di sperimentazione regolatoria e alle sandbox: Aree Sandbox per l'AI : Le aree sandbox permettono alle amministrazioni pubbliche di testare nuove soluzioni AI in un contesto regolamentato e con un livello di supervisione adeguato. Queste sandbox sono create per garantire che le tecnologie emergenti possano essere sviluppate, valutate e affinate prima della loro diffusione su larga scala. Le aree sandbox offrono un ambiente protetto in cui le amministrazioni possono collaborare con aziende tecnologiche, startup e università per sviluppare applicazioni AI innovative, riducendo il rischio di fallimenti costosi e migliorando la qualità delle soluzioni finali. Coinvolgimento dei cittadini : Il coinvolgimento dei cittadini rappresenta un aspetto cruciale nelle aree sandbox. Le consultazioni pubbliche e i processi di feedback permettono di valutare l'impatto sociale delle tecnologie AI, assicurando che le soluzioni sviluppate rispondano ai bisogni della collettività e rispettino i valori dell'interesse pubblico. Coinvolgere direttamente i cittadini nei processi di sperimentazione può anche contribuire ad aumentare la fiducia nelle soluzioni AI, mostrando come vengono gestiti i rischi associati all'implementazione della tecnologia. Valutazione dell'impatto e trasparenza : Ogni progetto avviato all'interno delle aree sandbox deve essere soggetto a una rigorosa valutazione dell'impatto etico, sociale e legale. La valutazione dell'impatto permette di identificare potenziali rischi legati alla privacy, alla discriminazione algoritmica o ad altri aspetti critici, e di introdurre misure correttive prima dell'implementazione su larga scala. Inoltre, è essenziale garantire la trasparenza dei risultati dei test condotti nelle aree sandbox, pubblicando rapporti dettagliati che descrivano il processo di sperimentazione, i risultati ottenuti e le lezioni apprese. Linee guida per l'implementazione delle Aree Sandbox : Per garantire un uso efficace delle aree sandbox, è necessario stabilire linee guida chiare che definiscano il processo di creazione e gestione delle sandbox, i criteri di selezione dei progetti da testare e le modalità di supervisione. Queste linee guida devono assicurare che tutti i progetti siano in linea con i valori e gli obiettivi dell'amministrazione pubblica, che rispettino le normative vigenti e che adottino un approccio basato sui rischi per garantire la sicurezza e la conformità delle soluzioni sviluppate. Supporto normativo e finanziario : La creazione di aree sandbox richiede un adeguato supporto normativo e finanziario. Le amministrazioni pubbliche devono poter contare su un quadro normativo flessibile che consenta la sperimentazione regolatoria senza vincoli eccessivi. Allo stesso tempo, devono essere disponibili risorse finanziarie per supportare i costi della sperimentazione, inclusi quelli legati all'infrastruttura tecnologica e alla formazione del personale coinvolto. Feedback e miglioramento continuo : Uno degli obiettivi delle aree sandbox è quello di creare un ciclo continuo di feedback e miglioramento. Ogni sperimentazione dovrebbe essere seguita da un'attenta analisi dei risultati, con l'obiettivo di migliorare non solo la tecnologia sperimentata ma anche il processo di sperimentazione stessa. Questo approccio iterativo consente di adattare le soluzioni AI alle esigenze reali delle amministrazioni pubbliche e dei cittadini, garantendo che ogni fase di sviluppo sia basata sull'apprendimento e sul miglioramento continuo. Integrazione con le Politiche Europee di Innovazione : Le aree di sperimentazione regolatoria devono essere strettamente integrate con le politiche europee in materia di innovazione e AI, come l'AI Act e l'Interoperable Europe Act. Questa integrazione è essenziale per garantire che le soluzioni sviluppate nelle sandbox siano allineate con le normative europee e possano essere facilmente scalate a livello transfrontaliero, favorendo una maggiore interoperabilità e una diffusione più ampia delle migliori pratiche nel settore pubblico. Queste pratiche di sperimentazione regolatoria e le aree sandbox mirano a ridurre il rischio associato all'adozione di tecnologie innovative, a migliorare la qualità delle soluzioni sviluppate e a garantire che l'AI sia utilizzata in modo responsabile e trasparente nel settore pubblico. La combinazione di sperimentazione, collaborazione e valutazione dell'impatto rappresenta un approccio completo per massimizzare il potenziale dell'AI e assicurare che i benefici siano equamente distribuiti tra tutti i cittadini.   Rafforzamento delle pratiche di governance etica e legale : Il rafforzamento delle pratiche di governance etica e legale è fondamentale per garantire che l'adozione dell'AI nel settore pubblico avvenga in modo responsabile e in linea con i valori della collettività. Di seguito vengono sviluppate le principali azioni da intraprendere per garantire un'implementazione etica e legale dell'AI: Creazione di linee guida etiche per lo sviluppo dell'AI : Le linee guida etiche sono necessarie per stabilire criteri chiari per lo sviluppo e l'utilizzo dell'AI nel settore pubblico. Queste linee guida devono coprire diversi aspetti, tra cui la raccolta e l'uso dei dati, la gestione dei bias, la responsabilità degli sviluppatori e degli operatori, e la tutela della privacy. Le linee guida devono essere integrate nei processi di procurement e sviluppo, assicurando che ogni soluzione AI adottata sia allineata ai principi etici approvati dall'organizzazione e dal quadro normativo europeo. Valutazioni d'impatto etico e legale : Ogni progetto di AI deve essere accompagnato da una valutazione d'impatto etico e legale che ne analizzi le potenziali conseguenze a livello di equità, privacy, sicurezza e trasparenza. Queste valutazioni devono essere condotte in fase iniziale e aggiornate durante tutto il ciclo di vita del progetto, identificando rischi potenziali e prevedendo misure correttive per mitigare tali rischi. Istituzione di comitati etici : La creazione di comitati etici a livello nazionale o locale ha lo scopo di supervisionare le decisioni chiave in materia di AI. Questi comitati devono essere composti da esperti di etica, rappresentanti del settore pubblico, accademici e membri della società civile. Il loro ruolo è quello di valutare i progetti di AI, offrire raccomandazioni etiche, garantire che i principi di equità e non discriminazione siano rispettati e che l'interesse pubblico sia sempre al centro delle decisioni prese. Definizione di standard per l'auditing algoritmico : Gli algoritmi utilizzati dalle amministrazioni pubbliche devono essere soggetti ad auditing periodici per garantirne la conformità alle normative vigenti e per prevenire bias o utilizzi impropri. L'auditing deve includere un'analisi trasparente del funzionamento dell'algoritmo, l'identificazione di possibili distorsioni e la verifica della precisione e dell'affidabilità dei risultati. È importante stabilire un processo formale per l'auditing e identificare gli indicatori chiave di prestazione (KPI) che consentano di valutare l'efficacia e l'impatto degli algoritmi. Garanzia di trasparenza e responsabilità : Per rafforzare la governance dell'AI, è essenziale promuovere la trasparenza in ogni fase di sviluppo e implementazione delle tecnologie AI. Le amministrazioni pubbliche devono comunicare in modo chiaro le finalità per cui l'AI viene utilizzata, i dati impiegati e le modalità con cui vengono prese le decisioni algoritmiche. La responsabilità deve essere assicurata attraverso un sistema di governance che preveda meccanismi per l'accertamento delle responsabilità e che consenta ai cittadini di contestare le decisioni prese dalle tecnologie AI, laddove queste possano avere un impatto significativo sui loro diritti. Controllo sulla raccolta e sull'uso dei dati : I dati rappresentano la base su cui vengono addestrati i modelli di AI, ed è quindi fondamentale che la raccolta e l'uso dei dati siano effettuati in modo responsabile. Le amministrazioni pubbliche devono assicurarsi che i dati raccolti siano di alta qualità, pertinenti e gestiti secondo le normative sulla privacy. La minimizzazione dei dati, ovvero la raccolta del solo dato strettamente necessario, e la pseudonimizzazione (tecnica che sostituisce i dati identificativi con identificatori pseudonimi per proteggere l'identità degli individui) sono pratiche chiave per garantire un uso sicuro e conforme alle normative dei dati personali. Queste azioni hanno l'obiettivo di garantire che l'adozione dell'AI nel settore pubblico avvenga in modo sicuro, responsabile e in linea con i valori dell'interesse pubblico. Il rafforzamento delle pratiche di governance etica e legale è una componente cruciale per promuovere la fiducia dei cittadini nell'uso dell'AI e assicurare che questa tecnologia contribuisca al miglioramento dei servizi pubblici senza compromettere i diritti e le libertà individuali.   Creazione di un ecosistema di supporto per la trasformazione digitale : La creazione di un ecosistema di supporto per la trasformazione digitale nel settore pubblico non riguarda solo la fornitura di risorse finanziarie e tecnologiche, ma anche lo sviluppo di una rete di attori e istituzioni che lavorino insieme per favorire l'innovazione. Di seguito vengono approfonditi i principali componenti e azioni necessari per garantire un ecosistema efficace e resiliente per la trasformazione digitale: Supporto istituzionale e politico : È fondamentale che vi sia un supporto istituzionale solido per la trasformazione digitale. I governi devono elaborare piani strategici chiari per l'adozione dell'AI e di altre tecnologie digitali, includendo obiettivi specifici e scadenze definite. Questo supporto deve essere accompagnato da politiche favorevoli che incentivino la digitalizzazione, eliminando le barriere burocratiche e promuovendo una visione coordinata tra tutti i livelli dell'amministrazione pubblica, dalle istituzioni nazionali alle comunità locali. Piattaforme di condivisione delle conoscenze : La condivisione delle conoscenze è un elemento chiave per la trasformazione digitale. Le amministrazioni pubbliche devono avere accesso a piattaforme che facilitino lo scambio di esperienze, best practice e casi di studio. Queste piattaforme, come il Public Sector Tech Watch (PSTW), possono contribuire a ridurre la curva di apprendimento per nuove tecnologie e permettere una rapida diffusione delle innovazioni che hanno avuto successo in altri contesti. La disponibilità di risorse e documentazione facilmente accessibili è cruciale per accelerare il processo di digitalizzazione. Sostegno finanziario e accesso ai Fondi Europei : La trasformazione digitale richiede investimenti significativi, ed è essenziale che le amministrazioni pubbliche abbiano accesso a finanziamenti adeguati. Fondi come Horizon Europe, Digital Europe Programme e il Recovery and Resilience Facility (RRF) sono cruciali per sostenere progetti di trasformazione digitale su larga scala. Tuttavia, è altrettanto importante fornire supporto tecnico e consulenziale alle amministrazioni per facilitare l'accesso a tali fondi, assicurando che anche le piccole e medie amministrazioni possano usufruire di queste opportunità finanziarie. Incentivi per l'innovazione e l'assunzione di talenti digitali : Le amministrazioni pubbliche devono creare incentivi per attrarre e trattenere talenti con competenze digitali. L'assunzione di esperti in AI, data science e trasformazione digitale è cruciale per il successo di qualsiasi strategia di innovazione. Incentivi come premi per l'innovazione, opportunità di formazione avanzata, e percorsi di carriera dedicati possono aiutare a costruire un team di esperti che sia in grado di guidare il cambiamento all'interno delle amministrazioni. Inoltre, programmi di reclutamento mirati alle nuove generazioni di talenti digitali possono aiutare a colmare il divario di competenze tecnologiche nel settore pubblico. Quadro regolatorio e normative flessibili : Il successo della trasformazione digitale dipende anche dalla presenza di un quadro normativo adeguato. Gli Stati membri devono adottare un approccio regolatorio che sia sufficientemente flessibile da permettere l'innovazione, ma che allo stesso tempo protegga i cittadini da potenziali abusi. Le normative devono essere aggiornate periodicamente per riflettere l'evoluzione delle tecnologie e delle esigenze della società, assicurando che siano in linea con i principi etici e di tutela dei diritti umani. Queste azioni e componenti sono essenziali per la creazione di un ecosistema di supporto alla trasformazione digitale nel settore pubblico. Solo attraverso l'accesso a risorse adeguate e un forte impegno istituzionale sarà possibile sfruttare appieno le potenzialità dell'AI e delle tecnologie emergenti.   Promozione di una cultura dell'innovazione e del rischio calcolato : Promuovere una cultura dell'innovazione e del rischio calcolato è essenziale per garantire che il settore pubblico sia capace di sperimentare e adottare nuove tecnologie come l'AI senza essere paralizzato dalla paura del fallimento. Una cultura che accetta il rischio calcolato e che incoraggia l'innovazione è in grado di produrre soluzioni più creative ed efficaci per rispondere alle sfide del settore pubblico. Di seguito vengono illustrate le principali azioni da intraprendere per costruire una cultura dell'innovazione e del rischio calcolato: Incentivare la sperimentazione e l'apprendimento dagli errori : È cruciale creare un ambiente in cui gli errori siano considerati parte del processo di apprendimento, piuttosto che fallimenti da evitare a tutti i costi. Le amministrazioni pubbliche devono promuovere una cultura in cui il personale è incoraggiato a sperimentare nuove soluzioni e a imparare dagli errori commessi. Questo può essere ottenuto attraverso la creazione di programmi pilota che consentano di testare nuove idee in un ambiente protetto, senza le conseguenze negative di un'implementazione immediata su larga scala. Formazione e supporto per gestire l'innovazione : La gestione dell'innovazione richiede competenze specifiche che spesso non sono presenti nelle tradizionali strutture del settore pubblico. Per questo motivo, è importante fornire formazione specifica per i dirigenti e i responsabili dei progetti, con l'obiettivo di sviluppare le competenze necessarie per gestire processi innovativi e per prendere decisioni strategiche in situazioni di incertezza. Questa formazione deve includere anche aspetti legati alla gestione del rischio, all'identificazione delle opportunità e alla mitigazione degli effetti negativi. Incoraggiare una mentalità proattiva e aperta al cambiamento : Le amministrazioni devono impegnarsi attivamente per incoraggiare una mentalità proattiva e aperta al cambiamento. Ciò può essere ottenuto attraverso campagne di comunicazione interna che sottolineino i benefici dell'innovazione e mostrino casi di successo, nonché attraverso la condivisione di storie di innovazione e di buone pratiche all'interno dell'organizzazione. Una leadership che sostiene attivamente il cambiamento e l'innovazione è fondamentale per creare un ambiente che incoraggi il personale a essere proattivo e a sperimentare nuove idee. Promuovere l'adozione di tecniche di Design Thinking : Il design thinking è un approccio creativo e centrato sull'utente che può aiutare le amministrazioni pubbliche a risolvere problemi complessi. L'integrazione del design thinking nei processi decisionali permette di esplorare nuove idee, testarle rapidamente e adattarle in base al feedback ricevuto. Questo approccio consente di mantenere il focus sulle esigenze dei cittadini e di trovare soluzioni innovative che migliorino la qualità dei servizi pubblici. Valutazione del rischio e gestione delle incertezze : L'innovazione comporta inevitabilmente dei rischi. Per questo è fondamentale implementare pratiche di gestione del rischio che consentano di identificare, valutare e mitigare i rischi associati all'adozione di nuove tecnologie. Le amministrazioni pubbliche devono sviluppare metodologie per valutare le incertezze e prendere decisioni informate che bilancino opportunità e rischi, assicurandosi che le innovazioni adottate siano sostenibili e che non mettano a repentaglio la sicurezza o la fiducia dei cittadini. Leadership che sostiene il cambiamento : La promozione di una cultura dell'innovazione e del rischio calcolato richiede una leadership visionaria e disposta a sostenere il cambiamento. I leader devono essere i primi a dimostrare apertura verso l'innovazione, creando un ambiente che non solo accetta ma incoraggia il rischio ragionato. Questo tipo di leadership è fondamentale per superare le resistenze interne e per motivare il personale a impegnarsi nei progetti di trasformazione digitale. Queste azioni hanno l'obiettivo di sviluppare una cultura del settore pubblico che sia orientata al miglioramento continuo, all'apprendimento dagli errori e alla sperimentazione. Solo creando un ambiente in cui il rischio calcolato è considerato parte integrante del processo di innovazione, sarà possibile sfruttare appieno le potenzialità dell'AI e delle altre tecnologie digitali per migliorare i servizi pubblici e rispondere alle esigenze in continua evoluzione dei cittadini.   Conclusioni La governance dell'Intelligenza Artificiale nel settore pubblico non rappresenta solo una questione di competenze tecniche o normative, ma un profondo cambiamento culturale e strategico.  In questa transizione, il settore pubblico si trova davanti a una sfida cruciale: adottare l'AI non solo come uno strumento tecnologico, ma come un catalizzatore per ripensare il modo in cui lo Stato interagisce con i cittadini e risponde alle loro esigenze. La capacità di un’organizzazione pubblica di sfruttare l’AI non dipende unicamente da risorse economiche o regolamentazioni adeguate, ma soprattutto da una visione chiara e condivisa che consideri la tecnologia come un’opportunità per costruire fiducia, equità e innovazione. Il rischio più grande per il settore pubblico non è l’adozione sbagliata dell’AI, ma la mancata adozione della trasformazione culturale necessaria a renderla uno strumento di progresso sociale.  L'AI, con la sua capacità di automatizzare processi complessi e di analizzare enormi quantità di dati, può migliorare l’efficienza dei servizi pubblici, ma senza una governance inclusiva rischia di creare un divario ancora maggiore tra le istituzioni e i cittadini. Le comunità più vulnerabili potrebbero essere escluse da questi benefici, non per una mancanza di tecnologie adeguate, ma a causa di sistemi che non considerano i bisogni di tutti. È qui che la governance etica diventa il vero pilastro strategico: non come un vincolo, ma come una leva per garantire che l’AI sia al servizio dell’interesse pubblico. Un altro aspetto fondamentale è il valore della sperimentazione.  La creazione di spazi di sandbox regolatorie, di cui tanto si parla, non deve essere vista solo come un ambiente protetto per testare tecnologie, ma come un simbolo del nuovo atteggiamento che il settore pubblico deve adottare. Questi spazi permettono di trasformare il fallimento in apprendimento, un concetto che sfida radicalmente la tradizionale avversione al rischio tipica della burocrazia pubblica. Le organizzazioni che riusciranno a coltivare una cultura del rischio calcolato diventeranno esempi di come l’AI possa non solo essere implementata, ma anche migliorata continuamente in risposta ai bisogni dei cittadini. Le competenze richieste dall’AI vanno ben oltre la tecnologia.  Certamente, il settore pubblico ha bisogno di esperti in machine learning o data science, ma il vero motore della trasformazione sarà la capacità di integrare queste competenze con una leadership visionaria e un’etica forte. La leadership in questo contesto non significa solo saper prendere decisioni tecnologiche, ma soprattutto saper comunicare una visione inclusiva e orientata al futuro. Questa leadership deve essere capace di navigare le complessità delle regolamentazioni, delle aspettative dei cittadini e delle collaborazioni con il settore privato. Le partnership pubblico-privato rappresentano un altro punto di svolta strategico.  Tuttavia, il settore pubblico non deve accontentarsi di essere un "cliente" del settore privato. Deve diventare un partner attivo, capace di negoziare soluzioni che rispettino i valori pubblici e che siano trasparenti nella loro implementazione. Questa collaborazione deve andare oltre la semplice fornitura tecnologica: il settore pubblico ha il dovere di guidare il dialogo su come l’AI debba essere progettata, implementata e monitorata per garantire benefici equi. Infine,  la vera trasformazione sarà misurata non solo dai miglioramenti operativi, ma dalla capacità dell’AI di rafforzare il contratto sociale tra Stato e cittadini.  L’AI può diventare uno strumento per rendere le istituzioni più trasparenti e responsabili, ma solo se i cittadini vengono coinvolti attivamente nella sua progettazione e nel monitoraggio. La fiducia sarà il vero indicatore di successo: non una fiducia cieca nella tecnologia, ma una fiducia costruita su processi aperti, risultati tangibili e un impegno visibile verso il bene comune. Questa riflessione evidenzia che l’adozione dell’AI nel settore pubblico non è solo una questione di  come  farlo, ma di  perché  farlo. Il rischio non è tecnologico, ma strategico: perdere l’occasione di rendere l’AI un alleato del progresso sociale, piuttosto che una semplice macchina al servizio dell’efficienza. Le decisioni prese oggi non solo determineranno l’efficacia dei servizi pubblici, ma definiranno il ruolo delle istituzioni in una società sempre più digitale e interconnessa. Podcast: https://spotifycreators-web.app.link/e/ZuRqX0jMVOb Fonte: https://publications.jrc.ec.europa.eu/repository/handle/JRC138702

  • AI Governance for Public Sector Transformation

    In an era where Artificial Intelligence (AI) is becoming increasingly prevalent, its potential to transform the public sector is undeniable. However, the spread of AI in the public sector largely depends on the availability of adequate skills and the adoption of effective governance practices. This article is based on a synthesis of empirical research, gray and policy literature, an expert workshop, and interviews with representatives from seven European public organizations (Ministry of the Interior of the Czech Republic, Municipality of Gladsaxe in Denmark, Lüneburg District in Germany, Ministry of Digital Governance of Greece, National Social Security Institute in Italy, Municipality of Amsterdam in the Netherlands, and Municipality of Trondheim in Norway) to identify the skills and governance practices needed to generate value in the public sector through AI. The main authors of the research are R. Medaglia, P. Mikalef, and L. Tangi, from Copenhagen Business School, the Norwegian University of Science and Technology, and the European Commission's Joint Research Centre, respectively. The European Regulatory Framework The European Union's commitment to AI began with the Declaration of Cooperation in 2018 and further advanced with the revision of the Coordinated Plan on AI in 2021, highlighting AI's strategic role in the public sector. Today, there are numerous initiatives and legislative measures to facilitate the integration of AI in public administration. Among these, the AI Act and the Interoperable Europe Act, both adopted in 2024, stand out. The AI Act establishes a risk-based approach to AI regulation, banning systems that pose unacceptable risks and defining high-risk applications subject to stringent controls. This act also promotes innovation through regulatory sandboxes and led to the formation of the European Artificial Intelligence Board and an EU database for high-risk AI systems. The Interoperable Europe Act, proposed in November 2022 and adopted in April 2024, aims to improve cross-border interoperability of IT systems used in public services. It introduces the Interoperable European Board, responsible for defining a shared strategic agenda for cross-border interoperability, and requires interoperability assessments for IT systems operating across borders. Additionally, it announced the launch of the Interoperable Europe Portal, a collaborative platform for sharing and reusing IT solutions. This act also encourages innovation through regulatory sandboxes and GovTech partnerships. Other relevant laws include the Digital Services Act (DSA), which aims to establish clear rules for digital service providers ensuring user safety and greater transparency, the Digital Markets Act (DMA), designed to ensure fair conditions in the digital market, and the Data Governance Act (DGA), which aims to increase trust in data sharing and overcome technical barriers to their reuse. The legislation also includes the Data Act and the Cybersecurity Act, all aimed at creating a secure and interoperable digital ecosystem. A key initiative in this area is the Public Sector Tech Watch (PSTW), an observatory established in 2023 and managed by the European Commission's Directorate General for Digital Services and the Joint Research Centre (JRC). PSTW serves as a platform for exchanging knowledge, experiences, and educational resources among public employees, private companies, academic institutions, and policy strategists, facilitating digital transformation and compatibility of European public systems. PSTW includes a database of over 1,000 use cases of AI and other emerging technologies in the public sector and promotes a collaborative environment for sharing practices and experiences, also through initiatives such as best use case competitions. Furthermore, the Technical Support Instrument (TSI) and initiatives like "AI-ready public administration" provide tailored technical support to Member States to prepare for AI adoption, including GovTech partnerships and model contracts for procuring reliable and secure AI solutions. AI Governance for Public Sector Transformation: Research Methodology The report is based on a three-phase methodology aimed at developing a comprehensive and updated view of the skills and governance practices required for AI use in public organizations. The first phase involved a systematic review of academic literature and policy and gray documentation. The second phase involved an online workshop with 40 sector experts, held on October 25, 2023, aimed at consolidating and deepening the findings obtained in the literature review phase. The experts came from various public organizations, and the workshop was structured into working sessions divided into discussion groups to explore in depth both AI skills and governance practices. The workshop results were used to verify the findings from the literature review and were summarized in a report. Finally, in the third phase, semi-structured interviews were conducted with leaders of seven European public organizations in various countries (Czech Republic, Denmark, Germany, Greece, Italy, Netherlands, and Norway), to enrich and validate the results. A total of 19 interviews were conducted between May and November 2023. The interviews focused on individual experience with AI, the perception of AI's relevance in the specific work environment, and the perceived difficulties in acquiring AI skills in the public sector. The interview transcripts were processed with the help of automatic transcription software and then manually reviewed to ensure accuracy. Competency Framework for AI in the Public Sector The report presents a comprehensive framework of the skills required for the adoption and use of AI in the public sector, distinguishing between technical, managerial, political, legal, and ethical skills. These skills are further classified into three clusters: attitudinal skills (knowledge of "why"), operational skills (knowledge of "how"), and literacy skills (knowledge of "what"). Technical skills include in-depth knowledge of technology, data management skills, the ability to evaluate data quality, and to select appropriate AI architectures. On the operational side, data management, AI-targeted software programming, and adherence to the technical standards required in this field are essential. As for the attitudinal aspect, curiosity about technological innovations and a commitment to continuous learning are essential qualities for successfully facing AI challenges. Managerial skills include leadership, change management, and the ability to mediate between different interest groups. In particular, leadership is seen as the ability to lead AI initiatives and integrate the technology in an ethical and effective way, while change management involves the ability to adapt organizational processes to AI adoption. Political, legal, and ethical skills include awareness of ethical implications and the ability to work with sector experts to ensure that AI adoption takes place responsibly. It is essential that public officials have the ability to formulate policy questions compatible with AI techniques and collaborate with domain experts to translate complex concepts into practical solutions. The ability to audit and ensure compliance with design and accountability standards is also fundamental. Literacy skills include an understanding of the fundamentals of machine learning, computer vision, and natural language processing (NLP), as well as a thorough knowledge of legal frameworks and public policies. In addition, the ability to manage the procurement of AI solutions in a manner consistent with public interest values is seen as a crucial skill to ensure that AI is used fairly and transparently in the public sector. Governance Practices for AI The report distinguishes governance practices into three main dimensions: procedural, structural, and relational. Each dimension is articulated at three levels: strategic, tactical, and operational. The goal of governance practices is to ensure consistency between the organization's objectives and the technology used to achieve them. This means implementing rules and regulations that guide the responsible use of AI and foster a culture of open and collaborative innovation. Procedural practices refer to the processes and rules that need to be put in place to manage AI responsibly. These include the adoption of guidelines for ethical AI development, the definition of standards for data management, and the creation of criteria for AI system auditing. A significant example is the use of compliance frameworks that include ethical and legal impact assessments throughout the AI lifecycle to ensure compliance with European regulations such as the AI Act and GDPR. Structural practices concern the internal organization and the distribution of roles and responsibilities related to AI. This involves creating AI-dedicated units, appointing Chief AI Officers, and defining governance policies to ensure that AI initiatives are aligned with the organization's overall strategy. Public organizations need to establish multidisciplinary teams that include AI experts, data analysts, lawyers, and ethics experts to monitor and oversee AI implementation. This ensures that AI use is managed to respect public interest values. Relational practices focus on managing relationships among different stakeholders, both internal and external to the organization. This includes collaboration with other government agencies, engagement with local communities, and the creation of partnerships with the private sector and universities. A key element is transparency and citizen engagement through public consultations and sharing information on AI applications in use. These practices aim to build trust and ensure that AI is developed and used responsibly and with public consent. Strategic governance involves defining a clear vision for AI use, with long-term goals that include innovation and improving public services. At the tactical level, governance practices include resource planning and risk management associated with AI implementation, while at the operational level, they focus on staff training, resource allocation, and continuous monitoring of AI system performance. The adoption of a continuous feedback cycle approach is essential to ensure that AI solutions are adaptive and able to respond to changing organizational requirements and citizen expectations. Recommendations and Future Perspectives Based on the analysis carried out, the report presents six recommendations for the development of AI skills and governance practices in the public sector. These recommendations aim to create a favorable environment for the ethical and effective adoption of AI, promoting a culture of innovation, continuous improvement, and social responsibility. Below, the main recommendations and related actions are outlined in detail: Continuous Training and Skill Development Continuous training is an essential element to ensure that public sector personnel can make the most of AI's potential. Several strategic actions have been identified to develop the skills needed for the adoption and effective management of AI technologies. Continuous Training Programs : Training programs should be designed to include various levels of complexity, starting from general AI literacy for all public employees to advanced courses for those working directly with AI technologies. The content of these courses should include the fundamentals of machine learning, basic natural language processing concepts, AI's ethical implications, and data management practices. Practical Workshops and Case Studies : Theory must be complemented with practical workshops and case studies. Workshops can include sessions on programming and configuring AI models, as well as simulations to understand automated decision-making processes. Case study analysis, on the other hand, will allow officials to see examples of both successful and unsuccessful AI applications, helping to understand real challenges and opportunities. Collaborations with Universities and Research Centers : The public sector should actively collaborate with universities and research centers to develop specific and customized courses. Such collaboration can guarantee continuous access to the latest technological innovations and academic best practices, as well as foster the co-creation of training content that meets the specific needs of public administrations. Mentorship Programs : Mentorship represents an important tool to accelerate skills transfer. AI experts and senior figures within public organizations can be assigned as mentors to new staff members or those needing to develop specific AI skills. Mentorship can be useful not only for conveying technical knowledge but also for addressing aspects related to change management and communicating AI projects to various stakeholders. Training in Ethical and Regulatory Aspects : Training must not be limited to the technical aspects of AI but must also include skills in the ethical and regulatory fields. Staff must be aware of the ethical implications of AI use, understand the potential risks associated with algorithmic biases, and ensure the protection of personal data. Knowledge of relevant regulations, such as the AI Act and GDPR, must be an integral part of training programs. Modular and Customized Approach : A crucial aspect of training programs must be modularity. Each public employee has different needs and levels of competence; therefore, training must be customized and modular. This allows learning paths to be adapted based on specific roles and the level of responsibility of employees in the adoption of AI. Use of E-Learning Platforms and Certifications : E-learning platforms can be used to ensure continuous access to training resources, allowing employees to learn at their own pace. The introduction of official certifications can also encourage participation in courses and ensure the recognition of acquired skills. Continuous Evaluation and Updating of Programs : Training programs must be subject to periodic evaluation to ensure their effectiveness and updating concerning continuous technological and regulatory changes. The needs of the public sector evolve, as do AI technologies; therefore, course content must be regularly updated to maintain relevance and effectiveness. 2 . Promotion of Public Private Partnerships: Public-private partnerships are a key element in fostering the adoption of innovative AI solutions and accessing cutting-edge skills and technologies. Collaboration between public administrations, technology companies, and research institutions can ensure faster and more effective development of AI solutions, as well as contribute to building a sustainable innovation ecosystem oriented towards the needs of the community. Below, the main elements and benefits of public-private partnerships are outlined in detail: Collaboration with Technology Companies : Public administrations can greatly benefit from the experience and innovation of the private sector. Partnerships with technology companies enable access to advanced resources and technical skills that are often not available internally. For example, through these partnerships, public organizations can benefit from the use of advanced analytics platforms, pre-trained machine learning systems, and cloud computing solutions for data management. R&D Projects with Academic Institutions : Collaboration with universities and research centers is essential for developing applied research and technology transfer projects. These partnerships not only foster innovation but also ensure that AI solutions are based on solid scientific principles and rigorously tested before large-scale implementation. Such collaborations can also involve creating joint innovation labs and co-designing technology solutions with researchers and students. Access to Funding and Resources : Partnerships with the private sector can also facilitate access to additional financial resources needed to support AI implementation. Private companies can co-finance innovative AI projects, reducing the financial risk for public administrations and making it easier to experiment with pioneering solutions. In addition, partnerships can allow administrations to benefit from technological infrastructure and advanced tools they would otherwise not have access to. Development of Shared Solutions : Solutions developed through public-private partnerships can often be adapted and reused in different contexts. This reduces costs and speeds up the digital transformation process. For example, an AI model developed to improve healthcare efficiency in one region can be used as a basis for developing similar solutions in other regions or in other public administration sectors, such as education or transport. Ensuring Transparency and Compliance : It is crucial that public-private partnerships are structured to ensure maximum transparency and citizen data protection. For this reason, clear protocols must be defined for data management, privacy, and information security. Defining standards and guidelines for transparency is essential to maintain citizens' trust in AI use by public administrations. Partnerships must include detailed agreements defining roles, responsibilities, and data sharing methods. Promotion of Innovation through Competitions and Awards : One way to encourage private companies to participate in developing AI solutions for the public sector is through competitions and hackathons. These events can attract startups, small and medium-sized enterprises (SMEs), and large companies to contribute ideas and innovative solutions. Healthy competition and the possibility of winning prizes or contracts with public administrations stimulate creativity and the generation of new ideas. Support for the Creation of Innovation Ecosystems : Public-private partnerships can also support the creation of local innovation ecosystems, involving not only large companies but also startups, SMEs, and business incubators. These ecosystems are essential to create a fertile environment where new ideas can be tested and developed. Public administrations can facilitate the creation of such ecosystems by promoting access to funding, offering tax incentives, and creating physical spaces where public and private entities can collaborate. These actions aim to create effective synergy between public and private sectors to maximize the value generated by AI for the common good and ensure that the solutions adopted are aligned with ethical standards and community needs. Only through joint commitment and open cooperation will it be possible to fully exploit AI's potential to improve public services and citizens' quality of life. Regulatory Experimentation and Sandbox Areas Regulatory experimentation and sandbox areas are fundamental tools for the effective adoption of AI in the public sector. These initiatives allow testing new technologies and innovative approaches in a controlled environment (a sandbox is a protected environment where solutions can be tested without impacting real systems or violating regulations), minimizing the risks associated with implementation and ensuring that solutions comply with existing regulations. The main elements and actions related to regulatory experimentation and sandboxes are described below: AI Sandboxes : Sandboxes allow public administrations to test new AI solutions in a regulated environment with an adequate level of supervision. These sandboxes are created to ensure that emerging technologies can be developed, evaluated, and refined before their widespread deployment. Sandbox areas provide a protected environment where administrations can collaborate with technology companies, startups, and universities to develop innovative AI applications, reducing the risk of costly failures and improving the quality of final solutions. Citizen Involvement : Citizen involvement is a crucial aspect of sandbox areas. Public consultations and feedback processes allow the social impact of AI technologies to be evaluated, ensuring that the solutions developed respond to community needs and respect public interest values. Directly involving citizens in experimentation processes can also help increase trust in AI solutions, showing how the risks associated with technology implementation are managed. Impact Assessment and Transparency : Every project initiated within sandbox areas must be subject to a rigorous ethical, social, and legal impact assessment. The impact assessment allows potential risks related to privacy, algorithmic discrimination, or other critical aspects to be identified and corrective measures to be introduced before large-scale implementation. Moreover, it is essential to ensure the transparency of the test results conducted in sandbox areas by publishing detailed reports describing the experimentation process, results obtained, and lessons learned. Guidelines for Sandbox Implementation : To ensure effective use of sandbox areas, clear guidelines must be established defining the process of creating and managing sandboxes, the criteria for selecting projects to be tested, and the methods of supervision. These guidelines must ensure that all projects are in line with the values and objectives of the public administration, comply with existing regulations, and adopt a risk-based approach to ensure the safety and compliance of developed solutions. Regulatory and Financial Support : Creating sandbox areas requires adequate regulatory and financial support. Public administrations must be able to rely on a flexible regulatory framework that allows regulatory experimentation without excessive constraints. At the same time, financial resources must be available to support the costs of experimentation, including those related to technological infrastructure and training of involved personnel. Feedback and Continuous Improvement : One of the goals of sandbox areas is to create a continuous cycle of feedback and improvement. Every experimentation should be followed by a careful analysis of results to improve not only the tested technology but also the experimentation process itself. This iterative approach allows AI solutions to be adapted to the real needs of public administrations and citizens, ensuring that every development phase is based on learning and continuous improvement. Integration with European Innovation Policies : Regulatory sandbox areas must be closely integrated with European policies on innovation and AI, such as the AI Act and the Interoperable Europe Act. This integration is essential to ensure that solutions developed in sandboxes are aligned with European regulations and can be easily scaled at a cross-border level, promoting greater interoperability and a wider spread of best practices in the public sector. These practices of regulatory experimentation and sandbox areas aim to reduce the risk associated with adopting innovative technologies, improve the quality of developed solutions, and ensure that AI is used responsibly and transparently in the public sector. The combination of experimentation, collaboration, and impact assessment represents a comprehensive approach to maximizing AI's potential and ensuring that the benefits are equitably distributed among all citizens.   Strengthening Ethical and Legal Governance Practices: Strengthening ethical and legal governance practices is crucial to ensure that AI adoption in the public sector takes place responsibly and in line with community values. Below are the main actions to be taken to ensure ethical and legal AI implementation: Creation of ethical guidelines for AI development:  Ethical guidelines are needed to establish clear criteria for the development and use of AI in the public sector. These guidelines must cover various aspects, including data collection and use, bias management, responsibility of developers and operators, and privacy protection. The guidelines must be integrated into procurement and development processes, ensuring that each adopted AI solution aligns with approved ethical principles and the European regulatory framework. Ethical and legal impact assessments: Each AI project must be accompanied by an ethical and legal impact assessment that analyzes its potential consequences in terms of fairness, privacy, security, and transparency. These assessments must be conducted early and updated throughout the project lifecycle, identifying potential risks and providing corrective measures to mitigate them. Establishment of ethical committees: The creation of ethical committees at the national or local level aims to oversee key AI decisions. These committees must be composed of ethics experts, public sector representatives, academics, and civil society members. Their role is to assess AI projects, offer ethical recommendations, and ensure that the principles of fairness and non-discrimination are respected and that the public interest is always at the center of decisions made. Definition of standards for algorithmic auditing:  Algorithms used by public administrations must be subject to periodic audits to ensure compliance with regulations and prevent bias or misuse. Auditing must include a transparent analysis of the algorithm's functioning, identification of possible distortions, and verification of accuracy and reliability. It is important to establish a formal process for auditing and identify key performance indicators (KPIs) that allow the effectiveness and impact of algorithms to be evaluated. Ensuring transparency and accountability: To  strengthen AI governance, it is essential to promote transparency at every stage of AI technology development and implementation. Public administrations must clearly communicate the purposes for which AI is used, the data employed, and how algorithmic decisions are made. Accountability must be ensured through a governance system that includes mechanisms for accountability and that allows citizens to challenge decisions made by AI technologies where they may significantly impact their rights. Control over data collection and use:  Data is the foundation on which AI models are trained, and it is therefore essential that data collection and use are carried out responsibly. Public administrations must ensure that the collected data is of high quality, relevant, and managed according to privacy regulations. Data minimization, i.e., collecting only the strictly necessary data, and pseudonymization (a technique that replaces identifying data with pseudonymous identifiers to protect individuals' identities) are key practices for ensuring the safe and compliant use of personal data. These actions aim to ensure that AI adoption in the public sector takes place safely, responsibly, and in line with public interest values. Strengthening ethical and legal governance practices is a crucial component to promoting citizen trust in AI use and ensuring that this technology contributes to improving public services without compromising individual rights and freedoms. Creating a Support Ecosystem for Digital Transformation: Creating a support ecosystem for digital transformation in the public sector is not just about providing financial and technological resources but also about developing a network of actors and institutions that work together to foster innovation. Below are the main components and actions necessary to ensure an effective and resilient ecosystem for digital transformation: Institutional and political support:  It is essential that there is solid institutional support for digital transformation. Governments must develop clear strategic plans for AI adoption and other digital technologies, including specific objectives and defined deadlines. This support must be accompanied by favorable policies that encourage digitalization, remove bureaucratic barriers, and promote a coordinated vision across all levels of public administration, from national institutions to local communities. Knowledge-sharing platforms:  Knowledge sharing is a key element for digital transformation. Public administrations must have access to platforms that facilitate the exchange of experiences, best practices, and case studies. Platforms such as the Public Sector Tech Watch (PSTW) can help reduce the learning curve for new technologies and enable the rapid dissemination of innovations that have been successful in other settings. The availability of easily accessible resources and documentation is crucial to accelerating the digitalization process. Financial support and access to European funds: Digital transformation requires significant investments, and it is essential that public administrations have access to adequate funding. Funds such as Horizon Europe, the Digital Europe Programme, and the Recovery and Resilience Facility (RRF) are crucial to supporting large-scale digital transformation projects. However, it is equally important to provide technical and consulting support to administrations to facilitate access to these funds, ensuring that even small and medium administrations can benefit from these financial opportunities. Incentives for innovation and recruitment of digital talent:  Public administrations must create incentives to attract and retain talent with digital skills. Hiring experts in AI, data science, and digital transformation is crucial for the success of any innovation strategy. Incentives such as innovation awards, advanced training opportunities, and dedicated career paths can help build an expert team capable of driving change within administrations. Additionally, recruitment programs targeting new generations of digital talent can help bridge the technology skills gap in the public sector. Flexible regulatory framework:  The success of digital transformation also depends on the presence of an appropriate regulatory framework. Member States must adopt a regulatory approach that is flexible enough to allow innovation while at the same time protecting citizens from potential abuses. Regulations must be updated periodically to reflect the evolution of technologies and societal needs, ensuring that they align with ethical principles and human rights protections. These actions and components are essential for creating a support ecosystem for digital transformation in the public sector. Only through access to adequate resources and strong institutional commitment will it be possible to fully harness the potential of AI and emerging technologies. Promoting a Culture of Innovation and Calculated Risk: Promoting a culture of innovation and calculated risk is essential to ensure that the public sector can experiment with and adopt new technologies such as AI without being paralyzed by fear of failure. A culture that accepts calculated risk and encourages innovation can produce more creative and effective solutions to respond to public sector challenges. Below are the main actions to take to build a culture of innovation and calculated risk: Encourage experimentation and learning from mistakes:  It is crucial to create an environment where mistakes are considered part of the learning process, rather than failures to be avoided at all costs. Public administrations must promote a culture in which staff are encouraged to experiment with new solutions and learn from mistakes. This can be achieved through pilot programs that allow new ideas to be tested in a protected environment without the negative consequences of immediate large-scale implementation. Training and support for managing innovation:  Innovation management requires specific skills that are often not present in traditional public sector structures. For this reason, it is important to provide specific training for managers and project leaders to develop the skills needed to manage innovative processes and make strategic decisions in situations of uncertainty. This training must also include aspects related to risk management, opportunity identification, and mitigation of negative effects. Encourage a proactive and open-minded attitude towards change:  Administrations must actively work to encourage a proactive and open attitude towards change. This can be achieved through internal communication campaigns that emphasize the benefits of innovation and showcase success stories, as well as through sharing innovation stories and best practices within the organization. A leadership that actively supports change and innovation is crucial to creating an environment that encourages staff to be proactive and experiment with new ideas. Promote the adoption of Design Thinking techniques:  Design thinking is a creative and user-centered approach that can help public administrations solve complex problems. Integrating design thinking into decision-making processes allows new ideas to be explored, tested quickly, and adapted based on feedback received. This approach keeps the focus on citizens' needs and finds innovative solutions that improve the quality of public services. Risk assessment and management of uncertainties:  Innovation inevitably involves risks. Therefore, it is crucial to implement risk management practices that allow for identifying, evaluating, and mitigating the risks associated with adopting new technologies. Public administrations must develop methodologies to assess uncertainties and make informed decisions that balance opportunities and risks, ensuring that adopted innovations are sustainable and do not jeopardize citizens' safety or trust. Leadership that supports change: Promoting a culture of innovation and calculated risk requires visionary leadership willing to support change. Leaders must be the first to demonstrate openness to innovation, creating an environment that not only accepts but encourages reasoned risk. This type of leadership is essential to overcome internal resistance and motivate staff to engage in digital transformation projects. These actions aim to develop a public sector culture that is oriented towards continuous improvement, learning from mistakes, and experimentation. Only by creating an environment where calculated risk is considered an integral part of the innovation process will it be possible to fully harness the potential of AI and other digital technologies to improve public services and meet the ever-changing needs of citizens. Conclusions AI governance in the public sector is not just a matter of technical or regulatory skills but represents a profound cultural and strategic change. In this transition, the public sector faces a crucial challenge: adopting AI not only as a technological tool but as a catalyst for rethinking how the state interacts with citizens and responds to their needs. A public organization’s ability to leverage AI depends not only on financial resources or adequate regulations but above all on a clear and shared vision that sees technology as an opportunity to build trust, equity, and innovation. The greatest risk for the public sector is not the improper adoption of AI, but the failure to adopt the cultural transformation necessary to make it a tool for social progress. AI, with its ability to automate complex processes and analyze massive amounts of data, can improve the efficiency of public services, but without inclusive governance, it risks creating an even greater gap between institutions and citizens. The most vulnerable communities could be excluded from these benefits, not due to a lack of adequate technologies, but because of systems that do not consider everyone’s needs. This is where ethical governance becomes the real strategic pillar: not as a constraint but as a lever to ensure that AI serves the public interest. Another fundamental aspect is the value of experimentation. The creation of regulatory sandboxes, which is much discussed, should not be seen merely as a protected environment to test technologies but as a symbol of the new attitude that the public sector must adopt. These spaces allow failure to become learning, a concept that radically challenges the traditional risk aversion typical of public bureaucracy. Organizations that manage to cultivate a culture of calculated risk will become examples of how AI can not only be implemented but also continuously improved in response to citizens’ needs. The skills required by AI go far beyond technology. Certainly, the public sector needs experts in machine learning or data science, but the true engine of transformation will be the ability to integrate these skills with visionary leadership and strong ethics. Leadership in this context does not mean merely being able to make technological decisions, but above all being able to communicate an inclusive and future-oriented vision. This leadership must be capable of navigating the complexities of regulations, citizen expectations, and partnerships with the private sector. Public-private partnerships represent another strategic turning point. However, the public sector must not settle for being a "customer" of the private sector. It must become an active partner, capable of negotiating solutions that respect public values and are transparent in their implementation. This collaboration must go beyond simple technological supply: the public sector has a duty to lead the dialogue on how AI should be designed, implemented, and monitored to ensure equitable benefits. Finally, the real transformation will be measured not only by operational improvements but by AI's ability to strengthen the social contract between the state and citizens. AI can become a tool to make institutions more transparent and accountable, but only if citizens are actively involved in its design and monitoring. Trust will be the true success indicator: not blind trust in technology, but trust built on open processes, tangible results, and a visible commitment to the common good. This reflection highlights that AI adoption in the public sector is not just a matter of how to do it but of why to do it. The risk is not technological but strategic: missing the opportunity to make AI an ally of social progress rather than a mere machine at the service of efficiency. The decisions made today will not only determine the effectiveness of public services but will define the role of institutions in an increasingly digital and interconnected society. Podcast: https://spotifycreators-web.app.link/e/IChmFr8LVOb Source: https://publications.jrc.ec.europa.eu/repository/handle/JRC138702

  • GenAI nel settore bancario

    L'intelligenza artificiale generativa (GenAI) sta emergendo come uno strumento di grande potenziale per trasformare il settore dei servizi finanziari. Una recente ricerca, condotta da Thomas Kaiser (CEO e Co-Fondatore di Kodex AI), Boon-Hiong Chan (Industry Applied Innovation Lead e Head APAC Market and Technology Advocacy presso Deutsche Bank) e Delane Zahoruiko (Founders Associate di Kodex AI), evidenzia come la GenAI possa essere utilizzata per migliorare la conformità normativa, ottimizzare l'interazione con i clienti e gestire i rischi in modo più efficiente, aprendo la strada a nuovi livelli di produttività e innovazione. Tuttavia, per sfruttare appieno il potenziale della GenAI, le istituzioni devono affrontare diverse sfide, tra cui garantire la qualità dei sistemi e la sicurezza informatica, assicurando al contempo un'adozione graduale delle nuove tecnologie. Un approccio graduale per adottare GenAI nel settore bancario Un'adozione efficace di GenAI nel settore bancario richiede una strategia incrementale e strutturata, che parte dalle applicazioni di base per arrivare a casi d'uso più complessi. La ricerca suggerisce un approccio a tre fasi  per costruire un portafoglio di casi d'uso di GenAI, consentendo alle istituzioni di acquisire progressivamente fiducia nella tecnologia, mitigare i rischi e ottenere vantaggi tangibili ad ogni fase. Capacità di analisi del linguaggio : La prima fase si concentra sull'utilizzo delle capacità base di analisi del linguaggio di GenAI per svolgere compiti quali la sintesi di testi, l'elaborazione delle e-mail dei clienti e la redazione di contenuti standardizzati. Queste funzionalità consentono all'organizzazione di migliorare l'efficienza e la qualità del servizio grazie alla possibilità di gestire elevati volumi di testo e dati non strutturati. Questa fase non solo pone le basi per lo sviluppo delle capacità del sistema, ma permette anche di adattare GenAI alle necessità specifiche del dominio finanziario. Chat-to-Agent : Nella seconda fase, l'obiettivo è quello di trasformare GenAI in uno strumento che va oltre l'analisi del testo, consentendo di eseguire comandi specifici basati sulle richieste degli utenti. Per esempio, un agente esecutivo può ricevere una query in linguaggio naturale, tradurla in codice (ad esempio Python), e utilizzare modelli AI per analizzare grandi dataset e restituire risultati comprensibili. Un esperimento condotto con il progetto MILA ha mostrato come una soluzione chat-to-agent abbia permesso a utenti non tecnici di ottenere analisi dettagliate su relazioni e modelli nei dati, utilizzando visualizzazioni per facilitare la comprensione. Questa fase consente un elevato grado di autonomia nell'analisi, garantendo comunque la supervisione e il controllo umano per i risultati più critici. Chat-to-Execution : La terza fase rappresenta l'evoluzione verso le capacità autonome, in cui GenAI non solo esegue comandi, ma assume anche decisioni autonome e consapevolezza contestuale. Questo livello di sviluppo permette al sistema di operare con un alto grado di indipendenza, gestendo processi decisionali e operativi complessi. Ad esempio, un sistema chat-to-execution è in grado di decidere autonomamente quale approccio utilizzare per rispondere a una specifica richiesta, basandosi su una combinazione di apprendimento rinforzato e memorizzazione delle interazioni passate. Tale capacità consente non solo di eseguire task ripetitivi ma di adattarsi e migliorarsi nel tempo, offrendo soluzioni sempre più mirate. La transizione da semplici applicazioni di elaborazione del linguaggio a soluzioni completamente autonome richiede non solo infrastrutture tecnologiche avanzate, ma anche un costante impegno in termini di governance, gestione del rischio e formazione continua. La creazione di ambienti di testing controllati (AI sandboxes), lo sviluppo di politiche di utilizzo equo, e il coinvolgimento attivo di esperti del settore sono aspetti fondamentali per un'adozione di successo.   Vantaggi per il settore bancario L'adozione di GenAI nel settore bancario offre una serie di vantaggi rilevanti, non solo in termini di efficienza operativa ma anche per la capacità di affrontare sfide complesse come la gestione del rischio e la conformità normativa. Uno dei principali vantaggi è la capacità di GenAI di migliorare la qualità delle decisioni attraverso l'automazione di analisi complesse. La tecnologia, infatti, consente di integrare una mole significativa di dati provenienti da diverse fonti e di fornire analisi in tempo reale, favorendo una comprensione più approfondita dei trend di mercato e delle potenziali aree di rischio. Inoltre, l'utilizzo di modelli come il Retrieval-Augmented Generation (RAG) permette di migliorare l'accuratezza delle risposte generate da GenAI grazie alla capacità di attingere a dati esterni e verificati. Questo è particolarmente utile per garantire che le risposte siano sempre basate su informazioni aggiornate e rilevanti, un aspetto cruciale nella gestione del rischio e nella conformità alle normative, specialmente in contesti che richiedono elevata precisione e affidabilità. Un altro vantaggio significativo riguarda la democratizzazione dell'accesso alle analisi avanzate . Strumenti come quelli sviluppati nel progetto MILA hanno dimostrato come GenAI possa permettere anche agli utenti non tecnici di eseguire analisi dati avanzate, riducendo la dipendenza da specialisti in data science. Questa capacità è stata evidenziata da esperimenti in cui si è dimostrato che l'utilizzo di GenAI ha ridotto i tempi di analisi da parte di un data engineer da diverse ore a pochi minuti, rendendo più rapido e accessibile il processo decisionale. L'impiego di tecniche come il Parameter Efficient Fine Tuning (PEFT) e il Low Rank Adaptation (LoRA) consente anche di ridurre i costi di addestramento e migliorare la customizzazione dei modelli, rendendoli più adatti all'integrazione nelle infrastrutture esistenti senza la necessità di risorse computazionali eccessive. Questa ottimizzazione non solo favorisce la riduzione dei costi, ma migliora anche la capacità di adattamento dei modelli alle esigenze specifiche di ciascuna organizzazione bancaria. Inoltre, l'utilizzo di dati sintetici  rende possibile addestrare modelli in assenza di dati reali, affrontando le problematiche legate alla privacy e alla disponibilità dei dati. Questo approccio consente di mantenere elevati standard di qualità e riservatezza, garantendo che i modelli possano operare su dataset rappresentativi e diversificati senza compromettere la privacy dei clienti. Il miglioramento dell'engagement con i clienti è un altro aspetto cruciale. GenAI permette di sviluppare interazioni più personalizzate e tempestive, basate su una comprensione più profonda delle esigenze del cliente e su una gestione automatizzata delle richieste. Ciò non solo aumenta la soddisfazione del cliente, ma anche l'efficienza delle operazioni di customer service, riducendo i tempi di risposta e migliorando la qualità del servizio. Infine, l'adozione di GenAI può aumentare la scalabilità delle operazioni . In un contesto di continua evoluzione come quello dei servizi finanziari, la capacità di scalare rapidamente processi e infrastrutture è fondamentale. I sistemi GenAI, grazie alla loro flessibilità, possono essere adattati per affrontare un numero sempre maggiore di richieste e processi senza compromettere l'efficacia o l'accuratezza delle operazioni. Questo è particolarmente vantaggioso in periodi di forte domanda, dove è essenziale mantenere elevati standard di servizio senza subire rallentamenti.   Qualità e benchmark Per garantire che un sistema GenAI offra performance adeguate e risponda agli standard richiesti nel settore finanziario, è fondamentale stabilire misurazioni di qualità tramite benchmark accurati. La qualità di GenAI non dipende solo dall'architettura del modello, ma anche dai dati di addestramento e dagli strumenti di miglioramento come RAG e PEFT. L'utilizzo di benchmark come GLUE, SuperGLUE e MMLU è essenziale per valutare la capacità dei modelli di comprendere e processare il linguaggio naturale in contesti generali. Tuttavia, il settore finanziario presenta sfide specifiche che richiedono misurazioni più mirate. Nel settore bancario, l'efficacia di GenAI è spesso valutata tramite benchmark finanziari specializzati come FinanceBench , FinQA , e FNS (Financial Narrative Summarisation) . FinanceBench valuta la capacità dei modelli di processare ed interpretare accuratamente i dati finanziari, per gestire analisi di mercato, valutazione del rischio e report di conformità. FinQA, invece, si concentra sulla capacità del sistema di rispondere a domande basate su contesti finanziari, analizzando dati strutturati come report finanziari e call sugli utili. FNS valuta l'abilità di un modello di sintetizzare narrativi finanziari complessi da dataset densi, ad esempio report sugli utili o revisioni annuali, fornendo così una misura dell'efficacia nella generazione automatizzata di insight chiave. Oltre ai benchmark e ai metodi di ottimizzazione, altri fattori architetturali e di processo rivestono un ruolo fondamentale per determinare la qualità di un sistema GenAI. Tra questi, la gestione dei dati è cruciale. L'uso di tecniche di preelaborazione  come chunking e parsing, oltre a filtri sui contenuti, garantisce che i dati siano gestiti in modo appropriato prima di essere processati dal modello. Infine, il tema della spiegabilità  è altrettanto fondamentale. Implementare sistemi di trasparenza, come l'attribuzione della fonte nelle risposte e l'integrazione di sistemi di verifica umana (Human-in-the-Loop), aiuta a garantire che le decisioni prese dai modelli siano tracciabili e comprensibili, costruendo così la fiducia necessaria per l'adozione di GenAI in settori altamente regolamentati come quello bancario.   Sfide e rischi L'implementazione di GenAI comporta numerose sfide e rischi che devono essere affrontati per garantire il successo a lungo termine della tecnologia all'interno del settore finanziario. Una delle problematiche principali è rappresentata dalla deriva del modello . Questo fenomeno si verifica quando la performance di un modello inizia a degradarsi a causa della differenza tra i dati utilizzati per l'addestramento e i dati che il modello incontra in contesti reali. I cambiamenti nei comportamenti dei clienti o nelle normative possono portare a una significativa divergenza tra il contesto operativo e i dati originariamente usati per l'addestramento del modello. Per mitigare questo rischio, è fondamentale implementare un monitoraggio continuo delle prestazioni del modello tramite metriche come l'accuratezza delle predizioni e il tasso di errore, così come il riaddestramento regolare su dataset aggiornati per mantenere il modello allineato con la realtà. Un ulteriore rischio significativo è quello delle allucinazioni del modello, ovvero la generazione di risposte plausibili ma inesatte o non verificate. Questo problema è inerente alla natura di GenAI ma può essere mitigato con tecniche specifiche. Ad esempio, l'utilizzo di tecniche di Retrieval-Augmented Generation (RAG), che permettono al modello di attingere a fonti di dati esterne per verificare e confermare le informazioni, riduce la probabilità di allucinazioni. Inoltre, la supervisione da parte di esperti umani tramite l'integrazione di sistemi Human-in-the-Loop (HITL) consente di monitorare le risposte del modello, specialmente per decisioni ad alto rischio, garantendo così che le risposte siano accurate e pertinenti. Il degrado del loop di feedback  è un altro rischio che si presenta quando un sistema GenAI viene esposto in maniera eccessiva al feedback degli utenti senza adeguati filtri di qualità. In questi casi, il sistema potrebbe apprendere comportamenti indesiderati, peggiorando nel tempo la qualità delle risposte. Per affrontare questo problema, è essenziale implementare meccanismi di filtraggio del feedback, che permettano di valutare la qualità dei dati provenienti dagli utenti prima che questi siano utilizzati per influenzare l'apprendimento del modello. Oltre a questi rischi specifici, esistono anche rischi di dipendenza , come la dipendenza da infrastrutture specifiche o fornitori esterni. Per mitigare tali rischi, è importante adottare architetture modulari e interoperabili che consentano una facile migrazione verso modelli o piattaforme alternative, evitando situazioni di lock-in tecnologico. Infine, il settore finanziario deve affrontare i rischi di sicurezza informatica , specialmente quando si utilizzano sistemi basati su GenAI che possono interagire con dati sensibili. L'adozione di misure di sicurezza avanzate, come la protezione contro attacchi di tipo data poisoning o prompt injection, è fondamentale per garantire la resilienza e l'affidabilità del sistema.   Raccomandazioni per l'industria finanziaria Per favorire un'adozione efficace di GenAI nel settore finanziario, è fondamentale sviluppare una strategia di implementazione che tenga conto di aspetti regolamentari, tecnologici ed etici, al fine di garantire l'uso responsabile e sicuro delle tecnologie. È consigliato investire nella creazione di ambienti di test controllati  (AI sandboxes) in cui sviluppare e valutare nuove applicazioni in un contesto protetto, assicurando che ogni nuova funzione o utilizzo sia conforme alle normative esistenti prima di un eventuale rilascio sul mercato. Un ulteriore passo cruciale è la formazione continua e l'aggiornamento del personale . La GenAI evolve rapidamente e con essa le competenze necessarie per utilizzarla efficacemente. Le istituzioni finanziarie devono investire in programmi di formazione per garantire che i propri dipendenti siano pronti ad affrontare i cambiamenti tecnologici e a sfruttare al meglio le nuove opportunità offerte da GenAI. In parallelo, è importante incoraggiare la collaborazione tra i vari dipartimenti, in modo da favorire una comprensione completa e condivisa delle potenzialità e dei limiti della tecnologia. La collaborazione tra pubblico e privato  gioca un ruolo fondamentale. La regolamentazione del settore dell'intelligenza artificiale è ancora in evoluzione e la cooperazione tra le aziende e le autorità regolatorie può facilitare lo sviluppo di linee guida che favoriscano l'innovazione senza compromettere la sicurezza o la privacy. Ad esempio, l'introduzione di pratiche di condivisione dei dati equa , che consentano l'accesso a dataset di alta qualità in modo rispettoso della proprietà intellettuale e della riservatezza, potrebbe agevolare lo sviluppo di modelli più performanti e più sicuri. È inoltre necessario che le istituzioni finanziare adottino standard aperti e politiche di trasparenza , che non solo aiutino a evitare rischi di lock-in tecnologico, ma migliorino anche la fiducia del pubblico nell'uso dell'IA. Le pratiche di trasparenza dovrebbero includere una documentazione completa dei processi di addestramento, l'uso di meccanismi per la spiegabilità delle decisioni del modello e audit regolari che verifichino la conformità alle normative e agli standard etici. Conclusioni L’adozione dell’intelligenza artificiale generativa (GenAI) nel settore bancario non è solo una scelta tecnologica, ma una trasformazione strategica che ridefinisce le fondamenta stesse dell’operatività e della competitività aziendale.  Non si tratta unicamente di implementare strumenti per migliorare l’efficienza, ma di riscrivere le regole dell’interazione tra le istituzioni finanziarie, i loro clienti e il contesto normativo. Questa rivoluzione porta con sé opportunità straordinarie, ma anche rischi che richiedono una riflessione più profonda rispetto al semplice calcolo costi-benefici. Una delle implicazioni più profonde dell’utilizzo di GenAI nel settore bancario è la ridefinizione del concetto di fiducia.  Tradizionalmente, la fiducia nei confronti delle banche si basa sulla trasparenza, sulla solidità e sull’affidabilità umana nel prendere decisioni critiche. Con GenAI, questa fiducia deve essere estesa a un’intelligenza non umana, un’entità che decide e agisce basandosi su complessi modelli matematici e volumi immensi di dati. Ciò implica una transizione culturale non banale per i clienti e le istituzioni stesse, che dovranno rendere comprensibili decisioni altrimenti opache e dimostrare che tali sistemi possono operare senza compromettere l’etica o la sicurezza. La democratizzazione delle analisi avanzate, uno dei vantaggi principali di GenAI, introduce dinamiche inedite nei ruoli aziendali e nelle competenze richieste.  Se i sistemi GenAI possono offrire insight complessi senza l’intervento di esperti in data science, si ridisegnano le gerarchie tradizionali all’interno delle organizzazioni bancarie. Ciò pone una sfida manageriale: come ribilanciare i ruoli tra specialisti tecnici e decisori strategici, garantendo che i secondi abbiano le competenze per interpretare e sfruttare pienamente le analisi fornite? La possibilità di scalare rapidamente operazioni e processi tramite GenAI riduce i limiti operativi tradizionali, ma apre anche interrogativi sulla sostenibilità a lungo termine.  Automatizzare decisioni e processi non significa solo rispondere alla domanda attuale, ma implica una riflessione sulla gestione della complessità futura. Sistemi troppo autonomi potrebbero creare un livello di dipendenza tecnologica tale da rendere difficile un intervento umano efficace in situazioni di crisi, un rischio che nessuna banca può permettersi di ignorare. In termini di innovazione, GenAI ridefinisce anche il concetto di tempo nel settore finanziario.  Non è solo la velocità di esecuzione delle analisi o delle risposte a cambiare, ma la capacità di prevedere e adattarsi ai mutamenti del mercato in tempo reale. Questa accelerazione crea un contesto competitivo dove i leader saranno coloro che sapranno integrare la velocità con l’accuratezza e la sicurezza. Tuttavia, questa stessa velocità può rendere più difficili gli interventi regolatori, aumentando il rischio di un divario tra innovazione tecnologica e capacità normativa. L’etica diventa il terreno critico su cui si gioca l’adozione di GenAI nel settore bancario.  La gestione dei dati sintetici, l’uso di tecniche come il Retrieval-Augmented Generation (RAG) e il fine-tuning modulare, se da un lato riducono i rischi tecnici, dall’altro amplificano la necessità di una governance trasparente. Le banche che sapranno distinguersi non saranno solo quelle che implementeranno GenAI con successo, ma quelle che lo faranno in modo che la tecnologia diventi un elemento di fiducia e non di alienazione per clienti e stakeholder. In ultima analisi, l’introduzione di GenAI nel settore bancario non è semplicemente un’evoluzione tecnica, ma un cambiamento sistemico che richiede una visione strategica a lungo termine.  I leader del settore dovranno andare oltre la logica dell’efficienza e dell’innovazione per abbracciare una mentalità di adattabilità continua, responsabilità etica e inclusività.  Solo così l’intelligenza artificiale generativa potrà trasformarsi da strumento operativo a pilastro del futuro delle istituzioni finanziarie. Podcast: https://spotifycreators-web.app.link/e/XfIoOVy3TOb Fonte: https://corporates.db.com/publications/White-papers-guides/adopting-generative-ai-in-banking

  • LLMs e sicurezza: MRJ-Agent per un attacco Multi-Round

    L’uso crescente dei modelli linguistici di grandi dimensioni, come GPT-4, in ambiti critici ha evidenziato la necessità di affrontare con maggiore attenzione il tema della sicurezza e dell’affidabilità di queste tecnologie. Sebbene tali modelli dispongano di un vasto patrimonio di conoscenze, esiste un rischio concreto che possano generare risposte dannose o inappropriate, soprattutto in presenza di attacchi specifici noti come “jailbreak”. Lo studio condotto da Wang e collaboratori propone un nuovo agente di attacco multi-round, denominato MRJ-Agent, sviluppato per individuare le vulnerabilità dei modelli linguistici e rafforzarne la sicurezza, approfondendo la complessa dinamica dei dialoghi umani. Problemi nella sicurezza degli LLMs e limiti degli approcci esistenti Gli attacchi jailbreak si concentrano sulla manipolazione dei LLMs per indurli a fornire contenuti sensibili o potenzialmente dannosi. La ricerca evidenzia come la maggior parte degli sforzi fino ad ora si siano focalizzati su attacchi di tipo single-round, ovvero con una sola richiesta diretta al modello. Tuttavia, questi approcci sono limitati nel riprodurre il modo in cui gli utenti umani interagiscono realmente con questi sistemi: spesso, le interazioni sono multi-round, con domande e risposte distribuite su più fasi. Gli attacchi single-round utilizzano spesso metodi come il "prompt engineering", che prevede la costruzione di prompt progettati per nascondere intenzioni dannose. Ad esempio, alcuni approcci (Zou et al. 2023; Wei, Haghtalab, Steinhardt 2024) includono l'uso di codici ASCII o messaggi cifrati per mascherare richieste pericolose. Questi metodi, benché efficaci in alcuni casi, falliscono nel considerare la complessità delle interazioni multi-round. Come emerso dalle ricerche di Ma et al. (2024) e Perez et al. (2022), questo tipo di interazione più naturale e complessa rappresenta la reale sfida per i modelli di linguaggio di grandi dimensioni, rendendo i metodi single-round meno significativi dal punto di vista pratico. Negli ultimi anni, sono stati sviluppati approcci per attacchi multi-round, ma questi hanno mostrato diversi limiti. Un esempio è rappresentato dall'approccio proposto da Zhou et al. (2024), che scompone una domanda originaria in più sotto-domande, aggregando poi le risposte per ottenere contenuti dannosi. Questo metodo, tuttavia, non riesce a riprodurre la naturalezza di una conversazione umana e spesso attiva i meccanismi di difesa dei modelli, riducendone così l'efficacia. Altri metodi (Russinovich, Salem, ed Eldan 2024; Yang et al. 2024) adottano tattiche iterative di tentativi ed errori per indurre il modello a generare output pericolosi. Tuttavia, un problema chiave risiede nella dipendenza da modelli molto potenti come GPT-4, che spesso attivano meccanismi di sicurezza, portando a richieste rigettate e a una riduzione dell'efficacia dell'attacco. La ricerca di Wang et al. introduce una strategia innovativa per affrontare queste limitazioni, combinando una strategia di decomposizione del rischio e un'induzione psicologica per rendere l'attacco più efficace e meno rilevabile. La strategia di decomposizione del rischio  consiste nel suddividere l'intenzione dannosa originaria in sotto-richieste apparentemente innocue, distribuendo il rischio su più round. Ad esempio, una richiesta come "come costruire una bomba" viene trasformata in una serie di domande su reazioni chimiche generiche, che progressivamente conducono a contenuti più specifici. La decomposizione avviene utilizzando modelli come GPT-4 per generare le sotto-richieste, mantenendo un livello di similarità semantica controllata per evitare che le richieste diventino troppo palesemente pericolose. Gli esperimenti hanno dimostrato che controllando la similarità tra le sotto-richieste e l'originale si può aumentare significativamente il tasso di successo dell'attacco. Inoltre, la strategia di induzione psicologica sfrutta tecniche come l'induzione alla riflessione o il supporto basato su prove multiple per ridurre la probabilità di rigetto da parte del modello. L'efficacia di queste strategie è stata valutata con successo sia su modelli open-source come LLama2-7B sia su modelli closed-source come GPT-4, mostrando un tasso di successo nel superare le difese superiore rispetto agli approcci tradizionali.   MRJ-Agent: caratteristiche tecniche e metodo di attacco MRJ-Agent introduce una metodologia innovativa di attacco che simula un processo di ricerca euristica per decomporsi in più round. Partendo da una richiesta potenzialmente pericolosa (ad esempio, “come costruire una bomba”), il processo inizia con una domanda innocua (come una reazione chimica generica), per poi progredire gradualmente verso temi più delicati. Questo approccio è stato progettato per massimizzare la probabilità di aggirare i meccanismi di sicurezza integrati nei LLMs. Il metodo prevede tre principali strategie: Strategia di controllo delle informazioni:  questa strategia guida il processo di tentativi ed errori, controllando la similarità tra le richieste generate e quella originale. Il controllo dell'informazione avviene attraverso un approccio euristico che monitora il grado di similarità semantica tra le richieste e l'obiettivo finale. Gli esperimenti hanno mostrato che, impostando una soglia minima di similarità del 0.85 tra la richiesta generata e quella originale, è possibile mantenere il focus dell'attacco senza compromettere l'efficacia. Strategia di induzione psicologica:  per minimizzare le probabilità di rigetto da parte del modello, vengono utilizzate strategie psicologiche che permettono di aumentare la persuasione e diminuire la percezione di rischio da parte dell'LLM. In particolare, l'induzione psicologica è stata migliorata attraverso 13 strategie specifiche, come il supporto basato su prove multiple e l'influenza cognitiva. I risultati mostrano che, rispetto alle sole richieste scomposte, le sotto-richieste rafforzate psicologicamente hanno aumentato il tasso di successo fino al 39.7% su GPT-4. Strategia di addestramento del modello Red-Team:  è stato sviluppato un modello red-team (denominato πred) in grado di eseguire in maniera automatizzata gli attacchi multi-round, adattandosi dinamicamente alle risposte del modello target. Durante l'addestramento, il modello ha utilizzato una tecnica di ottimizzazione delle preferenze dirette (Direct Preference Optimization) per imparare a selezionare le strategie più efficaci in ogni situazione. L'uso di modelli con diversa capacità (7B e 13B) ha evidenziato come, aumentando la dimensione del modello red-team, si ottenga un incremento significativo del tasso di successo, raggiungendo il 100% quando il numero massimo di round è 10 o superiore.   Risultati sperimentali e confronto con altri metodi di attacco I risultati degli esperimenti condotti hanno messo in luce prestazioni straordinarie di MRJ-Agent rispetto ad altre tecniche di attacco, sia in contesti single-round che multi-round. In particolare, durante le valutazioni su modelli come LLama2-7B e GPT-4, MRJ-Agent ha raggiunto un successo completo (100%) nelle interazioni multi-round, superando significativamente il metodo alternativo "Speak out of Round", che si è fermato al 20%. Questo dato riflette l’efficacia superiore del sistema nel gestire scenari complessi. Nel confronto con altre tecniche di attacco multi-round, MRJ-Agent ha dimostrato un tasso di successo del 92% su LLama2-7B con una singola prova, aumentando al 100% con più tentativi. Tale risultato indica una chiara superiorità in termini di efficienza e robustezza, ottenuta senza la necessità di ripetere molteplici round di tentativi, come invece richiesto da approcci concorrenti. Questa caratteristica sottolinea una gestione più efficace delle risposte del modello target, consentendo a MRJ-Agent di distinguersi come un sistema altamente ottimizzato. Test aggiuntivi hanno evidenziato che MRJ-Agent mantiene performance elevate anche in presenza di difese avanzate. Ad esempio, con sistemi di protezione come "Prompt Detection" e "System Prompt Guard", i tassi di successo si sono attestati rispettivamente all'88% e al 78% con un solo tentativo, salendo al 94% e all'82% con due prove. Questi risultati dimostrano la capacità del sistema di adattarsi anche a contromisure sofisticate, mantenendo un'elevata efficacia nel superare le protezioni implementate. In confronto ai metodi esistenti, MRJ-Agent ha mostrato una chiara superiorità anche contro modelli chiusi come GPT-4, raggiungendo un tasso di successo medio del 98%, rispetto al 92% massimo ottenuto con metodi alternativi come "Chain-of-Attack" (CoA). Inoltre, la capacità di ottenere questi risultati con un minor numero di round di interazione e tentativi rispetto agli approcci rivali rappresenta un vantaggio significativo in termini di efficienza operativa. Un ulteriore aspetto analizzato riguarda l’impatto delle dimensioni del modello red-team impiegato da MRJ-Agent. I risultati hanno rivelato che l'adozione di un modello da 13 miliardi di parametri (13B), rispetto a uno da 7 miliardi (7B), porta a un incremento consistente del tasso di successo in situazioni più complesse. Ad esempio, con un massimo di 15 round, il modello da 13B ha raggiunto un successo completo (100%), mentre il modello da 7B si è fermato al 94%. Questo suggerisce che l’utilizzo di modelli più grandi può migliorare significativamente l’efficacia degli attacchi, soprattutto in contesti più intricati o con difese più elaborate. In sintesi, MRJ-Agent ha dimostrato una notevole capacità di gestione delle interazioni multi-round, adattandosi efficacemente sia a modelli open-source che closed-source, senza mostrare cali di prestazioni. Particolarmente rilevante è stata la sua robustezza nell’aggirare i sistemi di difesa presenti nei modelli chiusi, come GPT-4, dove il tasso di successo si è avvicinato al 100%. Tali risultati evidenziano l’urgenza di sviluppare contromisure di sicurezza più avanzate per fronteggiare sistemi di attacco sempre più sofisticati.   Generalizzazione dell'attacco e altri scenari La versatilità del MRJ-Agent si estende anche ai compiti di immagine-a-testo, dove la capacità di sfruttare i dettagli visivi come punto di partenza per domande più delicate è risultata fondamentale. Ad esempio, nell'attacco a modelli come GPT-4o utilizzando immagini innocue, il tasso di successo è stato dell'80%, dimostrando che il modello è in grado di utilizzare il contesto visivo per guidare le domande successive verso contenuti sensibili. Questo approccio di concatenare contenuti visivi e testuali è una caratteristica innovativa che aumenta la difficoltà di difendere efficacemente questi modelli, in quanto le richieste sembrano più naturali e meno sospette. Nel caso dei compiti di testo-a-immagine, il MRJ-Agent ha mostrato una capacità ridotta rispetto al testo-a-testo, con un tasso di successo del 50% per la generazione di immagini potenzialmente dannose. Ciò è dovuto in parte ai meccanismi di sicurezza più robusti integrati nei modelli commerciali come DALLE-3, che bloccano attivamente contenuti sensibili. Tuttavia, il MRJ-Agent ha dimostrato un adattamento progressivo delle istruzioni di rischio, aumentando gradualmente la probabilità di generare contenuti problematici. Questo processo di raffinamento progressivo delle istruzioni risulta particolarmente efficace per aggirare le difese automatiche, soprattutto quando l'attacco viene eseguito su più round. In un altro esperimento, il MRJ-Agent è stato testato sulla sua capacità di generalizzare su dataset come JailbreakBench (JBB), che include dieci categorie di comportamenti rischiosi. Su questo benchmark, il tasso di successo è stato del 93,9%, confermando l'efficacia del MRJ-Agent non solo in scenari testuali ma anche in contesti più ampi e diversificati. Le categorie più difficili da attaccare sono risultate essere quelle relative a contenuti sessuali, con un tasso di successo del 71,42% e un numero medio di query pari a 11,85, suggerendo che la sensibilità del modello agli stimoli di questo tipo rimane comunque elevata.   Implicazioni future Le implicazioni future del lavoro su MRJ-Agent riguardano principalmente la necessità di sviluppare ulteriori meccanismi di difesa in grado di affrontare attacchi sempre più sofisticati e diluiti su più round di interazione. L'efficacia dimostrata dal MRJ-Agent nell'aggirare i meccanismi di difesa suggerisce che i modelli di grandi dimensioni devono essere dotati di capacità di rilevamento e risposta dinamiche, in grado di evolversi di pari passo con le minacce. Un approccio che potrebbe essere adottato in futuro è l'implementazione di strategie basate sull'intelligenza artificiale per la difesa, capaci di adattarsi automaticamente ai cambiamenti nei modelli di attacco e di apprendere da interazioni precedenti. Inoltre, il fatto che il MRJ-Agent abbia mostrato capacità di attacco su una vasta gamma di contesti, inclusi quelli immagine-a-testo e testo-a-immagine, evidenzia la necessità di espandere le metodologie di sicurezza a tutti i campi di applicazione dell'AI. Ciò implica che non solo i modelli di linguaggio, ma anche i modelli generativi di immagini e altri tipi di AI devono essere resi più robusti contro questi tipi di minacce. Un possibile sviluppo in tal senso potrebbe essere la creazione di una serie di benchmark standardizzati per valutare la resilienza dei modelli a diversi tipi di attacchi multi-round. Un'altra implicazione significativa riguarda l'allineamento continuo dei modelli ai valori umani. Gli attacchi multi-round come quelli condotti dal MRJ-Agent mettono in luce la difficoltà di mantenere un allineamento stabile quando i modelli sono sottoposti a interazioni prolungate e complesse. Un'area di ricerca futura potrebbe concentrarsi sul miglioramento delle tecniche di allineamento basate sul feedback umano, ad esempio con l'uso di rinforzo adattativo da parte di esperti umani per rilevare segnali di deviazione e correggere il comportamento del modello. Infine, la divulgazione dei dati e dei codici utilizzati per addestrare il MRJ-Agent rappresenta un altro importante passo verso la costruzione di una comunità di ricerca più trasparente e collaborativa. Rendere pubblico il codice di attacco potrebbe aiutare i ricercatori a sviluppare nuove tecniche di difesa, promuovendo così un progresso collettivo nella sicurezza delle AI. Tuttavia, questo comporta anche il rischio che agenti malintenzionati possano sfruttare tali informazioni per sviluppare attacchi più efficaci. Pertanto, sarà fondamentale adottare un approccio bilanciato che consenta il progresso della ricerca scientifica senza compromettere la sicurezza globale. Il lavoro su MRJ-Agent non solo evidenzia la vulnerabilità attuale dei LLMs, ma sottolinea anche l'importanza di un approccio proattivo e adattativo per la sicurezza dei modelli. È necessario esplorare ulteriormente l'interazione tra attacco e difesa, cercando soluzioni che possano evolvere con la stessa rapidità delle minacce emergenti. Solo così potremo garantire che questi modelli continuino a servire l'umanità in modo sicuro e responsabile.   Conclusioni L'emergere di tecnologie come l'MRJ-Agent mette in luce una verità cruciale nel panorama dell'intelligenza artificiale: l'interazione tra attacco e difesa non è statica, ma evolve come una dinamica complessa e interdipendente.  Le capacità multi-round di questo sistema rivelano un punto critico che spesso viene trascurato: i modelli di linguaggio non sono semplicemente strumenti di risposta, ma partecipanti attivi in dialoghi che rispecchiano la complessità delle interazioni umane. Questa considerazione trasforma la sicurezza da una questione di barriere tecniche statiche a un processo fluido che richiede un adattamento costante. La decomposizione del rischio e l'induzione psicologica introdotte dal MRJ-Agent non sono solo tattiche di attacco, ma indicano un cambio di paradigma nel modo in cui la vulnerabilità è concepita.  Non si tratta più di un difetto isolato del modello, bensì di una falla sistemica che emerge dalla somma delle interazioni. Questo suggerisce che la sicurezza dell'AI deve essere ridefinita per affrontare non solo le vulnerabilità tecniche, ma anche le manipolazioni cognitive e strategiche. Un modello di sicurezza efficace non può limitarsi a filtrare le richieste dannose; deve comprendere la sequenza e il contesto del dialogo per rilevare pattern insidiosi che si sviluppano nel tempo. L'idea di utilizzare un red-team automatizzato come il modello πred solleva una domanda strategica: quanto è sostenibile l'attuale approccio di sicurezza passivo? Le aziende che implementano LLMs in contesti critici devono adottare una mentalità offensiva nella sicurezza, investendo non solo in difese ma anche in test continui contro attacchi simulati.  Questo concetto, simile a una "guerra preventiva" nel mondo della cybersecurity, potrebbe rivoluzionare l'approccio tradizionale, passando da un focus esclusivo sulle protezioni statiche a un modello di apprendimento iterativo e dinamico. Un altro aspetto fondamentale riguarda l'intersezione tra contesto e input multimodale.  Gli attacchi che combinano testo, immagini e altre modalità dimostrano come la vulnerabilità non sia confinata a un unico dominio. Questo richiede una convergenza tra difese specifiche dei modelli e un framework di sicurezza unificato capace di operare trasversalmente. Le imprese che sviluppano sistemi multimodali devono comprendere che il rischio non si somma semplicemente, ma si amplifica: un attacco inizialmente innocuo in un dominio può essere la chiave per sfruttare debolezze in un altro. Questa prospettiva richiede una nuova generazione di sistemi di monitoraggio che possano tracciare l'evoluzione delle interazioni attraverso domini e modalità. Infine, la ricerca sull'MRJ-Agent evidenzia un problema cruciale per l'etica e l'allineamento dei modelli AI. La crescente sofisticazione degli attacchi multi-round sfida l'idea che l'AI possa mantenere un allineamento stabile nel tempo.  Le implicazioni per le imprese sono profonde: non basta che un modello sia sicuro al momento del rilascio; è necessario garantire che resti allineato durante l'intero ciclo di vita operativo. Questo suggerisce la necessità di meccanismi di auto-correzione, supportati da feedback continuo e umano. Ma ciò apre anche la porta a un dilemma: come bilanciare l'autonomia del modello con la supervisione umana senza ridurre l'efficienza operativa? In definitiva, la sfida lanciata dall'MRJ-Agent non riguarda solo la sicurezza tecnologica, ma tocca anche questioni più ampie di governance, responsabilità e progettazione strategica dei sistemi AI.  Le imprese devono affrontare queste sfide non come problemi tecnici isolati, ma come parte di una trasformazione più ampia nella gestione del rischio e nella costruzione di fiducia nell'intelligenza artificiale. Podcast: https://spotifycreators-web.app.link/e/MHlH4WzDTOb Fonte: https://arxiv.org/abs/2411.03814

  • BrainBench: i modelli linguistici superano gli esperti in neuroscienze

    La ricerca scientifica rappresenta sempre più una sfida complessa, richiedendo la capacità di sintetizzare decenni di studi. L'attuale capacità umana di elaborare informazioni risulta ormai inadeguata di fronte all'enorme mole di pubblicazioni prodotte quotidianamente. In questo panorama, i Large Language Models (LLMs), modelli di linguaggio addestrati su un vasto corpus di letteratura scientifica, si profilano come una soluzione promettente per integrare e prevedere nuovi risultati, spesso con maggiore efficienza rispetto agli esperti umani. Un recente studio, pubblicato sulla rivista Nature Human Behaviour , ha introdotto BrainBench, un benchmark innovativo ideato per valutare l'abilità dei LLM nel formulare previsioni nel campo delle neuroscienze, mettendoli a confronto diretto con gli esperti del settore. BrainBench e la sfida della previsione BrainBench è un benchmark specificamente progettato per verificare la capacità dei modelli di linguaggio di prevedere i risultati di esperimenti neuroscientifici. La struttura di BrainBench include la presentazione di versioni modificate di abstract scientifici, che permettono di valutare la capacità degli LLM di distinguere tra risultati verosimili e quelli alterati. La peculiarità di BrainBench risiede nel suo carattere "forward-looking", ovvero nella sua capacità di misurare l'abilità di previsione degli LLM in situazioni nuove, piuttosto che limitarsi a verificare la loro abilità nel recupero di informazioni già note. Questo approccio differisce da altri benchmark che sono principalmente "backward-looking", come PubMedQA o MMLU, in cui le domande riguardano il richiamo di conoscenze preesistenti. In BrainBench, invece, vengono presentate due versioni di un abstract scientifico, uno originale e uno modificato nei risultati, e il compito del partecipante è identificare quale sia la versione corretta. Il benchmark include casi di studio tratti da cinque sottocategorie delle neuroscienze: comportamentale/cognitiva, cellulare/molecolare, sistemi/circuiti, neurobiologia delle malattie e sviluppo/plasticità/riparazione. Questo approccio garantisce una copertura ampia e rappresentativa delle diverse aree delle neuroscienze, rendendo il compito di previsione particolarmente sfidante. È stato osservato che i modelli di linguaggio hanno superato in accuratezza gli esperti umani in tutte queste sottocategorie. In particolare, l'accuratezza media degli LLM è stata dell'81,4%, mentre quella degli esperti umani si è fermata al 63,4%. Anche limitando l'analisi agli esperti umani con il livello più alto di auto-valutazione della competenza, l'accuratezza raggiunta è stata solo del 66,2%, inferiore rispetto ai modelli LLM. Un altro aspetto interessante è la valutazione di modelli di dimensioni diverse. Ad esempio, modelli più piccoli come Llama2-7B e Mistral-7B, con 7 miliardi di parametri, hanno ottenuto prestazioni comparabili a modelli più grandi come Falcon-40B e Galactica-120B. Inoltre, è emerso che i modelli ottimizzati per il dialogo o per compiti conversazionali (come le versioni "chat" o "instruct") hanno mostrato prestazioni inferiori rispetto alle loro controparti base. Questo suggerisce che l'allineamento dei LLM per conversazioni naturali potrebbe ostacolare le loro abilità di inferenza scientifica. L'accuratezza dei LLM è stata misurata anche in base alla capacità di ridurre la "perplessità" (perplexity), ovvero il livello di sorpresa del modello di fronte a un testo. I modelli hanno mostrato un miglioramento significativo quando potevano accedere a informazioni contestuali complete, piuttosto che concentrarsi su passaggi locali del testo. Questo dimostra come la capacità di integrazione delle informazioni a livello globale sia una delle chiavi del loro successo rispetto agli umani. Nel complesso, BrainBench rappresenta un metodo innovativo per valutare non solo la capacità degli LLM di richiamare informazioni, ma anche la loro abilità di generalizzare e prevedere risultati di esperimenti mai osservati prima. L’approccio si basa sull’utilizzo di abstract scientifici modificati, in cui i risultati degli studi sono alterati in modo sostanziale, per verificare se i modelli possono distinguere tra versioni alternative di esperimenti. Ad esempio, un abstract originale potrebbe riportare che la stimolazione di una specifica area del cervello aumenta una certa attività, mentre la versione modificata potrebbe indicare una diminuzione dell’attività. BrainBench valuta se il modello riesce a determinare quale dei due esiti sia più plausibile, utilizzando le informazioni metodologiche e i dettagli forniti nell'abstract. Questo metodo richiede che i modelli non solo identifichino cambiamenti nei risultati, come un aumento o una diminuzione dell’attività cerebrale, ma che li mettano in relazione con il resto delle informazioni contenute nell’abstract, come il metodo utilizzato o la logica alla base della scoperta. In tal modo, BrainBench misura la capacità degli LLM di integrare informazioni sul contesto e sulle metodologie per fare inferenze coerenti su situazioni nuove, simulando un processo di scoperta scientifica. L’obiettivo di questa valutazione è cruciale per comprendere il potenziale degli LLM nel supportare la ricerca scientifica, soprattutto in ambiti complessi come le neuroscienze, dove la coerenza tra metodo, dati e risultati è essenziale. Questo approccio non si limita a testare la memorizzazione di informazioni, ma esplora la capacità dei modelli di pensare in modo critico e di contribuire all'interpretazione e alla generalizzazione di conoscenze scientifiche.   Perché i LLM sono così potenti nella previsione? Un elemento chiave del successo degli LLM è la loro capacità di integrare informazioni provenienti da fonti multiple e di gestire la complessità di diversi livelli di dettaglio, come evidenziato dai test condotti con BrainBench. In particolare, quando gli LLM sono stati testati utilizzando solo singoli passaggi degli abstract, la loro performance è drasticamente diminuita. Al contrario, con l'integrazione di tutto il contenuto dell'abstract, che include informazioni su metodologia, background e risultati, la loro capacità predittiva è aumentata significativamente. Questo suggerisce che gli LLM riescono a trarre vantaggio dalla sinergia di informazioni diverse per formulare previsioni più precise. Inoltre, la capacità degli LLM di generalizzare le informazioni, anche quando queste sono rumorose o potenzialmente ridondanti, rappresenta un vantaggio competitivo. BrainBench ha mostrato che modelli come BrainGPT, addestrati su un corpus specifico e arricchiti tramite tecniche come il Low-Rank Adaptation (LoRA), hanno raggiunto prestazioni superiori del 3% rispetto ai modelli standard. Questo miglioramento è indicativo di come una personalizzazione mirata e l'addestramento su dati di alta qualità possano rendere gli LLM strumenti estremamente efficaci per la previsione di risultati scientifici. L'approccio degli LLM alla previsione si basa su architetture come i Transformer, che permettono di modellare con precisione le relazioni tra elementi del testo. Questo approccio è particolarmente utile nelle neuroscienze, dove i fenomeni da analizzare spesso coinvolgono dati complessi e interdipendenti. Grazie ai loro miliardi di parametri, gli LLM sono in grado di identificare pattern e correlazioni che sfuggono agli esseri umani, il che li rende adatti a prevedere non solo risultati sperimentali ma anche a suggerire nuove direzioni di ricerca. Un ulteriore elemento che spiega il successo degli LLM nella previsione è la capacità di adattare il loro comportamento sulla base dei segnali di fiducia. Gli LLM utilizzano la differenza di perplessità tra versioni di abstract per calibrare la loro fiducia nelle risposte, il che si traduce in una maggiore affidabilità complessiva. Questo livello di calibrazione è stato uno dei fattori determinanti per il superamento degli esperti umani, poiché ha permesso ai modelli di identificare con maggiore sicurezza le risposte corrette, soprattutto nei casi più complessi. In sintesi, la capacità degli LLM di elaborare enormi quantità di dati, integrando informazioni a diversi livelli di dettaglio e gestendo la complessità in modo efficace, li rende strumenti potenti per la previsione in ambiti scientifici complessi. Le loro performance su BrainBench dimostrano che non solo sono in grado di competere con esperti umani, ma anche di superarli in modo significativo, aprendo nuove possibilità per l'utilizzo dell'AI nel supporto alla ricerca e alla scoperta scientifica.   BrainGPT: Un modello adattato per le neuroscienze BrainGPT è un modello linguistico di grandi dimensioni, ulteriormente specializzato rispetto agli LLM generali grazie a un fine-tuning specifico sul corpus neuroscientifico. Questo adattamento è stato realizzato tramite la tecnica di Low-Rank Adaptation (LoRA), che ha permesso di inserire oltre 629 milioni di nuovi pesi all'interno delle strutture del modello Mistral-7B, pari a circa l'8% del numero totale di pesi del modello base. Questo approccio ha consentito di ottimizzare il modello per compiti neuroscientifici, migliorando la capacità di previsione dei risultati sperimentali. L'addestramento di BrainGPT ha coinvolto oltre 1,3 miliardi di token provenienti da pubblicazioni neuroscientifiche raccolte tra il 2002 e il 2022, spaziando su un totale di 100 riviste scientifiche. I dati sono stati estratti utilizzando l'API Entrez Programming Utilities (E-utilities) e il pacchetto Python pubget, al fine di garantire un set di dati di alta qualità e rilevanza. Questo enorme corpus di dati ha fornito al modello un ampio contesto per comprendere e prevedere i risultati neuroscientifici. LoRA è stata scelta per la sua efficienza in termini di adattamento dei modelli già pre-addestrati. Invece di riaddestrare l'intero modello, LoRA inserisce matrici di adattamento a basso rango nei blocchi Transformer, che vengono poi addestrate specificamente per aggiornare il comportamento del modello in un dominio di conoscenza specifico. Questo processo è stato particolarmente efficace per BrainGPT, portando a un miglioramento delle performance di circa il 3% su BrainBench rispetto ai modelli generali, come evidenziato dai test condotti. L'analisi dei risultati ha mostrato che la tecnica LoRA non solo ha migliorato la precisione complessiva del modello, ma ha anche ridotto la perplessità delle risposte corrette (t(199) = 15,7, P < 0,001, Cohen’s d = 0,25), indicando una specializzazione più efficace per il materiale neuroscientifico. Questo miglioramento è stato ottenuto con un impiego relativamente limitato di risorse computazionali: il processo di fine-tuning ha richiesto circa 65 ore di calcolo su GPU Nvidia A100, utilizzando quattro unità in parallelo. Un aspetto interessante di BrainGPT è la possibilità di aggiornarlo continuamente con nuovi dati neuroscientifici. Utilizzando approcci complementari come il retrieval-augmented generation (RAG), il modello potrebbe essere costantemente allineato con la letteratura più recente, garantendo così una performance sempre aggiornata e rilevante. In tal modo, BrainGPT può evolversi in uno strumento non solo di previsione, ma anche di suggerimento e supporto alla pianificazione di esperimenti futuri. Questo pone le basi per una futura collaborazione sempre più stretta tra ricercatori umani e modelli di intelligenza artificiale, ampliando le possibilità di scoperte scientifiche in un settore complesso come quello delle neuroscienze.   La sfida della calibrazione della fiducia La calibrazione della fiducia si rivela un elemento chiave nello studio delle prestazioni dei modelli di linguaggio di grandi dimensioni (LLM). La ricerca ha mostrato che esiste una correlazione positiva tra la fiducia espressa dai modelli nelle loro risposte e l'accuratezza di queste ultime. In particolare, quando i modelli erano altamente fiduciosi, le loro previsioni risultavano significativamente più precise. Questo legame è stato quantificato utilizzando la regressione logistica, evidenziando una relazione significativa tra la perplessità (un indicatore che rappresenta quanto un modello considera prevedibile un testo da generare) e la correttezza delle risposte fornite   È stato scoperto che i modelli di linguaggio funzionano meglio quando riescono a distinguere chiaramente tra versioni corrette e alterate di un testo. Questa capacità è stata misurata con uno strumento statistico chiamato “correlazione di Spearman” che indica quanto due cose siano legate tra loro. Nel nostro caso, il valore di 0,75 mostra un legame molto forte: quanto più i modelli erano bravi a notare differenze nei testi, tanto più accurate erano le loro risposte. Il risultato è stato confermato con un'alta sicurezza, con un margine di errore molto piccolo (±0,08 su 95 prove su 100). Questa calibrazione ha un impatto cruciale nell'ambito dei sistemi di supporto alle decisioni, dove le valutazioni dei modelli possono integrarsi con il giudizio umano. Ad esempio, suddividendo i risultati in venti fasce di fiducia, si è riscontrato che nei livelli più alti di fiducia l'accuratezza media superava l'85%, mentre nei livelli più bassi si attestava attorno al 55%. Tali risultati sottolineano l'efficacia della calibrazione, poiché sia i modelli che gli esperti umani hanno mostrato di saper valutare con precisione la propria sicurezza rispetto alla probabilità di successo. Questa capacità consente una sinergia più efficace tra le previsioni automatiche e il controllo umano. Un altro aspetto rilevante emerso dallo studio riguarda le differenze tra modelli e umani nel percepire la difficoltà degli stessi compiti. Sebbene la correlazione media tra le difficoltà percepite dagli LLM e quelle dagli esperti umani fosse solo di 0,15, tra diversi modelli la correlazione saliva a 0,75. Questo dato indica una complementarità tra le aree in cui umani e modelli mostrano rispettivamente punti di forza o debolezza. Tali caratteristiche possono essere sfruttate per migliorare la collaborazione nei processi decisionali. Infine, è stato messo in evidenza come la calibrazione della fiducia non solo aumenti l'accuratezza delle previsioni, ma contribuisca anche a creare un contesto di fiducia nell'uso degli LLM come strumenti di supporto alla ricerca. La capacità di un modello di indicare il grado di sicurezza delle proprie risposte rappresenta un aspetto essenziale per un utilizzo responsabile ed efficace di queste tecnologie, specialmente in ambito scientifico. Ciò consente agli scienziati di affidarsi a questi strumenti per compiti specifici, mantenendo però un controllo critico sul processo decisionale complessivo.   Implicazioni future: collaborazione Uomo-Macchina Il successo di BrainBench e BrainGPT pone una serie di domande cruciali sul futuro della scienza e sul ruolo degli LLM nella ricerca scientifica. Se, da un lato, questi modelli si dimostrano in grado di prevedere con precisione i risultati degli esperimenti, è possibile immaginare un futuro in cui gli LLM diventino parte integrante del processo di scoperta scientifica. Questi strumenti potrebbero suggerire ai ricercatori quali esperimenti eseguire, identificare risultati promettenti e guidare l'interpretazione dei dati. Un aspetto cruciale sarà quello di garantire un'integrazione efficace tra la potenza computazionale degli LLM e l'ingegno umano. Gli LLM sono in grado di gestire una quantità di dati scientifici che supera di gran lunga la capacità umana, elaborando rapidamente migliaia di articoli e fornendo connessioni tra studi che spesso sfuggono agli esperti. Tuttavia, l'intuito umano, la creatività e la capacità di contestualizzare un problema specifico restano insostituibili per garantire che le scoperte abbiano un impatto significativo e siano dirette verso applicazioni utili e innovative. Per massimizzare il potenziale della collaborazione uomo-macchina, sarà necessario sviluppare strumenti di supporto che aiutino i ricercatori a comprendere le predizioni degli LLM e a valutarne la fiducia. Ad esempio, strumenti basati sull'interfaccia utente che visualizzino il livello di fiducia di un LLM rispetto a una specifica previsione potrebbero migliorare la trasparenza e facilitare un uso più consapevole delle raccomandazioni generate dall'AI. In particolare, potrebbe essere utile implementare visualizzazioni che mostrino le differenze di perplessità tra le versioni corrette e alterate degli abstract, permettendo ai ricercatori di comprendere meglio su quali basi un LLM ha formulato la sua previsione. Un'altra interessante implicazione riguarda la possibilità di utilizzare LLM per generare ipotesi sperimentali innovative. La capacità dei modelli di linguaggio di identificare pattern nascosti nei dati potrebbe portare alla formulazione di ipotesi che altrimenti non verrebbero prese in considerazione, accelerando così il ritmo delle scoperte. Tuttavia, è fondamentale che i ricercatori mantengano un approccio critico, valutando con attenzione le previsioni e le ipotesi generate per evitare il rischio di seguire ciecamente una direzione suggerita dall'AI, senza considerare la possibilità di risultati inaspettati o contraddittori. Inoltre, la collaborazione uomo-macchina potrebbe beneficiare di una continua interazione e adattamento reciproco. Ad esempio, LLM come BrainGPT potrebbero essere addestrati utilizzando feedback esplicito dai ricercatori umani, migliorando continuamente la loro capacità di fornire suggerimenti pertinenti. Allo stesso modo, gli esperti umani potrebbero sviluppare nuove metodologie sperimentali o teoriche sulla base dei suggerimenti degli LLM, creando un ciclo virtuoso di innovazione e scoperta. Tuttavia, uno dei rischi principali è quello di affidarsi troppo alle previsioni degli LLM, specialmente quando queste suggeriscono un percorso di ricerca che potrebbe sembrare più sicuro o più promettente. Questo potrebbe portare a una riduzione dell'esplorazione di ipotesi meno ovvie ma potenzialmente rivoluzionarie. Il rischio è che la scienza diventi meno esplorativa e più orientata verso una logica di ottimizzazione basata su modelli predittivi, il che potrebbe limitare il potenziale di scoperte davvero innovative. Infine, la complementarità tra LLM e ricercatori umani potrebbe essere ulteriormente migliorata sviluppando modelli specializzati per diversi campi del sapere. Come dimostrato con BrainGPT, un modello addestrato su un corpus specifico ha migliorato le proprie performance rispetto a LLM generalisti. Estendendo questo approccio, potremmo immaginare una rete di LLM altamente specializzati, ognuno con una profonda comprensione di un settore specifico, che collaborano per risolvere problemi complessi, creando un ecosistema di conoscenza in cui le capacità analitiche delle macchine e la creatività umana si potenziano a vicenda. In sintesi, il futuro della ricerca scientifica potrebbe vedere una crescente integrazione tra LLM e scienziati umani, con questi modelli che diventano non solo strumenti di supporto, ma veri e propri partner nella scoperta. La chiave del successo sarà mantenere un equilibrio tra l'affidamento alle previsioni degli LLM e la creatività e l'indipendenza del pensiero umano, garantendo che l'innovazione resti al centro del processo scientifico.   Conclusioni La capacità dei modelli linguistici di superare gli esperti umani nelle neuroscienze pone interrogativi profondi sul futuro della ricerca scientifica e sulle dinamiche di collaborazione uomo-macchina.  Questo fenomeno non riguarda solo una questione di efficienza computazionale, ma solleva prospettive strategiche per il modo in cui affrontiamo la complessità del sapere e organizziamo le risorse intellettuali. Gli LLM, attraverso strumenti come BrainBench e modelli specifici come BrainGPT, dimostrano non solo di competere con gli esperti umani ma di portarci a ripensare il valore e il ruolo dell’intuizione e dell’esperienza in ambiti ad alta densità di dati. La performance superiore degli LLM non si limita a una questione di accuratezza predittiva, ma riflette un cambio di paradigma nella gestione della conoscenza.  La loro capacità di integrare enormi quantità di informazioni, spesso distribuite su discipline diverse, ridefinisce il concetto di competenza, spostandolo dalla profondità del sapere individuale alla larghezza della capacità analitica collettiva. Questo pone una sfida fondamentale alle strutture tradizionali della ricerca scientifica, in cui l’autorità dell’esperto era una pietra angolare. Gli LLM, con la loro adattabilità e la capacità di specializzazione, potrebbero presto diventare un nuovo standard per validare, prevedere e proporre ipotesi scientifiche, rendendo i confini dell’expertise più fluidi e collaborativi. Un aspetto cruciale è l'emergere di una "fiducia calcolata" che gli LLM possono offrire, ridefinendo la relazione tra previsione e decisione.  La capacità di calibrare la fiducia in base alla perplessità e di comunicarla in modo trasparente rappresenta un'innovazione strategica per il processo decisionale, non solo nelle neuroscienze ma anche in settori come la medicina, l’economia e l’ingegneria. Questa caratteristica non è semplicemente un miglioramento tecnico; è un modello di come gli esseri umani possono apprendere a gestire le incertezze e le probabilità in contesti complessi. I decisori aziendali, per esempio, potrebbero adottare questo approccio per combinare analisi quantitative e giudizio umano, ottimizzando strategie e riducendo i rischi associati a decisioni incerte. Il rischio di una scienza "ottimizzata ma non esplorativa" merita una riflessione strategica più ampia.  Se da un lato gli LLM possono orientare i ricercatori verso le aree di maggior probabilità di successo, dall’altro potrebbero disincentivare l’esplorazione di ipotesi meno ovvie o contrarie alle tendenze dominanti. Per evitare questo pericolo, sarà fondamentale bilanciare la potenza analitica degli LLM con il coraggio creativo dell’uomo. Le imprese che investiranno in modelli di innovazione capaci di integrare queste due dimensioni avranno un vantaggio competitivo nel generare soluzioni radicali e non solo incrementali. La complementarità uomo-macchina non deve essere vista come una semplice somma delle parti, ma come un nuovo ecosistema di conoscenza in cui l’interazione produce valore emergente.  Ad esempio, l’idea di feedback continuo tra esperti umani e LLM rappresenta non solo un’opportunità di miglioramento delle performance tecnologiche, ma anche un modo per gli esseri umani di apprendere da prospettive che altrimenti rimarrebbero inaccessibili. Questo non è un dettaglio tecnico, ma un principio guida per costruire organizzazioni in grado di adattarsi rapidamente ai cambiamenti e di anticipare le tendenze future. Infine, la specializzazione degli LLM, come nel caso di BrainGPT, apre scenari inediti per una "rete di intelligenze artificiali specializzate", in cui modelli altamente focalizzati lavorano insieme per affrontare problemi complessi e interdisciplinari.  Questo concetto di "intelligenza distribuita" non riguarda solo la scienza, ma si estende alle imprese, ai governi e ad altri contesti in cui il successo dipende dalla capacità di collegare punti tra sistemi apparentemente distanti.  La capacità di orchestrare questa rete sarà una delle competenze chiave del futuro, ridefinendo non solo come lavoriamo, ma anche come pensiamo e innoviamo.   Podcast: https://spotifycreators-web.app.link/e/EtyMogTwSOb Fonte: https://www.nature.com/articles/s41562-024-02046-9.pdf

  • GRAF: A New Approach for the Fusion of Heterogeneous Networks

    In the context of analyzing large volumes of data, heterogeneous networks represent a significant challenge. These networks include different types of nodes and relationships, making it difficult to apply machine learning tools designed for homogeneous networks, composed of only one type of node and relationship. The research presented by Ziynet Nesibe Kesimoglu and Serdar Bozdag, affiliated respectively with the Departments of Computer Science, Mathematics, and BioDiscovery Institute at the University of North Texas, introduces GRAF (Graph Attention-aware Fusion Networks), a framework that allows heterogeneous and multiplex networks to be transformed into homogeneous networks for more effective analysis through Graph Representation Learning techniques. Complex Networks: Heterogeneous, Multiplex, and Multi-Omic The growing complexity of data in the real world has necessitated the use of advanced network models capable of representing intricate relationships between different entities. Among these models, heterogeneous, multiplex, and multi-omic networks stand out for their ability to capture the dynamics of complex systems, offering powerful and detailed representations. Heterogeneous networks are characterized by the integration of multiple types of nodes and relationships in a single graph. This makes them ideal for representing scenarios where the entities involved belong to different categories, such as interactions between proteins, diseases, and drugs. Each node and each connection represent distinct elements, creating a complex ecosystem that can be analyzed to identify significant cross-connections. Their versatility is particularly useful in fields like computational biology and recommendation systems, where the diversity of relationships is crucial for obtaining more comprehensive insights. Multiplex networks, on the other hand, introduce a layered structure that allows different types of relationships between the same set of nodes to be represented. Each layer of the network describes a specific type of interaction, maintaining a clear distinction between relationships. This model is particularly useful when connections between entities are of a different nature and should not be mixed into a single representation. A practical example is the world of social media, where personal, professional, and shared-interest relationships can be analyzed separately, yet always connected through shared nodes. Multi-omic networks represent a specific application of heterogeneous and multiplex networks in the field of biology and medicine. These networks integrate data from various omic disciplines, such as genomics, transcriptomics, proteomics, and epigenomics, to analyze biological complexity in a holistic manner. Each level of the network captures a unique aspect of the biological system, and their fusion allows the discovery of interactions across different molecular scales that would otherwise remain hidden. For example, the combined analysis of genomic and proteomic data can reveal new biomarkers for complex diseases, providing a deeper understanding of pathological mechanisms. Despite differences in structure and application, all these networks share a common goal: to represent complexity in a way that can be understood, analyzed, and exploited. The choice of the most suitable model depends on the nature of the data and the objectives of the analysis. Heterogeneous networks offer a unified overview, multiplex networks allow a layered analysis of interactions, and multi-omic networks provide an integrated framework to study multidimensional biological systems. This makes these models fundamental for tackling the challenges of data-driven decision-making in increasingly complex scientific and industrial sectors. The Challenges of Multiplex and Heterogeneous Networks Real-world networks are often composed of multiple types of nodes and connections, such as authors, articles, and conferences, each with different relationships like publication or participation. This type of heterogeneity poses significant challenges for traditional Graph Neural Networks (GNNs), primarily designed for homogeneous networks with only one type of node and connection. Multiplex networks, which contain different types of relationships (e.g., author-article and article-conference relationships), introduce additional complexities when attempting to model them. In particular, managing heterogeneous and multiplex networks requires addressing the multiplicity of associations and the heterogeneity of nodes. Each layer of the multiplex network represents a subgraph with connections of a specific type. Converting a heterogeneous network into a homogeneous multiplex network requires the use of metapaths, which connect nodes through defined types of relationships. This process allows measuring the similarity between start and end nodes, enabling the model to treat a heterogeneous network as a combination of homogeneous subnetworks. Current methodologies based on GNNs face significant challenges when applied separately to each layer of the multiplex network. For example, approaches like MOGONET and SUPREME use Graph Convolutional Networks (GCN) on each layer of the multiplex network and then integrate the label distributions from each layer to determine the final label of the nodes. However, this process is computationally expensive and becomes quickly impractical when the number of layers increases, as often occurs in multi-omic data contexts. Additionally, traditional models tend not to consider node and relationship-specific attention, which can limit the overall effectiveness of the model. To overcome these limitations, GRAF uses a network fusion approach based on attention mechanisms, applying attention at both the node and network layer levels. This allows greater importance to be attributed to the most influential relationships and nodes that are most relevant to the prediction task. In practice, the node-level attention mechanism allows different weights to be assigned to each neighboring node based on its relevance, while the network layer-level attention allows evaluating the importance of the different types of connections present in the network. GRAF not only converts heterogeneous networks into a more manageable structure for learning but also uses a process of eliminating connecting edges between nodes to reduce complexity and improve model effectiveness. After network fusion, some edges are removed depending on their weight, thereby retaining only the most significant connections. This step is crucial to reduce the density of the network and increase accuracy in predictions. Finally, GRAF stands out for its ability to provide interpretable results through the use of attention weights, which allow identifying critical network components for the prediction task. These weights make it possible to explain why certain nodes or layers are more influential, improving the model's transparency and reliability. The results show that the use of multi-level attention enables GRAF to outperform existing methodologies for both heterogeneous and multiplex networks, demonstrating remarkable robustness and generalizability. The GRAF Solution GRAF was designed to address these issues by using an attention-based network fusion mechanism to obtain a single homogeneous network. The fusion is divided into several steps: Generation of Multiplex Networks : If the initial network is heterogeneous, GRAF converts it into a multiplex network using metapaths, which allow homogeneous subnetworks to be created that represent the type of relationship analyzed. For example, in the case of the IMDB dataset, two metapaths (MRM and MDM) were used to represent relationships between movies, actors, and directors, creating a multiplex network for nodes of the movie type. Similarly, for the ACM dataset, metapaths were used to connect articles, authors, and research topics, allowing the construction of homogeneous multiplex networks reflecting the different relationships present. Attention Calculation : GRAF applies an attention mechanism at both the node and network layer levels to determine the importance of neighboring nodes and relationships (layers) present in the network. This process is fundamental to assign different weights to connections based on their relevance. Specifically, GRAF calculates two types of attention: node-level attention and network layer-level attention. These values are then used to weigh the importance of each connection in the fused network. Experimental results have shown that node-level and layer-level attention significantly improve model performance, as evidenced by an ablation study on the datasets used. For example, on IMDB, GRAF achieved a macro F1 score (a metric used to evaluate the performance of classification models) of 62.1%, outperforming other approaches like SUPREME and GCN. Network Fusion : Using the attention weights calculated, GRAF fuses the various layers of the network into a single weighted network, subsequently removing weak links that may not contribute significantly to the prediction task. The network fusion process is based on a weighted aggregation of edges from the various layers using the previously calculated attention values. For each pair of nodes, GRAF sums the weights of the existing edges in the different layers, weighting them according to the importance of the layer and the node. This approach creates a network representation that retains only the most significant connections for the task at hand. Additionally, an edge elimination step is included to further reduce network complexity. Experiments have shown that retaining 70% of the original edges in the ACM and DBLP datasets, and 30% for the DrugADR dataset, improves the quality of predictions. Node Classification : On the fused network, GRAF uses a GCN to generate node embeddings and then perform a prediction task, such as node classification. Applications and Results GRAF has been applied to four different datasets from various domains, each with specific characteristics and challenges. In the case of the IMDB dataset (heterogeneous graph for the movie industry), the network was converted using two metapaths: Movie-Actor-Movie (MAM) and Movie-Director-Movie (MDM), transforming the initial heterogeneous network into a multiplex network for movie-type nodes. This approach enabled GRAF to operate more efficiently and accurately than traditional methods, outperforming algorithms like GCN, GAT, and SUPREME in terms of macro F1 score, achieving a score of 62.1%, higher than GCN's 58.7% and GAT's 56.8%. In the ACM dataset (heterogeneous graph for bibliometric analysis), GRAF was used for classifying types of scientific articles. The heterogeneous network, composed of articles, authors, and subjects, was converted using the metapaths Paper-Author-Paper (PAP) and Paper-Subject-Paper (PSP). GRAF achieved a macro F1 score of 92.6%, slightly higher than SUPREME's 92.4% and GCN's 91.5%. This highlights how node-level and network layer-level attention improves the classification ability of the model compared to conventional approaches. For the DBLP dataset (heterogeneous graph for scientific publication analysis), relating to the prediction of authors' research areas, four metapaths were used: Author-Paper-Author (APA), Author-Paper-Author-Paper-Author (APAPA), Author-Paper-Conference-Paper-Author (APCPA), and Author-Paper-Term-Paper-Author (APTPA). GRAF achieved a macro F1 score of 91.7%, outperforming models like GATv2 (90.0%) and GCN (90.5%). This demonstrates its efficiency in integrating complex multi-relational information. For adverse drug reaction prediction in the DrugADR dataset (heterogeneous graph for pharmacological analysis and adverse reactions), GRAF integrated four distinct network layers based on chemical similarities and drug interaction data. The model achieved a macro F1 score of 34.7%, surpassing SUPREMEmax's 32.1% and HAN's 30.2%. These results highlight GRAF's effectiveness in dealing with particularly complex datasets, such as biological and medical ones, where the ability to integrate different types of relationships is key to improving prediction accuracy. Thanks to its attention-based fusion architecture, GRAF was able not only to improve prediction quality but also to maintain good generalizability across multiple application domains, making it an effective tool for analyzing heterogeneous and multiplex networks. The Importance of Attention Mechanisms In the DrugADR dataset, the analysis of attention weights revealed that networks based on the similarity of side effects and chemical structures of drugs were the most influential for predicting adverse reactions. Specifically, the network based on the similarity of side effects obtained the highest attention weights, indicating that this type of information was crucial for determining the prediction outcome. In the ACM dataset, the network constructed using the metapath Paper-Author-Paper (PAP) showed significantly higher attention compared to the metapath Paper-Subject-Paper (PSP). This suggests that co-authorship information between articles has a greater impact on thematic area classification than subject-based information. The average attention weight for the PAP metapath was greater than 0.6, indicating a strong correlation with prediction success. In the DBLP dataset, the network layer built using the metapath Author-Paper-Conference-Paper-Author (APCPA) received the highest attention weights, highlighting how the conferences at which papers are presented are a determining factor in classifying an author's research area. Ablation studies conducted to verify the importance of attention mechanisms further confirmed their crucial role. Selectively removing node-level or layer-level attention significantly decreased the model's performance. The GRAFnet_lay variant, which used only layer-level attention, recorded a macro F1 score of 56.3% on the IMDB dataset, compared to the 62.1% of the full version of GRAF. Similarly, the GRAFnode variant, which considered only node-level attention, achieved a macro F1 score of 61.3%, lower than the complete model but higher than GRAFnet_lay, highlighting how both types of attention are essential for the model's effectiveness. Moreover, the GRAFedge variant, which used both node-level and layer-level attention without edge elimination, achieved comparable performance to the complete GRAF model, with a macro F1 score of 62.1% on IMDB and 33.9% on DrugADR, demonstrating that selective edge elimination, while useful, is not as crucial as integrating both types of attention. The metrics used to evaluate the performance of GRAF and its variants include macro F1 score, weighted F1 score, and accuracy, calculated over 10 repetitions for each dataset. The macro F1 score, in particular, highlighted how GRAF manages to outperform most state-of-the-art (SOTA) approaches and baseline methods. The implementation of attention mechanisms in GRAF not only improves prediction accuracy but also provides greater model interpretability. Attention weights allow identifying the nodes and relationships that contribute most to the success of the prediction task, making GRAF a powerful and transparent tool for analyzing complex networks. Eliminating weak edges during network fusion further contributed to reducing complexity, improving the model's generalizability across different domains. Future Implications The future implications of GRAF are vast and extend to many fields where heterogeneous networks play a key role. One of the most promising sectors is life sciences and healthcare. For example, the DrugADR dataset showed that integrating chemical similarity networks and clinical data through GRAF can improve the prediction of adverse drug reactions. With a macro F1 score of 34.7%, GRAF demonstrated how integrating various sources of heterogeneous data can provide a more complete and accurate view of potential drug side effects. This approach could be further developed for clinical applications, such as personalizing therapies and identifying optimal drug combinations for patients. Another field of application concerns academic research and bibliometrics. The use of GRAF for classifying scientific articles in the ACM dataset showed that node-level attention, such as co-authorship, is fundamental for correctly classifying the topic. The metapath Paper-Author-Paper (PAP) suggests that networks based on relationships between authors can provide critical information for understanding the thematic structure of academic research. This could be further extended to identify emerging trends in research or to map potential collaborations between researchers in different fields. The social network field could also benefit from GRAF's capabilities to handle heterogeneous data. Modern social networks consist of multiple types of nodes (e.g., users, posts, hashtags) and relationships (friendships, mentions, likes). Using GRAF in this context could help identify key influencers, predict information diffusion, or detect anomalous behavior. GRAF's ability to manage complex networks and fuse multiple layers of information could significantly improve the analysis of social dynamics. Finally, the field of economics and financial networks represents another area of application. Financial networks are inherently heterogeneous, with nodes representing financial entities, transactions, and credit relationships. Applying GRAF in this field could improve the ability to detect fraudulent behavior, assess financial risk, or predict market trends. Integrating data from various sources, such as relationships between financial institutions and historical market behavior, could provide more robust and reliable predictive models. In conclusion, the potential of GRAF, and in general of models using attention mechanisms and network fusion, is broad and promising. Future expansion of this approach could include applying it to more complex and larger datasets, as well as optimizing attention mechanisms to further reduce computational costs. GRAF's generalizability across different domains suggests that the model could become a fundamental tool for tackling complex problems where interactions between different entities must be deeply understood. Conclusions The proposal of GRAF offers an interesting strategic perspective for the analysis and use of heterogeneous and multiplex networks in increasingly data-complex environments. The ability to transform heterogeneous structures into homogeneous and interpretable representations highlights a paradigm shift in managing complex information, which finds cross-sectional applications from medicine to finance, from social media to academic research. However, the implications of this model are not limited to improving analytical performance. GRAF embodies a response to the growing need for AI systems that are not only effective but also provide transparency and interpretive capacity. The attention mechanism that distinguishes GRAF from other approaches opens a new chapter in understanding complex data, emphasizing a strategic priority: the importance of assigning meaning and weight to critical connections rather than treating all data uniformly. This has significant consequences for organizations operating in high-density informational environments, as it highlights the need for models capable of separating relevant signals from noise, optimizing both the use of computational resources and decision quality. The fusion of networks with the elimination of weak edges, for instance, is not just a computational technique but a philosophical principle that can be applied on multiple levels. Recognizing the uselessness of some connections—which may seem important in a local context but prove irrelevant on a global scale—is a fundamental lesson for any complex organizational system. Similarly, multi-level attention introduces a layered decision model that can guide companies in managing priorities: which nodes (resources, clients, markets) are crucial and which can be left in the background? Another key element is the potential impact on the integration and valorization of multi-source data. In an era where information silos are one of the main barriers to innovation, GRAF shows how the convergence of information from heterogeneous domains can unlock insights that would otherwise remain inaccessible. For companies, this means not only improving analytical efficiency but also redefining the boundaries of innovation: cross-interactions, such as those between genomic and proteomic data in medicine, or between professional relationships and topics in academia, become fertile ground for new discoveries and strategies. Finally, the interpretability of the results, made possible by attention weights, is not only a technical advantage but represents a growing requirement in regulated and high-impact social sectors. The ability to explain model predictions introduces fundamental trust, both for organizations and external stakeholders, paving the way for greater adoption of AI solutions in sensitive contexts. This is particularly relevant in areas like healthcare, where decisions based on predictive models must be justifiable to ensure acceptance by patients and authorities. In an increasingly technologically integrated world, GRAF offers a broader lesson: complexity is not an obstacle but an opportunity to rethink decision-making models, finding new ways to give meaning to connections and build smarter and more adaptive systems. For companies, this means adopting a mindset that not only embraces data diversity but makes it the core of their ability to innovate and compete. GRAF's approach is not just an analytical methodology: it is a metaphor for the future of business strategy in an increasingly connected and interdependent world. Podcast: https://spotifycreators-web.app.link/e/dbRsKlUaSOb Source: https://www.nature.com/articles/s41598-024-78555-4

  • GRAF: Un nuovo approccio per la fusione di Reti Eterogenee

    Nel contesto dell'analisi di grandi volumi di dati, le reti eterogenee rappresentano una sfida significativa. Queste reti includono diversi tipi di nodi e di relazioni, il che rende difficile applicare strumenti di apprendimento automatico progettati per reti omogenee, composte da un solo tipo di nodo e di relazione. La ricerca presentata da Ziynet Nesibe Kesimoglu e Serdar Bozdag, affiliati rispettivamente ai dipartimenti di Informatica, Matematica e BioDiscovery Institute presso l'Università del North Texas, introduce GRAF (Graph Attention-aware Fusion Networks), un framework che permette di trasformare reti eterogenee e multiplex in reti omogenee per un'analisi più efficace attraverso tecniche di Graph Representation Learning. Le reti complesse: Eterogenee, Multiplex e Multi-Omiche La crescente complessità dei dati nel mondo reale ha reso necessario l'uso di modelli di rete avanzati capaci di rappresentare relazioni intricate tra entità diverse. Tra questi modelli, le reti eterogenee, multiplex e multi-omiche si distinguono per la loro capacità di catturare le dinamiche di sistemi complessi, offrendo rappresentazioni potenti e dettagliate. Le  reti eterogenee  si caratterizzano per l'integrazione di molteplici tipi di nodi e relazioni in un unico grafo. Questo le rende ideali per rappresentare scenari in cui le entità coinvolte appartengono a categorie diverse, come nel caso delle interazioni tra proteine, malattie e farmaci. Ogni nodo e ogni connessione rappresentano elementi distinti, creando un ecosistema complesso che può essere analizzato per identificare connessioni trasversali significative. La loro versatilità è particolarmente utile in ambiti come la biologia computazionale e i sistemi di raccomandazione, dove la diversità delle relazioni è fondamentale per ottenere insight più completi. Le  reti multiplex , invece, introducono una struttura stratificata che consente di rappresentare diversi tipi di relazioni tra lo stesso insieme di nodi. Ogni strato della rete descrive un tipo specifico di interazione, mantenendo una distinzione chiara tra le relazioni. Questo modello è particolarmente utile quando le connessioni tra entità hanno natura diversa e non devono essere mescolate in un'unica rappresentazione. Un esempio pratico è il mondo dei social media, dove le relazioni personali, professionali e di interesse comune possono essere analizzate separatamente, ma sempre connesse attraverso i nodi condivisi. Le  reti multi-omiche  rappresentano un'applicazione specifica delle reti eterogenee e multiplex nel campo della biologia e della medicina. Queste reti integrano dati provenienti da diverse discipline omiche, come genomica, trascrittomica, proteomica ed epigenomica, per analizzare la complessità biologica in modo globale. Ogni livello della rete cattura un aspetto unico del sistema biologico, e la loro fusione permette di scoprire interazioni tra diverse scale molecolari che altrimenti rimarrebbero nascoste. Per esempio, l'analisi combinata di dati genomici e proteomici può rivelare nuovi biomarcatori per malattie complesse, fornendo una comprensione più approfondita dei meccanismi patologici. Nonostante le differenze nella struttura e nell'applicazione, tutte queste reti condividono un obiettivo comune: rappresentare la complessità in modo che possa essere compresa, analizzata e sfruttata. La scelta del modello più adatto dipende dalla natura dei dati e dagli obiettivi dell'analisi. Le reti eterogenee offrono una panoramica unificata, le reti multiplex permettono un'analisi stratificata delle interazioni, e le reti multi-omiche forniscono un framework integrato per studiare sistemi biologici multidimensionali. Questo rende questi modelli fondamentali per affrontare le sfide del data-driven decision-making in settori scientifici e industriali sempre più complessi.   Le sfide delle Reti Multiplex ed Eterogenee Le reti reali sono spesso composte da molteplici tipi di nodi e connessioni, come autori, articoli e conferenze, ciascuno con relazioni diverse come la pubblicazione o la partecipazione. Questo tipo di eterogeneità pone sfide significative per le Graph Neural Networks (GNN) tradizionali, progettate principalmente per reti omogenee con un solo tipo di nodo e connessione. Le reti multiplex, che contengono diversi tipi di relazioni (ad esempio, relazioni autore-articolo e articolo-conferenza), introducono complessità aggiuntive quando si tenta di modellarle. In particolare, la gestione di reti eterogenee e multiplex richiede di affrontare la molteplicità delle associazioni e l'eterogeneità dei nodi. Ogni layer del network multiplex rappresenta un sottografo con connessioni di un tipo specifico. La conversione di una rete eterogenea in una rete multiplex omogenea richiede l'uso di metapercorsi (meta-path), che collegano nodi attraverso tipi di relazioni definite. Questo processo permette di misurare la similarità tra nodi di partenza e di arrivo, consentendo al modello di trattare una rete eterogenea come una combinazione di sottoreti omogenee. Le attuali metodologie basate su GNN affrontano sfide notevoli quando si applicano separatamente su ogni layer della rete multiplex. Ad esempio, approcci come MOGONET e SUPREME utilizzano Graph Convolutional Networks (GCN) su ogni layer del network multiplex e poi integrano le distribuzioni delle etichette da ciascun layer per determinare l'etichetta finale dei nodi. Tuttavia, questo processo è computazionalmente dispendioso e diventa rapidamente impraticabile quando il numero di layer aumenta, come avviene spesso nei contesti di dati multi-omici. Inoltre, i modelli tradizionali tendono a non considerare l'attenzione specifica per i nodi e le relazioni, che può limitare l'efficacia complessiva del modello. Per superare queste limitazioni, GRAF utilizza un approccio di fusione delle reti basato su meccanismi di attenzione, applicando attenzione sia a livello di nodo che di layer di rete. Questo consente di attribuire maggiore importanza alle relazioni più influenti e ai nodi più rilevanti per il compito di previsione. In pratica, il meccanismo di attenzione a livello di nodo permette di pesare diversamente ogni nodo vicino in base alla sua rilevanza, mentre il livello di attenzione a layer di rete consente di valutare l'importanza delle diverse tipologie di connessioni presenti nel network. GRAF non solo converte reti eterogenee in una struttura più gestibile per l'apprendimento, ma utilizza anche un processo di eliminazione degli archi di connessione fra nodi per ridurre la complessità e migliorare l'efficacia del modello. Dopo la fusione delle reti, infatti, vengono eliminati alcuni archi a seconda del loro peso, così da mantenere solo le connessioni più significative. Questo passaggio è cruciale per ridurre la densità della rete e aumentare l'accuratezza nelle previsioni. Infine, GRAF si distingue per la sua capacità di fornire risultati interpretabili grazie all'uso dei pesi di attenzione, che consentono di identificare i componenti critici della rete per il compito di previsione. Questi pesi rendono possibile spiegare il motivo per cui alcuni nodi o layer sono più influenti, migliorando la trasparenza e l'affidabilità del modello. I risultati mostrano che l'utilizzo dell'attenzione su più livelli permette a GRAF di superare le metodologie esistenti sia per reti eterogenee che multiplex, dimostrando una notevole robustezza e generalizzabilità.   La soluzione GRAF GRAF è stato progettato per affrontare queste problematiche, utilizzando un meccanismo di fusione delle reti basato sull'attenzione per ottenere un'unica rete omogenea. La fusione si articola in vari passaggi: Generazione delle Reti Multiplex : Se la rete iniziale è eterogenea, GRAF la converte in una rete multiplex utilizzando dei metapercorsi (meta-path), che permettono di creare sottoreti omogenee che rappresentano il tipo di relazione analizzata. Ad esempio, nel caso del dataset IMDB, sono stati utilizzati due meta-path (MRM e MDM) per rappresentare le relazioni tra film, attori e registi, creando una rete multiplex per il nodo di tipo film. In modo simile, per il dataset ACM, sono stati utilizzati meta-path per collegare articoli, autori e argomenti di ricerca, permettendo di costruire reti multiplex omogenee che rispecchiano le diverse relazioni presenti. Calcolo dell'Attenzione : GRAF applica un meccanismo di attenzione a livello di nodo e di layer di rete per determinare l'importanza dei nodi vicini e delle relazioni (layer) presenti nella rete. Questo processo è fondamentale per attribuire pesi diversi alle connessioni sulla base della loro rilevanza. In particolare, GRAF calcola due tipi di attenzione: l'attenzione a livello di nodo (node-level attention) e l'attenzione a livello di layer di rete (network layer-level attention). Questi valori vengono poi utilizzati per ponderare l'importanza di ogni connessione nel network fuso. I risultati sperimentali hanno mostrato che l'attenzione a livello di nodo e di layer migliora significativamente le performance del modello, come evidenziato da uno studio di ablation sui dataset utilizzati. Per esempio, su IMDB, GRAF ha ottenuto un macro F1 score (metrica utilizzata per valutare la performance di modelli di classificazione) del 62,1%, superando altri approcci come SUPREME e GCN. Fusione delle Reti : Utilizzando i pesi calcolati dall'attenzione, GRAF fonde i vari layer della rete in un'unica rete pesata, rimuovendo poi i legami deboli che potrebbero non contribuire significativamente al compito di previsione. Il processo di fusione delle reti si basa su un'aggregazione ponderata degli archi provenienti dai vari layer, utilizzando i valori di attenzione calcolati in precedenza. Per ciascuna coppia di nodi, GRAF somma i pesi degli archi esistenti nei diversi layer, ponderandoli per l'importanza del layer e del nodo. Questo approccio permette di creare una rappresentazione della rete che conserva solo le connessioni più significative per il task da svolgere. Inoltre, è previsto un passo di eliminazione degli archi (edge elimination) per ridurre ulteriormente la complessità della rete. Gli esperimenti hanno dimostrato che la conservazione del 70% degli archi originari nei dataset ACM e DBLP, e del 30% per il dataset DrugADR, migliora la qualità delle previsioni. Classificazione dei Nodi : Sulla rete fusa, GRAF utilizza un GCN per generare gli embedding dei nodi e quindi eseguire un compito di previsione, come la classificazione dei nodi.   Applicazioni e risultati GRAF è stato applicato a quattro diversi dataset provenienti da domini differenti, ciascuno con caratteristiche e sfide specifiche. Nel caso del dataset IMDB (grafo eterogeneo per l'industria cinematografica), la rete è stata convertita utilizzando due meta-path: Movie-Actor-Movie (MAM) e Movie-Director-Movie (MDM), trasformando la rete eterogenea iniziale in una rete multiplex per i nodi di tipo film. Questo approccio ha permesso a GRAF di operare in modo più efficiente e preciso rispetto ai metodi tradizionali, superando algoritmi come GCN, GAT e SUPREME in termini di macro F1 score, raggiungendo un punteggio del 62,1%, superiore al 58,7% di GCN e al 56,8% di GAT. Nel dataset ACM (grafo eterogeneo per analisi bibliometriche ) , GRAF è stato utilizzato per la classificazione dei tipi di articoli scientifici. La rete eterogenea, composta da articoli, autori e soggetti, è stata convertita utilizzando i meta-path Paper-Author-Paper (PAP) e Paper-Subject-Paper (PSP). GRAF ha ottenuto un macro F1 score del 92,6%, leggermente superiore rispetto al 92,4% di SUPREME e al 91,5% di GCN. Questo evidenzia come l'attenzione a livello di nodo e layer di rete migliori la capacità di classificazione del modello rispetto agli approcci convenzionali. Per il dataset DBLP   (grafo eterogeneo per analisi di pubblicazioni scientifiche), relativo alla previsione dell'area di ricerca degli autori, sono stati utilizzati quattro meta-path: Author-Paper-Author (APA), Author-Paper-Author-Paper-Author (APAPA), Author-Paper-Conference-Paper-Author (APCPA), e Author-Paper-Term-Paper-Author (APTPA). GRAF ha raggiunto un macro F1 score del 91,7%, superando modelli come GATv2 (90,0%) e GCN (90,5%). Questo dimostra la sua efficienza nell'integrare informazioni multi-relazionali complesse. Per la previsione delle reazioni avverse ai farmaci nel dataset DrugADR (grafo eterogeneo per analisi farmacologiche e reazioni avverse), GRAF ha integrato quattro network layer distinti basati su somiglianze chimiche e dati sulle interazioni tra farmaci. Il modello ha ottenuto un macro F1 score del 34,7%, superando il 32,1% di SUPREMEmax e il 30,2% di HAN. Questi risultati evidenziano l'efficacia di GRAF nel trattare dataset particolarmente complessi, come quelli biologici e medici, in cui la capacità di integrare diversi tipi di relazioni è fondamentale per migliorare la precisione delle previsioni. GRAF, grazie alla sua architettura di fusione basata sull'attenzione, è riuscito non solo a migliorare la qualità delle previsioni, ma anche a mantenere una buona generalizzabilità su più domini applicativi, rendendolo uno strumento efficace per l'analisi di reti eterogenee e multiplex.   Importanza dei meccanismi di Attenzione Nel dataset DrugADR, l'analisi dei pesi di attenzione ha rivelato che le reti basate sulla somiglianza degli effetti collaterali e sulle strutture chimiche dei farmaci erano le più influenti per la previsione delle reazioni avverse. In particolare, la rete basata sulla somiglianza degli effetti collaterali ha ottenuto i pesi di attenzione più alti, indicando che questo tipo di informazione era cruciale per determinare l'esito della previsione. Nel dataset ACM, la rete costruita utilizzando il meta-path Paper-Author-Paper (PAP) ha mostrato un'attenzione significativamente più alta rispetto al meta-path Paper-Subject-Paper (PSP). Questo suggerisce che l'informazione di co-autoria tra gli articoli ha un maggiore impatto nella classificazione dell'area tematica rispetto all'informazione basata sui soggetti trattati. Il peso medio di attenzione per il meta-path PAP era superiore a 0,6, indicando una forte correlazione con il successo del compito di previsione. Nel dataset DBLP, il layer di rete costruito utilizzando il meta-path Author-Paper-Conference-Paper-Author (APCPA) ha ricevuto i pesi di attenzione più elevati, evidenziando come le conferenze in cui gli articoli vengono presentati siano un fattore determinante per la classificazione dell'area di ricerca di un autore. Gli studi di ablation condotti per verificare l'importanza dei meccanismi di attenzione hanno ulteriormente confermato il loro ruolo cruciale. Rimuovendo selettivamente l'attenzione a livello di nodo o di layer, le performance del modello sono diminuite significativamente. La variante GRAFnet_lay, che utilizzava solo l'attenzione a livello di layer, ha registrato un macro F1 score del 56,3% nel dataset IMDB, rispetto al 62,1% della versione completa di GRAF. Allo stesso modo, la variante GRAFnode, che considerava solo l'attenzione a livello di nodo, ha ottenuto un macro F1 score di 61,3%, inferiore rispetto al modello completo, ma superiore a GRAFnet_lay, evidenziando come entrambi i tipi di attenzione siano fondamentali per l'efficacia del modello. Inoltre, la variante GRAFedge, che utilizza sia l'attenzione a livello di nodo che di layer senza eliminazione degli archi, ha ottenuto performance paragonabili al modello completo GRAF, con un macro F1 score di 62,1% su IMDB e di 33,9% su DrugADR, dimostrando che l'eliminazione selettiva degli archi, sebbene utile, non sia cruciale quanto l'integrazione di entrambi i tipi di attenzione. Le metriche utilizzate per valutare la performance di GRAF e delle sue varianti includono il macro F1 score, il weighted F1 score e l'accuracy, calcolate su 10 ripetizioni per ogni dataset. Il macro F1 score, in particolare, ha evidenziato come GRAF riesca a superare la maggior parte degli approcci state-of-the-art (SOTA) e dei metodi di baseline. L'implementazione di meccanismi di attenzione in GRAF permette non solo di migliorare l'accuratezza delle previsioni, ma anche di fornire una maggiore interpretabilità del modello. I pesi di attenzione, infatti, consentono di identificare i nodi e le relazioni che contribuiscono maggiormente al successo del compito di previsione, rendendo GRAF uno strumento potente e trasparente per l'analisi di reti complesse. L'eliminazione degli archi deboli durante la fusione delle reti ha ulteriormente contribuito alla riduzione della complessità, migliorando la generalizzabilità del modello su domini differenti.   Implicazioni future Le implicazioni future di GRAF sono ampie e si estendono a molti campi in cui le reti eterogenee giocano un ruolo chiave. Uno dei settori più promettenti è quello delle scienze della vita e della salute. Ad esempio, il dataset DrugADR ha dimostrato che l'integrazione di reti di somiglianza chimica e dati clinici attraverso GRAF può migliorare la previsione delle reazioni avverse ai farmaci. Con un macro F1 score del 34,7%  GRAF ha mostrato come l'integrazione di diverse fonti di dati eterogenei possa fornire una visione più completa e accurata dei potenziali effetti collaterali dei farmaci. Questo approccio potrebbe essere ulteriormente sviluppato per applicazioni cliniche, come la personalizzazione delle terapie e l'identificazione di combinazioni di farmaci ottimali per i pazienti. Un altro campo di applicazione riguarda la ricerca accademica e la bibliometria. L'uso di GRAF per la classificazione degli articoli scientifici nel dataset ACM ha dimostrato che l'attenzione a livello di nodo, come la co-autoria, è fondamentale per una corretta classificazione dell'argomento. Il meta-path Paper-Author-Paper (PAP) suggerisce che le reti basate sulle relazioni tra autori possono fornire informazioni critiche per comprendere la struttura tematica della ricerca accademica. Questo potrebbe essere ulteriormente esteso per identificare trend emergenti nella ricerca o per mappare collaborazioni potenziali tra ricercatori in diversi campi. Anche l'ambito delle reti sociali potrebbe beneficiare delle capacità di GRAF di gestire dati eterogenei. Le reti sociali moderne sono costituite da molteplici tipi di nodi (ad esempio, utenti, post, hashtag) e relazioni (amicizie, menzioni, like). L'uso di GRAF in questo contesto potrebbe aiutare a identificare influenzatori chiave, a prevedere la diffusione di informazioni o a rilevare comportamenti anomali. La capacità di GRAF di gestire reti complesse e di fondere più livelli di informazioni potrebbe migliorare notevolmente l'analisi delle dinamiche sociali. Infine, il campo delle scienze economiche e delle reti finanziarie rappresenta un'altra area di applicazione. Le reti finanziarie sono intrinsecamente eterogenee, con nodi che rappresentano enti finanziari, transazioni, e relazioni di credito. L'applicazione di GRAF in questo campo potrebbe migliorare la capacità di rilevare comportamenti fraudolenti, valutare il rischio finanziario, o prevedere l'andamento dei mercati. L'integrazione di dati provenienti da diverse fonti, come i rapporti tra istituti finanziari e i comportamenti storici dei mercati, potrebbe fornire modelli predittivi più robusti e affidabili. In conclusione, le potenzialità di GRAF, e in generale dei modelli che utilizzano meccanismi di attenzione e fusione di reti, sono ampie e promettenti. L'espansione futura di questo approccio potrebbe includere l'applicazione a dataset più complessi e di dimensioni maggiori, nonché l'ottimizzazione dei meccanismi di attenzione per ridurre ulteriormente i costi computazionali. La generalizzabilità di GRAF a diversi domini suggerisce che il modello potrebbe diventare uno strumento fondamentale per affrontare problemi complessi in cui le interazioni tra entità diverse devono essere comprese in profondità.   Conclusioni La proposta di GRAF offre un’interessante prospettiva strategica per l’analisi e l’utilizzo delle reti eterogenee e multiplex in ambiti sempre più dominati dalla complessità dei dati.  La capacità di trasformare strutture eterogenee in rappresentazioni omogenee e interpretabili evidenzia un cambio di paradigma nella gestione dell’informazione complessa , che trova applicazioni trasversali, dalla medicina alla finanza, dai social media alla ricerca accademica. Tuttavia, le implicazioni di questo modello non si limitano al miglioramento delle performance analitiche. GRAF incarna una risposta alla crescente esigenza di sistemi di intelligenza artificiale che non solo siano efficaci, ma che offrano anche trasparenza e capacità interpretativa. Il meccanismo di attenzione, che distingue GRAF da altri approcci, apre un nuovo capitolo nella comprensione dei dati complessi, mettendo in luce una priorità strategica: l’importanza di dare significato e peso alle connessioni critiche piuttosto che trattare tutti i dati in modo uniforme.  Questo ha conseguenze significative per le organizzazioni che operano in ambienti ad alta densità informativa, poiché evidenzia il bisogno di modelli capaci di separare segnali rilevanti dal rumore, ottimizzando sia l’uso delle risorse computazionali che la qualità delle decisioni. La fusione delle reti con eliminazione degli archi deboli, ad esempio, non è solo una tecnica computazionale, ma un principio filosofico che può essere applicato a più livelli.  Riconoscere l’inutilità di alcune connessioni—che possono sembrare importanti in un contesto locale ma risultano irrilevanti su scala globale—è una lezione fondamentale per qualsiasi sistema organizzativo complesso.  Analogamente, l’attenzione multilivello introduce un modello decisionale stratificato che può guidare le imprese nella gestione delle priorità: quali nodi (risorse, clienti, mercati) sono cruciali e quali possono essere lasciati sullo sfondo? Un altro elemento centrale è il potenziale impatto sull’integrazione e la valorizzazione dei dati multi-sorgente.  In un’epoca in cui i silos informativi rappresentano una delle principali barriere all’innovazione, GRAF mostra come la convergenza di informazioni provenienti da domini eterogenei possa sbloccare intuizioni che altrimenti rimarrebbero inaccessibili.  Per le aziende, questo significa non solo migliorare l’efficienza analitica, ma anche ridefinire i confini dell’innovazione: le interazioni trasversali, come quelle tra dati genomici e proteomici in medicina, o tra relazioni professionali e tematiche in ambito accademico, diventano il terreno fertile per nuove scoperte e strategie. Infine, l’interpretabilità dei risultati, resa possibile dai pesi di attenzione, non è solo un vantaggio tecnico, ma rappresenta un requisito sempre più richiesto nei settori regolamentati e ad alto impatto sociale.  La capacità di spiegare le previsioni del modello introduce una fiducia fondamentale, sia per le organizzazioni che per gli stakeholder esterni, aprendo la strada a una maggiore adozione di soluzioni AI in contesti sensibili.  Questo è particolarmente rilevante in ambiti come la sanità, dove le decisioni basate su modelli predittivi devono essere giustificabili per garantire l’accettazione da parte dei pazienti e delle autorità. In un mondo sempre più dominato dall’integrazione tecnologica, GRAF offre una lezione più ampia: la complessità non è un ostacolo, ma un’opportunità per ripensare i modelli decisionali, trovando nuovi modi per dare significato alle connessioni e costruire sistemi più intelligenti e adattivi. Per le imprese, questo significa adottare una mentalità che non solo abbraccia la diversità dei dati, ma ne fa il fulcro della propria capacità di innovare e competere.  L’approccio di GRAF non è solo una metodologia analitica: è una metafora per il futuro della strategia aziendale in un mondo sempre più connesso e interdipendente. Podcast: https://spotifycreators-web.app.link/e/PWTSCOdRROb Fonte: https://www.nature.com/articles/s41598-024-78555-4

  • AI in Science: Opportunities, Risks, and Strategies for the Future

    Artificial intelligence (AI) is paving the way for a new golden age in science, as outlined in the document "A New Golden Age of Discovery: Seizing the AI for Science Opportunity" by Conor Griffin, Don Wallace, Juan Mateos-Garcia, Hanna Schieve, and Pushmeet Kohli. This document explores how AI can transform scientific disciplines, from genomics to materials science, and how it can be harnessed to address challenges of complexity and scale in research projects. AI in science is transforming research and innovation in fields like genomics and materials. It accelerates experiments and modeling, as seen with AlphaFold, but demands ethical and sustainable strategies to balance risks and benefits. Investments in infrastructure, skills, and public-private collaboration are critical to expand global access, positioning AI as a catalyst for discoveries and applications. Currently, AI is being used in laboratories worldwide to accelerate understanding, improve experimental precision, and generate new hypotheses. An example is AlphaFold, which provides protein structure predictions, drastically reducing research timelines that previously required years of work and resources. However, as this transformation continues to expand, it becomes crucial to understand how we can best leverage these new possibilities without ignoring the associated risks and responsibilities. How can we, therefore, balance the benefits with the potential risks, ensuring a safe and ethical use of AI in science? The Drive Behind AI Adoption in Science In recent years, the growing interest in AI in science has been driven by a combination of social and technological pressures. Although the number of scientists and researchers has significantly increased, the pace of scientific discoveries has not kept up. This phenomenon is partly due to the greater complexity of problems being addressed today, as well as the need to assimilate an increasingly vast amount of existing knowledge. This growing knowledge burden requires more and more researchers to make new discoveries, making AI a valuable tool for overcoming limitations of scale and complexity. One of the main factors driving AI adoption is its ability to accelerate processes that previously required enormous resources and time. For instance, while determining a protein structure through X-ray crystallography could take years of work and significant financial costs, the AlphaFold database now provides immediate access to 200 million predicted protein structures, helping to drastically reduce research time and costs. AI is also transforming how science is practiced and shared. Today, one in three scientists uses large language models (LLMs) to support literature review, code writing, and document editing. This trend suggests a substantial shift in research activities, where AI is no longer just a computational tool but a true scientific assistant that supports the creation and communication of knowledge. The adoption of AI in science is also seen as a necessary response to slowdowns in the growth of scientific productivity and progress towards global sustainable development goals. Recent decades have seen an acceleration in the creation of scientific knowledge, but also increasing difficulty in turning that knowledge into practical applications for society. Deep learning methodologies and advanced AI models can compress the time needed to achieve new advances, accelerating not only discovery but also the application of results in fields such as medicine, renewable energy, and materials science. AI is therefore well-positioned to address problems of scale and complexity, helping to reduce the time and effort required to turn scientific discoveries into practical solutions. However, to fully realize AI's potential in science, a coordinated strategy is needed that includes investment in infrastructure, skills, and partnerships between the public and private sectors. Without a clear strategy, there is a risk that AI adoption will happen in a fragmented and ineffective manner, limiting the benefits it could offer to science and society. Five Opportunities to Harness AI in Science In many scientific disciplines, from computer science to structural biology, AI is opening new possibilities for discovery and innovation. Here are five key areas where AI can make a difference: Knowledge : AI is transforming how scientists assimilate and communicate knowledge. The use of large language models allows rapid synthesis of information from an enormous number of academic publications, solving the problem of increasing specialization and the growing volume of existing knowledge. Recently, models like Gemini LLM have been used to extract relevant data from over 200,000 articles in a single day, enabling a much faster and more effective understanding of existing scientific literature. In a context where research is increasingly shared through preprints and code repositories, AI can also facilitate accessibility to this knowledge, adapting it for different audiences and making science more inclusive. Data : Despite talk of a "data era," there are still enormous gaps in scientific information, especially in the natural sciences. AI can facilitate the collection, annotation, and cataloging of data, and even generate synthetic data to improve research. For example, AlphaProteo was developed using more than 100 million protein structures generated by AlphaFold, which were further enriched with experimental data from the Protein Data Bank. AI not only helps gather new data but can also leverage its ability to interpret unstructured data, such as images and audio, making available information that would otherwise be difficult to extract. Experiments : Many scientific experiments are expensive and complex, and often cannot be conducted due to a lack of adequate resources. AI can simulate these experiments, reducing time and costs and optimizing the use of experimental resources. In nuclear fusion, for example, reinforcement learning agents have been used to simulate plasma control in a tokamak reactor, improving experimental efficiency. Similar techniques could also be extended to other large experiments, such as those conducted with particle accelerators or telescopes. This approach not only speeds up research but also helps more effectively identify optimal parameters for future experiments, avoiding costly mistakes and minimizing resource use. Models : AIs can model complex systems and their interactions in ways that traditional deterministic models cannot. For example, weather systems are extremely dynamic and require high-resolution simulations to be accurately predicted. Deep learning models have been shown to predict weather conditions up to 10 days in advance, surpassing traditional models in terms of computation speed and forecast accuracy. This modeling capability can also be applied to economics, biology, and other fields where complex, interactive systems are the norm. Additionally, generative agent-based approaches allow scientists to create more flexible simulations that can respond and adapt to new conditions in real-time, such as simulating economic interactions between companies and consumers. Solutions : Many scientific problems require exploring a practically infinite number of possible solutions, such as designing new drugs or materials. AI can explore these solution spaces more quickly and efficiently than traditional techniques based on intuition or empirical methods. For instance, AI models like AlphaProof and AlphaGeometry 2 have been able to solve complex mathematical problems, generating solutions that proved to be among the most accurate in international competitions. In biology, molecule design requires analyzing vast solution spaces, but AI can navigate these, quickly identifying the most promising options to test experimentally, as in the case of Covid-19 drugs and new classes of antibiotics. The Risks of AI in Science The adoption of artificial intelligence in science, while bringing immense opportunities, also raises several significant risks that require careful consideration. Among the main concerns are the negative impact on scientific creativity, the reduction of research reliability, the risk of diminishing theoretical understanding, the potential amplification of inequalities, and the environmental consequences related to the massive use of computational resources. One of the primary risks is the potential reduction of scientific creativity. AI, particularly deep learning models, tends to emphasize regularity and minimize anomalies, while scientific creativity often arises from exploring those very anomalies. Many significant discoveries have resulted from unexpected observations and original insights. Relying solely on models that generalize from large amounts of data could lead to excessive standardization of the scientific process, reducing the potential to explore new and unusual paths. Moreover, the massive use of AI by different research groups could lead to homogenization of results, especially if the same models or datasets are used. Another issue concerns the reduction of scientific reliability. Artificial intelligence, particularly large language models (LLMs), has shown a tendency to produce inaccurate or completely erroneous content, including fabricated citations. This phenomenon, known as "hallucination," poses a danger to science, where verification and replicability of results are fundamental. Furthermore, the use of AI in drafting scientific articles could encourage the proliferation of low-quality works, making it even more difficult to distinguish between reliable and unreliable information. This risk adds to those already present in the scientific community, such as publication bias and "p-hacking," which often lead to underestimating negative results. An equally critical aspect concerns scientific understanding. Although AI can provide extremely accurate predictions, it often does not contribute to developing new theories or understanding phenomena. Science is not limited to predicting what will happen but aims to understand the "why." Current AI models, which rely on identifying patterns in data, risk turning science into a predominantly empirical activity, lacking the theoretical depth needed to understand underlying mechanisms. Without an adequate theoretical framework, AI predictions remain, in many cases, "black boxes," limiting scientists' ability to derive general insights applicable to new scenarios. In terms of equity, the use of AI could exacerbate existing inequalities within the scientific community and between different parts of the world. Advanced AI technologies are mainly accessible to researchers in countries and institutions with ample financial resources, creating a barrier for those without access to such tools. This situation could widen the gap between well-funded institutions and those with fewer resources, limiting the participation of researchers from emerging economies and the diversity of voices in scientific research. Furthermore, the datasets used to train AI models often do not adequately represent diverse world populations, leading to less accurate results for underrepresented groups. Finally, there are environmental risks associated with the use of AI in science. Training large models requires significant computational resources, resulting in energy consumption and increased greenhouse gas emissions. Although data centers represent only a fraction of global emissions, the growth in model sizes and their increasing adoption could significantly increase this impact. On the other hand, initiatives exist to make models more energy-efficient, and AI itself could be used to develop technologies aimed at reducing environmental impact, such as new materials for renewable energy or algorithms to optimize energy distribution. To mitigate these risks, it is essential to adopt a strategy that includes responsible regulation of AI use, support for diversity in the scientific community, and the development of tools that make models more transparent and understandable. Moreover, policies should be promoted to ensure equitable access to AI technologies and encourage the sustainable use of computational resources, ensuring that scientific progress powered by AI can be shared equitably by all humanity. AI and Global Innovation - Regulations and Strategies for Science To fully exploit AI's potential in science, a clear and ambitious political strategy is needed at multiple levels. A fundamental first step is defining concrete scientific goals to guide AI research and use towards critical problems. The so-called "Hilbert Problems" for AI in science could provide an important platform for identifying the most pressing questions that AI could help solve. Governments and research organizations should launch initiatives to identify these problems, set clear parameters, and fund specific competitions that encourage scientists and engineers to find innovative solutions through AI. This approach would not only help concentrate resources and expertise on high-impact challenges but also provide a common vision shared at the international level. An international network of Data Observatories for Science should be established to address chronic gaps in available scientific datasets, especially in underrepresented fields such as ecology, biodiversity, and social sciences. The observatories could conduct periodic "rapid data assessments" across various application fields, mapping existing gaps and identifying underutilized or hard-to-access datasets. These observatories could also promote the creation of new datasets that, if properly managed and maintained, could prove crucial for scientific progress. Such efforts must be supported by appropriate incentives for both individual researchers and institutions to ensure the sustainability and constant updating of data resources. It is crucial that data generated from strategic experiments are preserved and made accessible wherever possible, creating appropriate infrastructures for data storage and retrieval. Another crucial aspect concerns the need to invest in training and skills development programs. AI is becoming an essential scientific tool and, as such, must become part of the educational curriculum for scientists at all levels. A wide range of training programs should be available, from introductory AI courses for undergraduates to specialized courses and fellowships for senior researchers. Moreover, every scientist should be able to access basic skills in using AI models to support their research, with courses covering responsible use of LLMs and model fine-tuning for specific research objectives. Only through extensive and deep scientific literacy on AI will it be possible to fully exploit AI's potential in research. Computational infrastructure plays a determining role. Currently, many scientific institutions, particularly in low- and middle-income countries, do not have access to adequate computational resources. Governments must therefore fund shared infrastructures, such as public clouds dedicated to scientific research, to ensure all researchers have equitable access to the necessary computing power. At the same time, attention must be paid to the energy efficiency of these infrastructures to minimize their environmental impact. A sustainable approach to AI in science must include solutions that allow for the optimization of energy resource use through a combination of technological innovations and environmentally conscious infrastructural choices. Public-private partnerships are essential for AI development in science. Collaborations with technology companies can accelerate the transfer of advanced technologies from research labs to practical applications. However, it is crucial that these collaborations are structured to ensure equitable access and that the benefits of innovation are shared with the community. Incentive policies such as tax breaks or funding for collaborative projects can stimulate cooperation between sectors, ensuring that the results of research born from these partnerships are in the public domain and available to the global scientific community. Finally, an appropriate regulatory framework is needed to address the risks associated with AI use, such as model transparency, privacy protection, and security. Regulation should include guidelines to ensure AI models undergo rigorous verification and validation processes and that the data used for their training are managed ethically and responsibly. Promoting a culture of responsibility within the scientific community is also crucial, where researchers are aware of the ethical implications of their work and collaborate with policymakers and stakeholders to develop solutions that are safe, reliable, and respectful of human rights. The adoption of AI in science is not a linear process and requires continuous adaptation. It will be essential to find a balance between human creativity and automation, between intuition and computational rigor. However, with appropriate policies and responsible use of AI, we could be at the beginning of a new period of discoveries that will make science more efficient, accessible, and capable of addressing the greatest challenges of our time. Conclusions The adoption of artificial intelligence (AI) in science is charting a path that offers crucial insights for the business world as well. AI's ability to transform complex processes into efficient and scalable solutions is a paradigm that companies must embrace not only as a technical tool but as a strategy for systemic innovation. However, the real challenge is not just technological but cultural: the way companies integrate AI will determine their ability to compete in an increasingly interconnected and knowledge-based market. A fundamental first lesson is the need to balance speed and depth. In science, AI accelerates data collection and processing but must be anchored to strategic goals to avoid superficial or non-replicable results. Similarly, companies must avoid the "novelty syndrome"—the impulsive adoption of AI tools for marketing or trend-following reasons—and focus on implementations that have a tangible impact on core business. A key example could be the use of predictive models not only for market analysis but to anticipate structural trends, such as emerging consumer needs or supply chain vulnerabilities. A second crucial aspect concerns the democratization of access to skills. Just as it is necessary in science to invest in training to make AI accessible to all researchers, in companies, it is essential to create an ecosystem where AI knowledge is not the exclusive domain of technical experts. AI literacy must extend to executives, marketing teams, and even functions traditionally distant from technology, such as human resources. This democratization not only fosters faster adoption but allows AI to generate value across the board. However, the true competitive advantage emerges from the approach to collaboration. The public-private partnerships accelerating scientific innovation provide a replicable model for companies. Businesses must learn to work not only with their traditional stakeholders but also with external ecosystems, such as startups, universities, and research centers, to co-create AI-based solutions. Partnerships must be designed to share benefits and knowledge, avoiding situations where imbalances in technological or economic resources become obstacles to widespread innovation. But the value of AI does not lie solely in its ability to produce efficiency; it lies in its potential to challenge the status quo. An important lesson from AI's use in science is the risk of flattening creativity and intuition, elements that remain central to both scientific discoveries and companies' competitive advantage. Companies should therefore view AI not as a replacement for human creativity but as an accelerator. An example is using AI to generate future scenarios that creative teams can explore, turning them into innovative and disruptive strategies. Finally, the ethical and sustainable aspect of AI is a dimension that companies cannot overlook. Just as science must address the dilemma of energy consumption and AI model transparency, businesses must anticipate growing demands for accountability from consumers and regulators. Adopting sustainable, transparent, and inclusive AI practices will become not only a moral obligation but a differentiating competitive advantage, positioning companies as market leaders. In summary, AI offers businesses an unprecedented opportunity to reimagine the future. However, success requires strategic vision, collaboration capacity, and an approach that balances technological innovation with human sensitivity. Podcast: https://spotifycreators-web.app.link/e/eRe8ITSpQOb Source: https://storage.googleapis.com/deepmind-media/DeepMind.com/Assets/Docs/a-new-golden-age-of-discovery_nov-2024.pdf

  • L'AI nella scienza: opportunità, rischi e strategie per il futuro

    L'intelligenza artificiale (AI) sta aprendo la strada a una nuova età dell'oro per la scienza, come delineato nel documento "A New Golden Age of Discovery: Seizing the AI for Science Opportunity", scritto da Conor Griffin, Don Wallace, Juan Mateos-Garcia, Hanna Schieve e Pushmeet Kohli. Questo documento esplora come l'AI possa trasformare le discipline scientifiche, dalla genomica alla scienza dei materiali, e come possa essere sfruttata per affrontare le sfide della complessità e della scala nei progetti di ricerca. Attualmente, l'AI viene utilizzata nei laboratori di tutto il mondo per accelerare la comprensione, migliorare la precisione degli esperimenti e generare nuove ipotesi. Un esempio è AlphaFold, che fornisce previsioni sulla struttura delle proteine, riducendo drasticamente i tempi di ricerca che prima richiedevano anni di lavoro e risorse. Tuttavia, mentre questa trasformazione continua a espandersi, diventa fondamentale capire come possiamo sfruttare al meglio queste nuove possibilità senza tralasciare i rischi e le responsabilità connesse. Come possiamo, quindi, bilanciare i benefici con i potenziali rischi, garantendo un utilizzo sicuro ed etico dell'AI nella scienza? L'Impulso dietro l'adozione dell'AI nella scienza Negli ultimi anni, il crescente interesse per l'AI nella scienza è stato guidato da una combinazione di pressioni sociali e tecnologiche. Sebbene il numero di scienziati e ricercatori sia aumentato significativamente, il ritmo delle scoperte scientifiche non ha mantenuto lo stesso passo. Questo fenomeno è in parte dovuto alla maggiore complessità dei problemi affrontati oggi, nonché alla necessità di assimilare una quantità di conoscenze preesistenti sempre più vasta. Questo crescente carico di conoscenze rende necessario un numero sempre maggiore di ricercatori per ottenere nuove scoperte, trasformando l'AI in uno strumento prezioso per superare le limitazioni di scala e complessità. Uno dei fattori principali che sta incentivando l'adozione dell'AI è la capacità di questa tecnologia di accelerare processi che in passato richiedevano risorse e tempi enormi. Ad esempio, mentre la determinazione della struttura di una proteina tramite cristallografia a raggi X poteva richiedere anni di lavoro e ingenti costi economici, il database AlphaFold fornisce ora l'accesso immediato a 200 milioni di strutture proteiche previste, contribuendo a ridurre drasticamente i tempi e i costi della ricerca. L'AI sta anche rivoluzionando il modo in cui la scienza viene praticata e condivisa. Oggi, uno scienziato su tre utilizza modelli di linguaggio di grandi dimensioni (LLM) per supportare la revisione della letteratura, la scrittura di codice e l'editing di documenti. Questa tendenza suggerisce un cambiamento sostanziale nelle attività di ricerca, in cui l'AI non è più solamente uno strumento di calcolo, ma un vero e proprio assistente scientifico che supporta la creazione e la comunicazione della conoscenza. L'adozione dell'AI nella scienza è vista anche come una risposta necessaria ai rallentamenti nella crescita della produttività scientifica e del progresso verso obiettivi globali di sviluppo sostenibile. I recenti decenni hanno visto un'accelerazione nella creazione di conoscenze scientifiche, ma anche una crescente difficoltà nel trasformare queste conoscenze in applicazioni pratiche per la società. Le metodologie di deep learning e i modelli avanzati di AI possono comprimere il tempo necessario per raggiungere nuovi progressi, accelerando non solo la scoperta ma anche l'applicazione dei risultati in campi come la medicina, le energie rinnovabili e la scienza dei materiali. L'AI è quindi ben posizionata per affrontare i problemi legati alla scala e alla complessità, contribuendo a ridurre il tempo e lo sforzo necessari per trasformare le scoperte scientifiche in soluzioni pratiche. Tuttavia, per realizzare pienamente il potenziale dell'AI nella scienza, è necessaria una strategia coordinata che includa l'investimento in infrastrutture, competenze e partnership tra il settore pubblico e privato. Senza una strategia chiara, il rischio è che l'adozione dell'AI avvenga in modo frammentato e inefficace, limitando i benefici che potrebbe offrire alla scienza e alla società.   Cinque opportunità per sfruttare l'AI nella scienza In molte discipline scientifiche, dall'informatica alla biologia strutturale, l'AI sta aprendo nuove possibilità di scoperta e innovazione. Ecco cinque aree chiave in cui l'AI può fare la differenza: Conoscenza : L'AI sta trasformando il modo in cui gli scienziati assimilano e comunicano la conoscenza. L'uso di modelli di linguaggio di grandi dimensioni consente di sintetizzare rapidamente informazioni da un'enorme quantità di pubblicazioni accademiche, risolvendo così il problema della crescente specializzazione e della mole sempre più grande di conoscenze pregresse. Recentemente, l'uso di modelli come Gemini LLM ha permesso di estrarre dati rilevanti da più di 200.000 articoli in un solo giorno, consentendo una comprensione molto più rapida ed efficace della letteratura scientifica esistente. In un contesto in cui la ricerca viene sempre più spesso condivisa attraverso preprint e repository di codice, l'AI può anche facilitare l'accessibilità di queste conoscenze, adattandole per pubblici diversi e rendendo la scienza più inclusiva. Dati : Nonostante si parli spesso di "era dei dati", esistono ancora enormi lacune nelle informazioni scientifiche, specialmente nel campo delle scienze naturali. L'AI può facilitare la raccolta, l'annotazione e la catalogazione dei dati, e persino generare dati sintetici per migliorare la ricerca. Ad esempio, AlphaProteo è stato sviluppato utilizzando più di 100 milioni di strutture proteiche generate da AlphaFold, che a loro volta sono state arricchite con dati sperimentali provenienti dal Protein Data Bank. L'AI non solo aiuta a raccogliere nuovi dati, ma può anche sfruttare le capacità di interpretare dati non strutturati, come immagini e audio, rendendo disponibili informazioni che altrimenti sarebbero difficili da estrarre. Esperimenti : Molti esperimenti scientifici sono costosi e complessi, e spesso non possono essere condotti a causa della mancanza di risorse adeguate. L'AI può simulare questi esperimenti, riducendo tempi e costi e ottimizzando l'utilizzo delle risorse sperimentali. Nel campo della fusione nucleare, ad esempio, l'utilizzo di agenti di reinforcement learning ha permesso di simulare il controllo del plasma in un reattore tokamak, migliorando l'efficienza sperimentale. Simili tecniche potrebbero essere estese anche ad altri grandi esperimenti, come quelli svolti con acceleratori di particelle o telescopi. Questo approccio non solo accelera i tempi di ricerca, ma aiuta anche a identificare in modo più efficace i parametri ottimali per esperimenti futuri, evitando errori costosi e minimizzando l'uso di risorse. Modelli : Le AI possono modellare sistemi complessi e le loro interazioni in modi che i modelli deterministici tradizionali non riescono a fare. Ad esempio, i sistemi meteorologici sono estremamente dinamici e richiedono simulazioni ad alta risoluzione per essere previsti con precisione. I modelli di deep learning hanno dimostrato di poter prevedere le condizioni meteorologiche fino a 10 giorni in anticipo, superando i modelli tradizionali in termini di velocità di calcolo e accuratezza delle previsioni. Questa capacità di modellazione può anche essere applicata all'economia, alla biologia e ad altri campi in cui i sistemi complessi e interattivi sono la norma. Inoltre, gli approcci basati su agenti generativi permettono agli scienziati di creare simulazioni più flessibili che possono rispondere e adattarsi a nuove condizioni in tempo reale, come nel caso delle simulazioni delle interazioni economiche tra aziende e consumatori. Soluzioni : Molti problemi scientifici richiedono l'esplorazione di un numero praticamente infinito di soluzioni possibili, come la progettazione di nuovi farmaci o materiali. L'AI può esplorare questi spazi di soluzioni in modo più rapido ed efficiente rispetto alle tecniche tradizionali basate sull'intuizione o sul metodo empirico. Per esempio, i modelli AI come AlphaProof e AlphaGeometry 2 sono stati in grado di risolvere problemi matematici complessi, generando soluzioni che si sono rivelate tra le più accurate nelle competizioni di livello internazionale. In biologia, la progettazione di molecole richiede l'analisi di spazi di soluzione vastissimi, ma l'AI è in grado di navigarli, identificando rapidamente le opzioni più promettenti da testare sperimentalmente, come nel caso dei farmaci contro il Covid-19 e delle nuove classi di antibiotici.   I rischi dell'AI nella scienza L'adozione dell'intelligenza artificiale nella scienza, pur portando con sé immense opportunità, solleva anche diversi rischi significativi che richiedono un'attenta considerazione. Tra i principali timori vi sono l'impatto negativo sulla creatività scientifica, la riduzione dell'affidabilità delle ricerche, il rischio di ridurre la comprensione teorica, la potenziale amplificazione delle disuguaglianze e le conseguenze ambientali legate all'uso massiccio di risorse computazionali. Uno dei principali rischi è rappresentato dalla potenziale riduzione della creatività scientifica . L'AI, in particolare i modelli di deep learning, tende a enfatizzare la regolarità e a minimizzare le anomalie, mentre la creatività scientifica spesso nasce dall'esplorazione di quelle stesse anomalie. Molte scoperte significative sono state il risultato di osservazioni inattese e di intuizioni originali. Affidarsi esclusivamente a modelli che generalizzano a partire da grandi quantità di dati potrebbe portare a una standardizzazione eccessiva del processo scientifico, riducendo il potenziale di esplorazione di strade nuove e inusuali. Inoltre, l'uso massivo di AI da parte di diversi gruppi di ricerca potrebbe portare a un'omogeneizzazione dei risultati, specialmente se si utilizzano gli stessi modelli o dataset. Un altro problema riguarda la riduzione dell'affidabilità scientifica. L'intelligenza artificiale, in particolare i modelli di linguaggio di grandi dimensioni (LLM), ha evidenziato una tendenza a produrre contenuti inaccurati o completamente errati, comprese citazioni inventate. Questo fenomeno, noto come "allucinazione", rappresenta un pericolo per la scienza, dove la verifica e la replicabilità dei risultati sono fondamentali. Inoltre, l'impiego dell'intelligenza artificiale nella redazione di articoli scientifici potrebbe favorire la proliferazione di lavori di bassa qualità, rendendo ancora più complesso il discernimento tra informazioni affidabili e quelle non attendibili. Questo rischio si aggiunge a quelli già esistenti nella comunità scientifica, come il bias di pubblicazione e il "p-hacking", che spesso portano a una sottostima dei risultati negativi. Un aspetto altrettanto critico riguarda la comprensione scientifica . Sebbene l'AI possa fornire previsioni estremamente accurate, essa spesso non contribuisce allo sviluppo di nuove teorie o alla comprensione dei fenomeni. La scienza non si limita a prevedere ciò che accadrà, ma mira a capire il "perché". Gli attuali modelli di AI, che si basano sull'identificazione di pattern nei dati, rischiano di trasformare la scienza in un'attività prevalentemente empirica, priva della profondità teorica necessaria per comprendere i meccanismi sottostanti. Senza un quadro teorico adeguato, le previsioni dell'AI rimangono, in molti casi, delle "scatole nere", che limitano la capacità degli scienziati di derivare intuizioni generali applicabili a nuovi contesti. In termini di equità , l'uso dell'AI potrebbe accentuare le disuguaglianze già esistenti all'interno della comunità scientifica e tra diverse parti del mondo. Le tecnologie di AI avanzate sono principalmente accessibili ai ricercatori in paesi e istituzioni con ampie risorse economiche, creando una barriera per chi non ha accesso a tali strumenti. Questa situazione potrebbe ampliare il divario tra istituzioni ben finanziate e quelle con meno risorse, limitando la partecipazione di ricercatori provenienti da economie emergenti e la diversità delle voci nella ricerca scientifica. Inoltre, i dataset utilizzati per addestrare i modelli di AI spesso non rappresentano adeguatamente le diverse popolazioni mondiali, portando a risultati meno accurati per gruppi sottorappresentati. Infine, vi sono rischi ambientali  associati all'uso dell'AI nella scienza. L'addestramento di modelli di grandi dimensioni richiede una quantità significativa di risorse computazionali, con conseguente consumo di energia e aumento delle emissioni di gas serra. Sebbene i data center rappresentino solo una frazione delle emissioni globali, la crescita delle dimensioni dei modelli e la loro crescente diffusione potrebbero incrementare notevolmente tale impatto. D'altra parte, vi sono iniziative per rendere i modelli più efficienti dal punto di vista energetico, e l'AI stessa potrebbe essere utilizzata per sviluppare tecnologie volte a ridurre l'impatto ambientale, come nuovi materiali per l'energia rinnovabile o algoritmi per ottimizzare la distribuzione dell'energia. Per mitigare questi rischi, è essenziale adottare una strategia che includa una regolamentazione responsabile dell'uso dell'AI, il supporto alla diversità nella comunità scientifica e lo sviluppo di strumenti che rendano i modelli più trasparenti e comprensibili. Inoltre, è necessario promuovere politiche che garantiscano l'accesso equo alle tecnologie di AI e incoraggino l'uso sostenibile delle risorse computazionali, per assicurare che il progresso scientifico alimentato dall'AI possa essere condiviso equamente da tutta l'umanità.   AI e innovazione globale - regolamentazioni e strategie per la scienza Per sfruttare appieno le potenzialità dell'AI nella scienza, è necessaria una strategia politica chiara e ambiziosa che si articoli su più livelli. Un primo passo fondamentale è la definizione di obiettivi scientifici concreti , che funzionino da guida per indirizzare la ricerca e l'utilizzo dell'AI verso problemi cruciali. I cosiddetti "Problemi di Hilbert" per l'AI nella scienza potrebbero fornire una piattaforma importante per identificare le questioni più pressanti che l'AI potrebbe contribuire a risolvere. I governi e gli enti di ricerca dovrebbero lanciare iniziative per individuare questi problemi, definendo parametri chiari e finanziando specifiche competizioni che incentivino scienziati e ingegneri a trovare soluzioni innovative tramite l'uso dell'AI. Questo approccio non solo aiuterebbe a concentrare risorse e competenze su sfide di elevato impatto, ma fornirebbe anche una visione comune e condivisa a livello internazionale. Una rete internazionale di Osservatori dei Dati per la Scienza  dovrebbe essere istituita per affrontare le carenze croniche nei dataset scientifici disponibili, soprattutto in settori meno rappresentati come l'ecologia, la biodiversità e le scienze sociali. Gli osservatori potrebbero condurre periodiche "valutazioni rapide dei dati" in vari campi di applicazione, mappando le lacune esistenti e individuando dataset sottoutilizzati o di difficile accesso. Tali osservatori potrebbero anche promuovere la creazione di nuovi dataset che, se adeguatamente gestiti e mantenuti, potrebbero rivelarsi fondamentali per il progresso scientifico. Questo tipo di sforzo deve essere sostenuto da adeguati incentivi sia per i singoli ricercatori che per le istituzioni, al fine di garantire la sostenibilità e l'aggiornamento costante delle risorse di dati. È cruciale che i dati generati da esperimenti strategici siano conservati e resi accessibili, ove possibile, creando infrastrutture adeguate all’archiviazione e il recupero dei dati. Un altro aspetto cruciale riguarda la necessità di investire in programmi di formazione e sviluppo delle competenze . L'AI sta diventando uno strumento scientifico essenziale e, come tale, deve entrare a far parte del curriculum formativo degli scienziati a tutti i livelli. Dovrebbe essere disponibile un'ampia gamma di programmi formativi, dai corsi introduttivi di AI per studenti universitari, a corsi di specializzazione e borse di studio per ricercatori senior. Inoltre, è fondamentale che ogni scienziato sia in grado di accedere a competenze di base sull'utilizzo di modelli AI per supportare la propria ricerca, con corsi che trattino l'utilizzo responsabile degli LLM e il fine-tuning dei modelli per specifici obiettivi di ricerca. Solo attraverso un'alfabetizzazione scientifica estesa e profonda sull'AI sarà possibile sfruttare appieno il potenziale dell'AI nella ricerca. Le infrastrutture computazionali  giocano un ruolo determinante. Attualmente, molte istituzioni scientifiche, in particolare nei paesi a basso e medio reddito, non hanno accesso a risorse computazionali adeguate. I governi devono quindi finanziare infrastrutture condivise, come cloud pubblici dedicati alla ricerca scientifica, per garantire a tutti i ricercatori un accesso equo alla potenza di calcolo necessaria. Allo stesso tempo, deve essere posta attenzione all'efficienza energetica di queste infrastrutture per minimizzare il loro impatto ambientale. Un approccio sostenibile all'AI nella scienza deve includere soluzioni che consentano l'ottimizzazione dell'uso delle risorse energetiche, attraverso una combinazione di innovazioni tecnologiche e scelte infrastrutturali attente all'ambiente. Le partnership tra pubblico e privato  sono essenziali per lo sviluppo dell'AI nella scienza. Le collaborazioni con aziende tecnologiche possono accelerare il trasferimento di tecnologie avanzate dai laboratori di ricerca alle applicazioni pratiche. Tuttavia, è fondamentale che queste collaborazioni siano strutturate per garantire un accesso equo e che i benefici dell'innovazione siano condivisi con la collettività. Politiche di incentivazione come sgravi fiscali o finanziamenti per progetti collaborativi possono stimolare la cooperazione tra settori, assicurando che i risultati delle ricerche nate da queste partnership siano di pubblico dominio e disponibili per la comunità scientifica globale. Infine, è necessario sviluppare un quadro normativo  adeguato ad affrontare i rischi legati all'uso dell'AI, come la trasparenza dei modelli, la protezione della privacy e la sicurezza. La regolamentazione dovrebbe includere linee guida che assicurino che i modelli AI siano sottoposti a rigorosi processi di verifica e validazione, e che i dati utilizzati per il loro addestramento siano gestiti in modo etico e responsabile. È cruciale anche promuovere una cultura della responsabilità  nella comunità scientifica, in cui i ricercatori siano consapevoli delle implicazioni etiche del loro lavoro e collaborino con legislatori e stakeholder per sviluppare soluzioni che siano sicure, affidabili e rispettose dei diritti umani. L'adozione dell'AI nella scienza non è un processo lineare e richiede un adattamento continuo. Sarà fondamentale trovare un equilibrio tra creatività umana e automazione, tra intuizione e rigore computazionale. Tuttavia, con politiche adeguate e un utilizzo responsabile dell'AI, potremmo essere all'inizio di un nuovo periodo di scoperte che renderà la scienza più efficiente, accessibile e capace di affrontare le sfide più grandi del nostro tempo.   Conclusioni L’adozione dell’intelligenza artificiale (AI) nella scienza sta tracciando un percorso che offre spunti cruciali anche per il mondo delle imprese.  La capacità dell’AI di trasformare processi complessi in soluzioni efficienti e scalabili è un paradigma che le aziende devono abbracciare non solo come strumento tecnico, ma come strategia di innovazione sistemica.  Tuttavia, la vera sfida non è solo tecnologica, ma culturale: il modo in cui le imprese integreranno l’AI determinerà la loro capacità di competere in un mercato sempre più interconnesso e basato sulla conoscenza. Un primo insegnamento fondamentale è  la necessità di bilanciare velocità e profondità.  Nella scienza, l’AI accelera la raccolta e l’elaborazione dei dati, ma deve essere ancorata a obiettivi strategici per evitare risultati superficiali o non replicabili. Le aziende, similmente, devono evitare la "sindrome della novità" — l'adozione impulsiva di strumenti AI per ragioni di marketing o moda — e concentrarsi su implementazioni che abbiano un impatto tangibile sul core business. Un esempio chiave potrebbe essere l'uso di modelli predittivi non solo per analisi di mercato, ma per anticipare tendenze strutturali, come le esigenze emergenti dei consumatori o le vulnerabilità della supply chain. Un secondo aspetto cruciale riguarda la democratizzazione dell’accesso alle competenze.  Così come nella scienza è necessario investire in formazione per rendere l’AI accessibile a tutti i ricercatori, nelle aziende è essenziale creare un ecosistema in cui la conoscenza sull’AI non sia appannaggio esclusivo degli esperti tecnici.  L’alfabetizzazione AI deve essere estesa a dirigenti, team di marketing e persino alle funzioni tradizionalmente distanti dalla tecnologia, come le risorse umane.  Questa democratizzazione non solo favorisce un’adozione più rapida, ma permette all’AI di generare valore in modo trasversale. Tuttavia, il vero vantaggio competitivo emerge dall’approccio alla collaborazione.  Le partnership tra pubblico e privato che stanno accelerando l’innovazione scientifica forniscono un modello replicabile per le imprese.  Le aziende devono imparare a lavorare non solo con i propri stakeholder tradizionali, ma anche con ecosistemi esterni, come startup, università e centri di ricerca, per co-creare soluzioni basate sull’AI. Le partnership devono essere progettate per condividere benefici e conoscenze, evitando che gli squilibri nelle risorse tecnologiche o economiche diventino un ostacolo all’innovazione diffusa. Ma il valore dell’AI non risiede solo nella sua capacità di produrre efficienza, bensì nella sua potenzialità di sfidare lo status quo.  Una lezione importante che emerge dall’uso dell’AI nella scienza è il rischio di appiattire la creatività e l’intuizione, elementi che rimangono centrali sia per le scoperte scientifiche sia per il vantaggio competitivo delle aziende. Le imprese devono quindi considerare l’AI non come un sostituto della creatività umana, ma come un acceleratore. Un esempio è l’uso dell’AI per generare scenari futuri che i team creativi possano esplorare, trasformandoli in strategie innovative e dirompenti. Infine, l’aspetto etico e sostenibile dell’AI è una dimensione che le aziende non possono trascurare.  Così come la scienza deve affrontare il dilemma del consumo energetico e della trasparenza dei modelli AI, le imprese devono anticipare le crescenti richieste di responsabilità da parte dei consumatori e dei regolatori.  Adottare pratiche di AI sostenibile, trasparente e inclusiva diventerà non solo un obbligo morale, ma un vantaggio competitivo differenziante, che posizionerà le aziende come leader di mercato. In sintesi,  l’AI offre al mondo delle imprese un’opportunità senza precedenti per reimmaginare il futuro.  Tuttavia, il successo richiede visione strategica, capacità di collaborazione e un approccio che bilanci innovazione tecnologica e sensibilità umana.   Podcast: https://spotifycreators-web.app.link/e/dwMHOB2oQOb Fonte: https://storage.googleapis.com/deepmind-media/DeepMind.com/Assets/Docs/a-new-golden-age-of-discovery_nov-2024.pdf

  • Generative Artificial Intelligence (GenAI) and Strategies for the Future of Work

    Generative Artificial Intelligence (GenAI) is rapidly changing the world of work. According to the latest survey by the World Economic Forum on the future of employment, over the next five years, companies expect that advancements in GenAI could transform a significant portion of current work activities, potentially impacting around 40% of global working hours. However, the adoption of this technology raises many questions about how to enhance workforce productivity through collaboration between humans and machines, while also considering ethical and social implications. In this article, we will examine future scenarios and strategies to leverage GenAI as a tool to boost productivity, drawing from case studies of pioneering companies and a practical framework for action. The Potential of GenAI for Productivity Enhancement GenAI has the potential to significantly increase productivity at both the individual and organizational levels. According to a 2023 study by McKinsey, the adoption of GenAI could boost global productivity by up to 1.4% annually, generating economic value ranging from $2.6 to $4.4 trillion per year. This value primarily comes from the automation of repetitive and low-value tasks, such as email management, preparation of standardized reports, and other administrative duties. In a business context, natural language generation capabilities can enable significant reductions in document processing times. For instance, it has been estimated that using ChatGPT can cut the time needed for drafting documents by up to 50%, with an estimated 18% improvement in the overall quality of the work done. This kind of improvement is particularly relevant in sectors like finance and law, where documentation activities form a significant part of daily operations. Another notable example is the use of GenAI for customer support: the implementation of advanced chatbots has allowed several companies to reduce response times to simple requests by up to 70%, improving both customer experience and operational efficiency. In manufacturing, generative AI is used to improve supply chain management, helping to reduce lead times and enhance demand forecasting accuracy. Additionally, GenAI can support the workforce in decision-making by processing large volumes of data. For example, predictive analytics tools based on GenAI can help managers make more informed decisions regarding human resource management, such as workforce planning and training, thereby improving the overall effectiveness of business operations. Despite these benefits, it is important to consider the challenges associated with GenAI adoption. Among the main obstacles are the quality of the data used, the possibility of biases in the models, and the need to ensure transparency and interpretability in automated decisions. It has been found that, for each successful implementation, it is necessary to develop robust data governance and a technological infrastructure capable of supporting the workloads generated by AI. Finally, trust in GenAI plays a crucial role in determining the success of adoption. According to a recent survey, about 47% of workers expressed concerns about the potential negative impact of GenAI on their jobs. To overcome these challenges, organizations must invest in training programs that help employees understand the benefits of human-machine collaboration and develop the skills needed to make the most of these tools. Future Scenarios for GenAI Adoption Future scenarios for the adoption of GenAI present various possibilities related to user trust and technological progress. According to the World Economic Forum report, one of the main determining factors is the level of trust that both companies and workers place in GenAI-based solutions. For example, scenarios characterized by high trust and significant advances in technology quality foresee productivity increases of up to 20% in certain sectors, such as manufacturing and financial services, thanks to the ability to integrate AI into operational and decision-making processes. In these sectors, GenAI can optimize resource allocation and improve the quality of forecasts, resulting in significant cost savings and reduced operational inefficiencies. In a scenario of low trust but with continuous improvement in technology quality, companies might continue to invest in GenAI for non-critical activities, such as the automation of repetitive tasks. In this case, GenAI adoption would mainly occur to contain costs, with limited impact on business model transformation and innovation of services offered. Companies might focus on using AI for low-risk tasks, such as supporting internal functions (e.g., automated responses to FAQs), while integration into key decision-making processes would remain limited due to concerns about data security and algorithm transparency. Scenarios of high trust without significant improvements in GenAI quality could instead lead to unmet expectations. Companies would invest significant resources in developing GenAI solutions without seeing concrete returns on investment, causing frustration and, in some cases, reducing interest in continuing to adopt the technology. This phenomenon, known as the "hype cycle," highlights the importance of realistic alignment between expectations and actual technological capabilities. For instance, a study found that companies that heavily invested in GenAI without having an adequate data infrastructure experienced a 15% lower return on investment compared to those with more robust technological preparation. The most optimistic scenario, in which both trust and technology quality grow simultaneously, presents the greatest potential for change. In this context, GenAI becomes an integral part of decision-making processes, supporting not only operational efficiency but also the transformation of business models and service innovation. Companies could increase project management efficiency by 30% through the use of GenAI systems capable of analyzing large volumes of data, identifying patterns, and providing precise recommendations. Furthermore, improving the reliability and transparency of GenAI models could help increase employee trust, promoting broader operational adoption and enhancing the organizational climate. These scenarios highlight that the success of GenAI adoption will depend on companies' ability to build trust through responsible AI management, transparency, and adequate workforce training. According to the World Economic Forum, achieving a high level of trust and widespread adoption of GenAI could contribute to a 4% increase in global productivity by 2030, with widespread benefits for the economy and society as a whole. Lessons Learned from Early Adopters Early adopters of GenAI confirm that the true success of the technology does not only depend on the machine's ability to perform technical tasks but also on its acceptance by the workforce. According to the World Economic Forum report, 70% of respondents highlighted that active employee involvement is essential for the successful adoption of GenAI. Organizations that achieved the best results are those that integrated a combined "bottom-up" and "top-down" approach. The bottom-up approach allows workers to experiment with the technology in their daily activities and identify new opportunities for use. According to the collected data, organizations that applied this approach saw a 25% increase in the speed of identifying and developing new use cases compared to those that did not actively involve the workforce. Another important lesson concerns risk management. Among early adopters, about 60% of organizations have established internal committees or specific boards for evaluating GenAI solutions. These committees are composed of members from risk, compliance, IT, and strategy functions, and are tasked with ensuring that AI adoption meets internal standards and mitigating risks related to bias, security, and sustainability. Organizations that implemented these committees observed a 30% reduction in bias-related issues and greater employee trust. In terms of scalability, data-driven organizations—those with a solid data infrastructure and governance—were able to implement GenAI solutions more quickly than those without a strong technological foundation. 65% of the surveyed organizations indicated that a robust data infrastructure was a determining factor in accelerating the experimentation phase and reducing adoption times. Moreover, organizations that invested in employee training and fostering a culture open to innovation saw a 40% increase in confidence and acceptance of the technology. The importance of change management was another key lesson. About 80% of early adopters emphasized the need for a gradual approach to avoid internal resistance and facilitate a smooth transition. Organizations that adopted a gradual implementation model, starting with small experimentation groups and then extending adoption, reported a 35% higher success rate compared to those that attempted rapid and widespread deployment. Finally, collaboration with technology partners was identified as a crucial element in accelerating GenAI adoption. 55% of the surveyed organizations stated that they had collaborated with external partners to develop customized solutions and improve their technological infrastructure, benefiting from the experience and additional resources provided by partners. This type of collaboration led to a 20% reduction in development costs and an increase in the quality of implemented solutions. A Framework for Organizations The proposed framework for promoting the adoption of GenAI in organizations is based on the experience of early adopters and focuses on two main themes: enablement and engagement. Regarding enablement, it is essential that organizations develop a clear strategic vision for GenAI adoption, accompanied by a robust technological infrastructure and governance that ensures compliance with current regulations. 68% of early adopters highlighted the importance of a solid technological infrastructure as a prerequisite for GenAI success. These organizations invested in scalable technologies and created responsible governance systems that ensure data quality and ethical AI use. Compliance with regulations is not only a technical issue but also a fundamental component for building internal and external trust in technology adoption. Another crucial element of the framework is engagement. Cultural change within the organization has been identified as a key factor for effective GenAI adoption. About 75% of organizations indicated that promoting a culture open to innovation and implementing training programs were key elements for success. It was also found that organizations that adopted an iterative approach, characterized by initial experimentation phases and subsequent application expansions, experienced a significant increase in adoption effectiveness and employee satisfaction. Effective use of GenAI also requires skills management and strategic human resource planning. According to the report, 62% of respondents indicated that retraining and upskilling workers were essential for integrating AI into existing workflows. Organizations that invested in training and skill development saw a 30% increase in employees' ability to make the most of GenAI solutions. Finally, use case management is a fundamental aspect of the framework. Organizations must identify and develop strategic use cases that can demonstrate the concrete benefits of GenAI and improve business outcomes. Strategic selection of use cases, accompanied by continuous measurement of results and adaptation of strategies based on feedback, was identified as a best practice by early adopters. 58% of organizations reported that proactive identification and management of use cases were crucial for achieving effective and scalable GenAI adoption. Conclusions The adoption of Generative Artificial Intelligence (GenAI) represents one of those transformations that, at first glance, seems to offer an immediate and extraordinary competitive advantage but requires more in-depth reflection to truly understand its strategic impact. We are facing a technology capable of transforming work in both a positive and destabilizing way, and the real challenge lies in how companies will balance its potential with the complexities of its implementation. Think about the economic value that GenAI can generate: automating repetitive tasks, accelerating decision-making processes, optimizing the supply chain. Numbers like an annual 1.4% increase in global productivity or 70% savings in response times to customer requests are not only impressive; they reflect how quickly the competitive landscape can change. However, it is not the technology itself that creates value, but the ability to integrate it into a human system that maximizes its impact without suffering undesirable consequences. The main risk, in fact, is falling in love with the concept of efficiency without considering that efficiency itself, without a strategic vision, can become a double-edged sword. Automation does not just mean less repetitive work for employees; it also means the risk of disconnecting people from the processes that give meaning to their role. A worker who feels "replaced" by technology loses motivation, while one who sees AI as a tool to expand their capabilities becomes its first advocate. The difference lies in the company's approach to training and engagement. Looking at future scenarios, it is clear that trust will be the determining factor. A context of high trust and high technological quality leads to extraordinary results: innovation, transformation of business models, and productivity that concerns not only "how much" is produced but also "how." However, trust does not build itself. It requires transparency, strong governance, and a vision that goes beyond enthusiasm for technology and focuses on people. The technology may be perfect, but if the data is flawed or the models are biased, the entire system loses credibility. There is also a fundamental lesson that emerges from early adopters: there is no technological success without cultural success. The companies that achieved the best results did not just "install" AI; they created an ecosystem where technology is a tool and not the protagonist. They gave employees the opportunity to experiment, to fail, to learn. And, above all, they understood that visionary leadership must be accompanied by grassroots involvement: it is not enough for management to believe in GenAI; the operational teams must believe in it too. But there is another often underestimated aspect: strategic slowness. In a world obsessed with speed, implementing GenAI gradually might seem counterintuitive. Yet, companies that started with small pilot projects achieved more sustainable results compared to those that attempted large-scale adoption immediately. This slowness is not synonymous with delay but with reflection: each step serves to consolidate skills, identify problems, and build trust. Finally, the theme of technological partnership. No company can do everything alone. Collaborating with external experts is not just about speeding up timelines or reducing costs; it also means opening doors to new perspectives, integrating skills that are not internally available, and building an innovation ecosystem that is greater than the sum of its parts. In conclusion, GenAI is much more than a technology. It is a catalyst for change but also a test of organizations' ability to rethink themselves. The challenge is not simply to implement AI but to use it to create value in a way that is sustainable, human, and, above all, consistent with the company's long-term vision. Those who can combine technology and people will not only increase productivity but will build a corporate culture capable of facing the future with confidence and flexibility. Podcast: https://spotifycreators-web.app.link/e/fr0YTjwbQOb Source: https://www.weforum.org/publications/leveraging-generative-ai-for-job-augmentation-and-workforce-productivity/

  • Intelligenza Artificiale Generativa (GenAI) e le strategie per il futuro del lavoro

    L'intelligenza artificiale generativa (GenAI) sta cambiando rapidamente il mondo del lavoro. Secondo il più recente sondaggio del World Economic Forum sul futuro dell'occupazione, nei prossimi cinque anni le aziende prevedono che gli avanzamenti della GenAI potranno trasformare una parte significativa delle attuali attività lavorative, con un impatto potenziale su circa il 40% delle ore di lavoro globali. Tuttavia, l'adozione di questa tecnologia solleva molte domande su come migliorare la produttività della forza lavoro attraverso la collaborazione tra esseri umani e macchine, considerando al contempo le implicazioni etiche e sociali. In questo articolo esamineremo scenari futuri e strategie per sfruttare la GenAI come strumento per aumentare la produttività, basandoci su casi studio di aziende pioniere e su un quadro d'azione pratico. Il potenziale della GenAI per l'aumento della produttività La GenAI ha il potenziale per incrementare significativamente la produttività sia a livello individuale che organizzativo. Secondo uno studio di McKinsey del 2023, l'adozione della GenAI potrebbe incrementare la produttività globale fino al 1,4% all'anno, generando un valore economico che va dai 2,6 ai 4,4 trilioni di dollari l'anno. Questo valore deriva principalmente dall'automazione delle attività ripetitive e a basso valore, come la gestione delle e-mail, la preparazione di report standardizzati e altre mansioni amministrative. In un contesto aziendale, le capacità di generazione del linguaggio naturale possono consentire riduzioni significative dei tempi di elaborazione dei documenti. Ad esempio, è stato stimato che l'uso di ChatGPT può ridurre i tempi necessari per la redazione di documenti fino al 50%, con un aumento stimato del 18% nella qualità complessiva del lavoro svolto. Questo tipo di miglioramento è particolarmente rilevante in settori come quello finanziario e legale, dove le attività di documentazione costituiscono una parte rilevante delle operazioni quotidiane. Un altro esempio significativo è l'uso della GenAI per il supporto clienti: l'implementazione di chatbot avanzati ha permesso a diverse aziende di ridurre fino al 70% i tempi di risposta a richieste semplici, migliorando sia l'esperienza del cliente sia l'efficienza operativa. In ambito produttivo, l'AI generativa viene utilizzata per migliorare la gestione della catena di approvvigionamento, contribuendo a ridurre i tempi di attesa e migliorare la precisione delle previsioni di domanda. Inoltre, la GenAI può supportare la forza lavoro nella fase decisionale attraverso l'elaborazione di grandi volumi di dati. Ad esempio, strumenti di analisi predittiva basati su GenAI possono aiutare i manager a prendere decisioni più informate riguardo alla gestione delle risorse umane, come la pianificazione del personale e la formazione, migliorando l'efficacia complessiva delle operazioni aziendali. Nonostante questi benefici, è importante considerare le sfide legate all'adozione di GenAI. Tra i principali ostacoli ci sono la qualità dei dati utilizzati, la possibilità di bias nei modelli, e la necessità di garantire trasparenza e interpretabilità nelle decisioni automatizzate. È stato riscontrato che, per ogni implementazione di successo, è necessario sviluppare una robusta governance dei dati e un'infrastruttura tecnologica in grado di supportare i carichi di lavoro generati dall'AI. Infine, la fiducia nella GenAI gioca un ruolo cruciale nel determinare il successo dell'adozione. Secondo una recente indagine, circa il 47% dei lavoratori ha espresso preoccupazioni sul possibile impatto negativo della GenAI sul loro lavoro. Per superare queste sfide, le organizzazioni devono investire in programmi di formazione che aiutino i dipendenti a comprendere i vantaggi della collaborazione uomo-macchina e a sviluppare le competenze necessarie per utilizzare al meglio questi strumenti.   Scenari futuri per l'adozione della GenAI Gli scenari futuri per l'adozione della GenAI presentano diverse possibilità in relazione alla fiducia degli utenti e ai progressi tecnologici. Secondo il rapporto del World Economic Forum, uno dei principali fattori determinanti è il livello di fiducia che sia le aziende sia i lavoratori ripongono nelle soluzioni basate sulla GenAI. Ad esempio, scenari caratterizzati da alta fiducia e progressi significativi nella qualità della tecnologia prevedono un aumento della produttività fino al 20% in determinati settori, come la produzione manifatturiera e i servizi finanziari, grazie alla capacità di integrare l'AI nei processi operativi e decisionali. In questi settori, la GenAI è in grado di ottimizzare l'allocazione delle risorse e migliorare la qualità delle previsioni, con conseguenti risparmi significativi in termini di costi e una riduzione delle inefficienze operative. In uno scenario di bassa fiducia ma con un miglioramento costante della qualità della tecnologia, le aziende potrebbero continuare a investire in GenAI per attività non critiche, come l'automazione di task ripetitivi. In questo caso, l'adozione della GenAI avverrebbe principalmente per contenere i costi, con un impatto limitato sulla trasformazione dei modelli di business e sull'innovazione dei servizi offerti. Le aziende potrebbero focalizzarsi sull'uso dell'AI per compiti a basso rischio, come il supporto alle funzioni interne (ad esempio, risposte automatizzate alle FAQ), mentre l'integrazione nei processi decisionali chiave resterebbe limitata a causa di preoccupazioni riguardo alla sicurezza dei dati e alla trasparenza degli algoritmi. Gli scenari di alta fiducia senza miglioramenti significativi nella qualità della GenAI potrebbero portare invece a un eccesso di aspettative non soddisfatte. Le aziende investirebbero risorse rilevanti nello sviluppo di soluzioni GenAI senza vedere ritorni concreti sugli investimenti, causando frustrazione e, in alcuni casi, una riduzione dell'interesse nel continuare a adottare la tecnologia. Questo fenomeno, noto come "ciclo di hype", evidenzia l'importanza di un allineamento realistico tra aspettative e capacità tecnologiche reali. Ad esempio, uno studio ha rilevato che le aziende che avevano investito pesantemente in GenAI senza disporre di un'infrastruttura dati adeguata hanno registrato un ritorno sugli investimenti inferiore del 15% rispetto alle aziende con una preparazione tecnologica più solida. Lo scenario più ottimistico, in cui sia la fiducia che la qualità della tecnologia crescono simultaneamente, è quello che presenta le maggiori potenzialità di cambiamento. In questo contesto, la GenAI diventa parte integrante dei processi decisionali, supportando non solo l'efficienza operativa, ma anche la trasformazione dei modelli di business e l'innovazione dei servizi. Le aziende potrebbero aumentare del 30% l'efficienza nella gestione dei progetti complessi grazie all'uso di sistemi GenAI in grado di analizzare grandi volumi di dati, identificare schemi e fornire raccomandazioni precise. Inoltre, il miglioramento dell'affidabilità e della trasparenza dei modelli GenAI potrebbe contribuire ad aumentare la fiducia dei dipendenti, promuovendo una maggiore adozione a livello operativo e migliorando il clima aziendale. Questi scenari evidenziano che il successo dell'adozione della GenAI dipenderà dalla capacità delle aziende di costruire fiducia attraverso una gestione responsabile dell'AI, trasparenza e una formazione adeguata della forza lavoro. Secondo il World Economic Forum, il raggiungimento di un livello elevato di fiducia e l'adozione generalizzata della GenAI potrebbero contribuire a una crescita della produttività globale fino al 4% entro il 2030, con benefici diffusi per l'economia e la società nel suo complesso.   Lezioni apprese dagli adottatori precoci Gli adottatori precoci della GenAI confermano che il vero successo della tecnologia non dipende soltanto dalla capacità della macchina di svolgere compiti tecnici, ma anche dalla sua accettazione da parte della forza lavoro. Secondo quanto riportato nel rapporto del World Economic Forum, il 70% degli intervistati ha evidenziato come il coinvolgimento attivo dei dipendenti sia fondamentale per il successo dell'adozione della GenAI. Le organizzazioni che hanno ottenuto i migliori risultati sono quelle che hanno integrato un approccio combinato "dal basso verso l'alto" (bottom-up) e "dall'alto verso il basso" (top-down). L'approccio bottom-up consente ai lavoratori di sperimentare la tecnologia nelle loro attività quotidiane e identificare nuove opportunità di utilizzo. Secondo i dati raccolti, le organizzazioni che hanno applicato questo approccio hanno registrato un aumento del 25% nella velocità di individuazione e sviluppo di nuovi casi d'uso rispetto a quelle che non hanno coinvolto attivamente la forza lavoro. Un'altra lezione importante riguarda la gestione del rischio. Tra gli adottatori precoci, circa il 60% delle organizzazioni ha istituito comitati interni o consigli specifici per la valutazione delle soluzioni GenAI. Questi comitati sono composti da membri delle funzioni di rischio, conformità, IT e strategia, e hanno il compito di garantire che l'adozione dell'AI rispetti gli standard interni e mitigare i rischi legati a bias, sicurezza e sostenibilità. Le organizzazioni che hanno implementato questi comitati hanno osservato una riduzione del 30% delle problematiche relative a bias e una maggiore fiducia da parte dei dipendenti. In termini di scalabilità, le organizzazioni data-driven, ovvero quelle che hanno una solida infrastruttura di dati e governance, sono state in grado di implementare soluzioni GenAI in tempi più rapidi rispetto a quelle prive di una base tecnologica solida. Il 65% delle organizzazioni intervistate ha indicato che una robusta infrastruttura di dati è stata un fattore determinante per accelerare la fase di sperimentazione e ridurre i tempi di adozione. Inoltre, le organizzazioni che hanno investito nella formazione dei dipendenti e nella creazione di una cultura aziendale aperta all'innovazione hanno visto un aumento del 40% nella fiducia e nell'accettazione della tecnologia. L'importanza della gestione del cambiamento è stata un'altra lezione chiave. Circa l'80% degli adottatori precoci ha sottolineato la necessità di un approccio graduale per evitare resistenze interne e favorire una transizione senza traumi. Le organizzazioni che hanno adottato un modello di implementazione graduale, iniziando con piccoli gruppi di sperimentazione per poi estendere l'adozione, hanno registrato un tasso di successo del 35% più elevato rispetto a quelle che hanno tentato una diffusione rapida e generalizzata. Infine, la collaborazione con partner tecnologici è stata identificata come un elemento cruciale per accelerare l'adozione della GenAI. Il 55% delle organizzazioni intervistate ha dichiarato di aver collaborato con partner esterni per sviluppare soluzioni personalizzate e migliorare la propria infrastruttura tecnologica, beneficiando dell'esperienza e delle risorse aggiuntive fornite dai partner. Questo tipo di collaborazione ha portato a una riduzione del 20% dei costi di sviluppo e a un aumento della qualità delle soluzioni implementate.   Un quadro d'azione per le organizzazioni Il quadro d'azione proposto per promuovere l'adozione della GenAI nelle organizzazioni si basa sull'esperienza degli adottatori precoci e si concentra su due temi principali: abilitare e coinvolgere. Per quanto riguarda l'abilitazione, è essenziale che le organizzazioni sviluppino una visione strategica chiara sull'adozione della GenAI, accompagnata da un'infrastruttura tecnologica robusta e da una governance che garantisca la conformità alle normative vigenti. Il 68% degli adottatori precoci ha evidenziato l'importanza di un'infrastruttura tecnologica solida come prerequisito per il successo della GenAI. Queste organizzazioni hanno investito in tecnologie scalabili e nella creazione di sistemi di governance responsabili che garantiscono la qualità dei dati e l'uso etico dell'AI. La conformità alle normative non è solo una questione tecnica, ma anche una componente fondamentale per costruire la fiducia interna ed esterna nell'adozione della tecnologia. Un altro elemento cruciale del quadro d'azione è il coinvolgimento. Il cambiamento culturale all'interno dell'organizzazione è stato identificato come il fattore determinante per l'adozione efficace della GenAI. Circa il 75% delle organizzazioni ha indicato che la promozione di una cultura aperta all'innovazione e l'implementazione di programmi di formazione sono stati elementi chiave per il successo. È stato inoltre rilevato che le organizzazioni che hanno adottato un approccio iterativo, caratterizzato da fasi iniziali di sperimentazione e successivi ampliamenti delle applicazioni, hanno registrato un aumento significativo nell'efficacia dell'adozione e nella soddisfazione dei dipendenti. L'uso efficace della GenAI richiede anche una gestione delle competenze e una pianificazione strategica delle risorse umane. Secondo il rapporto, il 62% degli intervistati ha indicato che la riqualificazione e l'aggiornamento delle competenze dei lavoratori sono stati fondamentali per integrare l'AI nei flussi di lavoro esistenti. Le organizzazioni che hanno investito nella formazione e nello sviluppo delle competenze hanno visto un aumento del 30% nella capacità dei dipendenti di sfruttare al meglio le soluzioni di GenAI. Infine, la gestione dei casi d'uso è un aspetto fondamentale del quadro d'azione. Le organizzazioni devono identificare e sviluppare casi d'uso strategici che possano dimostrare i benefici concreti della GenAI e migliorare i risultati aziendali. La selezione strategica dei casi d'uso, accompagnata da una misurazione continua dei risultati e dall'adattamento delle strategie in base ai feedback, è stata identificata come una delle migliori pratiche dagli adottatori precoci. Il 58% delle organizzazioni ha riferito che l'identificazione e la gestione proattiva dei casi d'uso sono state determinanti per ottenere un'adozione efficace e scalabile della GenAI.   Conclusioni L’adozione dell’intelligenza artificiale generativa (GenAI) rappresenta una di quelle trasformazioni che, a prima vista, sembrano offrire un vantaggio competitivo immediato e straordinario, ma che richiedono una riflessione più approfondita per comprenderne realmente l’impatto strategico.  Ci troviamo di fronte a una tecnologia capace di rivoluzionare il lavoro in modo tanto positivo quanto destabilizzante, e il vero nodo sta nel come le aziende sapranno bilanciare il potenziale con le complessità legate alla sua implementazione. Pensiamo al valore economico che la GenAI può generare: automazione delle attività ripetitive, accelerazione dei processi decisionali, ottimizzazione della supply chain. Numeri come un incremento annuo dell’1,4% della produttività globale o risparmi del 70% nei tempi di risposta alle richieste dei clienti non sono soltanto impressionanti; sono uno specchio di quanto velocemente il contesto competitivo possa cambiare. Eppure,  non è la tecnologia in sé a creare valore, ma la capacità di integrarla in un sistema umano che ne massimizzi l’impatto senza subirne le conseguenze indesiderate . Il rischio principale, infatti, è quello di innamorarsi del concetto di efficienza senza considerare che l’efficienza stessa, senza una visione strategica, può diventare un’arma a doppio taglio. Automazione non significa solo meno lavoro ripetitivo per i dipendenti; significa anche il rischio di disconnettere le persone dai processi che danno senso al loro ruolo.  Un lavoratore che si sente "sostituito" dalla tecnologia perde motivazione, mentre uno che vede l’AI come uno strumento per ampliare le proprie capacità ne diventa il primo promotore. La differenza sta nell’approccio dell’azienda alla formazione e al coinvolgimento. Guardando agli scenari futuri, è chiaro che la fiducia sarà il fattore determinante. Un contesto di alta fiducia e alta qualità tecnologica porta a risultati straordinari: innovazione, trasformazione dei modelli di business e una produttività che non riguarda solo "quanto" si produce, ma anche "come". Tuttavia, la fiducia non si costruisce da sola.  Serve trasparenza, una governance forte e una visione che vada oltre l’entusiasmo per la tecnologia e si concentri sulle persone. La tecnologia può essere perfetta, ma se i dati sono sbagliati o i modelli hanno bias, l’intero sistema perde credibilità. C’è poi una lezione fondamentale che emerge dagli adottatori precoci:  non esiste successo tecnologico senza successo culturale.  Le aziende che hanno ottenuto i risultati migliori non si sono limitate a “installare” l’AI; hanno creato un ecosistema in cui la tecnologia è uno strumento e non il protagonista. Hanno dato ai dipendenti l’opportunità di sperimentare, di sbagliare, di imparare. E, soprattutto, hanno capito che una leadership visionaria deve essere accompagnata da un coinvolgimento capillare: non basta che il management creda nella GenAI, devono crederci anche i team operativi. Ma c’è un altro aspetto spesso sottovalutato:  la lentezza strategica.  In un mondo ossessionato dalla velocità, implementare la GenAI in modo graduale può sembrare controintuitivo. Eppure, le aziende che hanno iniziato con piccoli progetti pilota hanno ottenuto risultati più sostenibili rispetto a chi ha tentato un’adozione su larga scala fin da subito. Questa lentezza non è sinonimo di ritardo, ma di riflessione: ogni passo serve a consolidare competenze, a identificare problemi e a generare fiducia. Infine, il tema della partnership tecnologica.  Nessuna azienda può fare tutto da sola.  Collaborare con esperti esterni non è solo una questione di accelerare i tempi o ridurre i costi; significa anche aprire le porte a nuove prospettive, integrare competenze che non si possiedono internamente e costruire un ecosistema di innovazione che sia più grande della somma delle sue parti. In conclusione, la GenAI è molto più di una tecnologia. È un catalizzatore di cambiamento, ma anche un banco di prova per la capacità delle organizzazioni di ripensarsi. La sfida non è semplicemente implementare l’AI, ma usarla per creare valore in un modo che sia sostenibile, umano e, soprattutto, coerente con la visione di lungo termine dell’azienda.  Chi saprà unire tecnologia e persone non solo aumenterà la produttività, ma costruirà una cultura aziendale capace di affrontare il futuro con fiducia e flessibilità.   Podcast: https://spotifycreators-web.app.link/e/oueQl826POb Fonte: https://www.weforum.org/publications/leveraging-generative-ai-for-job-augmentation-and-workforce-productivity/

  • How GitHub Copilot's Generative AI Transforms Developers' Work

    Recent innovations in artificial intelligence (AI), particularly in the field of generative AI, are profoundly changing the way work is carried out, especially in the knowledge economy sector. These changes can be compared to historical transformations such as the invention of the printing press or the internal combustion engine, which marked a turning point in human history. A study conducted by Manuel Hoffmann and colleagues, in collaboration with Harvard Business School, Microsoft, and GitHub, analyzed how the adoption of AI tools, such as GitHub Copilot, has influenced the distribution of tasks among open source software (OSS) developers. Specifically, this study examined the effects of GitHub Copilot, a code completion assistant based on generative AI models, on the distribution of work among developers. The Experiment: Introducing GitHub Copilot The introduction of GitHub Copilot to OSS developers represented a unique opportunity to empirically study the impact of generative AI on the distribution of work activities. GitHub offered free access to Copilot to a selected group of prominent OSS developers. The experimental design was based on a Regression Discontinuity Design (RDD) method, which made it possible to isolate the specific effect of using Copilot from confounding variables. This approach allowed for a quasi-experimental analysis of the causal effects of adopting generative AI. Specifically, the discontinuity element was the ranking, used as a threshold to determine who would get free access to Copilot and who would not. In this way, it was possible to precisely observe the differences between developers who adopted Copilot and those who did not, ensuring that these differences were primarily attributable to the introduction of AI. Another key aspect of the experiment was the variety and granularity of the data collected. Millions of weekly activities of individual developers were observed between 2022 and 2024. These activities included coding actions, such as committing code and creating new repositories, as well as project management actions, such as issue reviews, pull request management, and other organizational activities. This wide range of data allowed the researchers to obtain a detailed picture of how Copilot's use changed the distribution of work activities, improving productivity and reducing the managerial burden for many developers. The experiment showed that access to Copilot led to a significant increase in coding activities and a reduction in project management activities. In particular, developers with free access were able to dedicate more time to writing code, while bureaucratic and managerial activities decreased by 10%. This made their work more efficient and focused on core business activities. The change was even more evident among the "top developers," who could leverage Copilot to reduce time spent on review and issue management tasks, allowing them to focus more on the creative and technical aspects of their work. An interesting aspect of the experiment was the differential impact of generative AI on developers with varying skill levels. Developers with relatively lower skills benefited more from adopting Copilot. These developers, who typically face greater challenges in managing programming tasks and solving complex problems, benefited from constant and precise support from Copilot, helping them overcome technical barriers and improve their skills. The result was a significant leveling of skills within OSS communities, reducing the gap between experienced and less experienced developers. The results of this experiment were validated through other statistical methods, such as difference-in-differences analysis and matching, thus providing significant robustness to the conclusions. The use of multiple methodologies ensured that the observed changes were not attributable to random factors or other dynamics unrelated to Copilot's use. This confirmed that generative AI had a real and measurable impact on the distribution of developers' work activities. An additional innovative element of this experiment was the ability to study the phenomenon in a distributed work environment. OSS developers typically operate in geographically distributed teams and use remote collaboration tools to contribute to open source projects. The introduction of Copilot demonstrated how AI can reduce collaborative friction, improve coordination among team members, and encourage independent work. Developers were able to complete more tasks independently without necessarily involving other team members for assistance or code review. Finally, it is important to highlight the long-term effect of access to Copilot. Developers who used Copilot for extended periods showed a tendency to explore new technologies and programming languages more frequently than their peers without access. This exploration phenomenon, encouraged by ease of use and continuous support from Copilot, allowed developers to acquire new skills and expand their scope within the OSS community. Mechanisms Underlying the Change The change observed in how developers work is mainly attributable to two factors: the increase in individual work compared to group work and a greater inclination towards exploration. The arrival of tools like Copilot has deeply transformed the software development landscape, enabling professionals to focus more on autonomous activities, such as committing code and creating new repositories. One of the most relevant mechanisms that enabled this change was the reduction of collaboration friction. Thanks to real-time suggestions and completions, Copilot allows developers to tackle technical problems without having to interrupt their workflow to consult other team members. This real-time support has made professionals more independent and self-sufficient, improving operational efficiency and reducing the need for external assistance. As a result, teams can more easily meet deadlines and complete complex projects with a more autonomous approach. Another key aspect is the support offered to less experienced developers, which has significantly lowered entry barriers to the industry. Copilot acts as a continuous guide, enabling even beginner programmers to acquire skills more quickly. This mechanism has democratized access to skills, allowing anyone, regardless of initial experience, to contribute to more complex projects. AI has thus fostered leveling of opportunities within the open source community, improving the overall quality of the work produced and reducing inequalities related to experience. A further advantage of Copilot lies in its ability to promote continuous learning and skills growth. Thanks to intelligent and contextual suggestions, developers not only complete tasks more efficiently but also learn new programming patterns and solutions to complex problems. This creates a virtuous cycle: using AI accelerates skill improvement, which in turn allows them to tackle increasingly advanced challenges. Copilot serves as a virtual tutor, particularly useful for those without access to formal education, offering practical and targeted support. Another significant consequence is the reduction of cognitive load. Working on complex projects often requires understanding large amounts of pre-existing code, a task that can be extremely demanding. Copilot simplifies this process by providing timely suggestions that reduce the need to analyze every detail of the code. This allows developers to focus more on the creative and innovative aspects of their work rather than on repetitive or particularly arduous ones. The impact of Copilot also extends to the nature of collaboration within teams. Although AI reduces the need for direct interactions to solve routine technical problems, it improves the quality of collaborations by shifting the focus to strategic and creative aspects of the project. With fewer operational distractions, interactions between team members become more meaningful and productive, leading to an overall improvement in the quality of open source projects. Finally, one of the most transformative effects is the encouragement of experimentation and exploration. Copilot has reduced the risks and costs associated with experimentation, allowing developers to explore new programming languages and frameworks with greater confidence. The real-time support makes it easier to try innovative solutions without the fear of making mistakes. This has encouraged a diversification of skills within the community, accelerating the adoption of new technologies and innovative approaches. In summary, Copilot has had a profound impact on multiple aspects of developers' work, transforming not only how projects are tackled but also the dynamics of collaboration and learning within the community. Implications for the Future of Work and Society The implications of the study offer profound insights into the transformations that artificial intelligence is imprinting on the world of work and society. These changes are not limited to operational improvements in work dynamics but are substantially redefining the very meaning of work, leadership, and collaboration. The ability to delegate management activities to AI represents a turning point for organizations, especially those operating in highly complex environments. This not only frees up time and resources for key figures but also paves the way for a transformation of traditional hierarchies. The pyramidal organization, with rigid roles and defined functions, could gradually be replaced by more agile and horizontal structures. In this scenario, roles become fluid, allowing people to assume different positions depending on needs and skills. AI thus becomes not just an operational tool but a catalyst for cultural change, fostering cross-functional collaboration and individual growth. Another crucial aspect concerns the concept of leadership. The introduction of tools like Copilot allows leaders to evolve towards a more strategic and inspirational model. With less attention to operational details, leaders can focus on stimulating creativity, facilitating innovation, and building a company culture based on trust and empowerment. This type of leadership, more human and visionary, is particularly suited to the dynamic contexts of the contemporary world, where change is the norm, and the ability to adapt quickly is essential. The multiplier effect of AI on innovation is another topic of great interest. Reducing experimentation costs and democratizing access to technological tools can have a disruptive impact, especially for startups and small businesses. These entities, often limited by financial and human resources, can use AI to compete on an equal footing with industry giants. In a sense, AI becomes the great equalizer, making opportunities accessible that were previously reserved for those with superior means. This could generate a wave of widespread innovation, with ideas coming from diverse contexts and cultures enriching the global ecosystem. From a social standpoint, the democratization of technological skills is a potential game-changer. AI tools, by making advanced skills accessible even to those who have not had access to traditional or specialized educational paths, can reduce the digital divide and promote greater inclusivity. However, this democratization is not automatic: it requires systematic commitment to ensure that access to these tools is truly universal and that benefits are distributed equitably. In this context, governments, NGOs, and companies have a key role in creating infrastructure, training programs, and support networks that allow everyone to benefit from AI. The impact on work well-being is equally significant. The possibility for developers to focus more on creative activities and less on administrative ones not only improves efficiency but can reduce the risk of burnout and increase job satisfaction. This shifts the focus from a work model based on sacrifice and intensity to one based on sustainability and well-being. It is a change that could redesign business priorities, making employee well-being an essential component of organizational success. Finally, the positive impact of AI on workers with less developed skills is one of the most promising implications. Tools like Copilot, which help bridge technical gaps, allow a wider range of people to participate in complex, high-value projects. This not only promotes inclusion but generates a virtuous effect: the more people actively participate, the more diverse ideas and perspectives emerge, further fostering innovation. In summary, AI is not just a technology: it is an agent of social transformation. Its use could redesign the work landscape, making it more equitable, sustainable, and innovative. However, the full potential of this change can only be realized through conscious management and an inclusive approach that recognizes the value of AI as a tool in the service of humanity rather than as a mere substitute for its capabilities. Podcast: https://spotifycreators-web.app.link/e/myyq9rNxOOb Source:   https://www.hbs.edu/faculty/Pages/download.aspx?name=25-021.pdf

bottom of page