top of page

Risultati di ricerca

600 risultati trovati con una ricerca vuota

  • AI nella sanità tra riduzione dei costi e miglioramento delle cure

    La sanità è un tema di primaria importanza per qualsiasi paese, ma le modalità con cui viene gestita e finanziata possono variare enormemente, soprattutto quando si confrontano sistemi come quello statunitense e quello italiano. Negli Stati Uniti, il sistema sanitario è notoriamente uno dei più costosi al mondo, con una spesa che ha raggiunto oltre 4,7 trilioni di dollari nel 2023, rappresentando circa il 18% del PIL nazionale. Nonostante l’elevato investimento, il livello di assistenza non sempre rispecchia questa spesa, con una qualità percepita che, in molti casi, non supera quella di altri paesi con spese decisamente inferiori. Come sottolineato da Ramya Ganti nell’articolo “ Health Tech Expert Ramya Ganti Discusses the Influence of Artificial Intelligence on the Strained US Healthcare System “, esperta di tecnologia sanitaria, uno dei problemi principali risiede nella pesante incidenza dei costi amministrativi che potrebbero essere ridotti con un uso più efficace delle tecnologie emergenti come l'intelligenza artificiale. Ramya Ganti, professionista del settore Health Tech con un ampio background in consulenza e sviluppo strategico, sostiene che l'intelligenza artificiale potrebbe rappresentare una chiave di volta per affrontare le inefficienze del sistema sanitario statunitense. Ganti ha lavorato con diverse organizzazioni, da Deloitte al Vanderbilt Medical Center, fino alla startup Thoughtful AI, dove ha contribuito a sviluppare agenti di AI per la gestione del ciclo di fatturazione sanitaria. Secondo Ganti, il problema più grande del sistema sanitario statunitense è l'onere dei costi amministrativi, con quasi il 30% della spesa dedicata a compiti che potrebbero essere ridotti significativamente tramite l'automazione intelligente.   L'AI, infatti, potrebbe gestire gran parte delle attività burocratiche, come la verifica delle assicurazioni, l'elaborazione delle richieste di risarcimento e la pianificazione degli appuntamenti, liberando risorse umane che potrebbero essere meglio impiegate nell'assistenza diretta ai pazienti. Inoltre, la capacità dell'AI di analizzare grandi quantità di dati potrebbe migliorare l'accuratezza diagnostica e ottimizzare i piani di trattamento, riducendo errori umani e velocizzando i processi decisionali. Con l'automazione di questi compiti, l'AI potrebbe contribuire a trasferire fino a 265 miliardi di dollari all'anno in risparmi, riducendo la pressione finanziaria sia sui fornitori di assistenza sanitaria che sui pazienti.   Confronto tra il sistema sanitario statunitense e quello italiano Dall'altro lato dell'Atlantico, il sistema sanitario italiano si presenta con una configurazione diversa: con una spesa che si attesta al 6,4% del PIL per il 2024 e il 2025, l’Italia mantiene un modello di assistenza pubblica finanziato dalla fiscalità generale. Anche se la spesa pro capite è più contenuta (circa 2.473 euro), ben inferiore alla media di altri paesi europei come Francia e Germania, l'Italia riesce comunque a garantire un accesso relativamente equo alle cure mediche. Tuttavia, il sistema italiano non è esente da inefficienze, con una burocrazia che, pur incidendo meno direttamente sui costi, rappresenta comunque una sfida significativa in termini di tempi di attesa e disparità regionali nell’accesso ai servizi.   In Italia, la burocrazia sanitaria tende a manifestarsi sotto forma di complessità nei processi di prenotazione e accesso alle cure, oltre che nelle lunghe liste d'attesa per interventi specialistici. Sebbene queste problematiche siano diverse da quelle del sistema americano, la radice è spesso comune: l’eccessiva rigidità burocratica sottrae risorse preziose che potrebbero essere destinate direttamente alla cura dei pazienti. La visione di Ganti sul potenziale dell’AI si applica anche in questo contesto: un sistema più snello e tecnologicamente integrato potrebbe ridurre le inefficienze amministrative, migliorando la tempestività e l’efficacia dell’assistenza.   Potenziali benefici dell'AI nella sanità: una promessa da concretizzare L’implementazione dell’AI nella sanità potrebbe portare benefici su più fronti. Ganti evidenzia come l’ AI possa facilitare l’analisi dei dati clinici  per identificare pattern nascosti, prevedere esiti medici e personalizzare i trattamenti per ogni paziente. Un esempio pratico è l’uso dei chatbot AI, che possono fornire consulenze mediche 24/7, alleviando la pressione sui pronto soccorso e sui medici di famiglia. Inoltre, nell’ambito della diagnostica per immagini, l’AI ha dimostrato di poter superare l’accuratezza umana nell’identificare malattie come il cancro, migliorando significativamente i tempi e l’accuratezza delle diagnosi.   Un altro settore in cui l’AI può fare la differenza è lo sviluppo di nuovi farmaci . Storicamente, questo processo è noto per i suoi lunghi tempi e i costi elevati, ma l’AI può accelerare la scoperta e lo sviluppo di nuovi trattamenti identificando rapidamente i candidati più promettenti e prevedendo le loro interazioni con altri farmaci. Questa accelerazione non solo rende i farmaci innovativi disponibili più rapidamente, ma può anche ridurre i costi complessivi della ricerca e sviluppo, con un impatto positivo sia sui produttori che sui pazienti.   Sanità e AI: un connubio tra potenzialità e sfide Nonostante le promesse, l’implementazione dell’AI nella sanità non è priva di sfide. Vi sono questioni etiche e pratiche legate alla gestione dei dati sensibili, alla necessità di garantire la privacy dei pazienti e alla sicurezza nell’utilizzo di algoritmi complessi. Inoltre, l’adozione diffusa dell’AI richiede investimenti significativi in infrastrutture tecnologiche e nella formazione del personale, per assicurare che i sistemi di AI siano utilizzati in modo efficace e responsabile.   È cruciale, quindi, che l’introduzione dell’AI avvenga in modo ponderato, con un approccio che privilegi la collaborazione tra tecnologia e competenze umane. Come sottolinea Ganti, l’AI dovrebbe essere vista non come una sostituta, ma come un amplificatore delle capacità umane. Questa prospettiva collaborativa può portare a un sistema sanitario più efficiente, dove la tecnologia supporta i medici nelle decisioni cliniche e libera tempo prezioso che può essere dedicato alla cura dei pazienti.   Una nuova prospettiva sulla sanità del futuro La riflessione sull'impatto dell'intelligenza artificiale nel settore sanitario, con particolare riferimento alle differenze tra il sistema statunitense e quello italiano, apre a considerazioni più ampie sul futuro della sanità e della gestione pubblica. Se da un lato l'AI potrebbe ridurre significativamente i costi amministrativi e migliorare l'efficienza del sistema sanitario, dall'altro emerge la necessità di una trasformazione culturale e organizzativa che va oltre l'implementazione tecnologica.   Il problema centrale non risiede solo nell'efficienza o nell'efficacia dei sistemi sanitari, ma nella capacità di riconfigurare il valore dell'assistenza sanitaria in un'era digitale. L'AI può certamente automatizzare processi burocratici e migliorare la precisione diagnostica, ma il vero cambiamento sarà possibile solo se si cambia il rapporto tra tecnologia, pazienti e professionisti della salute. Questo richiede una visione che integri l'AI non solo come strumento di supporto, ma come elemento centrale di una nuova etica della cura, dove l'attenzione al paziente e l'empatia umana non vengano sacrificate sull'altare dell'efficienza.   Inoltre, l'adozione dell'AI potrebbe rivelarsi un'opportunità unica per riequilibrare le disparità regionali e sociali, particolarmente evidenti nel contesto italiano. Un sistema sanitario che sappia sfruttare l'AI potrebbe ridurre le differenze nell'accesso alle cure, standardizzare le migliori pratiche a livello nazionale e permettere una gestione più equa delle risorse. Tuttavia, per concretizzare questa visione, è necessario affrontare le resistenze interne, spesso legate a un approccio burocratico e alla mancanza di investimenti strategici nel capitale umano.   Infine, la transizione verso un sistema sanitario potenziato dall'AI implica anche una riflessione sulla sostenibilità a lungo termine. La riduzione dei costi amministrativi non deve tradursi in una riduzione della qualità delle cure, ma piuttosto in una redistribuzione intelligente delle risorse. Questo implica un ripensamento delle politiche sanitarie, dove l'AI diventa un mezzo per raggiungere obiettivi più ampi di salute pubblica, come la prevenzione e la personalizzazione delle cure.   In sintesi, l'integrazione dell'AI nella sanità non è semplicemente una questione di efficienza, ma di ridefinizione del ruolo della tecnologia nel servizio alla persona. Per le imprese e i decisori pubblici, la sfida sarà bilanciare innovazione e umanità, garantendo che i benefici dell'AI si traducano in un miglioramento reale e percepito del benessere collettivo.

  • Social Media Fraud: l’era delle nuove vulnerabilità finanziarie

    L’articolo di Rob Kniaz su Forbes, " Social Media-Charged Fraud Waves: A New Era Of Financial Vulnerability " , ci catapulta in una dimensione in cui la fragilità delle istituzioni finanziarie è amplificata dall'onnipresenza dei social media. Un panorama contemporaneo in cui la tecnologia bancaria universale e la connettività digitale diventano terreno fertile per nuove forme di vulnerabilità finanziarie. La recente vicenda del "glitch" di Chase Bank, esplosa su forum Reddit come “CrimeInTheD” di Detroit, è un esempio lampante di come una falla tecnologica possa trasformarsi in un fenomeno virale. Un errore nei controlli di sistema di Chase ha permesso ai clienti di sfruttare una falla nel deposito degli assegni, rendendo immediatamente disponibili fondi che in realtà avrebbero dovuto attendere i tempi di verifica. La rapida diffusione sui social, con tanto di prove fotografiche dei guadagni illeciti, ha scatenato un'ondata di imitatori, alcuni dei quali hanno persino cominciato a vendere guide su TikTok per "insegnare" a sfruttare il glitch in cambio di una percentuale.   Questa dinamica ha evidenziato la velocità senza precedenti con cui le vulnerabilità finanziarie possono essere esposte e sfruttate nell'era digitale. L’accaduto durante un lungo weekend festivo negli Stati Uniti ha aggravato ulteriormente la situazione, riducendo a poche ore il tempo di reazione delle banche e dei rivenditori, costringendoli a rivedere i propri protocolli di sicurezza e gestione delle crisi. Quella che un tempo era una finestra di giorni per pianificare e rispondere strategicamente è diventata una corsa contro il tempo.   La complessità delle conseguenze è impressionante: recuperare i fondi dagli individui coinvolti appare impraticabile, mentre l’arresto di massa risulterebbe un’impresa onerosa per il sistema giudiziario e carica di implicazioni sociali. Un panorama che richiede un approccio più sfaccettato da parte delle istituzioni finanziarie, delle aziende tecnologiche, delle forze dell’ordine e dei policymaker per sviluppare strategie complete di prevenzione, rilevazione e risposta.   L’incidente riflette non solo un problema tecnologico ma anche un fenomeno comportamentale, quasi una rivolta digitale contro un sistema visto come vulnerabile. Si tratta di una forma moderna di opportunismo, accentuata dall’effetto di emulazione collettiva sui social, che per alcuni analisti è sintomo di una crisi sociale più che di una questione di classe. Secondo Kniaz, infatti, non si tratta di una questione di povertà ma di opportunismo incoraggiato dal “branco digitale”, una specie di mob digitale che attacca l'azienda dove la percepisce debole, come se un negozio lasciasse il registratore di cassa aperto.   Questo evento segna un punto di svolta che obbliga le istituzioni a riflettere sulla necessità di migliorare la propria resilienza e la rapidità di risposta. Il rafforzamento delle misure di sicurezza, unitamente a un’educazione digitale potenziata, diventa fondamentale per evitare il ripetersi di tali episodi. È cruciale educare il pubblico sui rischi legali ed etici associati all’utilizzo di queste “scorciatoie” digitali, anche quando possono sembrare soluzioni facili per guadagnare denaro rapidamente.   In parallelo, occorre un ripensamento strategico da parte delle istituzioni finanziarie. L’investimento in misure di sicurezza robuste e sistemi di risposta agili diventa non solo auspicabile, ma necessario. La collaborazione tra finanza, tecnologia e regolatori deve evolvere verso un equilibrio tra innovazione e protezione, affinché si possa mantenere l’integrità dei sistemi finanziari e la fiducia del pubblico che vi si affida.   Il caso del glitch di Chase è quindi più di un aneddoto: è un monito sul futuro delle nostre interazioni digitali e della sicurezza finanziaria. Mentre progrediamo in un mondo sempre più interconnesso, non possiamo ignorare l’accelerazione delle informazioni e delle innovazioni tecnologiche che ci spingono verso nuove frontiere di rischio.   Un mio immaginario avo direbbe: "Un glitch tira l’altro, e alla fine ti ritrovi con un mutuo che non hai mai chiesto." Ma mentre ci destreggiamo tra glitch e vulnerabilità, forse dovremmo tutti ricordarci che, in fondo, ogni era ha le sue rivolte. La differenza è che oggi si combattono a colpi di click. E alla fine, non resta che chiedersi: siamo davvero pronti a cavalcare questa nuova onda di rischi digitali, o ci lasceremo travolgere?   Un’altra increspatura in questo oceano di innovazione, dove la sicurezza non può essere un optional.

  • LLM e l'evoluzione dell'automazione del software verso una comprensione semantica del codice

    Charles Jin e Martin Rinard, nel loro studio " Emergent Representations of Program Semantics in Language Models Trained on Programs ", dimostrano che i modelli linguistici (LMs) possono sviluppare una comprensione semantica formale dei programmi, nonostante siano addestrati solo per la previsione del token successivo. Utilizzando un modello di Transformer addestrato su programmi che navigano ambienti a griglia bidimensionale, gli autori esplorano se il modello possa apprendere gli stati intermedi del programma, anche se questi non sono esplicitamente forniti durante l'addestramento.   Il risultato è sorprendente: i LMs sviluppano rappresentazioni emergenti degli stati semantici del programma, suggerendo una capacità di interpretazione astratta. Questa scoperta sfida l'ipotesi che i LMs producano solo correlazioni statistiche superficiali, supportando invece l'idea che possano acquisire una comprensione semantica profonda. Gli autori introducono anche una tecnica innovativa di intervento per distinguere tra ciò che il modello rappresenta effettivamente e ciò che viene appreso dai classificatori (probe), dimostrando che le rappresentazioni semantiche emergenti sono intrinsecamente parte del modello.   Questo lavoro apre nuove prospettive sull'uso dei LMs in applicazioni complesse, suggerendo che i modelli di linguaggio potrebbero essere in grado di comprendere e generare codice con una precisione semantica molto maggiore di quanto finora ritenuto possibile. Se i LMs possono apprendere significati formali tramite la sola previsione del prossimo token, si potrebbe estendere questa capacità ad altri domini complessi, rendendo questi strumenti ancora più potenti e versatili. I modelli linguistici hanno compiuto notevoli progressi nel migliorare le loro capacità in una vasta gamma di compiti applicativi, con un'attenzione particolare alle competenze nei linguaggi di programmazione. L'evoluzione di modelli recenti come GPT-4, Code Llama, Gemini e Claude 3 ha reso possibile l'adozione diffusa dei modelli linguistici nei flussi di lavoro degli sviluppatori, grazie a prodotti commerciali accessibili a un vasto pubblico. Questi modelli offrono funzionalità avanzate, come il completamento automatico del codice, l'assistenza nel debugging, la generazione di documentazione e messaggi di commit, che sono brevi descrizioni delle modifiche apportate al codice durante lo sviluppo. Inoltre, supportano la scrittura di casi di test, ovvero piccoli programmi utilizzati per verificare che il codice funzioni correttamente. Questi strumenti stanno diventando sempre più integrati nei flussi di lavoro quotidiani, migliorando l'efficienza e la qualità del lavoro degli sviluppatori.   Nonostante i risultati ottenuti, una questione cruciale ancora aperta riguarda la capacità degli attuali LMs di comprendere effettivamente le semantiche del testo che analizzano e generano. Una delle ipotesi, che adotta una visione unificata dei domini linguistici naturali e di programmazione, suggerisce che i LMs, addestrati unicamente sulla forma (ad esempio, per modellare la distribuzione condizionale dei token in un corpus di addestramento), producano testo basandosi solo su correlazioni statistiche superficiali derivate dai dati di addestramento. Secondo questa teoria, qualsiasi comportamento apparentemente sofisticato sarebbe imputabile esclusivamente alla scala del modello e alla quantità di dati di addestramento utilizzati.   Nel lavoro di Charles Jin e Martin Rinard si analizza come i Language Models (LMs) specializzati nel codice riescano ad apprendere aspetti semantici quando vengono addestrati utilizzando un pretraining standard basato su testo. L'indagine si concentra sull'ipotesi principale (MH), secondo la quale i LMs focalizzati sul codice, addestrati unicamente con l'obiettivo di prevedere il token successivo nel testo, non sono in grado di catturare le semantiche formali del linguaggio di programmazione sottostante. Questo metodo di addestramento dovrebbe quindi limitare la capacità dei modelli di cogliere le regole semantiche profonde che regolano i linguaggi di programmazione, diminuendo così la loro abilità nel generare o interpretare codice con una comprensione semantica profonda.   Per verificare questa ipotesi, si utilizza il language modeling per generare programmi informatici a partire da una descrizione parziale del loro comportamento, fornita attraverso esempi di input e output. L'obiettivo è determinare se un modello linguistico, addestrato su testi che descrivono solo come i programmi devono comportarsi in base agli input e output, possa anche comprendere gli stati intermedi del programma durante la sua esecuzione, seguendo le regole operative passo dopo passo.   Per monitorare il comportamento interno del modello mentre lavora, si utilizzano strumenti semplici come i classificatori. Questo permette di osservare se il modello è in grado di rappresentare i vari passaggi che un programma compie per arrivare al risultato finale, valutando la sua capacità di seguire l'evoluzione del processo operativo durante l'esecuzione.   Nonostante il testo del corpus di addestramento codifichi unicamente il comportamento input-output, si osserva che la capacità del classificatore di estrarre stati intermedi subisce una transizione di fase durante l'addestramento. Questa transizione di fase risulta fortemente correlata con la capacità del LM di generare un programma corretto in risposta a specifiche mai viste prima. Inoltre, vengono presentati i risultati di un esperimento d'intervento innovativo, che indicano che le semantiche sono effettivamente rappresentate dal LM stesso, piuttosto che apprese dal classificatore.   Semantica formale e tracciamento nel coding: dall'analisi alla sintesi dei programmi La semantica formale è un tema fondamentale nella teoria dei linguaggi di programmazione e riguarda lo studio di come specificare formalmente il significato dei programmi. In questo contesto, si utilizza la semantica a piccoli passi (Plotkin, 1981) per generare tracce di programmi (Cousot, 2002). Una traccia, data un'assegnazione di valori alle variabili di input, è la sequenza di stati intermedi attraversati dal programma durante la sua esecuzione. Pertanto, a un programma (sintattico) può essere formalmente assegnato un significato (semantico), definito dall'insieme di tutte le sue tracce.   Il tracciamento come modello di semantica dei programmi è particolarmente utile perché si presta bene all'analisi formale ed è strettamente collegato alla comprensione del codice, specialmente per i programmatori alle prime armi. La capacità di tracciare accuratamente un codice è stata associata direttamente alla capacità di spiegare il codice stesso (Lopez et al., 2008; Lister et al., 2009). Inoltre, l'educazione in informatica ha enfatizzato il tracciamento come metodo per sviluppare la comprensione dei programmi e individuare errori di ragionamento (Hertz & Jump, 2013; Sorva, 2013). Anche i programmatori esperti si affidano al tracciamento, sia come processo mentale (Letovsky, 1987) che tramite debugger basati sulle tracce.   L'interpretazione astratta (Cousot & Cousot, 1977) è una tecnica utilizzata per produrre approssimazioni corrette della semantica concreta dei programmi. Ad esempio, per l'operatore di moltiplicazione × sui numeri interi Z, si potrebbe definire un'interpretazione astratta α che mappa ogni numero intero al suo segno: α : Z → {−, 0, +}. In questo lavoro, l'interpretazione astratta viene utilizzata per stabilire un collegamento preciso e formale tra gli stati concreti del programma e quelli astratti misurati negli esperimenti.   Per comprendere meglio il concetto, si può immaginare di osservare un paesaggio attraverso una finestra colorata. La finestra, con i suoi vetri di diversi colori, rappresenta l'interpretazione astratta: essa non ci mostra i dettagli precisi di ogni singolo elemento del paesaggio, ma ci offre una visione d'insieme, evidenziando solo le caratteristiche principali, come i contorni delle montagne o le aree di luce e ombra. Analogamente, l'interpretazione astratta non si preoccupa dei valori numerici esatti, ma si concentra sulle proprietà fondamentali di questi, come il segno di un numero. In questo modo, il concetto complesso della semantica concreta viene semplificato, permettendo di analizzare il programma in modo più efficiente e comprensibile, mantenendo comunque un legame preciso con la realtà del codice esaminato.   Addestramento di modelli transformer per la sintesi di programmi nel dominio Karel Il dominio Karel è un ambiente di programmazione educativa sviluppato a Stanford negli anni '70 (Pattis, 1994), ancora oggi impiegato nei corsi introduttivi di programmazione (Piech & Roberts, gennaio 2019; CS106A, 2023). In questo contesto, un robot chiamato Karel si muove in un mondo bidimensionale a griglia, interagendo con ostacoli e raccogliendo o posizionando segnalini. Dal lavoro di Devlin et al. (2017), Karel è stato adottato come benchmark standard dalla comunità di sintesi di programmi (Bunel et al., 2018; Shin et al., 2018; Sun et al., 2018; Chen et al., 2019; 2021b). In tale ambito, vengono forniti esempi di input-output, e il compito consiste nel generare un programma che mappi correttamente ogni griglia di input alla sua corrispondente griglia di output.   Il mondo di Karel è costituito da una griglia 8x8 con quattro tipi di token: il robot, rappresentato graficamente da una freccia che indica la direzione verso cui è rivolto (rosso); i segnalini (blu); gli ostacoli (marrone); e gli spazi vuoti (grigio). Il linguaggio di programmazione prevede cinque operazioni: "move", che sposta il robot di uno spazio nella direzione in cui è rivolto, se non ci sono ostacoli; "turnRight" e "turnLeft", che fanno girare il robot rispettivamente a destra e a sinistra; "putMarker" e "pickMarker", che aumentano o diminuiscono il numero di segnalini nello spazio occupato dal robot (senza effetto se i segnalini sono già al massimo di 10 o al minimo di 0). Il robot copre i segnalini nello spazio che occupa, senza che ciò influenzi la correttezza del programma. I programmi sono costituiti esclusivamente da sequenze lineari di operazioni, poiché non è previsto il controllo del flusso, e ogni operazione produce un unico stato del programma.   Per la creazione del set di dati sintetici, il set di addestramento comprende 500.000 programmi Karel campionati casualmente, con lunghezze variabili tra 6 e 10 operazioni. Per ogni programma, vengono generate casualmente 5 griglie come input e il programma viene eseguito per produrre le corrispondenti 5 griglie di output. Le rappresentazioni testuali delle griglie sono create scansionando la griglia riga per riga, con un token per ciascun spazio della griglia. Ogni campione di addestramento consiste nella concatenazione degli stati di input-output delle 5 griglie (la specifica), seguita dal programma di riferimento. Il compito di modellazione del linguaggio consiste nel prevedere un programma a partire da una specifica (parziale) espressa come stati di input-output delle griglie. È importante sottolineare che (1) il set di addestramento include solo programmi che soddisfano correttamente le specifiche fornite e (2) gli stati intermedi della traccia del programma non sono visibili nei dati di addestramento. È inoltre generato un set di test composto da 10.000 specifiche nello stesso modo, con programmi di riferimento aventi lunghezze da 1 a 10 operazioni.   Per addestrare un modello di linguaggio (LM) per la sintesi di programmi, è stato utilizzato un Transformer standard (Vaswani et al., 2017) per la previsione del token successivo sul set di dati. In particolare, è stata addestrata una variante del modello CodeGen con 350 milioni di parametri (Nijkamp et al., 2023) disponibile nella libreria HuggingFace Transformers (Wolf et al., 2020), partendo dall'inizializzazione su un totale di circa 2,5 miliardi di token.   Acquisizione di sintassi e semantica nei LLM per la sintesi di codice Per valutare la capacità del modello linguistico di sintetizzare programmi, l’LM è utilizzato per generare testo a partire da una specifica, impiegando una decodifica greedy vincolata ai token di programma, garantendo così che il testo generato sia un programma sintatticamente corretto. Un programma è considerato corretto se per ogni input della specifica restituisce l'output corrispondente; l'accuratezza generativa è definita come la percentuale di programmi corretti sul set di test. Al termine dell'addestramento, l’LM raggiunge un'accuratezza generativa del 92,4% dimostrando la robustezza del modello.   Oltre alle metriche standard, vengono monitorate due metriche aggiuntive legate alla sintassi degli output del modello linguistico: il numero di programmi unici generati dal modello sul set di test e la perplexity, che misura l'incertezza del modello nel prevedere i prossimi token, su diversi sottoinsiemi di token nel set di test. Dai test emerge che la perplexity complessiva migliora nel corso dell'intero ciclo di addestramento, segnalando che le dinamiche di apprendimento rimangono stabili.   Sono state osservate tre fasi distinte durante l'addestramento: nella fase iniziale (fino al 50% dell'addestramento), i programmi generati risultano spesso altamente ripetitivi, con un plateau della perplexity sui programmi di riferimento che inizia intorno al 20%. L'accuratezza generativa rimane costante intorno al 10%. La fase successiva (dal 50% al 75% dell'addestramento) mostra un netto aumento nella diversità degli output generati, con una corrispondente diminuzione della perplexity sui programmi di riferimento, indicando che il LM inizia a modellare i token del programma, con un modesto incremento dell'accuratezza generativa (dal 10% al 25%). Nella fase finale (dal 75% fino al termine dell'addestramento), la diversità dei programmi generati rimane approssimativamente costante, mentre la perplexity sui programmi di riferimento continua a migliorare al ritmo precedente. Al contrario, l'accuratezza generativa del LM aumenta rapidamente, passando dal 25% a oltre il 90%. Pertanto, la fase intermedia è caratterizzata dal cambiamento più significativo nelle proprietà sintattiche delle generazioni del LM, mentre la fase finale è contraddistinta da un rapido miglioramento nella capacità del LM di generare output semanticamente corretti. Queste due fasi sono quindi identificate rispettivamente con l'acquisizione della sintassi e l'acquisizione della semantica.   Infine, è ragionevole che la perplexity dei programmi generati risulti inferiore rispetto a quella dei programmi di riferimento, in quanto viene utilizzata una decodifica greedy che guida la generazione verso token specifici del programma, garantendo così la correttezza sintattica. Tuttavia, la presenza di una differenza stabile e continuativa tra la perplexity dei programmi generati e quella dei programmi di riferimento rivela che il modello linguistico non sfrutta appieno i token dei programmi presenti nei dati di addestramento. Questa discrepanza costante, nonostante un incremento nell'accuratezza con cui il modello produce programmi corretti, indica che l'efficacia del modello nel rappresentare la varietà e la distribuzione completa dei token di programma non è l'unico fattore che contribuisce al miglioramento delle sue prestazioni generative.   Come i LLM e la comprensione semantica del codice Per esplorare la rappresentazione della semantica nei modelli linguistici (LM), vengono addestrati piccoli classificatori, detti "probes", per estrarre informazioni sullo stato del programma a partire dagli stati nascosti del modello. L'approccio consiste nell’indurre il modello a generare un programma dato un insieme di input, e successivamente verificare se gli stati del modello contengono una rappresentazione degli stati intermedi del programma durante la generazione. Un risultato positivo suggerirebbe che il modello ha appreso a rappresentare la semantica sottostante dei programmi che genera, fornendo quindi un'indicazione contro l'ipotesi che il modello non comprenda tali semantiche.   Per verificare la presenza di rappresentazioni dello stato del programma, è stata costruita una traccia di dati ogni 4000 passi di addestramento, pari circa al 5% del totale. In ogni snapshot, vengono catturati (1) gli stati nascosti del modello mentre genera programmi utilizzando la previsione del token successivo e (2) gli stati corrispondenti del programma ottenuti valutando il programma parziale su ognuno dei cinque input specificati. Questo processo parte da una specifica input-output e segue un ciclo autoregressivo standard. Durante questo ciclo: ogni stato del modello linguistico viene aggiornato in base all'input, all'output e agli stati precedenti; il modello genera quindi un nuovo token attraverso una procedura di decodifica greedy (che sceglie il token con la probabilità più alta), e infine, il token generato viene eseguito sullo stato corrente del programma. Questo ciclo si ripete fino a un massimo di 14 token o fino a quando il modello non produce un token speciale di fine sequenza,   Per semplificare l'analisi, si calcola la media degli stati nascosti lungo la dimensione dei layer del modello, ottenendo così uno stato rappresentato da un vettore unidimensionale di dimensione 1024, definito come "stato del modello". Questo processo viene ripetuto sia per il set di addestramento che per il set di test, producendo due dataset di tracce contenenti coppie allineate di stati del modello e stati del programma, provenienti dai programmi generati dalle specifiche nei rispettivi set.   Per ogni dataset di addestramento delle tracce, vengono addestrati una serie di probes, che possono variare da semplici modelli lineari a reti neurali con 2 layer, per prevedere alcune caratteristiche dello stato del programma a partire dallo stato del modello, utilizzando l'apprendimento supervisionato standard. Le caratteristiche considerate includono (1) la direzione verso cui è rivolto un robot, (2) la posizione del robot come scostamento dalla posizione di partenza, e (3) la presenza o meno di un ostacolo di fronte al robot. Queste caratteristiche sono un'astrazione dello stato completo del programma e vengono definite collettivamente come "stato astratto". Successivamente, l'accuratezza dei probes viene valutata sul dataset di test corrispondente, e il contenuto semantico viene definito come la media geometrica delle accuratezze sui tre attributi. Questo metodo misura, in maniera precisa, il grado in cui gli stati del modello codificano un'interpretazione astratta delle semantiche formali dei programmi.   Il processo descritto può essere paragonato a un detective che cerca di ricostruire i pensieri di un autore mentre scrive un libro. Immagina che l'autore stia scrivendo una storia passo dopo passo, scegliendo le parole e le frasi in base a ciò che ha già scritto e a dove vuole portare la trama. Ogni parola scelta rappresenta un passo nel pensiero dell'autore. Il detective, per capire se l'autore ha una chiara idea della trama, osserva ogni parola che viene scritta e cerca di indovinare quale sarà il prossimo passo nella storia e quale sarà lo stato d'animo del protagonista in quel momento.   Allo stesso modo, il modello linguistico genera un programma token per token, e i probes agiscono come il detective: cercano di estrarre dai passaggi del modello (gli stati nascosti) indizi che possano rivelare il pensiero del modello (la semantica del programma) mentre lo sta generando. Se il detective riesce a ricostruire correttamente il pensiero dell'autore dalla storia, si può concludere che l'autore aveva un piano ben definito e una comprensione chiara della trama. Analogamente, se i probes riescono a prevedere accuratamente gli stati del programma dai passaggi del modello, si può dedurre che il modello linguistico comprende davvero la semantica dei programmi che sta generando, piuttosto che limitarsi a generare sequenze di parole senza un significato sottostante.   Dalla sintassi alla semantica nei modelli linguistici con probing avanzato Analizzando i risultati e prendendo in considerazione diverse ipotesi aggiuntive, inclusa quella che il contenuto semantico prodotto dal modello linguistico derivi da un processo di recupero di informazioni, ovvero che il modello stia richiamando stati astratti dai dati osservati in precedenza, si evidenzia che l'emergere della semantica è strettamente legato all'accuratezza generativa, come confermato dai risultati degli esperimenti di probing.   Una prima osservazione evidenzia che il contenuto semantico durante la fase iniziale, detta fase di "babbling", è estremamente rumoroso. Questo rumore può essere attribuito alla mancanza di diversità negli output del modello, per cui il probing deve adattarsi solo a un insieme triviale di semantica. Ad esempio, circa al 20% del percorso di addestramento, il modello tende a degenerare generando un unico programma composto da 9 token "PICKMARKER", indipendentemente dalla specifica. Al contrario, tutti e tre i probes raggiungono un minimo durante la fase di acquisizione della sintassi (quando gli output del modello diventano più vari) e aumentano progressivamente durante la fase di acquisizione della semantica. Questo risultato è coerente con la proposta che gli stati nascosti del modello contengano effettivamente codifiche, seppur relativamente superficiali, dello stato astratto, e che queste rappresentazioni emergano all'interno di un modello addestrato esclusivamente per la previsione del token successivo in un testo. La regressione dell'accuratezza generativa rispetto al contenuto semantico durante la seconda metà dell'addestramento mostra correlazioni lineari forti e statisticamente significative (con un R² di 0,904, 0,886 e 0,821 rispettivamente per i probes lineare, a 1 layer MLP e a 2 layer MLP, con p < 0,001).   Le rappresentazioni sono predittive degli stati futuri del programma. Successivamente, si esplora se il modello addestrato codifichi la semantica di testo non ancora generato. In particolare, vengono addestrati probes per predire stati astratti futuri a partire dagli stati del modello. Viene mostrato quanto un MLP a 1 layer sia in grado di predire stati astratti a 1 e 2 passi nel futuro. Come nei risultati precedenti, la performance del probe raggiunge un minimo durante l'acquisizione della sintassi, per poi aumentare nel resto dell'addestramento. Si riscontra inoltre una forte correlazione tra il contenuto semantico degli stati futuri e l'accuratezza generativa nella seconda metà dell'addestramento; la regressione del contenuto semantico rispetto all'accuratezza generativa mostra un R² di 0,878 e 0,874 (p < 0,001) rispettivamente per 1 e 2 stati astratti nel futuro.   I risultati del probing alla fine dell'addestramento vengono confrontati con una baseline che semplicemente predice lo stato astratto corrente per tutti gli stati futuri astratti (il che rappresenta il predittore ottimale bayesiano in assenza di informazioni sugli stati futuri). Si osserva che (1) l'accuratezza della baseline si degrada più rapidamente rispetto al probe, il che suggerisce che i probes non stiano semplicemente utilizzando le codifiche dello stato corrente per predire gli stati futuri, e (2) l'accuratezza assoluta a 2 stati nel futuro è maggiore utilizzando il probe a 2 layer MLP rispetto alla baseline. Questi risultati suggeriscono che il modello codifichi informazioni su ciò che intende generare prima che la generazione avvenga.   I risultati ottenuti possono essere paragonati al processo di apprendimento di un bambino che inizia a parlare. All'inizio, il modello è come un bambino nella fase di "babbling", in cui i suoni emessi sono confusi e privi di significato chiaro, simili a parole sconnesse che non seguono una logica precisa. Questa fase è caratterizzata da una produzione semantica estremamente rumorosa, dove le uscite del modello sono poco diversificate e si concentrano su risposte ripetitive e poco articolate, come il modello che ripete insistentemente un singolo programma con token identici.   Con il progredire dell'addestramento, il modello entra in una fase paragonabile all'acquisizione del linguaggio del bambino: inizia a distinguere le parole, apprende la sintassi, e le sue uscite diventano progressivamente più diversificate e articolate. È come se il bambino iniziasse a comprendere non solo come formare le frasi, ma anche come utilizzarle per esprimere idee più complesse e specifiche. In questa fase, i probes mostrano un miglioramento significativo nel rilevare codifiche semantiche negli stati del modello, riflettendo una crescita nella capacità di rappresentare stati astratti che va oltre la semplice ripetizione meccanica.   Alla fine, il modello raggiunge una maturità paragonabile a quella di un bambino che ha appreso non solo a parlare, ma anche a prevedere ciò che dirà successivamente in base al contesto. Come un bambino che inizia a prevedere le proprie parole e a formulare frasi complete prima ancora di pronunciarle, il modello riesce a codificare informazioni sugli stati futuri e ad anticipare il contenuto delle sue uscite. Questa capacità predittiva si manifesta chiaramente nel fatto che i probes non si limitano a utilizzare lo stato attuale per predire il futuro, ma mostrano una comprensione più profonda delle sequenze che devono ancora essere generate.   In sintesi, proprio come un bambino che apprende ed evolve nella sua capacità di comunicare in modo sempre più sofisticato, il modello linguistico dimostra una crescita nell'acquisizione della semantica e della sintassi, passando da una fase iniziale di esplorazione disordinata a una fase finale di previsione e codifica precisa delle informazioni.   Esperimento innovativo su apprendimento semantico con probes nei LLM Si considera la possibilità che il significato semantico non sia appreso dal modello linguistico (LM), ma piuttosto dal meccanismo di analisi (probe). Ad esempio, poiché il probe viene esplicitamente addestrato su stati intermedi, è plausibile che gli stati del modello codifichino gli input e mantengano una traccia dei token del programma generato, consentendo al probe di interpretare i token singolarmente. In un senso più ampio, il contenuto semantico potrebbe essere attribuito a (1) il modello linguistico che codifica unicamente la struttura lessicale e sintattica, mentre (2) il probe apprende a derivare la semantica a partire dalla struttura lessicale e sintattica codificata nello stato del modello, essendo supervisionato esplicitamente per prevedere la semantica dallo stato del modello stesso. Questa idea è definita come l'ipotesi del "registro sintattico", la quale fornisce una spiegazione coerente con i risultati ottenuti, allineati con il quadro teorico MH.   Per testare questa ipotesi, è stato progettato un esperimento innovativo che preserva la struttura lessicale e sintattica del linguaggio, intervenendo esclusivamente sulla semantica. Successivamente, si riesegue il programma con le nuove impostazioni semantiche per ottenere una nuova traccia con nuovi stati astratti, e si addestra un nuovo probe per prevedere questi nuovi stati astratti utilizzando gli stati originali del modello. L'intuizione chiave alla base di questo esperimento è che, se gli stati del modello codificano esclusivamente informazioni sintattiche, allora il nuovo probe dovrebbe essere in grado di estrarre le nuove informazioni semantiche dal registro sintattico originale con la stessa efficacia, lasciando inalterato il contenuto semantico.   Validazione dell'ipotesi del record sintattico tramite semantiche modificate Vengono definite due semantiche alternative riassegnando la semantica delle singole operazioni come segue:  originale → avversaria  pickMarker → pickMarker → turnRight  putMarker → putMarker → turnLeft  turnRight → turnLeft → move  turnLeft → turnRight → turnRight  move → move → turnLeft    Ad esempio, nella semantica originale, exec(turnRight, ·) fa ruotare il robot di 90 gradi in senso orario, mentre exec_avversaria(turnRight, ·) fa avanzare il robot di uno spazio (secondo la semantica originale di move). Successivamente, per ogni sequenza di token di programma nell'Equazione (1) derivata dalla costruzione del dataset di tracce originali, si utilizzano gli stessi token per definire una traccia alternativa corrispondente:  (state'_prog)_i = exec_alt(token_i, (state'_prog)_(i-1)),   dove si parte dallo stesso stato iniziale del programma:  (state_prog)'_0 = (state_prog)_0 (cioè gli input di specifica).    Infine, con le nuove tracce dall'Equazione e lo stato originale LM dall'Equazione, viene addestrata una nuova probe:  probe_alt : state_LM → state'_prog,   e si confronta la sua accuratezza con quella della probe originale:  probe_orig : state_LM → state_prog.    Perché un intervento sia considerato un controllo adeguato, vengono identificate due proprietà critiche: (1) la semantica alternativa deve limitarsi a riassegnare la semantica delle singole operazioni nel linguaggio (evitando di inventare semantiche completamente nuove, come "saltare tre spazi in diagonale") e (2) l'intervento deve preservare la struttura sintattica dei programmi (ovvero, come le singole operazioni sono composte nell'interpretazione di un programma completo). Pertanto, assumendo valida l'ipotesi del record sintattico, probe_alt dovrebbe essere in grado di interpretare il record secondo una procedura analoga a probe_orig, producendo misurazioni comparabili del contenuto semantico. Di conseguenza, la confutazione dell'ipotesi del record sintattico si riduce alla misurazione di un degrado statisticamente significativo nel contenuto semantico alternativo rispetto al contenuto semantico originale.   I probes dimostrano la capacità di apprendere semantiche confutando l'ipotesi MH Dai risultati dell'intervento emerge un confronto tra la semantica originale e quella alternativa, in cui sono stati addestrati dei probe per prevedere fino a due stati astratti nel passato e nel futuro. In tutti i 5 casi analizzati, il contenuto semantico della semantica alternativa risulta significativamente ridotto rispetto a quello della semantica originale. Questo dato supporta il rifiuto dell'ipotesi secondo cui gli stati del modello codificherebbero esclusivamente un registro sintattico (ovvero, solo informazioni lessicali e sintattiche), mentre il probe imparerebbe a interpretare tale registro in termini semantici.   Si rileva inoltre che le semantiche ribaltate sono strettamente correlate a quelle originali: in assenza di ostacoli nel percorso del robot, esse richiedono semplicemente di riflettere il percorso originale del robot lungo un asse. Al contrario, le semantiche avversarie modificano completamente la semantica di ciascun operatore. Pertanto, se l'ipotesi del registro sintattico fosse falsa, ci si aspetterebbe un contenuto semantico inferiore per le semantiche avversarie rispetto a quelle ribaltate, poiché risulterebbe più difficile mappare dalla semantica originale a quella avversaria; i risultati ottenuti supportano questa interpretazione.   Inoltre, è stato tracciato l'eccesso del contenuto semantico originale rispetto a quello ribaltato. Si nota che l'apparente alto contenuto semantico della fase di esplorazione, osservato prima dell'intervento e attribuito alla capacità del probe di apprendere la semantica di un numero limitato di programmi unici generati, scompare dopo l'intervento. Questo è coerente con un apprendimento simile da parte del probe delle semantiche originali e ribaltate durante la fase di esplorazione, dimostrando la capacità dell'intervento semantico di controllare l'abilità del probe nell'apprendimento delle semantiche.   Per comprendere meglio i risultati dell'intervento descritto, si può fare un'analogia con l'apprendimento di una nuova lingua da parte di un musicista. Immagina un musicista che impara una nuova canzone ascoltandola diverse volte. La canzone originale ha una melodia ben definita e facile da seguire. Ora, immagina che la stessa canzone venga riprodotta, ma con le note riorganizzate in modo da sembrare completamente diverse, pur mantenendo lo stesso ritmo e la struttura complessiva. Anche se le note sono cambiate, il musicista potrebbe ancora riconoscere la struttura ritmica e alcune caratteristiche familiari della canzone, ma faticherebbe molto di più a riconoscere la melodia originale.   Nel contesto dell'esperimento, il modello linguistico (LM) e il probe funzionano in modo simile. Inizialmente, i probes sono addestrati a riconoscere le semantiche originali, che rappresentano la melodia originale della canzone. Quando la semantica viene alterata (come riorganizzare le note), i probes devono cercare di interpretare queste nuove semantiche alternative. Dai risultati dell'intervento emerge che i probes hanno più difficoltà a riconoscere le semantiche alterate rispetto alle originali, proprio come il musicista avrebbe difficoltà con una melodia alterata. Questo suggerisce che il probe non stia semplicemente decodificando una struttura fissa e sintattica (cioè, le note e il ritmo), ma stia cercando di capire una rappresentazione semantica più profonda (cioè, la melodia).   Inoltre, le semantiche ribaltate, che richiedono solo di riflettere il percorso originale del robot lungo un asse, sono più semplici da mappare rispetto alle semantiche avversarie, che cambiano completamente il significato di ciascun operatore, come se le note fossero cambiate in modo radicale rendendo la melodia irriconoscibile. Il fatto che i probes abbiano più difficoltà con le semantiche avversarie supporta l'idea che il probe non stia semplicemente rilevando le informazioni sintattiche, ma stia effettivamente imparando a interpretare le semantiche in modo significativo.   Questa analogia aiuta a capire come il modello linguistico e i probes lavorano insieme per comprendere e rappresentare le semantiche: non si limitano a un semplice "registro sintattico" (come il ritmo di una canzone), ma tentano di cogliere qualcosa di più complesso, che si perde quando le semantiche vengono alterate in modo significativo. Di conseguenza, l'esperimento confuta l'ipotesi che i probes interpretino solo la struttura sintattica senza una comprensione semantica più profonda, dimostrando che almeno una parte del contenuto semantico osservato è veramente compresa dal modello e non solo appresa dai probes.   Si conclude che una parte statisticamente significativa del contenuto semantico osservato può essere spiegata come il probe che apprende la semantica, confutando l'ipotesi MH.   Conclusioni Il lavoro di Charles Jin e Martin Rinard rappresenta una svolta significativa nella comprensione delle capacità dei modelli linguistici (LMs) di apprendere e rappresentare la semantica del codice. La scoperta che tali modelli possano sviluppare rappresentazioni semantiche emergenti, nonostante siano addestrati unicamente sulla previsione del token successivo solleva questioni cruciali per l'industria del software e l'automazione del codice.   Innanzitutto, questa ricerca ridefinisce il concetto di automazione nell'ambito della programmazione. Fino ad oggi, l'uso dei LMs è stato per lo più limitato a compiti relativamente semplici, come il completamento del codice o l'assistenza nel debugging. Tuttavia, la capacità dei modelli di comprendere gli stati intermedi di un programma apre nuove possibilità per l'automazione avanzata. Immaginiamo un futuro in cui i LMs non solo generano codice, ma comprendono realmente il contesto operativo in cui il codice verrà eseguito. Questo potrebbe rivoluzionare il ciclo di sviluppo software, rendendo gli strumenti di intelligenza artificiale non solo dei facilitatori, ma veri e propri partner creativi per gli sviluppatori.   Inoltre, la capacità dei LMs di rappresentare le semantiche suggerisce un potenziale per l'espansione di questi modelli in domini ancora più complessi. Se un LM può acquisire una comprensione semantica profonda semplicemente prevedendo token in un ambiente di programmazione, allora possiamo ipotizzare che lo stesso approccio possa essere applicato in campi come la scienza dei materiali, la chimica computazionale o l'analisi finanziaria, dove la comprensione dei processi e delle interazioni è fondamentale. Questo porta a una visione di LMs come strumenti di scoperta e innovazione, in grado di generare non solo codice, ma anche nuove conoscenze e soluzioni creative in una vasta gamma di discipline.   Un'altra implicazione strategica riguarda la formazione e lo sviluppo delle competenze nell'industria tecnologica. Se i LMs possono apprendere la semantica dei programmi in modo autonomo, ciò potrebbe ridurre la necessità di programmatori esperti in compiti ripetitivi e di basso livello, spostando l'attenzione verso competenze più elevate e creative. Le aziende potrebbero investire maggiormente in strumenti di intelligenza artificiale che integrino la comprensione semantica nei loro flussi di lavoro, riducendo i costi operativi e aumentando l'efficienza.   L'emergere di LMs capaci di comprendere la semantica del codice non solo trasforma i flussi di lavoro, ma ridefinisce anche il modo in cui le aziende dovranno pensare alla proprietà intellettuale e all'innovazione. Se questi modelli diventano in grado di generare soluzioni creative, le imprese dovranno confrontarsi con una nuova forma di competizione basata sulla velocità e qualità dell'adozione dell'intelligenza artificiale. La vera sfida non sarà solo implementare questi strumenti, ma farlo in modo da sfruttare appieno il loro potenziale trasformativo, anticipando le mosse dei competitor. Sarà fondamentale, quindi, costruire un vantaggio competitivo non solo attraverso la tecnologia, ma anche tramite l'integrazione intelligente di questi modelli nei processi decisionali, ridisegnando ruoli e competenze all'interno dell'organizzazione.   Questa prospettiva impone di ripensare alla strategia aziendale in chiave più dinamica e adattiva, dove il valore non deriva solo dal prodotto finale, ma dalla capacità di innovare continuamente i processi con l'intelligenza artificiale, trasformando le competenze in tempo reale e allineando costantemente le tecnologie emergenti agli obiettivi di business.   In conclusione, la capacità dei modelli linguistici di apprendere la semantica del codice non è solo un progresso tecnico, ma una rivoluzione potenziale nell'automazione del software e nella comprensione dei sistemi complessi.

  • Perché i progetti AI aziendali falliscono e come invertire la tendenza

    Nel loro studio intitolato " The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed " James Ryseff, Brandon De Bruhl e Sydne J. Newberry analizzano le principali ragioni per cui i progetti di intelligenza artificiale (AI) e machine learning (ML) spesso non raggiungono i risultati attesi. Gli autori hanno condotto interviste con 65 data scientist e ingegneri, ciascuno con almeno cinque anni di esperienza nello sviluppo di modelli AI/ML, operanti sia nel settore industriale che in quello accademico. L'analisi delle risposte ha permesso di individuare cinque cause principali di insuccesso, insieme a raccomandazioni su come aumentare le probabilità di riuscita dei progetti AI, sia in ambito aziendale che accademico.   Stime indicano che oltre l'80% dei progetti AI aziendali falliscono, un tasso doppio rispetto ai progetti IT tradizionali che non coinvolgono l'AI. Per questo motivo, trasformare il potenziale dell'intelligenza artificiale in risultati concreti rappresenta una sfida urgente.   Le conclusioni e le raccomandazioni del rapporto forniscono indicazioni di grande valore per i leader aziendali che desiderano implementare soluzioni di AI e ML. Le esperienze maturate nei precedenti tentativi di utilizzo di queste tecnologie possono infatti aiutare a prevenire errori comuni e a migliorare le probabilità di successo. L'intelligenza artificiale è ormai riconosciuta come una tecnologia in grado di trasformare profondamente le organizzazioni. In passato, solo le aziende tecnologiche più avanzate, dotate delle risorse economiche e del talento necessario, potevano permettersi di adottare l'AI. Tuttavia, oggi tutte le tipologie di organizzazioni stanno iniziando a investire in questa tecnologia. Tra il 2013 e il 2022, gli investimenti nel settore privato legati all'AI sono aumentati di ben 18 volte, e un'indagine ha rivelato che il 58% delle aziende di medie dimensioni ha già implementato almeno un modello di AI in produzione.   L'AI sta già avendo un impatto significativo in vari settori. Le aziende farmaceutiche, ad esempio, la utilizzano per accelerare lo sviluppo dei farmaci, mentre i rivenditori, come Walmart, adottano l'AI per l'analisi predittiva, ottimizzando l'intera catena di approvvigionamento e gestendo al meglio le scorte di magazzino. Nel campo della difesa, l'AI pilota jet da combattimento, rileva sottomarini nemici e migliora la consapevolezza dei comandanti sul campo di battaglia. Questi esempi dimostrano la rilevanza dell'AI per molteplici usi e settori.   Nonostante il grande potenziale e l'entusiasmo attorno all'intelligenza artificiale, molte organizzazioni incontrano difficoltà nel tradurre questa tecnologia in applicazioni pratiche e funzionanti. Un'indagine ha evidenziato che solo il 14% delle organizzazioni si considera completamente pronto a adottare l'AI, nonostante l'84% dei leader aziendali creda che l'AI avrà un impatto significativo sulle loro attività. Spesso, i dirigenti aziendali, mossi dalla necessità di dimostrare la propria capacità di stare al passo con i progressi tecnologici, intraprendono progetti legati all'AI senza avere una chiara comprensione di come trasformare gli obiettivi in azioni concrete e realizzabili. Di conseguenza, non sorprende che oltre l'80% dei progetti di AI non raggiunga il successo desiderato. Questo dato rappresenta un tasso di fallimento doppio rispetto a quello già elevato dei progetti legati alle tecnologie dell'informazione (IT) tradizionali.   Per comprendere le ragioni dell'elevato tasso di fallimenti nei progetti di intelligenza artificiale, è stata condotta un'analisi esplorativa basata su interviste a 65 esperti del settore, tra cui ingegneri, ricercatori e accademici di vari ambiti. Le interviste hanno rivelato l'esistenza di pratiche comunemente ritenute inefficaci, note come "anti-pattern", che spesso portano al fallimento dei progetti di AI. L'obiettivo della ricerca è fornire alle organizzazioni indicazioni pratiche per evitare questi errori comuni e avviare i progetti in modo corretto.   Un nuovo approccio per capire perché progetti AI aziendali falliscono I progetti di AI si compongono di due elementi: la tecnologia come piattaforma, che riguarda lo sviluppo, l'uso e l'implementazione dell'AI per svolgere determinati compiti aziendali, e l'organizzazione del progetto, che concerne il processo, la struttura e l'integrazione all'interno dell'organizzazione nel suo complesso. Questi due elementi devono collaborare affinché l'AI possa risolvere problemi aziendali complessi.   I progetti di tipo IT possono fallire per molte ragioni non legate direttamente alla tecnologia, come problemi nei processi, difficoltà nelle interazioni umane con la tecnologia, o aspettative non allineate sui risultati attesi del progetto. Anche un singolo fallimento in uno di questi aspetti può far naufragare l'intero progetto, con conseguenti costi elevati per l'impresa. Sebbene esista una vasta letteratura sui motivi di fallimento dei progetti IT, l'AI presenta caratteristiche specifiche, come elevati requisiti di lavoro e capitale e complessità degli algoritmi, che la distinguono da un sistema informativo tradizionale.   In passato, gli studi su questo argomento hanno seguito due approcci principali: alcuni sono stati condotti da singoli data scientist o manager, che hanno condiviso esperienze personali sulle cause di fallimento dei progetti di AI, mentre altri studi, spesso di società di consulenza, hanno basato le loro analisi su ampie indagini rivolte a leader IT. Alcuni studi hanno anche effettuato una revisione sistematica della letteratura e interviste con un numero limitato di esperti per esplorare i fattori che possono determinare il fallimento dei progetti di AI in generale.   Lo studio condotto da James Ryseff, Brandon De Bruhl e Sydne J. Newberry si differenzia dalle ricerche precedenti sotto vari aspetti. Prima di tutto, si concentra sul punto di vista di coloro che sviluppano e implementano direttamente le applicazioni di intelligenza artificiale, adottando un approccio che parte dall'esperienza pratica per comprendere le cause dei fallimenti direttamente dalle persone che lavorano quotidianamente con questa tecnologia. Inoltre, invece di utilizzare sondaggi con risposte predefinite o domande a risposta breve, lo studio ha impiegato interviste semi-strutturate, un metodo che consente di esplorare in modo più approfondito e dettagliato le problematiche rilevate.   Per raccogliere i dati necessari alla ricerca, sono state realizzate interviste semistrutturate con esperti nel campo dell'intelligenza artificiale, provenienti sia dal settore industriale sia da quello accademico. Durante queste interviste, il fallimento di un progetto di intelligenza artificiale è stato definito come la percezione, da parte dell'organizzazione coinvolta, che il progetto non abbia raggiunto gli obiettivi previsti . Questa definizione comprendeva sia fallimenti di natura tecnica, come malfunzionamenti o errori nei sistemi, sia fallimenti di tipo aziendale, come il mancato ritorno sugli investimenti o la non conformità con le aspettative strategiche dell'azienda. Gli intervistati sono stati invitati a discutere i tipi di fallimenti che ritenevano più comuni o rilevanti e a identificare le cause principali che, a loro avviso, avevano determinato tali esiti. A partire dalle risposte raccolte, è stato possibile identificare le cause ricorrenti di questi fallimenti.   L'approccio adottato nella ricerca offre una combinazione di punti di forza e debolezza. L'uso di interviste con domande aperte, rivolte a data scientist e ingegneri di machine learning con esperienza, ha permesso di evidenziare i principali problemi e sfide nell'esecuzione dei progetti di intelligenza artificiale, secondo il punto di vista di questi professionisti. Tuttavia, poiché la maggior parte degli intervistati erano ingegneri non manageriali, piuttosto che dirigenti aziendali, i risultati potrebbero essere influenzati in modo sproporzionato dalla prospettiva di chi non ricopre ruoli di leadership, portando a un'interpretazione orientata a identificare principalmente i fallimenti legati alla gestione.   I partecipanti provenienti dal settore industriale sono stati selezionati utilizzando la piattaforma LinkedIn Recruiter e contattati tramite messaggi LinkedIn InMail. Per essere considerati idonei, i potenziali partecipanti dovevano possedere almeno cinque anni di esperienza nell'ambito dell'intelligenza artificiale o del machine learning applicati all'industria, e ricoprire posizioni lavorative che indicassero ruoli come contributori individuali o manager in discipline tecniche quali la data science o l'ingegneria del machine learning. La selezione dei partecipanti è stata effettuata con l'obiettivo di rappresentare una vasta gamma di esperienze e percorsi professionali. In particolare, sono stati inclusi professionisti provenienti da aziende di diverse dimensioni, comprese start-up, grandi corporation e imprese di medie dimensioni, operanti in settori come tecnologia, sanità, finanza, retail, consulenza e altri ambiti.   In totale, sono stati individuati e contattati 379 potenziali candidati appartenenti al settore industriale. Tra questi, 50 hanno effettivamente partecipato a un'intervista, rappresentando oltre 50 organizzazioni diverse. Le interviste nel settore industriale sono state realizzate utilizzando una serie di domande standardizzate, garantendo sempre l'anonimato ai partecipanti per favorire un'espressione libera delle loro esperienze.   Per il settore accademico sono state condotte 15 interviste con accademici selezionati per la loro facile accessibilità, coinvolgendo persone incontrate durante conferenze o già conosciute dal gruppo di ricerca. I partecipanti provenivano da una varietà di istituti scolastici, tra cui programmi di ingegneria e scuole di business, e rappresentavano diversi stadi della carriera accademica. Anche in questo caso, le interviste sono state condotte garantendo l'anonimato dei partecipanti, al fine di permettere ai ricercatori accademici senza un contratto stabile e agli ingegneri che, pur non essendo direttamente coinvolti nella ricerca, supportano le attività accademiche, di esprimere le proprie opinioni liberamente e senza rischio di essere identificati.   Perché falliscono i progetti di intelligenza artificiale nel settore industriale Dalle interviste condotte con esperti di intelligenza artificiale nel settore industriale, sono state identificate cinque cause principali che spiegano il fallimento dei progetti di AI. Il motivo più frequentemente indicato è l'incapacità della leadership aziendale di definire correttamente gli obiettivi e le modalità del progetto per assicurarne il successo. Questa carenza di visione strategica è stata considerata il fattore con l'impatto più significativo sull'esito finale del progetto, superando altre cause di fallimento discusse.   Un'altra causa rilevante è legata alla qualità e all'utilità limitata dei dati disponibili per l'addestramento dei modelli di intelligenza artificiale. La mancanza di dati sufficientemente accurati o pertinenti è stata evidenziata come un ostacolo critico al successo del progetto. Queste due problematiche sono state menzionate spontaneamente da oltre la metà degli intervistati come le ragioni principali per cui i progetti di AI non raggiungono gli obiettivi prefissati.   Oltre a queste due cause principali, altri tre fattori sono stati segnalati con una certa frequenza. In primo luogo, la mancanza di investimenti in infrastrutture adeguate a sostenere efficacemente il team di sviluppo è stata identificata come una barriera significativa. In secondo luogo, sono emersi i fallimenti "bottom-up" attribuiti a errori commessi dai singoli membri del team di sviluppo. Infine, alcuni intervistati hanno indicato i limiti intrinseci delle capacità dell'intelligenza artificiale, ovvero ciò che la tecnologia può effettivamente realizzare, come una delle cause di insuccesso. Sebbene questi tre fattori siano stati citati meno frequentemente rispetto alle prime due cause, sono stati comunque menzionati da una percentuale significativa, compresa tra un quarto e un terzo degli esperti intervistati.   Perché la leadership è il principale fattore di fallimento nei progetti di AI I fallimenti nei progetti di intelligenza artificiale sono spesso attribuiti alla leadership aziendale, risultando essere la causa più comune di insuccesso rispetto a qualsiasi altro tipo di problema. Secondo i dati raccolti, l'84% degli intervistati ha indicato che una o più cause legate alla leadership rappresentano il principale motivo per cui i progetti di AI non riescono a raggiungere gli obiettivi prefissati. Questi fallimenti si presentano in varie forme, evidenziando un'influenza significativa della leadership sulla riuscita o meno dei progetti.   Spesso la leadership aziendale commette l'errore di indirizzare il team di sviluppo a risolvere con l'intelligenza artificiale problemi che non sono quelli realmente rilevanti per il business. Questo si traduce in mesi di lavoro intenso per sviluppare un modello di intelligenza artificiale che, alla fine, ha un impatto minimo sull'organizzazione. Tale situazione è spesso il risultato di una comunicazione inadeguata tra il team di sviluppo e i leader aziendali, o di una scarsa comprensione, da parte di questi ultimi, delle reali capacità e potenzialità dell’intelligenza artificiale. Sebbene l'AI sia percepita come una tecnologia promettente in grado di apportare miglioramenti in vari ambiti aziendali, questa visione è parziale. L'intelligenza artificiale non è solo una tecnologia, ma rappresenta un approccio nuovo e dirompente alla gestione aziendale, influenzando ogni comparto e fase operativa. Pertanto, affrontare i progetti AI come semplici innovazioni settoriali può portare a risultati deludenti. I progetti AI dovrebbero essere concepiti come iniziative globali, da sviluppare progressivamente in ogni settore, partendo dalle applicazioni più immediate per arrivare a quelle più complesse. È essenziale, quindi, che l'intera azienda, e in particolare i suoi vertici, comprenda appieno cosa significhi integrare l’intelligenza artificiale nel contesto aziendale.   La maggior parte dei leader aziendali non possiede una formazione specifica in intelligenza artificiale e data science. Questo implica la necessità che il personale tecnico traduca gli obiettivi stabiliti dalla leadership in traguardi concreti, realizzabili attraverso modelli di intelligenza artificiale. Tuttavia, nei casi in cui i progetti falliscono, una delle cause può essere la mancata partecipazione attiva della leadership nella valutazione dell'allineamento tra decisioni tecniche e obiettivi aziendali. Inoltre, la leadership potrebbe non riconoscere che le metriche utilizzate per valutare il successo del modello non siano quelle effettivamente rilevanti per raggiungere il risultato finale desiderato.   Un esempio di questa problematica si manifesta quando i leader aziendali richiedono lo sviluppo di un algoritmo di machine learning per suggerire il prezzo di un prodotto, mentre ciò di cui hanno realmente bisogno è determinare il prezzo che massimizzi il margine di profitto, piuttosto che quello che consenta di vendere il maggior numero di unità. Senza il giusto contesto, il team di sviluppo potrebbe fare assunzioni errate. Questi errori diventano spesso evidenti solo quando il modello di intelligenza artificiale è stato completato e si tenta di integrarlo nelle operazioni aziendali quotidiane.   In alcuni casi, i leader richiedono al team tecnico di applicare il machine learning a problemi che non ne hanno realmente bisogno. Non tutte le situazioni sono così complesse da giustificare l'uso di soluzioni basate su ML. Ad esempio, un intervistato ha riferito che i suoi team venivano incaricati di utilizzare tecniche di intelligenza artificiale su dataset con poche variabili o con pattern facilmente identificabili tramite semplici regole condizionali "if-then".   Questa discrepanza può avere diverse origini. In alcuni casi, i leader considerano l'intelligenza artificiale semplicemente come un termine di tendenza e non riconoscono che esistono soluzioni più semplici e meno costose. In altri casi, i leader senior, distanti dai dettagli operativi, richiedono l'uso dell'intelligenza artificiale poiché sono convinti che la complessità della loro area di business implichi necessariamente la necessità di soluzioni altrettanto complesse. Qualunque sia la causa, tali progetti, sebbene possano essere considerati di successo sotto un profilo tecnico, non riescono a generare un impatto complessivo significativo, poiché l'impiego dell'intelligenza artificiale non era necessario fin dall'inizio.   Inoltre, molti leader senior nutrono aspettative eccessive riguardo alle potenzialità dell'intelligenza artificiale, spesso influenzati dai rapidi progressi e dai risultati impressionanti ottenuti dai modelli di AI. Questo entusiasmo è ulteriormente alimentato dalle presentazioni di venditori e ricercatori del settore, che tendono a rafforzare la percezione che l'intelligenza artificiale possa raggiungere facilmente qualsiasi obiettivo. Tuttavia, l'ottimizzazione di un modello di AI per uno specifico caso d'uso all'interno di un'organizzazione può rivelarsi molto più complessa di quanto queste presentazioni facciano intendere.   Un aspetto cruciale da considerare è che i modelli di intelligenza artificiale sviluppati in ambito accademico potrebbero non adattarsi adeguatamente alle esigenze specifiche di un'azienda. Inoltre, molti leader aziendali non sono consapevoli che gli algoritmi di AI operano su una base probabilistica, incorporando un grado intrinseco di incertezza e casualità. Di conseguenza, leader che si aspettano risultati costanti e certi possono rimanere delusi quando il modello non soddisfa le loro aspettative, rischiando di perdere fiducia sia nel prodotto di AI sia nel team di data science che lo ha sviluppato.   Infine, molti intervistati (14 su 50) hanno evidenziato che i leader senior spesso sottovalutano il tempo necessario per addestrare un modello di intelligenza artificiale in grado di affrontare i problemi aziendali. Anche quando si dispone di un modello di AI preconfezionato, questo non è stato addestrato sui dati specifici dell'organizzazione e potrebbe quindi non essere subito efficace nel risolvere problematiche specifiche. I leader, inoltre, non sono sempre consapevoli del tempo e dei costi richiesti per acquisire, pulire ed esplorare i dati interni. Spesso si aspettano che i progetti di intelligenza artificiale si completino in poche settimane, anziché in mesi, e si chiedono perché il team di sviluppo non riesca a replicare rapidamente i risultati straordinari di cui sentono parlare regolarmente.   In alcune organizzazioni, la situazione è aggravata da frequenti cambiamenti nelle priorità dei leader senior, che possono variare ogni poche settimane o mesi. Ciò porta all'abbandono prematuro dei progetti in corso, prima che possano dimostrare risultati concreti, o il non utilizzo dei progetti completati perché non più in linea con le priorità percepite dalla leadership. Anche quando un progetto raggiunge il successo, i leader possono spingere il team a passare rapidamente ad altri compiti, senza consentire che i modelli sviluppati raggiungano il loro pieno potenziale. Come affermato da un intervistato, "Spesso, i modelli vengono consegnati al 50% del loro potenziale".   Come la qualità dei dati influenza l'insuccesso dei progetti di intelligenza artificiale Dopo i fallimenti dovuti alla leadership, i problemi legati ai dati sono stati identificati dagli intervistati come la seconda causa più comune per cui i progetti di intelligenza artificiale non raggiungono i risultati desiderati. Questi fallimenti legati ai dati si manifestano in diversi modi, influenzando significativamente l'efficacia dei progetti.   Un problema rilevante, evidenziato da 30 intervistati su 50, riguarda la qualità dei dati. La qualità è un elemento cruciale: senza dati accurati, completi e puliti, anche i modelli più avanzati rischiano di produrre risultati inaffidabili o distorti. Un intervistato ha osservato che "l'80% dell'intelligenza artificiale consiste nel lavoro sporco dell'ingegneria dei dati. Servono persone valide per fare questo lavoro, altrimenti i loro errori contaminano gli algoritmi". Tuttavia, convincere professionisti competenti a svolgere un lavoro percepito come monotono rappresenta una sfida notevole.   Un ulteriore ostacolo è la scarsa considerazione per l'ingegneria dei dati. I data engineer vengono spesso paragonati agli "idraulici della data science", essendo responsabili della progettazione e manutenzione dell'infrastruttura necessaria per acquisire, pulire e trasformare i dati in formati adatti all'addestramento dei modelli. Nonostante questo lavoro sia essenziale, spesso si tende a considerare il ruolo dei data scientist, focalizzati sull'addestramento dei modelli di intelligenza artificiale, come il “vero lavoro di AI”, relegando l'ingegneria dei dati a un'attività di minor importanza.   Questa percezione spinge molti data engineer a sviluppare competenze per diventare data scientist, causando un alto turnover nelle organizzazioni. Quando un data engineer lascia, porta con sé la conoscenza accumulata sui dati e sull'infrastruttura aziendale. In assenza di una documentazione adeguata, la loro partenza può lasciare un vuoto, rendendo difficile per chi rimane capire quali dataset siano affidabili o come il loro significato sia cambiato nel tempo. Questa situazione può aumentare i costi e il tempo necessario per completare un progetto, con il rischio che la leadership perda interesse e decida di abbandonarlo.   In alcuni casi, le organizzazioni non dispongono del tipo di dati necessari per addestrare modelli di intelligenza artificiale, un problema comune quando un'azienda utilizza l'AI per la prima volta o la applica a un nuovo ambito. Gli intervistati hanno evidenziato che i leader aziendali spesso credono di avere dati sufficienti solo perché ricevono rapporti regolari, ma questi potrebbero non essere adatti allo scopo. Ad esempio, i dataset storici potrebbero essere stati progettati per fini di conformità o registrazione, non per l'analisi richiesta dall'intelligenza artificiale, che spesso necessita di un contesto più ampio e dettagliato.   Un ulteriore problema si presenta quando le organizzazioni dispongono di grandi quantità di dati, ma questi risultano sbilanciati. Ad esempio, in ambito sanitario, un dataset potrebbe includere molti casi in cui un test ha correttamente confermato l'assenza di un tumore raro, ma pochi casi in cui il tumore era presente. Questa situazione aumenta il rischio di overfitting, con l'algoritmo che potrebbe correlare eccessivamente le condizioni rare con caratteristiche casuali e non rilevanti dei pochi casi noti. Raccogliere dati sufficienti per rilevare eventi rari nel mondo reale richiede tempo, risorse economiche e pazienza.   Infine, è emerso che una parte significativa degli intervistati (10 su 50) ha sottolineato come la mancanza di comprensione del dominio specifico possa compromettere il successo dei progetti di intelligenza artificiale. I team di sviluppo, spesso, non possiedono una conoscenza approfondita dei settori per cui stanno creando i loro modelli; per questo motivo, necessitano del supporto di esperti del settore in grado di interpretare correttamente i dati presenti nei dataset, identificando quelli rilevanti, quelli irrilevanti e quelli potenzialmente inaffidabili.   Per esempio, un campo di dati potrebbe inizialmente sembrare essenziale per l'addestramento del modello di AI, ma rivelarsi poi poco affidabile a causa dell'inserimento manuale da parte di utenti privi di motivazioni per garantirne l'accuratezza. In alcune situazioni, gli esperti del settore che dovrebbero fornire supporto ai team di AI mostrano una resistenza passiva verso questi progetti, poiché temono che l'introduzione dell'intelligenza artificiale possa minacciare le loro posizioni lavorative.   Pertanto, senza una chiara comprensione del significato dei dati dell'organizzazione e una corretta valutazione della loro affidabilità e importanza, i progetti di AI rischiano di incontrare difficoltà nel raggiungere i risultati desiderati dall'organizzazione.   Perché le infrastrutture inadeguate portano a fallimenti nei progetti di AI Le difficoltà che molte organizzazioni affrontano nel rendere i propri dati pronti per l'intelligenza artificiale possono essere attribuite alla mancanza di investimenti adeguati nelle infrastrutture di supporto. Gli ingegneri dei dati necessitano di tempo e risorse per sviluppare pipeline capaci di pulire automaticamente i dati e fornire costantemente dati aggiornati ai modelli di AI già in uso. Un investimento mirato in infrastrutture consente il monitoraggio automatico di queste pipeline, rilevando tempestivamente eventuali cambiamenti nel formato delle fonti di dati o ritardi nella loro disponibilità. Tuttavia, molte organizzazioni che avanzano rapidamente da un prototipo all'altro si trovano spesso impreparate ad affrontare i problemi che emergono una volta che il modello di AI è stato completato e implementato.   Una solida infrastruttura consente al team di ingegneri di identificare quando un modello implementato necessita di manutenzione, quali modelli richiedono interventi più urgenti e quale tipo di manutenzione è necessaria in ciascun caso. Inoltre, gli investimenti in infrastrutture operative agevolano il passaggio rapido e semplice dei modelli di AI dalla fase di sviluppo a quella di produzione. Gli esperti intervistati hanno raccomandato di investire nell'assunzione di ingegneri specializzati in machine learning (ML) con le competenze necessarie per costruire queste infrastrutture e accelerare la distribuzione dei modelli. Alcuni casi hanno mostrato come modelli di AI non potessero essere trasferiti dagli ambienti di test a quelli di produzione a causa di incompatibilità con i requisiti del modello. In altre situazioni, sono stati segnalati ritardi significativi nella messa a disposizione dei modelli agli utenti finali a causa della mancanza di un'infrastruttura adeguata per automatizzare le distribuzioni.   La creazione di prodotti di intelligenza artificiale efficaci richiede dunque un team che vada oltre i soli data scientist. Investire in data engineer e ML engineer può ridurre notevolmente i tempi necessari per sviluppare un nuovo modello di AI e implementarlo in un ambiente di produzione, dove può essere effettivamente utile agli utenti finali.   È stato inoltre osservato che alcuni progetti di intelligenza artificiale falliscono perché affrontano problemi troppo complessi per essere risolti dagli algoritmi attuali. La frequenza di tali fallimenti varia significativamente a seconda del contesto d'uso dell'AI. Mentre in molti settori, come l'e-commerce o la pubblicità, i modelli di AI sono altamente efficaci, alcune applicazioni previste per la computer vision rimangono resistenti anche ai tentativi più rigorosi e ben finanziati di implementazione dell'AI.   Un ulteriore punto sottolineato è che gli algoritmi di AI non sono adatti all'automazione di processi interni che richiedono giudizio umano soggettivo. I leader devono comprendere che l'AI non è uno strumento capace di automatizzare completamente ogni processo o risolvere ogni problema. Alcuni casi d'uso sono più adatti all'AI di altri, e capire quali problemi si prestano meglio a questa tecnologia può aiutare le organizzazioni a evitare fallimenti costosi e imbarazzanti.   Oltre ai dati, due componenti fondamentali per l'addestramento degli algoritmi di intelligenza artificiale sono la disponibilità di talenti e la potenza di calcolo. Sebbene pochi intervistati abbiano identificato la carenza di potenza di calcolo come una delle cause principali di fallimento dei progetti di AI, è stato comunque chiesto loro di esprimere un'opinione sulla possibilità che carenze in quest'area possano contribuire al fallimento.   La maggior parte degli intervistati ha dichiarato che la potenza di calcolo non rappresentava un ostacolo significativo, grazie alla disponibilità di servizi di cloud computing. Tuttavia, sono state evidenziate due eccezioni. La prima riguarda le aziende che, per la natura sensibile dei loro dati, evitano di utilizzare il cloud, specialmente nei settori regolamentati come la finanza e la sanità. La seconda eccezione riguarda le grandi aziende tecnologiche che operano ai confini della ricerca sull'AI e che addestrano modelli linguistici di grandi dimensioni (LLM), dove la potenza di calcolo può essere razionata, causando ritardi.   Per quanto riguarda la disponibilità di talenti, molti intervistati hanno evidenziato come questa possa ostacolare il lavoro delle organizzazioni. Nonostante un miglioramento generale nella disponibilità di talenti, la qualità rimane una sfida. Molti programmi educativi si concentrano principalmente sullo sviluppo di modelli di AI, trascurando competenze fondamentali come la pulizia dei dati o il deployment in produzione. Questo rende difficile valutare quali neolaureati possano essere efficaci in contesti meno ideali. Le organizzazioni ottengono i migliori risultati quando identificano candidati con potenziale di crescita, anziché cercare solo esperti affermati.   Infine, è stata sollevata la questione dell'applicabilità dei processi di sviluppo software agile ai progetti di intelligenza artificiale. Alcuni intervistati hanno osservato che interpretazioni rigide dello sviluppo agile possono risultare inadatte, poiché i progetti di AI richiedono una fase iniziale di esplorazione e sperimentazione imprevedibile. La comunicazione aperta e frequente tra i team tecnici e gli stakeholder aziendali è essenziale per costruire fiducia e aumentare le probabilità di successo del progetto.   Il ruolo dei fallimenti bottom-up nei progetti di intelligenza artificiale Oltre ai fallimenti derivanti dalla leadership aziendale, molti intervistati (16 su 50) hanno evidenziato un diverso tipo di fallimento, originato dal team di sviluppo. Il personale tecnico, spesso appassionato di esplorare i limiti del possibile e di apprendere nuovi strumenti e tecniche, tende a cercare opportunità per testare modelli o framework appena sviluppati, anche quando strumenti più consolidati e tradizionali potrebbero essere più adeguati al contesto aziendale.   Gli ingegneri e i data scientist, inoltre, sono fortemente motivati a costruire la propria esperienza sulle più recenti innovazioni tecnologiche, poiché queste competenze sono altamente richieste nel mercato del lavoro. I progetti di intelligenza artificiale tendono a fallire quando l'attenzione è focalizzata principalmente sulla tecnologia utilizzata, piuttosto che sulla risoluzione dei problemi reali degli utenti finali. Sebbene sia importante per un'organizzazione sperimentare nuove tecnologie e offrire al personale tecnico l'opportunità di migliorare le proprie competenze, ciò dovrebbe essere fatto in modo consapevole e bilanciato rispetto agli altri obiettivi dell'organizzazione.   Come i leader possono guidare al successo i progetti di AI in azienda   I progetti di intelligenza artificiale possono risultare complessi per qualsiasi organizzazione, ma il fallimento non è un destino obbligato. Per i leader che vogliono evitare gli errori più frequenti evidenziati dagli esperti di AI, esistono cinque raccomandazioni che possono favorire un'implementazione di AI di successo. Questi suggerimenti, se seguiti attentamente, possono aiutare a superare le sfide comuni e a massimizzare i benefici derivanti dall'intelligenza artificiale, contribuendo così a migliorare le performance e a raggiungere gli obiettivi strategici dell'organizzazione.   L'Importanza di comprendere il contesto aziendale nei progetti di intelligenza artificiale I malintesi e le comunicazioni poco chiare riguardo all'obiettivo e allo scopo di un progetto sono tra le principali cause di fallimento nei progetti di intelligenza artificiale. Questo rende fondamentale il ruolo sia dei leader aziendali che degli ingegneri, i quali devono collaborare per evitare tali esiti negativi. I leader aziendali, infatti, devono comprendere le potenzialità dell'intelligenza artificiale non attraverso corsi tecnici, ma grazie all'assistenza di consulenti esperti nelle dinamiche aziendali e nella direzione d'impresa. Questi consulenti devono essere aggiornati sull'evoluzione dell'AI sia dal punto di vista della ricerca sia per quanto riguarda le applicazioni pratiche nelle aziende, aiutando così i leader a capire cosa realmente l'AI può fare per loro. Questo passaggio è cruciale perché permette ai leader di supportare il personale tecnico nel comprendere chiaramente le aspettative legate al progetto di AI e l'uso effettivo del prodotto finale. Non è sufficiente supporre che il team di ingegneria sia in grado di identificare autonomamente quali decisioni progettuali renderanno utile il prodotto nel contesto aziendale.   Per facilitare queste interazioni e connessioni tra team tecnici e stakeholder, le organizzazioni dovrebbero riconsiderare i processi esistenti. I metodi rigidi di sviluppo software raramente si adattano alla dinamicità dei progetti di AI. Invece di imporre un insieme uniforme di procedure, pensato per altri tipi di ingegneria, le organizzazioni dovrebbero concedere ai loro team la libertà di adattare i processi in base alle specificità di lavoro. In definitiva, è necessario riscoprire come rendere il processo di sviluppo software davvero flessibile e, in senso autentico, agile, permettendo così ai team di rispondere efficacemente alle esigenze del progetto di AI.   L'Impegno a lungo termine come fattore di successo nei progetti di intelligenza artificiale I progetti di intelligenza artificiale necessitano di tempo e pazienza per essere portati a termine con successo. I data scientist e i data engineer devono avere il tempo e lo spazio necessari per esplorare, comprendere e curare i dati disponibili, prima di procedere con l'addestramento di un modello di AI che imparerà a operare basandosi su tali dati. Modificare frequentemente le priorità del team, inseguendo crisi o opportunità momentanee, può condurre all'abbandono di molti progetti di AI prima che abbiano la possibilità di generare risultati concreti.   È fondamentale, quindi, che prima di intraprendere un progetto di AI, i leader siano disposti a impegnare ciascun team di prodotto nella risoluzione di un problema specifico per un periodo di almeno un anno. Se un progetto di AI non giustifica un impegno a lungo termine di tale portata, probabilmente non è opportuno iniziarlo, poiché un progetto con tempistiche troppo accelerate rischia di fallire senza mai raggiungere gli obiettivi stabiliti.   Concentrarsi sul problema, non sulla tecnologia Gli ingegneri esperti hanno rilevato che i team di progetto di successo si distinguono per il loro impegno a mantenere un focus preciso sul problema aziendale da risolvere, anziché concentrarsi esclusivamente sulla tecnologia da adottare. Seguire ciecamente le più recenti e avanzate innovazioni in ambito AI solo per il fascino dell'innovazione stessa rappresenta una delle cause più frequenti di fallimento. È fondamentale che i leader all'interno di un'organizzazione lavorino fianco a fianco con i tecnologi, assicurandosi che i progetti di AI scelti siano non solo compatibili con la tecnologia disponibile, ma anche capaci di affrontare un problema reale per l’azienda.   Per quanto affascinante possa apparire una nuova tecnologia, è importante ricordare che ogni tecnologia, inclusa l'AI, non è altro che uno strumento da impiegare, non un obiettivo finale da perseguire.   Investire in infrastrutture dati aziendali per ridurre i costi e aumentare il successo dei progetti AI I problemi legati alla gestione dei dati sono tra le principali cause di fallimento nei progetti di intelligenza artificiale. Per questo motivo, investire nella costruzione di un'infrastruttura dati efficace, capace di acquisire, pulire e monitorare i flussi di dati in modo affidabile, rappresenta una strategia cruciale per migliorare la qualità dei dati all'interno di un'organizzazione. Questo tipo di investimento aumenta significativamente le probabilità di successo dei progetti di AI, poiché fornisce una base solida e coerente per il funzionamento degli algoritmi e delle soluzioni basate sull'intelligenza artificiale.   Parallelamente, investire in infrastrutture che supportano la distribuzione automatica dei modelli di AI permette di implementare tali modelli con maggiore velocità e affidabilità. Ciò si traduce in benefici concreti per gli utenti finali, che possono usufruire di soluzioni più efficienti e tempestive. Tuttavia, non tutte le aziende comprendono l'importanza di questi investimenti. È comune osservare una tendenza a passare rapidamente da un progetto di AI all'altro, senza dedicare il tempo necessario allo sviluppo di strumenti comuni che migliorerebbero l'efficienza dei team di sviluppo. I dirigenti spesso giustificano questa mancanza di attenzione all'infrastruttura sostenendo che l'evoluzione rapida della tecnologia e del contesto aziendale rende meno vantaggioso investire in soluzioni che potrebbero sembrare rapidamente obsolete.   Tuttavia, proprio per la dinamicità del settore, avere un'infrastruttura dati affidabile e facilmente adattabile è essenziale. Non solo consente di ottimizzare le performance aziendali, ma riduce anche i costi operativi, trasformando l'azienda da semplicemente informatizzata a digitalizzata . Questo passaggio semplifica e velocizza l'implementazione di qualsiasi soluzione di intelligenza artificiale, rendendo l'organizzazione più agile e pronta a rispondere alle nuove sfide.   La mancata decisione di investire nell'infrastruttura comporta conseguenze rilevanti: i progetti IT e di AI rischiano di richiedere più tempo per essere completati, diventano più costosi e aumentano le probabilità di insuccesso. La creazione di una solida infrastruttura, al contrario, può fare la differenza tra il successo e il fallimento dei progetti di intelligenza artificiale, garantendo risultati migliori e un utilizzo più efficace delle risorse aziendali.   Integrare l'AI nei processi aziendali in modo consapevole L'intelligenza artificiale, pur essendo oggetto di grande entusiasmo, presenta ancora delle limitazioni tecniche che non possono sempre essere superate. È cruciale non considerarla come una soluzione magica capace di risolvere ogni problema o di automatizzare qualsiasi processo aziendale. I leader devono essere consapevoli delle effettive potenzialità dell'AI, valutandola con un approccio realistico e mirato.   In questo contesto, i consulenti giocano un ruolo essenziale. Grazie alla loro posizione esterna e imparziale rispetto alle dinamiche interne dell'azienda, possono offrire un supporto prezioso per comprendere come l'AI possa davvero apportare valore. Fornendo una prospettiva oggettiva, aiutano i leader aziendali a selezionare progetti che siano coerenti con le capacità dell'AI e che possano generare un impatto significativo sull'organizzazione. La loro expertise consente ai leader di acquisire gli strumenti necessari per collaborare efficacemente con i tecnici interni, facilitando la scelta di iniziative che sfruttino al meglio le potenzialità dell'intelligenza artificiale.   L'obiettivo finale, dunque, non è solo quello di integrare l'AI nei processi aziendali, ma di farlo in modo strategico e consapevole. Le applicazioni devono essere selezionate in base alle specifiche esigenze dell'azienda, puntando a risultati concreti e benefici misurabili. Solo in questo modo l'intelligenza artificiale può diventare un alleato efficace e mirato, evitando l'errore di considerarla una soluzione universale e indifferenziata alle sfide aziendali.   Conclusioni I progetti di intelligenza artificiale spesso non raggiungono i risultati desiderati non per carenze tecnologiche, ma per una gestione inadeguata a livello organizzativo e strategico. Uno degli errori più comuni dei leader aziendali è trattare l’AI come una semplice tecnologia da adottare per restare competitivi, piuttosto che come un cambiamento di paradigma che richiede un ripensamento profondo dei processi aziendali e delle strategie operative. Questo equivoco porta spesso a progetti mal definiti, dove l'obiettivo non è chiaro e la soluzione tecnologica non è strettamente collegata a un problema di business reale e prioritario.   Una riflessione profonda riguarda la disconnessione tra la leadership aziendale e i team tecnici, che genera un divario tra le reali capacità dell'intelligenza artificiale e le aspettative dei dirigenti. Questo divario è ulteriormente accentuato dalla mancanza di competenze specifiche tra i leader, i quali spesso non sono adeguatamente preparati per comprendere le limitazioni e le potenzialità effettive dell'AI. Una soluzione strategica potrebbe consistere nell'integrazione di consulenti con competenze ibride, in grado di supportare i leader aziendali nel tradurre le esigenze dell'azienda in requisiti tecnici e nel facilitare la comprensione delle necessità dei team di sviluppo, promuovendo così una consapevolezza condivisa sia a livello strategico che tecnico.   Inoltre, il successo dei progetti di AI è strettamente legato alla qualità dei dati e alla solidità dell'infrastruttura dati aziendale. Questo aspetto non è solo tecnico ma strategico: un investimento adeguato in infrastrutture che facilitino la gestione dei dati e il deployment di modelli AI può trasformare il fallimento in successo. Le aziende devono considerare questi investimenti come una parte essenziale della loro strategia di innovazione, piuttosto che come costi da minimizzare. Infatti, la mancanza di una solida infrastruttura porta a inefficienze, ritardi e, spesso, a progetti abbandonati.   Un altro punto cruciale è la gestione delle aspettative. L'intelligenza artificiale non è una panacea e i suoi risultati possono essere influenzati da un'ampia variabilità. Questa natura probabilistica della tecnologia può sorprendere i leader abituati a soluzioni deterministiche, portando a una perdita di fiducia nel team di sviluppo o nei risultati del progetto. È essenziale, quindi, educare la leadership aziendale a comprendere che l’AI è uno strumento potente ma che, come ogni strumento, ha limiti intrinseci che vanno gestiti con consapevolezza.   Il focus dovrebbe essere sempre sul problema di business da risolvere, piuttosto che sulla tecnologia da adottare. Troppo spesso, infatti, le organizzazioni si innamorano dell'ultima novità tecnologica, perdendo di vista il valore aggiunto reale per l'azienda. L’approccio giusto implica un cambiamento culturale: spostare l'attenzione dal “fare AI” al “risolvere problemi concreti” con strumenti che includono, ma non si limitano, all’intelligenza artificiale.   Infine, il coinvolgimento e l’impegno a lungo termine dei leader sono essenziali per evitare cambiamenti di priorità che possano sabotare i progetti di AI. La pazienza e la stabilità nella gestione dei progetti sono spesso più determinanti del mero talento tecnico. I leader devono essere pronti a sostenere i team di sviluppo attraverso le inevitabili difficoltà iniziali, riconoscendo che il valore dei progetti di AI si manifesta spesso solo dopo un periodo prolungato di iterazioni e miglioramenti.   In sintesi, il successo dei progetti di intelligenza artificiale dipende da una leadership consapevole e impegnata, da un'infrastruttura dati solida e da un approccio strategico che ponga il problema di business al centro. Le aziende devono smettere di considerare l'AI come una moda da seguire e iniziare a vederla come una leva trasformativa che richiede, però, tempo, pazienza e un impegno strutturale per poter dispiegare pienamente il suo potenziale.

  • MIT CSAIL scopre come i modelli AI sviluppano la comprensione del mondo reale

    L’articolo di Alex Shipps " LLMs develop their own understanding of reality as their language abilities improve " evidenzia un esperimento affascinante che getta nuova luce sulla comprensione del linguaggio da parte dei modelli di linguaggio su larga scala (LLM). Tradizionalmente, si è sempre pensato che questi modelli, come GPT-4, siano essenzialmente delle macchine di pattern recognition, capaci di generare testi simili a quelli umani semplicemente perché addestrati su enormi quantità di dati, senza però una reale comprensione sottostante. Tuttavia, la ricerca del MIT CSAIL suggerisce una realtà ben più complessa e intrigante: i LLM potrebbero sviluppare una sorta di comprensione del "reale" per migliorare le loro capacità generative. Il team ha condotto una serie di esperimenti utilizzando piccoli puzzle di Karel, un semplice linguaggio di programmazione per robot, dove il modello doveva elaborare istruzioni per controllare un robot in un ambiente simulato. Sebbene il modello non fosse mai stato esposto direttamente alla simulazione della realtà in cui operava, alla fine dell’addestramento è riuscito a generare istruzioni corrette nel 92,4% dei casi. Questo risultato suggerisce che il modello ha sviluppato una propria concezione interna della simulazione sottostante, una sorta di "modello mentale" della realtà che gli ha permesso di risolvere i compiti con un’elevata precisione. Questi risultati sollevano domande fondamentali riguardo al significato e alla comprensione linguistica. Se un LLM può creare una simulazione interna della realtà, basata esclusivamente su dati testuali e senza input sensoriali diretti, significa forse che sta iniziando a "capire" il mondo, anche se in un modo diverso dagli esseri umani? Una parte cruciale dell'esperimento ha coinvolto una tecnica chiamata "probing", utilizzata per analizzare il processo di pensiero del modello durante la generazione delle soluzioni. Il "probe" ha rivelato che il modello stava sviluppando una simulazione interna di come il robot si muoveva in risposta a ciascuna istruzione. Man mano che la capacità del modello di risolvere i puzzle migliorava, anche la precisione di queste concezioni interne aumentava, suggerendo che il modello stava iniziando a comprendere le istruzioni in modo sempre più sofisticato. Charles Jin, il principale autore dello studio, ha paragonato l’evoluzione del modello a quella di un bambino che impara a parlare. Inizialmente, il modello produce istruzioni ripetitive e per lo più incomprensibili, simili ai primi balbettii di un neonato. Successivamente, acquisisce la sintassi, ovvero le regole del linguaggio, e inizia a generare istruzioni che potrebbero sembrare soluzioni reali, ma che ancora non funzionano. Infine, il modello inizia a produrre istruzioni che implementano correttamente le specifiche richieste, come un bambino che forma frasi coerenti. Un aspetto particolarmente interessante dello studio riguarda il tentativo di separare il metodo dal modello, creando una sorta di "Bizarro World" in cui le istruzioni venivano invertite: "su" significava "giù", e così via. Questo esperimento aveva lo scopo di verificare se il modello avesse realmente appreso il significato delle istruzioni o se fosse il "probe" a inferire i movimenti del robot. I risultati hanno mostrato che il "probe" non riusciva a tradurre correttamente le istruzioni nel mondo invertito, suggerendo che il modello aveva effettivamente sviluppato una comprensione indipendente delle istruzioni originali. Le implicazioni di questi risultati sono profonde. Se un modello di linguaggio, addestrato esclusivamente su dati testuali, è in grado di sviluppare una comprensione interna di una simulazione di realtà, allora potrebbe essere possibile che questi modelli abbiano potenzialità di comprensione molto più profonde di quanto finora immaginato. Questo apre la strada a nuove ricerche su come i LLM potrebbero essere utilizzati non solo per generare testo, ma anche per comprendere e interagire con il mondo in modi che vanno oltre le capacità attuali. Tuttavia, ci sono anche delle limitazioni da considerare. Come sottolineato dallo stesso Jin, lo studio ha utilizzato un linguaggio di programmazione molto semplice e un modello relativamente piccolo. Le future ricerche dovranno espandere questi risultati utilizzando contesti più generali e modelli di dimensioni maggiori per determinare se questa capacità di "comprensione" si estende ad altre aree e situazioni più complesse. La riflessione più intrigante riguarda la possibilità che i LLM possano effettivamente utilizzare il loro modello interno della realtà per ragionare su di essa, un concetto che, se dimostrato, potrebbe rivoluzionare il modo in cui concepiamo l’intelligenza artificiale. Come evidenziato da Martin Rinard, professore di MIT EECS e autore senior dello studio, c'è ancora molto da capire su come i modelli di linguaggio sviluppano e utilizzano queste rappresentazioni interne. Ellie Pavlick, docente di informatica e linguistica alla Brown University, ha commentato che queste domande sono al cuore di come costruiamo l’intelligenza artificiale e delle aspettative sulle potenzialità e i limiti della tecnologia attuale. In sintesi, questo studio non solo sfida le nostre concezioni tradizionali della comprensione linguistica nei modelli di intelligenza artificiale, ma pone anche le basi per una nuova era di esplorazione su come queste macchine potrebbero, in futuro, comprendere il mondo in modi che sono inaspettatamente simili a quelli umani. Le implicazioni per il mondo delle imprese potrebbero essere immense, poiché l’integrazione di LLM con capacità di comprensione avanzate potrebbe trasformare settori come l’automazione, il servizio clienti, la creazione di contenuti e persino la ricerca scientifica, rendendo le macchine non solo degli esecutori di compiti, ma veri e propri partner intelligenti in grado di comprendere e risolvere problemi complessi.

  • Come l'AI sta trasformando il settore finanziario e le preoccupazioni dei sindacati

    L'articolo di Jim Pickard e Anna Gross " Banks and accounting firms should brace for cost of AI job losses, unions warn " sul Financial Times tratta un tema di grande attualità, evidenziando come l'AI sta trasformando il settore finanziario, con un focus specifico sulle preoccupazioni espresse dai sindacati britannici. La questione principale riguarda l'adozione sempre più pervasiva della tecnologia AI da parte delle banche, delle assicurazioni e delle società di contabilità, e i suoi potenziali effetti dirompenti sul mercato del lavoro. In particolare, viene sottolineato come, secondo un rapporto di Citigroup, fino al 54% dei posti di lavoro nel settore bancario e il 48% nel settore assicurativo potrebbero essere messi a rischio dall'automazione. Una delle prospettive più rilevanti in questo contesto è il richiamo dei sindacati al bisogno di regolamentazione e alle loro richieste per garantire che i lavoratori non vengano lasciati indietro nel processo di transizione tecnologica. Questo include, tra l’altro, la richiesta che le aziende si facciano carico della riqualificazione dei dipendenti i cui lavori vengono sostituiti dalle nuove tecnologie. La mozione avanzata da Accord, un sindacato rappresentante i lavoratori bancari, sottolinea l'urgenza di un programma di reskilling di massa per preparare milioni di lavoratori ad affrontare il cambiamento. In un contesto economico caratterizzato da un’elevata regolamentazione, la transizione verso l'AI presenta sfide specifiche. Le aziende del settore finanziario, come evidenziato da Jana Mackintosh, responsabile di UK Finance, sono particolarmente attente all’adozione di queste tecnologie in modo responsabile. Tuttavia, nonostante queste rassicurazioni, i sindacati restano preoccupati per i possibili effetti negativi, soprattutto per quanto riguarda la trasparenza e l'equità delle decisioni automatizzate, come le assunzioni o i licenziamenti. La mozione di Unite, infatti, esprime timori che l’AI possa intensificare il controllo sui lavoratori, in particolare quelli più vulnerabili, come gli impiegati con contratti esternalizzati e provenienti da minoranze etniche. Queste dinamiche suggeriscono uno scenario in cui l'AI potrebbe accentuare le disuguaglianze esistenti nel mercato del lavoro, a meno che non vengano implementate adeguate misure correttive. La spinta dei sindacati per una legislazione che garantisca diritti di consultazione per i lavoratori e che limiti l'uso discriminatorio della tecnologia è una reazione naturale alla rapidità con cui queste innovazioni vengono adottate. Uno degli elementi più importanti che emerge dall’articolo è il gap percepito tra l'evoluzione delle tecnologie AI e il ritmo delle normative che dovrebbero governarne l'uso. Sharon Graham, segretario generale di Unite, ha dichiarato che il Regno Unito rischia di "rimanere indietro" se non si adotteranno misure concrete per proteggere i lavoratori dai rischi dell'automazione. La questione non riguarda solo il futuro del lavoro, ma anche il modo in cui la società può affrontare le sfide di un cambiamento tecnologico che, potenzialmente, rischia di ampliare le disuguaglianze e creare nuovi problemi di equità e giustizia sociale. Dal punto di vista delle aziende, la sfida più grande sarà probabilmente quella di bilanciare i benefici economici dell’automazione con la necessità di mantenere un approccio etico e sostenibile nel gestire il capitale umano. Le imprese devono prepararsi a fronteggiare un clima in cui l’AI può portare a significativi risparmi sui costi operativi, ma al prezzo di una crescente pressione normativa e sindacale per garantire che questi risparmi non avvengano a discapito dei lavoratori. Ciò che non è presente nel dibattito attuale è una riflessione più profonda sulle opportunità che l'AI potrebbe offrire non solo in termini di efficienza, ma anche di creazione di nuove forme di lavoro. Le stesse tecnologie che minacciano di eliminare i posti di lavoro tradizionali potrebbero anche facilitare l’emergere di nuovi settori e nuove competenze. Le aziende che sapranno guardare oltre l'immediato risparmio di costi e investiranno nella formazione continua dei propri dipendenti potrebbero trovarsi in una posizione di vantaggio competitivo in un mondo sempre più digitalizzato. Infine, è cruciale che le imprese, i governi e i sindacati collaborino per definire una strategia a lungo termine che non si limiti a mitigare i danni dell’AI, ma che sfrutti pienamente il suo potenziale per trasformare il mondo del lavoro in modo positivo. Questo potrebbe includere non solo la riqualificazione dei lavoratori, ma anche un ripensamento delle modalità con cui il lavoro viene distribuito e valorizzato all'interno dell'economia. Il tema sollevato nell’articolo del Financial Times da Pickard e Gross è destinato a rimanere al centro del dibattito politico ed economico per molti anni a venire. Le decisioni che verranno prese oggi, in termini di regolamentazione, formazione e politiche del lavoro, avranno un impatto determinante sul futuro del lavoro e della società nel suo complesso. Le aziende che sapranno anticipare questi cambiamenti, investendo nelle persone tanto quanto nelle tecnologie, saranno quelle meglio posizionate per prosperare in un mondo sempre più dominato dall'intelligenza artificiale.

  • Agenti AI e il futuro della cybersecurity post-quantistica

    L'articolo di Skip Sanzeri pubblicato su Forbes Technology Council, intitolato " AI Agents Are The Future, And A Lot Is At Stake ", esplora le potenzialità degli agenti intelligenti (AI agents) e sottolinea i rischi significativi associati al loro utilizzo su larga scala, soprattutto in termini di sicurezza e privacy. Sanzeri, fondatore e COO di QuSecure, leader nel campo della cybersecurity post-quantistica, fa un'analogia tra gli agenti AI e i temibili agenti del film "The Matrix", suggerendo che mentre questi strumenti potrebbero inizialmente essere sviluppati come assistenti fidati, potrebbero evolvere in entità autonome che non rispondono più ai propri creatori, causando potenzialmente danni enormi. Sanzeri descrive gli agenti come programmi informatici capaci di svolgere compiti autonomamente, prendere decisioni e interagire con esseri umani o altri sistemi informatici. Questi agenti, già ampiamente utilizzati in vari settori, diventeranno una componente imprescindibile del futuro. Tra le loro applicazioni, l'autore cita assistenti personali, monitoraggio della salute tramite dispositivi indossabili, personalizzazione dell'apprendimento e controllo di veicoli autonomi. Tuttavia, Sanzeri avverte che questa crescente dipendenza dagli agenti AI porta con sé gravi rischi per la sicurezza. Immagina uno scenario in cui ogni dettaglio della vita di una persona, memorizzato digitalmente, può essere rubato e utilizzato da criminali informatici o stati nazionali ostili. Le conseguenze di un simile furto potrebbero essere devastanti, con impatti potenzialmente disastrosi sull'individuo e sulla società. Sanzeri elenca diversi scenari critici, tra cui furti di identità, spionaggio industriale e governativo, manipolazione e diffusione di disinformazione, interruzioni operative, attacchi ai sistemi finanziari e il controllo di sistemi autonomi come veicoli o droni, che potrebbero essere usati come armi. Per affrontare questi rischi, l'autore propone una serie di misure di sicurezza avanzate, tra cui l'adozione di algoritmi crittografici agili e resilienti al quantum computing, un'autenticazione avanzata basata su un approccio zero-trust, l'uso di crittografia dinamica e agile, e audit e monitoraggi regolari. Sanzeri sottolinea l'importanza di implementare queste strategie per garantire che gli agenti AI possano essere utilizzati in sicurezza, proteggendo la privacy, la sicurezza e la stabilità sociale. L'articolo di Sanzeri evidenzia una verità fondamentale: la tecnologia degli agenti AI non è solo una questione di efficienza o innovazione, ma una sfida cruciale per la sicurezza e la privacy. Se non affrontata con la dovuta attenzione, la diffusione di questi strumenti potrebbe aprire le porte a nuove forme di minacce, rendendo la gestione del rischio una priorità assoluta per le aziende e le istituzioni. Ma c'è un aspetto più profondo e meno esplorato che merita attenzione: l'impatto psicologico e sociale di vivere in un mondo mediato dagli agenti AI. Mentre ci avviciniamo a una realtà in cui gli agenti AI diventeranno sempre più integrati nelle nostre vite, dovremmo riflettere su come questa interazione costante potrebbe alterare la nostra percezione della realtà, le nostre relazioni interpersonali e il nostro senso di autonomia. Gli agenti AI, sebbene progettati per assisterci, potrebbero finire per determinare le nostre scelte in modi che non comprendiamo appieno, influenzando non solo le decisioni quotidiane ma anche i nostri valori e le nostre priorità. Ad esempio, la delega costante di decisioni e compiti agli agenti potrebbe ridurre la nostra capacità di prendere decisioni autonome e critiche. La dipendenza da suggerimenti e consigli personalizzati basati su dati raccolti dagli agenti potrebbe portare a un'omogeneizzazione del pensiero, limitando l'esplorazione di nuove idee o approcci. Inoltre, c'è il rischio che la fiducia eccessiva nei sistemi AI possa indebolire la nostra capacità di discernere e valutare le informazioni in modo indipendente, creando una società più vulnerabile alla manipolazione e alla disinformazione. Un altro punto critico riguarda l'impatto sul lavoro e sulle competenze umane. Con l'aumento dell'automazione guidata dagli agenti AI, molte competenze tradizionali potrebbero diventare obsolete, richiedendo una trasformazione radicale delle competenze lavorative e dell'istruzione. Tuttavia, questa transizione non sarà semplice e potrebbe esacerbare le disuguaglianze esistenti, creando una divisione tra coloro che possono adattarsi rapidamente e coloro che rischiano di essere lasciati indietro. Infine, l'articolo di Sanzeri ci ricorda che la sicurezza è una corsa agli armamenti continua, in cui ogni nuova tecnologia introduce nuove vulnerabilità. Il passaggio all'era post-quantistica, in cui i computer quantistici potrebbero decifrare gli attuali standard crittografici, rappresenta un esempio calzante di come le innovazioni tecnologiche richiedano una vigilanza costante e un adattamento rapido per proteggere le nostre informazioni più sensibili. Tuttavia, questa corsa alla sicurezza non dovrebbe distogliere l'attenzione da un'altra sfida cruciale: garantire che l'evoluzione degli agenti AI sia accompagnata da un'evoluzione parallela delle norme etiche e dei quadri regolatori che ne governano l'uso. In conclusione, l'articolo di Skip Sanzeri solleva questioni fondamentali che richiedono un'attenta riflessione non solo da parte dei leader tecnologici, ma anche dei policy maker, degli educatori e della società in generale. Gli agenti AI rappresentano una frontiera tecnologica con un potenziale immenso, ma anche con rischi significativi. La chiave sarà trovare un equilibrio tra innovazione e sicurezza, tra efficienza e etica, per garantire che questi strumenti possano essere utilizzati a beneficio dell'umanità senza compromettere i valori fondamentali su cui si basa la nostra società.

  • Meta Knowledge Summary e PR3: Innovazione AWS per un recupero dei dati più efficace

    La ricerca condotta da Laurent Mombaerts e il team di Amazon Web Services, intitolata " Meta Knowledge for Retrieval Augmented Large Language Models ", esplora una delle nuove sfide nell'uso dei modelli linguistici di grandi dimensioni, ovvero l'implementazione del Retrieval Augmented Generation (RAG). Questo approccio si basa sull'integrazione delle capacità dei modelli linguistici con informazioni esterne, aggiornate o specializzate in uno specifico dominio, senza intervenire sui parametri interni del modello. Gli autori introducono un nuovo approccio strutturato in quattro fasi principali: preparare, riscrivere, recuperare e leggere. Questo flusso di lavoro si distingue nettamente dall'architettura convenzionale che segue la sequenza "recuperare e poi leggere". L'obiettivo di questa nuova metodologia è consentire un'analisi più approfondita e una comprensione esperta dei documenti contenuti all'interno della knowledge base. La ricerca presenta un concetto innovativo denominato Meta Knowledge Summary (MK Summary), che svolge un ruolo fondamentale nell'organizzazione dei documenti. Questo strumento permette di raggruppare i documenti in insiemi coerenti, basandosi sui relativi metadati. Inoltre, per ogni documento vengono generate sintesi sotto forma di domande e risposte, utili a facilitare la navigazione e la comprensione delle informazioni.   Lo studio evidenzia come l'impiego di query arricchite con domande sintetiche superi di gran lunga le metodologie tradizionali RAG (Retrieval-Augmented Generation), le quali si basano sulla tecnica del "chunking". Questa tecnica consiste nella suddivisione dei documenti in piccoli frammenti o blocchi di testo, un metodo che risulta meno efficace rispetto al nuovo approccio proposto. Di conseguenza, il Meta Knowledge Summary non solo migliora la precisione delle risposte, ma anche il richiamo e la qualità complessiva delle informazioni recuperate. La tecnica Retrieval Augmented Generation (RAG) è un metodo comunemente utilizzato per potenziare le capacità dei modelli di linguaggio di grandi dimensioni. Questa tecnica integra informazioni rilevanti contestualmente, come dati aggiornati o specifici di un particolare dominio, senza la necessità di modificare i parametri del modello stesso. In questo modo, i modelli possono accedere a conoscenze più precise e pertinenti, mantenendo la loro struttura originale intatta. Questa metodologia si dimostra particolarmente efficace per compiti che richiedono un'ampia conoscenza, laddove è necessario disporre di dati proprietari o aggiornati per guidare la risposta del modello di linguaggio. Il RAG è inoltre una soluzione efficace per ridurre le allucinazioni del modello e garantire che le risposte siano allineate alle informazioni più recenti e pertinenti per il compito da svolgere.   Nella pratica, le pipeline RAG sono composte da vari moduli che seguono un processo sequenziale tradizionale. Inizialmente, si recuperano le informazioni necessarie, successivamente vengono lette e integrate nel sistema. Quando viene posta una domanda, entra in azione un modulo di recupero che cerca in modo dinamico frammenti di documenti pertinenti. Questi frammenti vengono quindi forniti al modello di linguaggio, che li utilizza come contesto per formulare una risposta. In questo modo, il modello non si affida esclusivamente alle conoscenze apprese durante la fase di addestramento, ma sfrutta una tecnica nota come apprendimento in contesto.   Un metodo semplice, efficace e conveniente per la ricerca di informazioni è il modello di recupero denso a doppio codificatore. Questo sistema trasforma sia le domande degli utenti che i documenti in vettori numerici, rappresentandoli all'interno di uno spazio multidimensionale complesso.   Il doppio codificatore prende il nome dalla presenza di due encoder: uno dedicato alla domanda e l'altro ai documenti. Pur operando separatamente, entrambi generano vettori comparabili, e il sistema misura la somiglianza tra questi vettori attraverso il calcolo del prodotto interno. Più i vettori risultano simili, maggiore è la rilevanza del documento rispetto alla domanda.   Questo meccanismo permette di migliorare non solo la velocità del recupero delle informazioni, ma anche la loro accuratezza, selezionando con precisione i contenuti più pertinenti.   Questa tecnica si basa sull'idea che domande simili e documenti correlati avranno rappresentazioni vettoriali simili in questo spazio ad alta dimensione. Di conseguenza, il sistema è in grado di identificare i documenti che rispondono meglio alla domanda, utilizzando una metrica matematica per guidare il processo di recupero delle informazioni. Questo approccio si distingue per la sua capacità di trattare grandi volumi di dati con un costo computazionale relativamente basso, il che lo rende una scelta pratica ed efficiente per molti casi d'uso.   Tuttavia, ci sono diverse sfide che possono compromettere la qualità del contesto di conoscenza recuperato. Una delle difficoltà principali riguarda il cosiddetto "rumore" presente nei documenti delle basi di conoscenza. Per rumore si intende qualsiasi informazione superflua o irrilevante che può interferire con il processo di recupero delle informazioni. Questo rumore può derivare da vari fattori. Da un lato, può essere legato alle specificità del compito in questione, con documenti che contengono dettagli non utili o distrazioni rispetto al contenuto realmente necessario. Dall'altro, può essere causato dalla mancanza di uniformità tra i diversi documenti. Infatti, i documenti spesso esistono in formati diversi, come .pdf, .ppt, .docx, ognuno con strutture e layout differenti, che complicano ulteriormente il processo di estrazione delle informazioni rilevanti e aumentano il rischio di includere contenuti non pertinenti.   Una delle principali sfide nel recupero delle informazioni riguarda la mancanza di dati etichettati manualmente o di etichette di rilevanza. Le etichette manuali sono indicazioni specifiche assegnate da esperti o utenti che classificano i contenuti di un documento, come ad esempio la categoria, il tema o la rilevanza rispetto a una certa domanda. Le etichette di rilevanza, in particolare, indicano quali parti di un documento sono considerate più importanti o pertinenti per una determinata ricerca. Questi elementi sono cruciali per suddividere i documenti, generare embedding efficaci (cioè, le rappresentazioni vettoriali che descrivono i contenuti) e migliorare la precisione nel recupero delle informazioni.   Quando queste etichette sono assenti, il processo diventa non supervisionato, e il sistema si trova a operare senza una guida chiara. In altre parole, mancano indicazioni esplicite su quali parti dei documenti siano più rilevanti, rendendo più difficile per l'algoritmo identificare i contenuti pertinenti.   Una difficoltà aggiuntiva emerge quando è necessario suddividere e codificare documenti molto lunghi, poiché questo processo complica l'estrazione delle informazioni utili per i modelli di recupero. Quando un documento viene diviso in frammenti, quelli di dimensioni ridotte rischiano di perdere il contesto semantico dell'intero testo da cui provengono. Al contrario, frammenti troppo grandi mantengono meglio il contesto ma possono rendere più complessa l'elaborazione da parte dei modelli. Pertanto, la scelta della giusta strategia di suddivisione è cruciale per garantire il successo delle fasi successive, evitando sia la perdita di informazioni sia difficoltà di gestione.   Inoltre, una difficoltà ulteriore deriva dalle domande poste agli LLM dagli utenti, spesso formulate in modo conciso e ambiguo, talvolta caratterizzate da disallineamenti lessicali o da una complessità tale da richiedere la consultazione di più documenti per trovare una risposta adeguata. Ciò rende complicato comprendere con precisione l'intento dell'utente e individuare i documenti più pertinenti da recuperare. A rendere il processo ancora più complesso, le informazioni rilevanti non sono necessariamente concentrate in un unico documento all'interno della base di conoscenza, ma possono essere distribuite tra diverse fonti. Questo aspetto rende l'utilizzo delle basi di conoscenza un compito particolarmente impegnativo.   Per migliorare l'efficacia delle ricerche, è stata introdotta e ampiamente adottata la tecnica dell'augmentazione delle query, questa tecnica si basa sul riscrivere o estendere in modo esplicito la query originale fornita dall'utente, trasformandola in una o più query personalizzate che possano meglio adattarsi ai risultati di ricerca desiderati. Questo processo ha lo scopo di risolvere i problemi legati alla sottospecificazione delle query, ossia quelle domande che mancano di dettagli sufficienti per ottenere risultati precisi.   L'implementazione di questa tecnica comporta l'aggiunta di un nuovo modulo al framework RAG, rendendo il flusso di lavoro più avanzato. Il sistema prevede infatti una riscrittura della query prima delle fasi di recupero delle informazioni e lettura, migliorando così l'efficacia del processo complessivo di ricerca.   Per affrontare le varie difficoltà emerse, la ricerca propone un nuovo approccio ideato da Laurent Mombaerts e il suo team, denominato prepare-then-rewrite-then-retrieve-then-read (PR3). Questo approccio introduce un workflow RAG orientato ai dati, in cui i documenti vengono elaborati dai modelli di linguaggio per generare metadati personalizzati, come coppie di domande e risposte (QA), basati sulle caratteristiche degli utenti. L'obiettivo principale di questa metodologia è migliorare le capacità di ragionamento all'interno della base di conoscenza, arricchendo le query per potenziarne l'efficacia.   Per comprendere meglio questo concetto, immaginiamo un LLM specializzato per un'azienda che produce macchinari industriali. Un utente inserisce una query generica come "come si ripara il motore". In un sistema tradizionale, la risposta potrebbe risultare poco precisa, perché non tiene conto delle specifiche del motore in questione o delle competenze dell'utente. Con il workflow PR3, il sistema analizza il contesto dell'utente (ad esempio, se l'utente è un tecnico esperto o un novizio), riscrive la query originale e la trasforma in una domanda più dettagliata e personalizzata come "quali sono i passaggi per riparare il motore modello X prodotto nel 2020?" e recupera documenti specifici che rispondono esattamente a quel tipo di richiesta.   La pipeline di preparazione e recupero dei dati ha l'obiettivo di ridurre la perdita di informazioni che può verificarsi durante la suddivisione e l'embedding di grandi documenti. Invece di frammentare i documenti, vengono codificate le coppie di domande e risposte, il che aiuta anche a filtrare rumori o informazioni non rilevanti per il compito specifico. Nel nostro esempio, invece di fornire frammenti generici di manuali di riparazione, il sistema crea una collezione di domande e risposte su come riparare il motore specifico, riducendo al minimo le informazioni irrilevanti per l'utente.   Attraverso la creazione di cluster di metadati basati su coppie di domande e risposte (QA) e la sintesi della metaconoscenza, il framework è in grado di espandere la query originale dell'utente adattandola alle specifiche esigenze del caso, generando così query mirate. Questo processo migliora la specificità e la profondità della ricerca all'interno della base di conoscenza.   Questo metodo standardizzato presenta un vantaggio pratico in quanto può essere facilmente applicato a nuovi set di dati senza richiedere l'etichettatura manuale o il perfezionamento del modello. Inoltre, costituisce un progresso verso il ragionamento autonomo su database documentali, sfruttando le potenzialità dei modelli di linguaggio di grandi dimensioni, un campo di ricerca che è ancora in fase di sviluppo.   Tecniche di fine-tuning per migliorare le pipeline RAG Le metodologie volte a migliorare le pipeline RAG mediante il fine-tuning presentano generalmente delle sfide significative, sia per quanto riguarda l'aggiornamento iniziale dei parametri, sia per il mantenimento della precisione del modello nel tempo, con l'introduzione di nuovi documenti. Queste tecniche richiedono un'attenta pulizia dei dati e una cura spesso manuale, oltre a iterazioni sui set di iperparametri di addestramento, per adattare il modello al compito specifico senza compromettere le conoscenze acquisite durante la fase di pre-addestramento. Inoltre, il tuning del modello può non essere sostenibile in presenza di aggiornamenti frequenti della base di conoscenza, comportando costi elevati a causa delle risorse computazionali richieste, nonostante lo sviluppo recente di tecniche di fine-tuning più efficienti in termini di parametri (PEFT).   Nel settore del commercio elettronico, come dimostra l'esperienza di TaoBao, è stato sviluppato un sistema per la riscrittura delle query che utilizza i log aziendali e un metodo di campionamento chiamato "per rifiuto". Questo sistema consente di perfezionare un modello di linguaggio ampio (LLM) in modo supervisionato, senza la necessità di generare domande e risposte, rendendo l'ottimizzazione più efficiente. Parallelamente, sono stati introdotti nuovi metodi di apprendimento contrastivo per migliorare la capacità del modello di generare query che siano meglio allineate ai risultati di ricerca desiderati. Questi progressi hanno portato a un notevole aumento delle vendite, delle transazioni e del numero di visitatori unici sulla piattaforma.   Un'altra tecnica che è stata adottata coinvolge l'apprendimento per rinforzo, che si basa sulla valutazione di modelli LLM considerati come "scatole nere". In questo caso, il modello di riscrittura delle query addestrato è di dimensioni più contenute, ma ha comunque dimostrato un miglioramento costante nelle prestazioni, specialmente in contesti di ricerca sul web che prevedono domande e risposte in domini aperti o a scelta multipla.   Nonostante i benefici, tuttavia, gli approcci che utilizzano l'apprendimento per rinforzo possono presentare alcune difficoltà, specialmente nella fase di addestramento. Questi metodi tendono a essere meno stabili e richiedono una gestione accurata dei compromessi tra la capacità del modello di generalizzare a compiti diversi e la sua specializzazione in compiti specifici.   Altre strategie si sono orientate verso l'ottimizzazione dello spazio di embedding, cercando di migliorare il collegamento tra la query dell'utente e i documenti disponibili, senza aumentare la complessità della query stessa. Un esempio significativo di questo approccio è rappresentato da InPars. In questo caso, la base di conoscenze dei documenti viene arricchita generando in modo non supervisionato coppie di domande e risposte sintetiche. Queste coppie vengono poi utilizzate per effettuare il fine-tuning di un modello di embedding basato su T5. I risultati ottenuti dimostrano che l'applicazione di un modello di embedding fine-tuned, combinato successivamente con un riorganizzatore neurale come ColBERT, è in grado di superare benchmark solidi come BM25, confermando l'efficacia di questa tecnica.   In tempi più recenti, sono stati sviluppati altri approcci volti a migliorare le prestazioni dell'intera pipeline di elaborazione. Un esempio è RAFT, un metodo che si concentra sull'addestramento specifico di un modello, il cui compito è distinguere tra documenti rilevanti e non rilevanti, affinando così l'accuratezza nella selezione delle informazioni. Un altro approccio innovativo è QUILL, che mira a sostituire completamente l'attuale pipeline RAG, sfruttando un addestramento distillato e potenziato attraverso l'integrazione di un altro modello di linguaggio di grandi dimensioni (LLM) arricchito da RAG.   Migliorare il recupero delle informazioni con l'augmentazione delle query senza fine-tuning Come alternativa al fine-tuning dei modelli di grandi dimensioni (LLM) o dei modelli encoder, sono state sviluppate tecniche che puntano a migliorare le prestazioni dei sistemi di recupero delle informazioni tramite l'augmentazione delle query, senza la necessità di modificare direttamente i modelli stessi. Queste metodologie agiscono trasformando la query dell'utente prima della fase di codifica e si suddividono in due approcci principali: quelli che prevedono un passaggio preliminare attraverso i documenti e quelli che operano senza alcun utilizzo di documenti di esempio, detti zero-shot.   Un esempio rilevante di approccio zero-shot è rappresentato dalla tecnica introdotta da HyDE, che utilizza modelli di linguaggio di grandi dimensioni per generare un documento ipotetico di risposta alla query dell'utente. Questo documento viene creato con l'obiettivo di ridurre la distanza tra la query e i documenti rilevanti all'interno dello spazio di embedding, ottimizzando così il processo di recupero. I risultati degli esperimenti condotti hanno mostrato che questo metodo riesce a ottenere prestazioni comparabili a quelle raggiunte con sistemi sottoposti a fine-tuning, in una varietà di compiti. Tuttavia, il documento generato in questo modo rappresenta un esempio di augmentazione dei dati considerata "ingenua", poiché non tiene conto delle specifiche informazioni contenute nei dati relativi al compito. Questo limite può portare a un calo delle prestazioni in alcune situazioni, dato che il contenuto generato può risultare distante dalle reali conoscenze necessarie per affrontare la query in maniera ottimale.   In parallelo, esistono approcci che prevedono un passaggio preliminare attraverso lo spazio di embedding dei documenti per poi aumentare la query originaria, con lo scopo di condurre una ricerca più mirata e precisa. Queste metodologie sono conosciute come Pseudo Relevance Feedback (PRF) e Generative Relevance Feedback (GRF). Entrambi gli approcci dipendono fortemente dalla qualità dei documenti inizialmente recuperati, che vengono utilizzati per migliorare la fase successiva di augmentazione della query. Tale dipendenza può condizionare le prestazioni in maniera significativa, portando a risultati variabili in base alla specificità delle query, o, in alcuni casi, rischiando di alterare il senso della query originaria.   Ottimizzazione della pipeline RAG con il framework AWS e Meta Knowledge Summary Le tecniche di miglioramento della pipeline RAG citate in precedenza mostrano che i sistemi di recupero delle informazioni generalmente non tengono conto della distribuzione dei documenti nella collezione di riferimento, nonostante un passaggio iniziale attraverso la pipeline di recupero. Nel framework proposto da Laurent Mombaerts e il team di Amazon Web Services, per ogni documento, viene creato un set dedicato di metadati prima dell'inferenza. Successivamente, vengono generate domande guidate che attraversano i vari documenti utilizzando la tecnica Chain of Thoughts (CoT) con Claude 3 Haiku. Le domande sintetiche vengono codificate e i metadati sono impiegati per operazioni di filtraggio. Per ogni combinazione rilevante di metadati, viene generata una Meta Knowledge Summary (MK Summary), che consiste in una sintesi dei concetti chiave presenti nella base dati, realizzata utilizzando Claude 3 Sonnet.   Durante l'inferenza, la query dell'utente viene arricchita dinamicamente tramite l'MK Summary personalizzata, creata in base ai metadati di interesse. Questo approccio consente di fornire risposte mirate e specifiche, permettendo al sistema di recupero di ragionare su più documenti contemporaneamente, senza la necessità di ripetuti cicli di recupero e ragionamento. L'obiettivo è migliorare la qualità complessiva della pipeline di recupero in termini di profondità, copertura e rilevanza, grazie a ricerche mirate e all'uso di informazioni di meta-conoscenza. Questo risultato viene ottenuto senza la necessità di aggiornare i pesi del modello, consentendo anche la possibilità di combinare il framework con eventuali operazioni di fine-tuning sui modelli linguistici o di codifica, migliorando così le prestazioni della pipeline RAG in domini specifici.   Dataset utilizzato per validare la metodologia innovativa di Amazon Web Services La metodologia sviluppata da Laurent Mombaerts e il team di Amazon Web Services è stata verificata attraverso un dataset di 2.000 articoli di ricerca del 2024, raccolti utilizzando l'API di arXiv. Questo dataset rappresenta una vasta gamma di ricerche nei settori della statistica, dell'apprendimento automatico, dell'intelligenza artificiale e dell'econometria. La selezione degli articoli è stata effettuata utilizzando determinate categorie dell'API di arXiv, come " stat.ML ", " stat.TH ", "stat.AP", " stat.ME ", " math.ST ", " cs.AI ", "cs.LG", "econ.EM". Complessivamente, il dataset comprende circa 35 milioni di token.   Nel processo di generazione sintetica di domande e risposte (QA), per ciascun documento del dataset vengono generate una serie di metadati e relative QA utilizzando il prompting a catena di pensieri (CoT). Il prompting è progettato per classificare i documenti in un insieme predefinito di categorie, ad esempio campi di ricerca o tipi di applicazioni, all'interno del benchmark di articoli di ricerca. Sulla base di questi metadati, vengono generate domande e risposte sintetiche attraverso un processo di prompting insegnante-studente, valutando così la conoscenza dell'apprendente riguardo al contenuto del documento. In particolare, si fa uso di Claude 3 Haiku, noto per le sue capacità di ragionamento a lungo contesto, per creare coppie di domande e risposte sintetiche che possano collegare più documenti.   I metadati generati vengono utilizzati come parametri di filtraggio per la ricerca avanzata e vengono impiegati per selezionare le domande e risposte sintetiche, utilizzate nell'augmentazione delle query degli utenti sotto forma di informazioni di meta-conoscenza (sintesi MK). Le domande e risposte sintetiche trovano applicazione anche nel recupero delle informazioni, ma solo le domande vengono vettorizzate per il recupero successivo. Nel caso d'uso specifico, relativo agli articoli di ricerca scientifica, sono state prodotte un totale di 8.657 coppie di domande e risposte sintetiche a partire da 2.000 documenti, con una media di 5-6 domande nel 70% dei casi e di 2 domande nel 21% dei casi.   L'intero processo di generazione ha prodotto circa 8 milioni di token di output, con un costo complessivo di circa 20,17 dollari per l'elaborazione dei 2.000 documenti, considerando anche i token di input, utilizzando Amazon Bedrock. È stata effettuata un'analisi della ridondanza delle domande e risposte generate attraverso il clustering gerarchico nello spazio degli embedding delle domande, sfruttando il modello e5-mistral-7b-instruct. Tuttavia, non è stata effettuata una deduplicazione delle domande e risposte a causa della ridotta sovrapposizione tra di esse.   Come la Meta Knowledge Summary facilita L'arricchimento dei dati e delle query utente Per una determinata combinazione di metadati, viene generata una Meta Knowledge Summary (MK Summary) con l'obiettivo di agevolare la fase di arricchimento dei dati per una specifica query dell'utente. Questo processo è stato sperimentato da Laurent Mombaerts e il team di Amazon Web Services, che hanno circoscritto i metadati a campi di ricerca specifici, come l'apprendimento per rinforzo, l'apprendimento supervisionato e non supervisionato, i metodi bayesiani, l'econometria e altri. Tali ambiti sono stati selezionati durante la fase di elaborazione dei documenti attraverso l'impiego di Claude 3 Haiku.   La MK Summary viene creata riassumendo i concetti presenti in un insieme di domande precedentemente classificate in base ai metadati di interesse. Per generare questi riassunti, si utilizza Claude 3 Sonnet, che sintetizza le informazioni chiave dei documenti, facilitando così l'arricchimento delle query degli utenti con concetti rilevanti estratti dai metadati.   Una possibile direzione futura, oggetto di ulteriori studi, potrebbe essere il perfezionamento dei prompt (istruzioni fornite al modello) al fine di ottimizzare il contenuto dei riassunti. Tale ottimizzazione mirerebbe a migliorare ulteriormente la precisione e la rilevanza delle informazioni sintetizzate, rendendo il processo ancora più efficiente e utile.   Metodo Plan-and-Execute per migliorare le risposte a query complesse Per affrontare query complesse, viene utilizzata la metodologia di prompting chiamata "plan-and-execute". Questo metodo aiuta a ragionare attraverso più documenti e migliorare il richiamo, la precisione e la diversità delle risposte fornite. Ad esempio, per una query dell'utente relativa al tema della ricerca sull'Apprendimento per Rinforzo, la pipeline dapprima recupera la MK Summary sull'Apprendimento per Rinforzo dal database, poi aumenta la query dell'utente suddividendola in più sotto-query basate sul contenuto della MK Summary ed esegue una ricerca parallela nel database filtrato, rilevante per le domande specifiche.   Per questa procedura, le domande sintetiche vengono trasformate in rappresentazioni numeriche (embedding), sostituendo così il classico metodo di corrispondenza basata sulla similitudine tra porzioni di documenti. Questo approccio riduce la perdita di informazioni causata dalla frammentazione dei documenti. Una volta trovata la corrispondenza migliore con una domanda sintetica, vengono recuperate la domanda e la risposta corrispondente insieme al titolo del documento originale. Tuttavia, come risultato finale del processo di recupero, vengono restituiti solo il titolo del documento, la domanda sintetica e la risposta associata.   Per migliorare la prestazione della fase di sintesi a valle, il formato JSON viene utilizzato nella formattazione dei dati. La risposta finale della pipeline RAG viene ottenuta fornendo la query originale, le query aumentate, il contesto recuperato e alcuni esempi di risposte predefinite (few-shot examples).   Metodo di valutazione delle performance della pipeline di recupero aumentata con Meta Knowledge Summary Per valutare l'efficacia della pipeline di recupero aumentata basata sui dati, sono state generate 200 domande utilizzando Claude 3 Sonnet, con riferimento al dataset arXiv. Inoltre, è stata effettuata una comparazione della metodologia proposta con approcci tradizionali, come il document chunking (suddivisione dei documenti in porzioni), l'augmentazione delle query combinata con il document chunking, e un'augmentazione delle query senza l'utilizzo delle Meta Knowledge Summary (MK Summary) nel processo di QA dei documenti. A scopo comparativo, i documenti sono stati suddivisi in blocchi di 256 token con una sovrapposizione del 10%, generando complessivamente 69.334 porzioni di documenti.   In merito alle metriche di valutazione, in assenza di etichette di rilevanza specifiche, è stato utilizzato Claude 3 Sonnet come valutatore affidabile per confrontare le prestazioni delle quattro metodologie di benchmark considerate: il chunking tradizionale senza augmentazione delle query, il chunking dei documenti con una semplice augmentazione delle query, la ricerca aumentata tramite la pipeline PR3 senza MK Summary, e la ricerca aumentata tramite la pipeline PR3 con l'uso delle MK Summary.   Le metriche di performance personalizzate sono state definite direttamente nel prompt e servono a confrontare i risultati sia del modello di recupero che della risposta finale, su una scala da 0 a 100.   Le metriche utilizzate per la valutazione sono le seguenti: - Richiamo : misura quanto efficacemente le informazioni chiave e altamente rilevanti sono state recuperate dai documenti. - Precisione : valuta la proporzione di documenti rilevanti rispetto a quelli irrilevanti tra i risultati recuperati. - Specificità : misura quanto la risposta finale è focalizzata in modo preciso sulla query, fornendo informazioni chiare e dirette che rispondono alla domanda posta. - Ampiezza : valuta la copertura di tutti gli aspetti rilevanti o delle aree correlate alla domanda, offrendo una panoramica completa. - Profondità : valuta il livello di comprensione raggiunto dalla risposta finale, misurando la capacità di fornire un'analisi approfondita e dettagliata sul tema affrontato. - Rilevanza : valuta quanto la risposta finale è ben adattata alle necessità e agli interessi del contesto o del pubblico, concentrandosi sulle informazioni essenziali e direttamente applicabili, evitando dettagli superflui che non contribuiscono a rispondere alla domanda specifica.   Valutazione delle prestazioni del recupero delle informazioni con riassunto MK e QA Sono stati considerati quattro casi distinti per la valutazione del sistema di recupero delle informazioni: il primo prevede un approccio tradizionale di suddivisione dei documenti senza alcuna espansione, il secondo introduce un'aggiunta di dati allo stesso metodo, il terzo utilizza una ricerca e recupero basati su domande e risposte (QA) con un'espansione semplice (la prima proposta), mentre il quarto impiega la stessa metodologia QA, ma con l'uso di un riassunto MK (la seconda proposta). Per una singola query, la latenza computazionale dell'intero processo varia tra i 20 e i 25 secondi.   Sono stati quindi applicati criteri di valutazione delle prestazioni del recupero delle informazioni e dell'efficacia complessiva del sistema. Per ogni query generata artificialmente, è stato eseguito un confronto tra i risultati ottenuti con ciascuno dei metodi proposti. Il contesto recuperato da ogni approccio è stato presentato insieme alle risposte finali. Successivamente, Claude 3 Sonnet è stato utilizzato per assegnare punteggi a vari parametri, da 0 a 100, giustificando le valutazioni fornite. I punteggi ottenuti sono stati mediati su tutte le query.   Dai risultati emerge un chiaro vantaggio delle due metodologie proposte, basate su domande e risposte, in quasi tutti i parametri, fatta eccezione per la precisione dei documenti recuperati. La limitata crescita nel parametro di precisione è coerente con l'utilizzo di un singolo modello di codifica e dimostra che pochi documenti sono stati considerati completamente irrilevanti. È stato osservato un notevole miglioramento sia nella quantità di informazioni raccolte che nella qualità delle risposte fornite dal modello linguistico alla fine del processo. Questo indica che il riassunto MK fornisce informazioni aggiuntive che vengono sfruttate durante il passaggio di espansione della query. Inoltre, il contributo del riassunto MK alla fase di condizionamento della ricerca risulta statisticamente significativo per tutti i parametri, tranne che per la precisione del sistema di recupero (con un valore di p inferiore a 0,01 tra la ricerca QA aumentata e quella con l'uso del riassunto MK). È stato anche riscontrato che la metodologia proposta migliora significativamente l'ampiezza della ricerca (oltre il 20% rispetto agli approcci tradizionali di suddivisione dei documenti), confermando l'ipotesi che il metodo consente di sintetizzare più efficacemente le informazioni dal contenuto del database e di sfruttarlo in maniera più estensiva.   Per quanto riguarda le prestazioni misurate su 200 query sintetiche, i risultati mostrano diversi valori nei parametri di richiamo, precisione e specificità. Nel caso della ricerca tradizionale con suddivisione dei documenti, il richiamo è stato del 77,76%, la precisione dell'86,91% e la specificità del 71,51%. Con l'aggiunta di dati a questo metodo, il richiamo è aumentato all'82,27%, la precisione è leggermente cresciuta all'87,09% e la specificità è salita al 74,86%. Nel caso della ricerca QA aumentata, il richiamo ha raggiunto l'86,33%, la precisione è aumentata al 90,04% e la specificità al 79,64%. Infine, con l'uso del riassunto MK nella ricerca QA, il richiamo è stato dell'88,39%, la precisione ha raggiunto il 90,40% e la specificità è aumentata all'83,03%.   Altri parametri come l'ampiezza, la profondità e la rilevanza delle risposte hanno mostrato miglioramenti analoghi. Con l'approccio tradizionale di suddivisione, l'ampiezza è stata del 67,32%, la profondità del 65,62% e la rilevanza dell'81,51%. Aggiungendo l'espansione dei dati, l'ampiezza è aumentata al 79,77%, la profondità al 72,41% e la rilevanza all'85,08%. Con la ricerca QA aumentata, i valori di ampiezza sono stati dell'84,55%, quelli di profondità del 78,08% e quelli di rilevanza dell'88,92%. Infine, l'approccio con il riassunto MK ha raggiunto un'ampiezza dell'87,09%, una profondità dell'80,84% e una rilevanza del 90,22%.   Conclusioni La metodologia proposta nella ricerca di Laurent Mombaerts e del team AWS rappresenta una significativa evoluzione nel campo del Retrieval Augmented Generation (RAG). L'innovazione chiave risiede nel passaggio dal tradizionale processo "retrieve-then-read" a un approccio più articolato in quattro fasi, che punta a ottimizzare non solo il recupero, ma anche la comprensione e la pertinenza delle informazioni restituite. L'integrazione del Meta Knowledge Summary introduce un elemento di astrazione che non solo migliora l'efficacia delle risposte generate, ma apre anche nuovi scenari di utilizzo per le imprese.   Dal punto di vista strategico, questo modello evidenzia un cambiamento di paradigma che le aziende devono considerare nella gestione delle loro basi di conoscenza. L'approccio PR3, infatti, non si limita a potenziare l'accesso alle informazioni, ma trasforma radicalmente il modo in cui tali informazioni possono essere elaborate e utilizzate per decisioni operative. In particolare, la capacità di generare coppie di domande e risposte sintetiche specifiche per un dominio può ridurre drasticamente il tempo necessario per ottenere risposte precise, migliorando la qualità decisionale a tutti i livelli dell'organizzazione. Questo aspetto è cruciale in settori come il manifatturiero, il legale o il sanitario, dove l'accesso a informazioni iper-specializzate può rappresentare un fattore competitivo determinante.   Un'altra implicazione strategica risiede nella possibilità di adottare questa tecnologia senza dover ricorrere a frequenti aggiornamenti del modello principale, riducendo così i costi operativi e di mantenimento. Questa flessibilità offre alle imprese la capacità di scalare l'uso di modelli RAG su diverse basi di conoscenza, adattandoli a nuove esigenze senza necessità di pesanti interventi tecnici.   Tuttavia, emergono anche delle sfide. La creazione di metadati di qualità e l'efficacia della generazione di domande e risposte sintetiche richiedono un'accurata progettazione, pena l'inclusione di rumore che potrebbe distorcere le risposte.   Infine, è importante considerare il potenziale impatto sul cambiamento culturale all'interno delle organizzazioni. L'uso di modelli come PR3 può favorire una transizione verso un approccio più data-driven nelle decisioni aziendali, ma richiede anche che il personale sia formato per sfruttare appieno queste nuove capacità. In un certo senso, ciò potrebbe accelerare la trasformazione digitale, promuovendo un uso più intelligente e strategico delle informazioni disponibili.   In sintesi, il framework PR3 prospetta un futuro in cui le aziende non solo avranno un accesso rapido alle informazioni rilevanti, ma lo faranno con una precisione e una profondità superiori rispetto ai metodi tradizionali, trasformando così il loro approccio alla conoscenza e alle decisioni strategiche.

  • Impatto ambientale dell'AI

    Steve Lohr, in un articolo " Will A.I. Ruin the Planet or Save the Planet? " pubblicato sul New York Times il 26 agosto 2024, affronta un tema sempre più rilevante: l’impatto ambientale dell'AI, un argomento che divide opinioni tra sostenitori e detrattori. Da una parte, c'è chi sottolinea l’elevato consumo energetico legato all’AI, mentre dall’altra emergono prospettive ottimistiche che evidenziano come l’AI possa contribuire a ridurre le emissioni di carbonio e migliorare l’efficienza in vari settori. Lohr descrive come le grandi compagnie tecnologiche stiano investendo massicciamente nella costruzione e nell'affitto di data center, i "motori" che alimentano l'AI. Solo nel 2023, tali investimenti hanno raggiunto la cifra impressionante di 105 miliardi di dollari. Questi data center richiedono enormi quantità di energia, in particolare a causa della diffusione dell'AI generativa, una forma di intelligenza artificiale capace di scrivere codice, riassumere libri e rispondere a domande con un livello di competenza paragonabile a quello umano. Una singola domanda rivolta a ChatGPT richiede circa 10 volte più energia rispetto a una ricerca tradizionale su Google. Le previsioni indicano che il consumo energetico legato all'AI potrebbe più che raddoppiare nei prossimi anni. Secondo Goldman Sachs, l’uso di elettricità nei data center potrebbe aumentare del 160% entro il 2030, mentre una previsione dell’Agenzia Internazionale dell’Energia prevede che la domanda energetica raddoppierà già entro il 2026. Questi incrementi, se non affrontati, potrebbero tradursi in un significativo aumento delle emissioni di gas serra, soprattutto se i data center continueranno a ottenere energia da fonti fossili come carbone e gas naturale. Attualmente, i data center consumano circa l’1% o il 2% della domanda elettrica globale, ma questa percentuale potrebbe salire al 3%-4% entro il 2030.   Nonostante queste preoccupazioni, Lohr evidenzia anche come l’AI possa diventare una tecnologia "verde", potenzialmente in grado di ridurre le emissioni di gas serra tra il 5% e il 10% entro il 2030, come affermato in uno studio commissionato da Google alla Boston Consulting Group. Il potenziale di trasformazione dell'AI è vasto: dalla progettazione biologica all'agricoltura più efficiente, fino alla scoperta di nuove risorse minerarie essenziali per le tecnologie verdi. Ad esempio, l’AI ha recentemente contribuito alla scoperta di un vasto giacimento di rame in Zambia, metallo cruciale per la produzione di veicoli elettrici. Al contempo, start-up come Zanskar stanno utilizzando l’AI per migliorare il tasso di successo nella scoperta di fonti geotermiche, una fonte di energia pulita ma al momento sfruttata solo marginalmente negli Stati Uniti, dove rappresenta meno dello 0,5% dell’energia elettrica prodotta.   Il caso del cloud computing offre un precedente interessante per quanto riguarda l'efficienza energetica. Tra il 2010 e il 2018, la potenza di calcolo prodotta dai data center a livello globale è aumentata di sei volte, mentre il consumo energetico è cresciuto solo del 6%. Lohr cita Jonathan Koomey, ex scienziato del Lawrence Berkeley National Laboratory, il quale sostiene che un trend simile potrebbe ripetersi con l’AI, con le aziende tecnologiche che già lavorano per rendere più efficienti software, hardware e sistemi di raffreddamento dei loro data center.   L’articolo di Steve Lohr apre una riflessione cruciale su come il progresso tecnologico debba essere accompagnato da innovazioni nel campo dell’efficienza energetica e dell'adozione di fonti rinnovabili. Il consumo di energia da parte dei data center e delle AI non è un problema esclusivamente tecnico o ambientale, ma diventa strategico per il mondo delle imprese. La transizione verso un'energia più pulita e l’ottimizzazione dell’efficienza possono rappresentare un vantaggio competitivo per le aziende che si trovano al centro di questa evoluzione. È chiaro che l’investimento in innovazione tecnologica non può prescindere da un’analisi attenta degli impatti ambientali e delle opportunità legate a una gestione sostenibile delle risorse energetiche.   L’AI, quindi, ha il potenziale per diventare uno strumento chiave non solo per accelerare l’innovazione, ma anche per contribuire significativamente alla lotta contro il cambiamento climatico. Tuttavia, questo potenziale dipenderà dalla capacità delle imprese di coniugare l’adozione dell’AI con un approccio sostenibile e responsabile, capace di mitigare l’impatto energetico e di sfruttare appieno le opportunità offerte dalle energie rinnovabili.

  • FermiNet e Psiformer aprono nuove opportunità nell'innovazione industriale attraverso simulazioni quantistiche avanzate

    L'articolo " FermiNet: Quantum physics and chemistry from first principles " di David Pfau e James Spencer, pubblicato su Science il 22 agosto 2024, rappresenta una pietra miliare nell'evoluzione dell'intelligenza artificiale applicata alla chimica e alla fisica quantistica. Il lavoro illustra come le reti neurali profonde possano risolvere problemi complessi nella chimica computazionale e nella fisica quantistica, in particolare attraverso FermiNet, un'architettura specifica per modellare lo stato quantico di grandi collezioni di elettroni. La rilevanza strategica di questo lavoro per il mondo imprenditoriale è cruciale, soprattutto per settori che richiedono innovazione materiale o chimica su larga scala. FermiNet e Psiformer, l'altra architettura presentata dagli autori, permettono non solo una comprensione teorica dei sistemi quantistici ma anche la possibilità di simulare e prototipare nuovi materiali. Ciò significa che aziende operanti nell'energia, nella tecnologia dei semiconduttori, nell'elettronica e in altri settori avanzati potrebbero ridurre notevolmente i tempi e i costi di ricerca e sviluppo. Invece di dover sintetizzare fisicamente ogni nuova molecola o materiale, queste possono essere simulate e ottimizzate virtualmente con una precisione senza precedenti, aumentando l'efficienza dei processi decisionali.   FermiNet è un chiaro esempio di come l'AI possa avere un impatto concreto e significativo sulle tecnologie tradizionali e settori emergenti. Un imprenditore potrebbe vedere in questo strumento non solo una via per ridurre costi e tempi, ma anche una possibilità di esplorare territori completamente nuovi, dove l'innovazione non è più limitata dai confini della sperimentazione fisica. Pensiamo ai settori dell'energia sostenibile, dei materiali avanzati per l'elettronica o anche della farmaceutica: poter calcolare con precisione la stabilità o l'efficacia di nuove molecole prima ancora di investire risorse nella loro sintesi fisica rappresenta un vantaggio competitivo straordinario.   Un aspetto intrigante dell'articolo è l'approccio rivoluzionario alla risoluzione degli stati eccitati delle molecole, essenziali per comprendere come la materia interagisce con la luce. Questo apre nuove prospettive per settori come le energie rinnovabili, le tecnologie fotovoltaiche e persino l'industria biotecnologica, dove la comprensione dei processi legati alla luce, come la fotosintesi, può portare a progressi decisivi.   La prospettiva che emerge dall'articolo di Pfau e Spencer va oltre l'avanzamento scientifico puro, toccando direttamente il tessuto imprenditoriale. La combinazione di deep learning e fisica quantistica non rappresenta soltanto una sfida accademica, ma potrebbe trasformare radicalmente il modo in cui le aziende affrontano l'innovazione tecnologica. Aziende nel campo dell'innovazione materiale, ad esempio, potrebbero sfruttare FermiNet per prevedere la conformazione energetica di nuovi materiali con un livello di precisione tale da abbattere drasticamente i costi legati alla prototipazione e alla sperimentazione fisica.   Inoltre, l'utilizzo di un approccio AI per risolvere equazioni complesse della meccanica quantistica porta con sé implicazioni strategiche di lungo termine. Un'azienda capace di integrare simili capacità computazionali nei propri processi di ricerca e sviluppo acquisirebbe un vantaggio strategico formidabile, riuscendo a innovare in modo più rapido e meno costoso rispetto alla concorrenza. Potremmo assistere a un cambio di paradigma nella competitività delle aziende high-tech, dove il vantaggio non sarà più determinato solo dalla capacità produttiva o dall'accesso a risorse fisiche, ma anche dalla capacità di sfruttare le più recenti tecnologie computazionali per accelerare l'innovazione.   Un'altra riflessione chiave riguarda l'apertura di nuove aree di esplorazione grazie alla tecnologia FermiNet. Non solo si possono accelerare i processi di sviluppo di materiali esistenti, ma si possono anche aprire nuovi orizzonti nella creazione di materiali e tecnologie che fino ad oggi erano fuori portata a causa delle limitazioni computazionali. L'industria chimica, l'energia solare, l'elettronica organica e la fotonica sono solo alcuni dei settori che potrebbero beneficiare enormemente di questi avanzamenti.   Un altro aspetto degno di nota è la flessibilità dell'approccio, il che significa che l'innovazione non è limitata a un singolo campo. Le metodologie sviluppate da Pfau e Spencer potrebbero essere applicate trasversalmente in molti settori industriali. Questo significa che aziende in ambiti molto diversi tra loro potrebbero trovare nuove soluzioni ai loro problemi utilizzando tecniche simili. Pensiamo per esempio al potenziale impatto nell'automazione industriale, nella robotica, nell'elettronica avanzata e persino nel settore biomedicale. L'intelligenza artificiale, combinata con la comprensione dei principi della fisica quantistica, potrebbe portare a sviluppi senza precedenti in tutti questi settori.   In definitiva, il lavoro di Pfau e Spencer su FermiNet rappresenta non solo un avanzamento nella comprensione scientifica della chimica e della fisica quantistica, ma anche una grande opportunità per le imprese. Le aziende che sapranno cogliere l'importanza di questi nuovi strumenti potranno beneficiare di un vantaggio competitivo significativo, esplorando nuove strade per l'innovazione e aprendo nuove frontiere nella ricerca e nello sviluppo industriale.

  • Google e California un accordo che ridefinisce il futuro del giornalismo

    L'accordo tra Google e lo Stato della California, descritto da Karen Weise e Shawn Hubler nel loro articolo pubblicato sul New York Times , rappresenta un passo importante verso la salvaguardia del giornalismo locale, ma solleva questioni ben più ampie di carattere globale. Non è solo una questione californiana o americana: il rapporto tra le big tech e il mondo dell'informazione, così come le implicazioni per la democrazia e la sostenibilità dei media, ha ripercussioni su scala internazionale. Il caso specifico evidenziato dagli autori mette in luce un modello di relazione tra stato, grandi aziende tecnologiche e media che potrebbe essere esportato e adattato a diverse realtà in tutto il mondo. La collaborazione tra Google e il governo della California, sebbene criticata da alcune fazioni come insufficiente e poco trasparente, potrebbe segnare l'inizio di una nuova fase di interazione tra il potere pubblico e privato per il sostegno del giornalismo. Tuttavia, occorre chiedersi se questo tipo di accordi, basati su contributi economici da parte delle aziende tecnologiche, siano davvero la risposta giusta a una crisi strutturale che coinvolge l'intero ecosistema dell'informazione. Il problema non è confinato solo agli Stati Uniti. In tutto il mondo, i media locali sono stati decimati dal declino delle entrate pubblicitarie e dalla migrazione del pubblico verso le piattaforme digitali. L'enorme concentrazione del potere nelle mani di poche grandi piattaforme tecnologiche, come Google, Meta e Amazon, ha spostato il flusso delle risorse finanziarie, lasciando i media tradizionali in difficoltà. Questo squilibrio ha messo in crisi il modello di business del giornalismo, portando alla chiusura di redazioni, licenziamenti di giornalisti e, in ultima analisi, a una riduzione della pluralità delle voci e della qualità delle informazioni disponibili al pubblico. La proposta californiana, che prevede la creazione di un fondo per la trasformazione del giornalismo, è un tentativo di tamponare queste falle. Ma è sufficiente? In Europa, l’Australia e il Canada hanno intrapreso percorsi simili, cercando di regolare il rapporto tra le piattaforme tecnologiche e i media attraverso legislazioni che impongono il pagamento delle notizie. Tuttavia, queste normative sono state accolte con resistenze e compromessi. In Australia, ad esempio, Google ha minacciato di ritirarsi dal mercato, salvo poi adottare un approccio meno conflittuale con il programma News Showcase. Ciò che emerge da questi tentativi è che le grandi aziende tecnologiche non possono essere viste solo come partner o mecenati dell'informazione. Sono, infatti, i principali attori che hanno contribuito a destabilizzare il settore, e allo stesso tempo diventano necessari per il suo sostentamento. Questo crea una dinamica pericolosa, in cui i media possono diventare sempre più dipendenti dalle risorse fornite dalle big tech, compromettendo la loro indipendenza e la capacità di fare un giornalismo veramente libero e critico. C'è poi un altro punto fondamentale sollevato nell'articolo di Weise e Hubler: l'uso dell'intelligenza artificiale (IA). Google ha promesso di finanziare un acceleratore di innovazione sull’IA per supportare le organizzazioni, comprese quelle giornalistiche, nell’utilizzo di questa tecnologia. Sebbene l'IA rappresenti una grande opportunità per migliorare l'efficienza delle redazioni, automatizzare i processi e analizzare grandi quantità di dati, c'è un lato oscuro che non può essere ignorato. L'uso indiscriminato dell'IA può portare a una riduzione della forza lavoro umana nel settore, peggiorando ulteriormente la crisi occupazionale del giornalismo. Inoltre, l'automazione dei contenuti potrebbe abbassare la qualità delle informazioni, riducendo la varietà e l'approfondimento delle analisi, privilegiando un’informazione più superficiale e standardizzata. Le implicazioni globali di questi sviluppi ci portano a riflettere su quale sia il ruolo delle aziende tecnologiche nella società moderna. Se da un lato offrono soluzioni e risorse indispensabili per il futuro del giornalismo, dall'altro rischiano di monopolizzare l'intero sistema dell'informazione, accentuando disuguaglianze e potenziali conflitti di interesse. È necessario, quindi, che governi e organizzazioni della società civile lavorino insieme per trovare un equilibrio tra la collaborazione con le big tech e la salvaguardia dell’indipendenza editoriale. Un altro aspetto globale riguarda la frammentazione dei modelli legislativi e regolamentari. Laddove la California ha scelto una via di compromesso, altri paesi potrebbero optare per approcci più rigidi o più permissivi. Ciò potrebbe creare un panorama disomogeneo, dove i media di alcune regioni del mondo sono sostenuti meglio di altri, accentuando le disparità nell'accesso a un'informazione di qualità. La creazione di standard internazionali condivisi potrebbe essere una soluzione per evitare queste disuguaglianze, ma richiederebbe una cooperazione internazionale che al momento appare difficile da realizzare. Infine, c’è una riflessione strategica per le imprese, non solo per quelle del settore tecnologico o dell'informazione. Il crescente coinvolgimento delle big tech nel sostegno ai media pone anche questioni di governance aziendale, di etica e di responsabilità sociale. Le aziende devono interrogarsi sul loro ruolo nella società: vogliono essere semplici finanziatori, che intervengono solo quando è conveniente per i loro interessi, o vogliono assumere una leadership responsabile che aiuti a costruire un ecosistema più equo e sostenibile? L'accordo californiano tra Google e le newsrooms, sebbene imperfetto, apre la strada a discussioni globali cruciali sul futuro del giornalismo e sulla necessità di trovare soluzioni più ampie, inclusive e sostenibili.

  • Innovazione del MIT accelera il passaggio verso la crittografia post-quantistica

    L'articolo di Adam Zewe su MIT News descrive un'importante innovazione nel campo dell'informatica quantistica e della crittografia. In particolare, il lavoro di ricerca presentato esplora un nuovo algoritmo di fattorizzazione quantistica che, combinando elementi dell'algoritmo originale di Shor con le recenti innovazioni proposte da Oded Regev, promette di rendere i computer quantistici più praticabili e vicini alla capacità di rompere i sistemi crittografici attualmente in uso, come l'RSA. Il progresso descritto nell'articolo rappresenta un passo significativo verso la realizzazione di un computer quantistico in grado di eseguire l'algoritmo di Shor, risolvendo uno dei problemi chiave che hanno finora limitato la fattibilità di tali calcoli: il rumore quantistico e la necessità di un numero eccessivo di qubit e gate quantistici. La proposta del team del MIT, guidato da Vinod Vaikuntanathan e Seyoon Ragavan, riduce la complessità del circuito quantistico necessario, aumentando al contempo la tolleranza al rumore, grazie a una nuova tecnica che utilizza numeri di Fibonacci per semplificare i calcoli esponenziali necessari. Questa ricerca solleva una serie di questioni strategiche e implicazioni per il futuro della crittografia e della sicurezza informatica. In primo luogo, sebbene siamo ancora lontani dalla costruzione di computer quantistici sufficientemente potenti da rappresentare una minaccia immediata per la crittografia basata su RSA, questo progresso dimostra che il giorno in cui tale minaccia diventerà reale potrebbe essere più vicino di quanto si pensi. Le imprese e i governi devono prepararsi a questa eventualità, esplorando metodi crittografici post-quantistici che possano resistere alla potenza dei computer quantistici. Questo comporta un cambiamento di paradigma nel modo in cui pensiamo alla sicurezza dei dati, richiedendo nuove infrastrutture e protocolli che non solo siano resilienti alle tecnologie attuali, ma che possano anche adattarsi rapidamente alle innovazioni future. In secondo luogo, l'articolo ci porta a riflettere sulle implicazioni economiche di questa rivoluzione tecnologica. L'adozione su larga scala della crittografia post-quantistica comporterà inevitabilmente costi significativi per l'aggiornamento dei sistemi esistenti e lo sviluppo di nuovi standard di sicurezza. Le aziende dovranno considerare non solo i costi diretti di implementazione, ma anche quelli indiretti, come la formazione del personale e la gestione dei rischi associati alla transizione. Inoltre, ci sarà probabilmente una corsa globale per lo sviluppo e l'adozione di queste nuove tecnologie, con implicazioni geopolitiche significative. I paesi che saranno in grado di sviluppare e implementare tecnologie quantistiche più rapidamente avranno un vantaggio competitivo sostanziale, sia in termini economici che di sicurezza nazionale. Infine, l'innovazione descritta nell'articolo solleva una questione fondamentale: come bilanciare l'innovazione tecnologica con la necessità di sicurezza? Da un lato, la ricerca nel campo della computazione quantistica delinea progressi senza precedenti in molti settori, dall'ottimizzazione dei processi industriali alla scoperta di nuovi materiali e farmaci. Dall'altro, queste stesse tecnologie potrebbero rendere obsoleti gli attuali sistemi di sicurezza, creando nuove vulnerabilità. Le aziende devono quindi adottare un approccio proattivo, investendo in ricerca e sviluppo non solo per sfruttare le opportunità offerte dalla computazione quantistica, ma anche per proteggere i propri dati e le proprie operazioni dalle minacce emergenti. In conclusione, mentre il lavoro di Vaikuntanathan e Ragavan rappresenta un passo avanti cruciale verso l'era della crittografia post-quantistica, evidenzia anche la necessità di un ripensamento strategico nelle aziende e nelle istituzioni su come affrontare le sfide e le opportunità di una tecnologia in rapido sviluppo. Ignorare questi segnali potrebbe comportare rischi significativi per la sicurezza e la competitività a lungo termine.

bottom of page