top of page

Risultati di ricerca

601 risultati trovati con una ricerca vuota

  • Sfide e opportunità nella produzione di sistemi di Intelligenza Artificiale Generativa

    L'adozione dell'intelligenza artificiale generativa sta accelerando rapidamente, ma il passaggio da sperimentazioni limitate a implementazioni in produzione è tutt'altro che semplice. Un recente sondaggio condotto da MIT Technology Review Insights ad agosto 2024 ha evidenziato le sfide e le decisioni che le organizzazioni devono affrontare durante la transizione verso l'uso pratico di questi strumenti. Con 250 dirigenti provenienti da una vasta gamma di settori intervistati, emergono dati significativi sull'attuale panorama e sulle difficoltà operative delle aziende. L'adozione dell’Intelligenza Artificiale Generativa. Una crescita impetuosa L'intelligenza artificiale generativa è esplosa dopo l'introduzione di ChatGPT nel novembre 2022, con aziende di tutto il mondo che hanno iniziato ad esplorare modelli di grandi dimensioni (LLM) per risolvere problemi complessi e laboriosi. Oltre alla capacità di risolvere problemi tecnici complessi, l'AI generativa offre anche la possibilità di automatizzare processi ripetitivi e di gestire una mole di dati non strutturati, come video e documenti PDF. Queste funzionalità hanno attratto un massiccio interesse da parte delle aziende, desiderose di sfruttare queste tecnologie per ottenere vantaggi competitivi e migliorare l'efficienza operativa. Secondo il sondaggio condotto da MIT Technology Review Insights, la produttività stimata derivante dall'adozione di AI generativa potrebbe avere un impatto comparabile a quello delle principali innovazioni storiche, come Internet, l'automazione robotica e la macchina a vapore. Le proiezioni parlano di un impatto sul PIL globale che varia da appena sotto il trilione di dollari fino a ben 4,4 trilioni di dollari l'anno. Questa ampia forbice di stime riflette la variabilità nelle modalità di implementazione dell'AI e nelle capacità delle aziende di adattare i loro modelli operativi. Il sondaggio ha inoltre evidenziato che, mentre il 79% delle aziende aveva in programma di adottare progetti di AI generativa nel prossimo anno, solo il 5% era riuscito a mettere in produzione effettivi casi d'uso entro maggio 2024. Questo ritardo è attribuibile alle difficoltà operative e alla necessità di superare le sfide legate alla qualità degli output, all'integrazione nei sistemi esistenti e agli elevati costi di inferenza e addestramento dei modelli. Oltre alle difficoltà tecniche, è emersa anche una questione di fiducia nell'efficacia delle applicazioni. Due terzi dei leader aziendali intervistati hanno dichiarato di sentirsi ambivalenti o insoddisfatti dei progressi compiuti finora, citando come causa principale la complessità e il costo della messa in produzione. Molte aziende stanno quindi cercando di costruire uno stack tecnologico solido che possa supportare vari modelli base, strumenti di integrazione avanzati e soluzioni di orchestrazione, per facilitare l'adozione dell'AI generativa su larga scala.   Sfide operative e complessità dell'implementazione Tra le principali sfide segnalate dai leader aziendali, la qualità dell'output dell'AI è fonte di preoccupazione per il 72% degli intervistati. Inoltre, il 62% ha segnalato difficoltà nell'integrazione con le infrastrutture esistenti, mentre il 58% ha citato i costi elevati sia per l'inferenza che per l'addestramento dei modelli. La latenza è un altro problema cruciale: il 56% delle aziende ha difficoltà a ridurre i tempi di risposta dei sistemi, particolarmente in scenari di utilizzo con elevata interazione in tempo reale. Un altro problema spesso citato riguarda la gestione del contesto da parte dei modelli generativi. Harrison Chase, co-fondatore e CEO di LangChain, ha evidenziato che una delle maggiori difficoltà è fornire il contesto giusto al modello, soprattutto quando si tratta di collegare i risultati di un modello LLM a una serie di dati specifici. Un “livello di orchestrazione” efficace è necessario per convogliare il contesto adeguato e assicurare che le risposte siano rilevanti e accurate. Tuttavia, fornire un maggiore contesto ai modelli spesso implica un aumento dei costi, il che rende cruciale trovare un equilibrio tra la qualità delle risposte e l'efficienza economica. I costi di addestramento e inferenza sono una delle sfide più rilevanti: circa il 58% delle aziende ha segnalato che i costi per eseguire i modelli sono ancora troppo elevati, in particolare per applicazioni che richiedono un'elevata scalabilità. Il costo per token, come evidenziato da Rowan Trollope di Redis, è un parametro chiave per ottimizzare l'efficienza dei modelli: ridurre il costo per token può rendere più conveniente l'inferenza su larga scala, permettendo alle aziende di ottenere maggiore valore dall'implementazione dell'AI. Anche la difficoltà di quantificare il ritorno sugli investimenti (ROI) rappresenta una barriera all'adozione. Secondo il sondaggio, il 48% delle aziende sta cercando di utilizzare indicatori chiave di performance (KPI) per valutare i propri progetti di AI, mentre il 38% ha sviluppato framework specifici per valutare l'impatto dell'AI generativa. Tuttavia, la mancanza di metodi standardizzati e la complessità intrinseca del calcolo del ROI rallentano il processo decisionale. Molte organizzazioni esitano a investire ulteriormente in AI senza una chiara evidenza del valore generato. Un'altra sfida significativa è rappresentata dalla scalabilità. Mentre il 51% delle aziende ha menzionato difficoltà nel far fronte alla crescente domanda e nel garantire che i sistemi possano gestire un numero sempre maggiore di utenti, la latenza diventa una problematica strettamente connessa. Ogni nuovo componente del sistema aggiunge latenza e ciò può compromettere l'esperienza utente. La latenza è particolarmente critica nelle applicazioni di AI generativa in tempo reale, come le interfacce vocali, dove anche pochi millisecondi di ritardo possono influire negativamente sull'interazione.   Sistemi AI compositi: una possibile soluzione Per affrontare queste sfide, molte aziende stanno esplorando sistemi di intelligenza artificiale compositi o “compound AI”, che uniscono diversi modelli e tecnologie AI per gestire compiti complessi in modo più efficiente. Secondo il sondaggio, il 54% delle aziende utilizza già agenti AI, e un altro 29% prevede di farlo in futuro. I sistemi compositi possono ridurre i costi segmentando il lavoro tra modelli più economici in determinate fasi del processo, migliorando al contempo la performance complessiva. Un aspetto centrale per la creazione di sistemi AI compositi è l'uso di catene multi-step, che permette di suddividere un'attività complessa in una serie di passaggi più semplici e specializzati. Secondo il sondaggio, il 50% delle aziende ha già implementato catene multi-step nelle loro applicazioni di AI generativa, e un ulteriore 18% ha pianificato di farlo. Questo approccio consente di utilizzare modelli specializzati per singole fasi del processo, riducendo i costi e migliorando l'efficienza complessiva del sistema. Un altro elemento chiave è il semantic routing, che permette di instradare le richieste dell'utente verso lo strumento più appropriato, che potrebbe essere un altro modello di AI o persino un intervento umano. Questo tipo di routing consente di ottimizzare l'uso delle risorse disponibili, evitando di sovraccaricare modelli costosi per compiti che possono essere gestiti in maniera più economica. L'adozione di componenti come il Retrieval-Augmented Generation (RAG) è un esempio dell'approccio composito in azione. RAG combina la capacità generativa di un modello con la ricerca attraverso database aziendali o documenti, migliorando la pertinenza e la qualità delle risposte. Attualmente, il 38% delle aziende utilizza questa tecnica e un ulteriore 29% ha pianificato di implementarla. Un altro elemento tecnologico che supporta i sistemi compositi è l'utilizzo delle cache semantiche e dei database vettoriali. Le cache semantiche, che sono adottate dal 32% delle aziende, aiutano a raggruppare e memorizzare risposte a richieste simili per ridurre i costi di inferenza. I database vettoriali, adottati dal 37% delle aziende, sono invece fondamentali per memorizzare e cercare rappresentazioni complesse di dati e domande in formato vettoriale, ottimizzando così la capacità di recupero delle informazioni.   Strategie per costruire uno Stack AI adattabile Per costruire uno stack AI adattabile, le aziende devono affrontare diverse sfide strategiche e operative. Un passo fondamentale è la scelta del modello o dei modelli su cui basare le applicazioni: il 67% delle aziende ha optato per modelli chiusi di terze parti, come quelli offerti da OpenAI, mentre il 42% delle aziende ha scelto modelli open-source su cloud. La preferenza per l'open-source sta crescendo, anche perché consente una maggiore flessibilità e controllo sui costi e la sicurezza. L'adozione di modelli open-source on-premise è un'opzione valutata dal 41% delle aziende intervistate: il 17% le utilizza già, mentre un altro 24% ha intenzione di implementarle in futuro. Questa soluzione può offrire alle aziende un maggiore controllo sui dati e una riduzione dei costi di licenza associati ai modelli commerciali. Un altro elemento cruciale per costruire uno stack AI adattabile è l'integrazione delle tecnologie esistenti e delle nuove soluzioni di AI. Secondo il sondaggio, l'utilizzo di API standardizzate, come quelle offerte da Redis e LangChain, permette alle aziende di scambiare e sostituire facilmente i componenti del loro stack, garantendo una maggiore flessibilità operativa. Le API standard aiutano a superare le differenze tra i parametri dei vari modelli e facilitano l'integrazione di nuovi strumenti. Un'altra considerazione importante è la gestione della latenza nei sistemi compositi, soprattutto per applicazioni che richiedono risposte in tempo reale. Per superare questo problema, è essenziale adottare una piattaforma di dati ad alta velocità in grado di supportare modelli che rispondano rapidamente, minimizzando i tempi di attesa degli utenti. Rowan Trollope di Redis ha sottolineato che “la latenza è il nuovo downtime”: la velocità di risposta diventa un fattore determinante per l'adozione su larga scala e il successo delle applicazioni di AI generativa. La complessità e i costi di implementazione restano barriere significative, ma l'adozione di tecnologie come cache semantiche e database vettoriali offre un'opportunità per migliorare l'efficienza complessiva. Questi strumenti possono ridurre il carico sui modelli più costosi, aumentando la rapidità e la pertinenza delle risposte, e sono già adottati da una parte consistente delle aziende intervistate. In conclusione, per costruire uno stack AI adattabile, è fondamentale bilanciare l'efficienza dei costi, la gestione della latenza e la flessibilità operativa.   Perché i progetti AI aziendali falliscono e come invertire la tendenza Nonostante il potenziale trasformativo dell'intelligenza artificiale, una percentuale significativa di progetti AI aziendali non raggiunge i risultati desiderati. Stime recenti indicano che oltre l'80% dei progetti AI aziendali fallisce, un tasso doppio rispetto ai progetti IT tradizionali. Questa elevata percentuale di fallimenti riflette le difficoltà che molte aziende incontrano nel passare dalla sperimentazione a progetti realmente funzionanti e in produzione. Secondo lo studio "The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed" di James Ryseff, Brandon De Bruhl e Sydne J. Newberry, sono state identificate cinque cause principali di fallimento dei progetti AI, emerse attraverso interviste con 65 data scientist e ingegneri del settore. La causa più frequentemente indicata è l'incapacità della leadership aziendale di definire correttamente gli obiettivi del progetto. Una mancanza di visione strategica, unita a una scarsa comprensione delle capacità reali dell'AI, porta spesso a iniziative che non soddisfano le aspettative. Un'altra causa rilevante riguarda la qualità dei dati. Senza dati accurati, completi e pertinenti, anche i migliori modelli di AI falliscono nel fornire risultati affidabili. La carenza di dati adeguati è stata citata da oltre la metà degli intervistati come una delle principali ragioni di insuccesso. Questo problema è spesso accompagnato da una scarsa considerazione per l'ingegneria dei dati, vista come un'attività di minor valore rispetto allo sviluppo dei modelli. Altri fattori di fallimento includono la mancanza di infrastrutture adeguate a supportare il team di sviluppo, errori operativi commessi dai membri del team stesso, e limiti intrinseci delle capacità della tecnologia AI. Gli intervistati hanno inoltre evidenziato come un coinvolgimento inadeguato della leadership nei dettagli operativi e nelle decisioni tecniche contribuisca a un allineamento carente tra gli obiettivi aziendali e le soluzioni AI sviluppate. Per invertire questa tendenza, le organizzazioni devono adottare un approccio più olistico e strategico. È fondamentale che la leadership aziendale sia coinvolta attivamente nel processo, garantendo che gli obiettivi del progetto siano chiari e realistici. I leader devono collaborare strettamente con il team di sviluppo per tradurre questi obiettivi in requisiti tecnici concreti e realizzabili. Inoltre, investire in infrastrutture solide e in ingegneri del machine learning (ML) competenti è essenziale per superare i problemi legati alla qualità dei dati e garantire la corretta implementazione dei modelli. Una chiara comprensione delle reali capacità e limiti dell'AI, unita a un impegno a lungo termine, può contribuire a trasformare i progetti AI da esperimenti falliti in successi concreti, in grado di apportare un reale valore alle organizzazioni.   Conclusioni L’intelligenza artificiale generativa rappresenta una rivoluzione tecnologica dal potenziale straordinario, ma il suo pieno sfruttamento richiede un ripensamento profondo delle strategie aziendali e operative.  Le imprese si trovano oggi di fronte a una duplice sfida: da un lato, cogliere le opportunità offerte da questa innovazione per migliorare l’efficienza e generare valore; dall’altro, superare barriere tecniche, economiche e culturali che ne ostacolano l’implementazione su larga scala. Questa dualità rivela un punto cruciale: l’adozione dell’AI generativa non è una semplice evoluzione tecnologica, ma un catalizzatore per un cambiamento sistemico. Un aspetto chiave è la necessità di ripensare l’infrastruttura digitale aziendale.  L’approccio tradizionale, caratterizzato da sistemi monolitici e statici, non è più adeguato a supportare tecnologie che richiedono adattabilità, scalabilità e un uso ottimale delle risorse. L’emergere di soluzioni composite e modulari, come le catene multi-step, il semantic routing e l’utilizzo di database vettoriali, segna il passaggio a una visione in cui la flessibilità è il fulcro dell’efficienza. Le aziende devono imparare a segmentare i processi, distribuire i carichi e ottimizzare i costi, trasformando la complessità in un’opportunità per ottenere vantaggi competitivi. Un’altra lezione fondamentale riguarda il rapporto tra innovazione e ROI.  Le difficoltà nel misurare l’impatto economico dell’AI generativa non sono semplicemente un ostacolo tecnico, ma un sintomo di una lacuna più ampia: l’incapacità di molte imprese di riconoscere e valorizzare i benefici intangibili dell’innovazione. Velocità decisionale, personalizzazione su larga scala e miglioramento dell’esperienza utente non sono facilmente quantificabili, ma possono determinare il successo in mercati sempre più competitivi. Le aziende che sapranno sviluppare metodi innovativi per misurare il valore generato dall’AI generativa avranno un vantaggio decisivo. La fiducia emerge come un altro pilastro strategico. Il fatto che molti leader aziendali si dichiarino ambivalenti o insoddisfatti dei progressi nell’implementazione dell’AI generativa sottolinea una problematica culturale oltre che tecnologica. La costruzione della fiducia non può limitarsi alla qualità degli output: deve includere trasparenza sui costi, prevedibilità dei risultati e un approccio etico nell’uso dei dati. In un’epoca in cui la reputazione aziendale è sempre più legata alla gestione responsabile della tecnologia, l’adozione di modelli open-source e soluzioni on-premise rappresenta non solo una scelta tecnica, ma anche una dichiarazione di intenti. Infine, la velocità diventa un fattore critico.  In un contesto dove la latenza è “il nuovo downtime”, come affermato da Rowan Trollope, la capacità di rispondere rapidamente alle esigenze degli utenti non è solo una questione tecnica, ma un fattore che influenza direttamente la percezione del valore da parte dei clienti. Investire in infrastrutture che riducano la latenza e aumentino la resilienza operativa non è un costo, ma un investimento strategico che può differenziare le aziende in mercati saturi. In sintesi, l’adozione dell’AI generativa è molto più di una questione tecnologica: è una sfida strategica che richiede nuove competenze, nuove metriche e una visione olistica dell’innovazione.   Podcast: https://spotifycreators-web.app.link/e/hIsr6mgd2Ob Fonte: https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/

  • Challenges and Opportunities in Deploying Generative AI Systems

    The adoption of generative artificial intelligence is accelerating rapidly, but moving from limited experimentation to production deployment is far from simple. A recent survey conducted by MIT Technology Review Insights in August 2024 highlighted the challenges and decisions organizations face during the transition to practical use of these tools. With 250 executives from a wide range of industries interviewed, significant insights emerge into the current landscape and the operational difficulties companies are experiencing. The Adoption of Generative AI Systems. Rapid Growth Generative artificial intelligence has exploded following the introduction of ChatGPT in November 2022, with companies worldwide beginning to explore large language models (LLMs) to solve complex and labor-intensive problems. Beyond the ability to solve complex technical issues, generative AI also offers the potential to automate repetitive processes and handle unstructured data, such as videos and PDF documents. These capabilities have attracted massive interest from companies eager to leverage these technologies to gain competitive advantages and improve operational efficiency. According to the survey conducted by MIT Technology Review Insights, the estimated productivity gains from adopting generative AI could have an impact comparable to major historical innovations, such as the internet, robotic automation, and the steam engine. Projections suggest an impact on global GDP ranging from just under a trillion dollars to as much as $4.4 trillion annually. This broad range of estimates reflects the variability in the ways AI is implemented and the ability of companies to adapt their operating models. The survey also highlighted that while 79% of companies planned to adopt generative AI projects within the next year, only 5% had managed to put actual use cases into production by May 2024. This delay is attributed to operational difficulties and the need to overcome challenges related to output quality, integration into existing systems, and high inference and training costs. In addition to technical difficulties, trust in the effectiveness of applications also emerged as an issue. Two-thirds of the business leaders interviewed stated that they felt ambivalent or dissatisfied with the progress made so far, citing the complexity and cost of production deployment as the primary reasons. Many companies are therefore trying to build a solid technology stack that can support various foundational models, advanced integration tools, and orchestration solutions to facilitate the large-scale adoption of generative AI. Operational Challenges and Implementation Complexity Among the main challenges reported by business leaders, the quality of AI output is a concern for 72% of respondents. Additionally, 62% reported difficulties in integrating with existing infrastructures, while 58% cited high costs for both inference and model training. Latency is another crucial issue: 56% of companies struggle to reduce response times, particularly in high-interaction, real-time usage scenarios. Another frequently cited problem concerns the management of context by generative models. Harrison Chase, co-founder and CEO of LangChain, emphasized that one of the biggest challenges is providing the right context to the model, especially when linking the results of an LLM to a specific dataset. An effective “orchestration layer” is needed to convey the appropriate context and ensure that responses are relevant and accurate. However, providing greater context to models often implies increased costs, making it crucial to find a balance between response quality and economic efficiency. Training and inference costs are among the most significant challenges: about 58% of companies reported that the costs of running models are still too high, especially for applications requiring high scalability. The cost per token, as highlighted by Rowan Trollope of Redis, is a key parameter for optimizing model efficiency: reducing the cost per token can make large-scale inference more affordable, allowing companies to derive greater value from AI deployment. The difficulty of quantifying return on investment (ROI) also represents a barrier to adoption. According to the survey, 48% of companies are trying to use key performance indicators (KPIs) to evaluate their AI projects, while 38% have developed specific frameworks to assess the impact of generative AI. However, the lack of standardized methods and the inherent complexity of calculating ROI slow down decision-making processes. Many organizations hesitate to invest further in AI without clear evidence of the value generated. Scalability is another significant challenge. While 51% of companies mentioned difficulties in keeping up with growing demand and ensuring systems can handle an increasing number of users, latency becomes a closely related problem. Each new system component adds latency, which can compromise the user experience. Latency is particularly critical in real-time generative AI applications, such as voice interfaces, where even a few milliseconds of delay can negatively impact interaction. Composite AI Systems: A Possible Solution To address these challenges, many companies are exploring composite artificial intelligence systems or “compound AI,” which combine different models and AI technologies to manage complex tasks more efficiently. According to the survey, 54% of companies already use AI agents, and another 29% plan to do so in the future. Composite systems can reduce costs by segmenting work among cheaper models at certain stages of the process while simultaneously improving overall performance. A central aspect of creating composite AI systems is the use of multi-step chains, which allows a complex task to be divided into a series of simpler, specialized steps. According to the survey, 50% of companies have already implemented multi-step chains in their generative AI applications, and an additional 18% plan to do so. This approach enables the use of specialized models for individual phases of the process, reducing costs and improving overall system efficiency. Another key element is semantic routing, which allows user requests to be directed to the most appropriate tool, which could be another AI model or even a human intervention. This type of routing optimizes the use of available resources, avoiding overloading costly models for tasks that can be handled more economically. The adoption of components such as Retrieval-Augmented Generation (RAG) is an example of the composite approach in action. RAG combines a model’s generative capability with searches through corporate databases or documents, improving the relevance and quality of responses. Currently, 38% of companies use this technique, and another 29% plan to implement it. Another technological element supporting composite systems is the use of semantic caches and vector databases. Semantic caches, adopted by 32% of companies, help group and store responses to similar requests to reduce inference costs. Vector databases, adopted by 37% of companies, are essential for storing and searching complex representations of data and questions in vector format, thereby optimizing the ability to retrieve information. Strategies for Building an Adaptable AI Stack To build an adaptable AI stack, companies must address various strategic and operational challenges. A fundamental step is choosing the model or models on which to base applications: 67% of companies have opted for third-party closed models, such as those offered by OpenAI, while 42% have chosen open-source models on the cloud. The preference for open source is growing, partly because it allows greater flexibility and control over costs and security. The adoption of on-premises open-source models is an option considered by 41% of the companies surveyed: 17% already use them, while another 24% plan to implement them in the future. This solution can offer companies greater control over data and reduced licensing costs associated with commercial models. Another crucial element for building an adaptable AI stack is integrating existing technologies with new AI solutions. According to the survey, using standardized APIs, such as those offered by Redis and LangChain, allows companies to easily exchange and replace components within their stack, ensuring greater operational flexibility. Standard APIs help overcome differences between model parameters and facilitate the integration of new tools. Another important consideration is latency management in composite systems, especially for applications requiring real-time responses. To overcome this issue, it is essential to adopt a high-speed data platform capable of supporting models that respond quickly, minimizing user wait times. Rowan Trollope of Redis emphasized that “latency is the new downtime”: response speed becomes a determining factor for large-scale adoption and the success of generative AI applications. The complexity and costs of implementation remain significant barriers, but the adoption of technologies such as semantic caches and vector databases offers an opportunity to improve overall efficiency. These tools can reduce the load on more expensive models, increasing the speed and relevance of responses and are already adopted by a substantial portion of the surveyed companies. In conclusion, building an adaptable AI stack requires balancing cost efficiency, latency management, and operational flexibility. Why Enterprise AI Projects Fail and How to Reverse the Trend Despite the transformative potential of artificial intelligence, a significant percentage of enterprise AI projects fail to achieve the desired outcomes. Recent estimates indicate that over 80% of enterprise AI projects fail, a rate twice that of traditional IT projects. This high failure rate reflects the difficulties many companies encounter in transitioning from experimentation to truly functional and production-ready projects. According to the study “The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed” by James Ryseff, Brandon De Bruhl, and Sydne J. Newberry, five main causes of AI project failure were identified through interviews with 65 data scientists and engineers in the industry. The most frequently cited cause is the inability of corporate leadership to properly define project goals. A lack of strategic vision, combined with a poor understanding of AI’s actual capabilities, often leads to initiatives that fail to meet expectations. Another significant cause relates to data quality. Without accurate, complete, and relevant data, even the best AI models fail to provide reliable results. The lack of adequate data was cited by more than half of the respondents as one of the main reasons for failure. This issue is often accompanied by a lack of appreciation for data engineering, which is seen as a less valuable activity compared to model development. Other factors contributing to failure include a lack of adequate infrastructure to support the development team, operational errors by team members, and the intrinsic limitations of AI technology capabilities. Respondents also highlighted how inadequate leadership involvement in operational details and technical decisions contributes to poor alignment between business goals and the AI solutions developed. To reverse this trend, organizations must adopt a more holistic and strategic approach. It is crucial that corporate leadership is actively involved in the process, ensuring that project goals are clear and realistic. Leaders must work closely with the development team to translate these goals into concrete and achievable technical requirements. Moreover, investing in solid infrastructure and competent machine learning (ML) engineers is essential to overcome data quality issues and ensure proper model implementation. A clear understanding of AI’s real capabilities and limitations, combined with a long-term commitment, can help turn AI projects from failed experiments into tangible successes that bring real value to organizations. Conclusions Generative artificial intelligence represents a technological shift with extraordinary potential, but its full exploitation requires a profound rethinking of business and operational strategies. Companies today face a dual challenge: on the one hand, seizing the opportunities offered by this innovation to improve efficiency and generate value; on the other, overcoming technical, economic, and cultural barriers that hinder large-scale implementation. This duality reveals a crucial point: the adoption of generative AI is not a simple technological evolution, but a catalyst for systemic change. A key aspect is the need to rethink the corporate digital infrastructure. The traditional approach, characterized by monolithic and static systems, is no longer adequate to support technologies that require adaptability, scalability, and optimal resource utilization. The emergence of composite and modular solutions, such as multi-step chains, semantic routing, and the use of vector databases, marks the transition to a vision where flexibility is the core of efficiency. Companies must learn to segment processes, distribute loads, and optimize costs, turning complexity into an opportunity to gain competitive advantages. Another fundamental lesson concerns the relationship between innovation and ROI. The difficulties in measuring the economic impact of generative AI are not merely a technical obstacle, but a symptom of a broader gap: the inability of many companies to recognize and value the intangible benefits of innovation. Decision-making speed, large-scale personalization, and improved user experience are not easily quantifiable, but they can determine success in increasingly competitive markets. Companies that develop innovative methods for measuring the value generated by generative AI will have a decisive advantage. Trust emerges as another strategic pillar. The fact that many business leaders declare themselves ambivalent or dissatisfied with the progress in implementing generative AI underscores a cultural as well as technological problem. Building trust cannot be limited to output quality: it must include transparency on costs, predictability of outcomes, and an ethical approach to data use. In an era where corporate reputation is increasingly linked to responsible technology management, the adoption of open-source models and on-premises solutions is not only a technical choice but also a statement of intent. Finally, speed becomes a critical factor. In a scenario where latency is “the new downtime,” as stated by Rowan Trollope, the ability to respond quickly to user needs is not just a technical issue, but a factor that directly influences the perceived value by customers. Investing in infrastructure that reduces latency and increases operational resilience is not a cost but a strategic investment that can differentiate companies in saturated markets. In summary, adopting generative AI is much more than a technological issue: it is a strategic challenge that requires new skills, new metrics, and a holistic vision of innovation. Podcast: https://spotifycreators-web.app.link/e/RWIb8ogd2Ob Source:   https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/

  • Boston Consulting Group. The AI Maturity Map

    In November 2024, the Boston Consulting Group presented a global vision of artificial intelligence (AI) maturity across 73 world economies through its new "AI Maturity Matrix." This study not only analyzes which economies are ready to leverage AI, but also identifies six distinct archetypes of AI development and economic potential. The matrix assesses each economy on two fundamental axes: exposure to AI-driven transformations and readiness to manage and utilize them. Let's explore the key findings. The Leading Economies for AI Maturity Among the 73 economies examined, only five were identified as "AI Pioneers": Canada, China, Singapore, the United Kingdom, and the United States. These countries have reached a high level of readiness by combining key elements such as investments and infrastructure to turn the potential disruptions caused by AI into a competitive advantage. Advanced AI adoption in these countries is driven by robust technological infrastructure, significant research and innovation capacity, and continuous investment in specialized training. The United States and Singapore stand out for their AI talent pools, which are crucial for driving innovation. China, on the other hand, leads in the production of patents and academic papers related to AI. The United States demonstrates an excellent ability to attract private investment in AI-related startups. With a total of over 200 unicorns in the tech sector, the United States also leads the global market for AI-focused venture capital, representing about 50% of total investments in the sector. This flow of investment not only supports existing startups but also creates a fertile environment for new companies developing advanced AI solutions. Furthermore, the presence of some of the world's top universities, such as MIT and Stanford, ensures a steady supply of highly qualified talent. Singapore, despite its relatively small size, has shown remarkable efficiency in implementing a national AI strategy, investing over 743 million dollars in a five-year plan to consolidate its position as a global hub for business and innovation. This investment has been accompanied by government initiatives such as the TechSkills Accelerator, which has trained more than 230,000 people since 2016, increasing the local talent pool and attracting international experts through programs like ONE Pass and Tech@SG. Singapore also established the Centre for Frontier AI Research (CFAR) to support the research and development of advanced AI technologies on a national scale. Mainland China, on the other hand, has adopted an aggressive approach to AI adoption, focusing on strategic sectors such as consumer electronics, surveillance, and autonomous vehicles. China leads the world in AI-related patents, registering over 150,000 patents in recent years, surpassing the United States and Europe. This commitment has also been supported by massive government investments in technological infrastructure, such as the establishment of world-class supercomputing centers and the enhancement of telecommunications networks. China is also a leader in publishing AI-related academic papers, with output accounting for 27% of all global publications in this field. The United Kingdom is one of the main AI hubs in Europe, thanks to a combination of favorable policies, access to capital, and a strong network of leading universities such as the University of Cambridge and Imperial College London. The country has developed a national strategy that includes funding centers of excellence for AI, aiming to expand AI use in sectors such as healthcare and finance. Furthermore, the UK government has allocated around 1.2 billion pounds to support AI, also focusing on developing a regulatory framework to ensure the safe and ethical use of technology. Canada stands out for its inclusive and sustainable approach to AI research and adoption. With the Pan-Canadian AI Strategy, Canada was one of the first countries to outline a national strategic plan for AI, investing 125 million dollars to support development and research in its major tech cities: Toronto, Montreal, and Vancouver. This has led to the creation of a strong research ecosystem, with leading institutes such as the Vector Institute and Mila attracting talent from around the world. Canada has also placed a strong emphasis on ethics and transparency in AI use, contributing to the development of international guidelines for responsible technology adoption. The analysis shows that these countries are not only investing significantly in research and development but are also establishing specific AI regulatory codes, such as Singapore's "Model AI Governance Framework," which ensures the ethical use of AI. Such an approach allows them to maintain a leadership position, influence the global AI ecosystem, and set international standards. AI Contenders and Practitioners Right after the leaders, we find the "AI Contenders" and "AI Practitioners," two categories that include economies like Germany, Japan, India, Malaysia, Saudi Arabia, and Indonesia. The "Contenders" are characterized by high readiness but relatively less exposure to AI compared to the "Pioneers." This means that while they are ready to adopt AI, not all their industries are sufficiently exposed to the benefits of this technology. Germany is an emblematic example of a "Steady Contender." With strong exposure to the financial services and advanced manufacturing sectors, Germany has benefited from a solid industrial base and a long-term technology innovation strategy. The German government has invested significant resources in developing tech hubs and facilitated collaboration between universities, private companies, and research institutes. The robust telecommunications infrastructure and access to advanced technologies have enabled Germany to position itself among the leading European technological players. Japan, known for its industrial innovation capability, has focused its efforts on applying AI in sectors such as robotics and manufacturing. The Japanese government has launched strategic plans to expand AI use in society, aiming to address challenges like an aging population. Significant investments in digital infrastructure and public-private collaboration have contributed to Japan's growing competitiveness in AI. India, on the other hand, is classified among the "Rising Contenders." The Indian government has launched several AI-focused initiatives, such as the National AI Strategy, with the goal of integrating AI into key sectors like agriculture and education. India is investing heavily in training a specialized workforce, with education and training programs aimed at increasing the number of AI specialists. Moreover, the Indian startup ecosystem, particularly in sectors like fintech and agritech, is rapidly expanding, supported by growing access to venture capital. Malaysia represents an interesting case among the Contenders, thanks to strong government support and its National AI Roadmap. This strategic plan includes investments in tech hubs and university programs to train professionals in the AI sector. The Malaysian government's goal is to achieve technological competitiveness comparable to that of high-income economies. Saudi Arabia and Indonesia are also classified as "Rising Contenders" and are making significant progress in AI adoption. Saudi Arabia, with its Vision 2030, aims to become a global center of excellence for AI in priority sectors like energy, healthcare, and education. This path is supported by substantial investments in digital infrastructure and training programs. Indonesia, for its part, is focusing efforts on education and long-term economic growth, with the National AI Strategy emphasizing education and the adoption of emerging technologies to improve productivity. Sectoral Exposure. Where AI Has the Greatest Impact The report also analyzes the level of exposure of different economies to AI based on economic sectors. Six sectors are found to be most exposed to AI-induced changes: information and communication, high-tech goods, financial services, retail, public services, and motor vehicle production. This is due to AI's ability to automate tasks and optimize processes, profoundly transforming how work is done in these sectors. In particular, economies with strong ICT sectors tend to grow in terms of GDP thanks to their ability to produce AI technologies that can be used in other sectors. In sectors like information and communication, AI can increase productivity through the automation of repetitive tasks and the optimization of business communications. According to the Boston Consulting Group, efficiency in these areas can increase by up to 20% through AI integration. Furthermore, AI technologies are particularly important in the production of high-tech goods, where they can reduce production costs and increase the precision of assembly lines, as demonstrated by sectors like electronics and semiconductors. Another key sector is financial services. AI adoption enables better risk management, faster decision-making processes, and a more personalized customer experience. For example, many banks use machine learning algorithms to prevent fraud and more accurately analyze customer risk profiles. This approach has allowed operational costs to be reduced and service efficiency to be improved. In retail, AI is having a significant impact on inventory management and demand forecasting. The use of predictive algorithms helps retailers optimize their inventories, reducing storage costs and improving product availability. AI applications in public services, on the other hand, improve energy efficiency and facilitate resource management through demand forecasting and optimization of distribution networks. Motor vehicle production is another sector where AI is radically transforming processes. The introduction of AI systems for assembly and quality control has improved production precision and speed, with a direct impact on costs and the quality of produced vehicles. Additionally, the development of autonomous vehicle technologies has further strengthened the role of AI in this sector, creating new opportunities for economic growth. On the other hand, countries with a sectoral composition more oriented towards agriculture and construction, such as India, Indonesia, and Ethiopia, show less exposure to potential disruptions caused by AI. However, the use of AI can still bring indirect benefits, improving efficiency in the agricultural sector and modernizing adjacent sectors like transportation. For example, the use of AI in precision agriculture allows optimization of production through monitoring weather and soil conditions, reducing resource use and increasing agricultural yields. In general, AI is contributing to differentiation between sectors that rapidly adopt the technology and sectors that lag behind, creating uneven impacts on the overall economy. However, sectors that effectively integrate AI see significant increases in productivity and competitiveness, as highlighted by the Boston Consulting Group, which estimates a revenue increase of up to 2.5 times for companies that adopt AI compared to those that do not. The ASPIRE Index. Assessing AI Readiness To assess each economy's readiness, the matrix uses the ASPIRE index, which consists of six dimensions: Ambition, Skills, Policy and Regulation, Investments, Research and Innovation, and Ecosystem. Only five economies out of 73 have surpassed 50% in all these dimensions, demonstrating a high degree of maturity in AI adoption. The ASPIRE index considers several key metrics to assess an economy's overall readiness for AI adoption. Among these metrics are the existence of a national AI strategy and the presence of a specialized government entity for implementation, which are key indicators of a country's ambition. Additionally, the index evaluates the concentration of AI specialists through indicators such as the number of professionals registered on platforms like LinkedIn and public contributions on GitHub, highlighting a country's ability to train and retain talent. Regarding regulation, the ASPIRE index includes measures of policy quality, government effectiveness, and data management, as well as the alignment of democratic values with AI development. In terms of investments, the index takes into account the value of AI startups, the market capitalization of tech companies, and the availability of venture capital, elements that indicate how well an economy can financially support AI adoption and growth. The "Research and Innovation" dimension is represented by the number of scientific publications on AI, patents registered, and the number of AI startups, factors that reflect a country's ability to innovate and contribute to the global development of technology. The maturity level of a digital ecosystem, on the other hand, is measured through indicators such as the quality of telecommunications infrastructure, average download speed, and public cloud spending per employee, aspects that directly influence the ability to implement AI technologies on a large scale. The United States and Singapore lead in the skills dimension, with highly developed talent pools. Specifically, the United States leads in investments, thanks to sophisticated capital markets and the presence of numerous unicorns in the AI field. Mainland China, in contrast, excels in research and development, being a leader in both patents registered and the number of academic AI publications. Countries like Japan and Germany perform well in the field of infrastructure and digital ecosystem but often lack adequate levels of investment in research and development, which could limit their long-term competitiveness. The global reality of AI adoption clearly shows significant disparities. More than 70% of the economies analyzed scored below half in the dimensions of ecosystem participation, skills, and R&D. This indicates that many countries still need to work significantly to achieve satisfactory readiness for AI adoption. Governments and the private sector must collaborate to improve infrastructure and promote policies that foster education and technological innovation. The ASPIRE index not only serves as a measure of the current level of AI maturity but also provides a practical guide to identifying priority areas for action to accelerate AI adoption in a balanced and sustainable manner. Italy. A Case of Potential and Challenges Italy ranks among the "AI Practitioners," with a moderate level of exposure and readiness. The country has begun to take significant steps towards AI adoption, but several obstacles still need to be overcome to reach the level of global leaders. One of the crucial aspects characterizing the Italian situation is the lack of adequate technological infrastructure. In particular, the availability of supercomputing centers and advanced data centers is lower compared to many other European economies. This technological limitation affects the country's ability to support large-scale AI projects and reduces attractiveness for foreign investments in high-tech sectors. The number of data centers in Italy is significantly lower than the European average, limiting data storage and processing capacity, an essential aspect for implementing complex AI solutions. In the manufacturing sector, which is one of the pillars of the Italian economy, AI adoption can lead to significant improvements in efficiency and automation. However, only a fraction of companies has started adopting these technologies extensively. The report indicates that about 30% of Italian manufacturing companies have implemented advanced automation solutions, compared to an average of 50% observed in major European countries like Germany and France. Automation of production processes and the introduction of AI technologies for predictive maintenance are two areas of particular interest but require targeted investments and coordinated action by the government and the private sector for effective implementation. Regarding agriculture, the potential for adopting AI technologies is high, especially in precision agriculture, which could significantly improve efficiency in the use of natural resources. However, large-scale adoption of such technologies is hampered by the fragmentation of the agricultural sector and the lack of access to dedicated funding. According to report data, less than 20% of Italian farms have access to the advanced technologies needed for precision agriculture, while countries like Spain and the Netherlands exceed 35%. The implementation of specialized training programs and concessional financing could help overcome these obstacles and facilitate the transition to more modern and sustainable agriculture. Another key element for improving Italy's position in the AI ecosystem concerns skills development. Currently, the number of AI specialists per million inhabitants is much lower than the European average. Only 15 specialists per million inhabitants are dedicated to AI, compared to a European average of 40. Creating regional tech hubs and incentivizing university and post-university programs specifically focused on AI are crucial to bridging this gap. Moreover, integrating AI training courses into high school curricula and collaboration between universities and companies could significantly help expand the available skills pool. Investments in research and development (R&D) are another critical point for Italy. Currently, Italy invests less than 1.5% of GDP in R&D, a value well below the European average of 2.5% and far from the levels of leaders like Germany and France, which invest over 3%. This low level of investment translates into a reduced capacity to innovate and develop advanced technologies. The report suggests that to improve competitiveness, Italy should increase research funding and encourage greater collaborations between the public and private sectors, particularly in AI application areas such as healthcare, mobility, and energy. The technological startup ecosystem in Italy is still weak compared to other advanced economies. The number of AI startups remains low, with fewer than 200 active startups compared to over 500 in comparable economies like Spain. The reasons for this lag include poor availability of venture capital and a high perceived risk associated with investments in emerging technologies. To address this issue, more aggressive tax incentives and dedicated acceleration programs are needed, capable of attracting national and international investments and creating an environment conducive to the birth and growth of new companies in the AI sector. In summary, Italy has the potential to improve its position in the AI field but requires a structural commitment and a long-term vision involving both the public and private sectors. Collaboration between universities, industries, and the government will be crucial to accelerating progress and achieving greater AI adoption maturity. A concerted effort is needed to develop technological infrastructure, increase specialist skills, and create an environment conducive to innovation and entrepreneurship in artificial intelligence. Strategic Next Steps for Countries The report proposes a set of initiatives for each archetype to promote AI adoption. For "AI Emergents," the economies still in the early stages, it is recommended to build national AI strategies and invest in basic digital infrastructure. This includes adopting measures to develop basic digital skills in the population, such as digital literacy programs and AI-focused training courses. It is also crucial to create research and development centers in partnership with international players to improve access to advanced technologies. For "AI Contenders" and "AI Practitioners," the focus should be on accelerating AI adoption. A key recommendation is to focus investments on applied research projects that can generate tangible results in the short term. These countries should also encourage collaboration between industrial sectors to promote the sharing of best practices and the implementation of AI solutions in the most promising sectors, such as manufacturing and financial services. Infrastructure enhancements, such as the expansion of the data center network and improvements to telecommunications networks, are essential to support greater AI adoption on a national scale. The "AI Pioneers" are called to play a global leadership role. To further expand their competitive advantage, these countries must promote flexible regulatory policies that encourage innovation while ensuring the safety and ethics of AI use. Furthermore, the Pioneers should create testing environments (sandboxes) for the development of advanced AI technologies, involving international players to share knowledge and promote the harmonization of global standards. It is also important to invest in continuous workforce training, ensuring that AI skills keep pace with technological advances. An example of a sectoral strategy is India, which aims to use AI to optimize the entire agricultural supply chain, improving yields and logistics through the use of data and predictive technologies. Similarly, Malaysia is promoting the development of specialized tech hubs and tax incentives to attract innovative startups, fostering the creation of a solid ecosystem for AI growth. To conclude, each archetype of country has a set of specific steps to take to advance its AI maturity journey. The strategies suggested in the Boston Consulting Group report aim to provide practical guidance to policymakers on how to navigate the evolving landscape of artificial intelligence and harness its potential to strengthen economies and improve overall social welfare. Conclusions The Boston Consulting Group's analysis clearly highlights how artificial intelligence is becoming a strategic variable for the competitive advantage of global economies. However, the true value of this matrix lies not only in the current snapshot but also in the systemic implications it has for the future of economies and businesses. The emerging reflection is that investing in AI is not enough: it is essential to understand how this technology redefines the economic rules of the game, reshaping strategic priorities. One of the key points is the need for a collaborative ecosystem between public and private sectors. Global leaders such as the United States and Singapore show that government policies are not merely technological "enablers" but tools for co-creation with the private sector. This is a new paradigm, where public investments in training, infrastructure, and regulation are designed not only to stimulate adoption but to foster the birth of entire economic ecosystems. Companies must therefore consider governments as strategic partners, not just regulators. Another crucial aspect is the asymmetry between sectors. Knowledge- and technology-intensive sectors, such as ICT and financial services, are already capitalizing on AI's advantages, while traditional sectors like agriculture and construction are lagging behind. However, this polarization can represent an opportunity. Companies operating in traditional sectors now have a unique window to position themselves as local AI pioneers, turning the delay into a strategic advantage. It is evident that AI adoption is not just a technological issue but a cultural and organizational choice that requires visionary leadership. Competition is shifting towards skills and the ability to retain qualified talent. Countries like Singapore and Canada, which combine strategic immigration policies and investments in advanced training, show that human capital is the core of innovation. For companies, this means that investing in internal training and attracting global talent is not a cost but a competitive imperative. Finally, a fundamental reflection emerges on ethics and governance. AI leaders are setting international standards not only from a technical point of view but also an ethical one. Companies that integrate ethical principles into their AI applications from the outset not only avoid reputational risks but also create a competitive advantage in gaining the trust of consumers and institutions. In an increasingly interconnected world, compliance with global regulations and transparency will become distinguishing elements. In summary, AI is no longer just an emerging technology but an accelerator that forces companies and nations to rethink their business models and governance. Podcast: https://spotifycreators-web.app.link/e/uvvWCb1Y1Ob Source: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai

  • Boston Consulting Group. La mappa della maturità dell'intelligenza artificiale

    Nel novembre 2024, il Boston Consulting Group ha presentato una visione globale della maturità dell'intelligenza artificiale (AI) in 73 economie mondiali attraverso la sua nuova "AI Maturity Matrix". Questo studio non solo analizza quali economie sono pronte a sfruttare l'AI, ma identifica anche sei archetipi distinti di sviluppo e potenziale economico legato all'AI. La matrice valuta ciascuna economia su due assi fondamentali: l'esposizione alle trasformazioni indotte dall'AI e la prontezza nel gestirle e utilizzarle. Scopriamo insieme i risultati principali. Le economie leader per maturità dell'intelligenza artificiale Tra le 73 economie esaminate, solo cinque sono state definite "AI Pioneers": Canada, Cina, Singapore, Regno Unito e Stati Uniti. Questi Paesi hanno raggiunto un alto livello di prontezza combinando elementi chiave come investimenti e infrastrutture per trasformare le potenziali interruzioni causate dall'AI in un vantaggio competitivo. L'adozione avanzata dell'AI in questi Paesi è guidata da robuste infrastrutture tecnologiche, una notevole capacità di ricerca e innovazione, e l'investimento continuo in formazione specialistica. Gli Stati Uniti e Singapore si distinguono per i loro pool di talenti in AI, essenziali per guidare l'innovazione. La Cina è invece in testa per la produzione di brevetti e articoli accademici legati all'AI. Gli Stati Uniti mostrano un'eccellente capacità di attrarre investimenti privati in startup legate all'AI. Con un totale di oltre 200 unicorni nel settore tecnologico, gli Stati Uniti guidano anche il mercato globale del capitale di rischio dedicato all'AI, rappresentando circa il 50% degli investimenti totali nel settore. Questo flusso di investimenti non solo sostiene le startup esistenti, ma contribuisce anche alla creazione di un ambiente fertile per nuove aziende che sviluppano soluzioni avanzate basate sull'intelligenza artificiale. Inoltre, la presenza di alcune delle migliori università al mondo, come MIT e Stanford, assicura un continuo apporto di talenti altamente qualificati. Singapore, nonostante la sua dimensione relativamente ridotta, ha dimostrato una notevole efficienza nella realizzazione di una strategia nazionale per l'AI, investendo oltre 743 milioni di dollari in un piano quinquennale volto a consolidare la sua posizione come hub globale per il business e l'innovazione. Questo investimento è stato accompagnato da iniziative governative come la TechSkills Accelerator, che ha formato più di 230.000 persone dal 2016, aumentando il bacino di talenti locali e attirando esperti internazionali grazie a programmi come ONE Pass e Tech@SG. Singapore ha inoltre stabilito il Centro per la Ricerca AI di Frontiera (CFAR) per sostenere la ricerca e sviluppo di tecnologie AI avanzate su scala nazionale. La Cina continentale, invece, ha adottato un approccio aggressivo all'adozione dell'AI, focalizzandosi su settori strategici come l'elettronica di consumo, la sorveglianza e i veicoli autonomi. La Cina guida il mondo per numero di brevetti legati all'AI e ha registrato oltre 150.000 brevetti negli ultimi anni, superando Stati Uniti ed Europa. Questo impegno è stato sostenuto anche da enormi investimenti governativi in infrastrutture tecnologiche, come l'istituzione di centri di supercalcolo di classe mondiale e il miglioramento delle reti di telecomunicazioni. La Cina è anche leader nella pubblicazione di articoli accademici riguardanti l'AI, con una produzione che rappresenta il 27% di tutte le pubblicazioni globali in questo campo. Il Regno Unito è uno dei principali hub di AI in Europa, grazie a una combinazione di politiche favorevoli, accesso ai capitali e una forte rete di università di eccellenza come l'Università di Cambridge e l'Imperial College di Londra. Il Paese ha sviluppato una strategia nazionale che include il finanziamento di centri di eccellenza per l'AI, con l'obiettivo di espandere l'uso dell'AI in settori come la sanità e la finanza. Inoltre, il governo del Regno Unito ha destinato circa 1,2 miliardi di sterline per il supporto all'AI, concentrandosi anche sullo sviluppo di un quadro normativo per garantire l'uso sicuro ed etico della tecnologia. Il Canada si distingue per l'approccio inclusivo e sostenibile alla ricerca e all'adozione dell'AI. Con il programma Pan-Canadian AI Strategy, il Canada è stato uno dei primi Paesi a delineare un piano strategico nazionale per l'AI, investendo 125 milioni di dollari per supportare lo sviluppo e la ricerca nelle sue principali città tecnologiche: Toronto, Montreal e Vancouver. Questo ha portato alla creazione di un ecosistema di ricerca forte, con istituti leader come il Vector Institute e Mila che attraggono talenti da tutto il mondo. Il Canada ha anche puntato molto sull'etica e la trasparenza nell'uso dell'AI, contribuendo allo sviluppo di linee guida internazionali per l'adozione responsabile della tecnologia. L'analisi mostra che questi Paesi non solo stanno investendo significativamente in ricerca e sviluppo, ma stanno anche stabilendo codici di regolamentazione specifici per l'AI, come il "Model AI Governance Framework" di Singapore, che garantisce l'uso etico dell'AI. Tale approccio consente loro di mantenere una posizione di leadership, influenzando l'ecosistema globale dell'AI e stabilendo standard internazionali. AI Contenders e Practitioners Subito dopo i leader troviamo i "AI Contenders" e gli "AI Practitioners", due categorie che includono economie come Germania, Giappone, India, Malesia, Arabia Saudita e Indonesia. I "Contenders" si distinguono per un'alta prontezza ma una relativamente minore esposizione all'AI rispetto ai "Pioneers". Questo significa che, pur essendo pronti a adottare l'AI, non tutte le loro industrie sono ancora sufficientemente esposte ai benefici di questa tecnologia. La Germania è un esempio emblematico di "Steady Contender". Con una forte esposizione ai settori dei servizi finanziari e della produzione avanzata, la Germania ha beneficiato di una base industriale solida e di una strategia di innovazione tecnologica orientata al lungo termine. Il governo tedesco ha investito notevoli risorse per sviluppare hub tecnologici e ha facilitato la collaborazione tra università, aziende private e istituti di ricerca. La robusta infrastruttura di telecomunicazioni e l'accesso a tecnologie avanzate hanno consentito alla Germania di posizionarsi tra i principali attori tecnologici europei. Il Giappone, noto per la sua capacità di innovazione industriale, ha concentrato i suoi sforzi sull'applicazione dell'AI in settori come la robotica e la produzione manifatturiera. Il governo giapponese ha varato piani strategici per espandere l'uso dell'AI nella società, puntando a risolvere sfide come l'invecchiamento della popolazione. Investimenti significativi in infrastrutture digitali e la collaborazione tra settore pubblico e privato hanno contribuito alla crescita della competitività giapponese nel campo dell'AI. L'India si colloca invece tra i "Rising Contenders". Il governo indiano ha lanciato numerose iniziative focalizzate sull'AI, come la National AI Strategy, con lo scopo di integrare l'AI in settori chiave quali l'agricoltura e l'educazione. L'India sta investendo pesantemente nella formazione di una forza lavoro specializzata, con programmi di educazione e formazione per aumentare il numero di specialisti in AI. Inoltre, l'ecosistema di startup indiane, soprattutto in settori come fintech e agritech, è in rapida espansione, sostenuto da un accesso crescente al capitale di rischio. La Malesia rappresenta un caso interessante tra i Contenders, grazie al forte supporto governativo e alla sua National AI Roadmap. Questo piano strategico include investimenti in hub tecnologici e programmi universitari per formare professionisti nel settore AI. L'obiettivo del governo malese è raggiungere una competitività tecnologica paragonabile a quella delle economie ad alto reddito. Arabia Saudita e Indonesia sono anch'esse classificate come "Rising Contenders" e stanno compiendo significativi progressi nell'adozione dell'AI. L'Arabia Saudita, con la sua Vision 2030, mira a diventare un centro di eccellenza globale per l'AI in settori prioritari come l'energia, la sanità e l'istruzione. Questo percorso è sostenuto da ingenti investimenti in infrastrutture digitali e programmi di formazione. L'Indonesia, dal canto suo, sta concentrando gli sforzi sull'istruzione e sulla crescita economica a lungo termine, con la National AI Strategy che enfatizza l'educazione e l'adozione di tecnologie emergenti per migliorare la produttività.   L'esposizione settoriale. Dove l'AI sta avendo il maggior impatto Il report analizza anche il livello di esposizione delle diverse economie all'AI in base ai settori economici. Sei settori risultano essere maggiormente esposti ai cambiamenti indotti dall'AI: informazione e comunicazione, beni tecnologici avanzati, servizi finanziari, vendita al dettaglio, servizi pubblici e la produzione di veicoli a motore. Questo è dovuto alla capacità dell'AI di automatizzare compiti e ottimizzare processi, trasformando profondamente il modo di lavorare in questi settori. In particolare, le economie con settori ICT forti tendono a crescere in termini di PIL grazie alla capacità di produrre tecnologie AI che possono essere utilizzate in altri settori. In settori come l'informazione e la comunicazione, l'AI è in grado di aumentare la produttività grazie all'automazione di attività ripetitive e all'ottimizzazione delle comunicazioni aziendali. Secondo il Boston Consulting Group, l'efficienza può aumentare fino al 20% in queste aree grazie all'integrazione dell'AI. Inoltre, le tecnologie AI sono particolarmente importanti nella produzione di beni tecnologici avanzati, dove possono ridurre i costi di produzione e aumentare la precisione delle linee di assemblaggio, come dimostrato dagli esempi di settori come l'elettronica e i semiconduttori. Un altro settore chiave è quello dei servizi finanziari. L'adozione dell'AI consente una migliore gestione del rischio, processi decisionali più veloci e un'esperienza cliente più personalizzata. Ad esempio, molte banche stanno utilizzando algoritmi di machine learning per prevenire le frodi e analizzare in modo più accurato i profili di rischio dei clienti. Questo approccio ha permesso di ridurre i costi operativi e migliorare l'efficienza del servizio. Nella vendita al dettaglio, l'AI sta avendo un impatto significativo nella gestione delle scorte e nella previsione della domanda. L'uso di algoritmi predittivi aiuta i rivenditori a ottimizzare i loro inventari, riducendo i costi di stoccaggio e migliorando la disponibilità dei prodotti. Le applicazioni AI nei servizi pubblici, invece, migliorano l'efficienza energetica e facilitano la gestione delle risorse attraverso la previsione della domanda e l'ottimizzazione delle reti di distribuzione. La produzione di veicoli a motore è un altro settore dove l'AI sta trasformando radicalmente i processi. L'introduzione di sistemi AI per l'assemblaggio e il controllo qualità ha migliorato la precisione e la velocità della produzione, con un impatto diretto sui costi e sulla qualità dei veicoli prodotti. Inoltre, lo sviluppo di tecnologie per veicoli autonomi ha ulteriormente rafforzato il ruolo dell'AI in questo settore, creando nuove opportunità di crescita economica. D'altra parte, Paesi con una composizione settoriale più orientata all'agricoltura e alla costruzione, come India, Indonesia ed Etiopia, mostrano una minore esposizione alle potenziali interruzioni causate dall'AI. Tuttavia, l'utilizzo dell'AI può comunque portare benefici indiretti, migliorando l'efficienza del settore agricolo e modernizzando altri settori adiacenti come i trasporti. Ad esempio, l'uso di AI in agricoltura di precisione permette di ottimizzare la produzione tramite il monitoraggio delle condizioni climatiche e del suolo, riducendo l'impiego di risorse e aumentando i rendimenti agricoli. In generale, l'AI sta contribuendo a una differenziazione tra settori che adottano rapidamente la tecnologia e settori che rimangono indietro, creando un impatto disomogeneo sull'economia complessiva. Tuttavia, i settori che riescono a integrare efficacemente l'AI vedono un aumento significativo della produttività e della competitività, come evidenziato dal Boston Consulting Group, che stima un incremento del fatturato fino a 2,5 volte per le aziende che adottano l'AI rispetto a quelle che non lo fanno.   L'indice ASPIRE. Valutare la prontezza all'AI Per valutare la prontezza di ciascuna economia, la matrice utilizza l'indice ASPIRE, che si compone di sei dimensioni: Ambizione, Competenze (Skills), Politica e regolamentazione, Investimenti, Ricerca e innovazione, ed Ecosistema. Solo cinque economie su 73 hanno superato il 50% in tutte queste dimensioni, dimostrando un alto grado di maturità nell'adozione dell'AI. L'indice ASPIRE considera diverse metriche fondamentali per valutare la prontezza complessiva di un'economia verso l'adozione dell'AI. Tra queste metriche vi sono l'esistenza di una strategia nazionale per l'AI e la presenza di un'entità governativa specializzata per l'implementazione, che sono indicatori chiave dell'ambizione di un Paese. Inoltre, l'indice valuta la concentrazione di specialisti in AI attraverso indicatori come il numero di professionisti registrati su piattaforme come LinkedIn e il contributo pubblico su GitHub, evidenziando la capacità di un Paese di formare e trattenere talenti. Per quanto riguarda la regolamentazione, l'indice ASPIRE include misure della qualità delle politiche, dell'efficacia governativa e della gestione dei dati, così come l'allineamento dei valori democratici con lo sviluppo dell'AI. A livello di investimenti, l'indice tiene conto del valore delle startup in ambito AI, della capitalizzazione di mercato delle società tecnologiche, e della disponibilità di venture capital, elementi che indicano quanto un'economia sia in grado di sostenere finanziariamente l'adozione e la crescita dell'AI. La dimensione "Ricerca e innovazione" è rappresentata dal numero di pubblicazioni scientifiche sull'AI, dai brevetti registrati e dal numero di startup in campo AI, fattori che riflettono la capacità di un Paese di innovare e contribuire allo sviluppo globale della tecnologia. Il livello di maturità di un ecosistema digitale, invece, è misurato tramite indicatori come la qualità delle infrastrutture di telecomunicazioni, la velocità di download media, e la spesa per il cloud pubblico per ogni dipendente, aspetti che influenzano direttamente la capacità di implementare tecnologie AI su larga scala. Gli Stati Uniti e Singapore sono leader per la dimensione delle competenze, con pool di talenti molto sviluppati. In particolare, gli Stati Uniti sono leader negli investimenti, grazie a mercati di capitali sofisticati e alla presenza di numerosi unicorni nel campo dell'AI. La Cina continentale si distingue invece nella ricerca e sviluppo, essendo leader sia per i brevetti registrati che per il numero di pubblicazioni accademiche sull'AI. Paesi come Giappone e Germania mostrano buone performance nel campo delle infrastrutture e dell'ecosistema digitale, ma spesso mancano di adeguati livelli di investimento in ricerca e sviluppo, che potrebbero limitare la loro competitività a lungo termine. La realtà globale dell'adozione dell'AI mostra chiaramente delle disparità significative. Più del 70% delle economie analizzate hanno ottenuto un punteggio inferiore alla metà nelle dimensioni di partecipazione all'ecosistema, competenze e R&D. Questo indica che molti Paesi devono ancora lavorare significativamente per raggiungere una prontezza soddisfacente nell'adozione dell'AI. È fondamentale che i governi e il settore privato collaborino per migliorare le infrastrutture e promuovere politiche che favoriscano l'educazione e l'innovazione tecnologica. L'indice ASPIRE non solo funge da misura del livello attuale di maturità dell'AI, ma fornisce anche una guida pratica per identificare le aree prioritarie su cui intervenire per accelerare l'adozione dell'AI in modo equilibrato e sostenibile.   Italia. Un caso di potenziale e sfide L'Italia si colloca tra gli "AI Practitioners", con un livello di esposizione e prontezza moderato. Il Paese ha iniziato a intraprendere passi significativi verso l'adozione dell'AI, ma ci sono ancora diversi ostacoli da superare per raggiungere il livello dei leader globali. Uno degli aspetti cruciali che caratterizzano la situazione italiana è la mancanza di un'infrastruttura tecnologica adeguata. In particolare, la disponibilità di centri di supercalcolo e di data center avanzati è inferiore rispetto a molte altre economie europee. Questo limite tecnologico incide sulla capacità del Paese di supportare l'espansione di progetti AI su larga scala e riduce l'attrattività per investimenti esteri in settori ad alta tecnologia. Il numero di data center in Italia è significativamente inferiore alla media europea, limitando la capacità di immagazzinamento e di elaborazione dei dati, un aspetto essenziale per l'implementazione di soluzioni AI complesse. Nel settore manifatturiero, che è uno dei pilastri dell'economia italiana, l'adozione dell'AI può portare a miglioramenti significativi in termini di efficienza e automazione. Tuttavia, solo una frazione delle aziende ha iniziato a adottare queste tecnologie in modo esteso. Il report indica che circa il 30% delle aziende manifatturiere italiane ha implementato soluzioni di automazione avanzata, rispetto a una media del 50% osservata nei principali Paesi europei come Germania e Francia. L'automazione dei processi produttivi e l'introduzione di tecnologie AI per la manutenzione predittiva sono due aree di particolare interesse, ma richiedono investimenti mirati e un'azione coordinata da parte del governo e del settore privato per essere effettivamente implementati. Per quanto riguarda l'agricoltura, il potenziale per l'adozione di tecnologie AI è elevato, soprattutto nell'agricoltura di precisione, che potrebbe migliorare significativamente l'efficienza nell'uso delle risorse naturali. Tuttavia, l'adozione su larga scala di tali tecnologie è ostacolata dalla frammentazione del settore agricolo e dalla mancanza di accesso a finanziamenti dedicati. Secondo i dati del report, meno del 20% delle aziende agricole italiane ha accesso alle tecnologie avanzate necessarie per l'agricoltura di precisione, mentre Paesi come la Spagna e i Paesi Bassi superano il 35%. L'implementazione di programmi di formazione specializzata e di finanziamenti agevolati potrebbe aiutare a superare questi ostacoli e a facilitare la transizione verso un'agricoltura più moderna e sostenibile. Un altro elemento fondamentale per migliorare la posizione dell'Italia nell'ecosistema AI riguarda lo sviluppo delle competenze. Attualmente, il numero di specialisti in AI per ogni milione di abitanti è molto inferiore rispetto alla media europea. Solo 15 specialisti ogni milione di abitanti sono dedicati all'AI, contro una media europea di 40. La creazione di poli tecnologici regionali e l'incentivazione di percorsi universitari e post-universitari specificamente incentrati sull'AI sono cruciali per colmare questo divario. Inoltre, l'integrazione di corsi di formazione sull'AI nei curricula delle scuole superiori e la collaborazione tra università e aziende potrebbero contribuire significativamente ad ampliare il bacino di competenze disponibili. Gli investimenti in ricerca e sviluppo (R&D) rappresentano un altro punto critico per l'Italia. Attualmente, l'Italia investe meno dell'1,5% del PIL in R&D, un valore ben inferiore rispetto alla media europea del 2,5% e lontano dai livelli dei leader come Germania e Francia, che investono oltre il 3%. Questo basso livello di investimenti si traduce in una minore capacità di innovare e di sviluppare tecnologie avanzate. Il report suggerisce che per migliorare la competitività, l'Italia dovrebbe aumentare i fondi destinati alla ricerca e incoraggiare maggiori collaborazioni tra settore pubblico e privato, in particolare nelle aree di applicazione dell'AI, come la sanità, la mobilità e l'energia. L'ecosistema delle startup tecnologiche in Italia è ancora debole rispetto ad altre economie avanzate. Il numero di startup nel settore AI rimane basso, con meno di 200 startup attive rispetto alle oltre 500 presenti in economie comparabili come la Spagna. Le ragioni di questo ritardo includono una scarsa disponibilità di venture capital e una percezione di rischio elevato associato agli investimenti in tecnologie emergenti. Per affrontare questo problema, sarebbero necessari incentivi fiscali più aggressivi e programmi di accelerazione dedicati, capaci di attrarre investimenti nazionali e internazionali e di creare un ambiente favorevole alla nascita e alla crescita di nuove imprese nel settore AI. In sintesi, l'Italia ha il potenziale per migliorare la propria posizione nell'ambito dell'AI, ma necessita di un impegno strutturale e di una visione a lungo termine che coinvolga sia il settore pubblico che quello privato. La collaborazione tra università, industrie e governo sarà fondamentale per accelerare il progresso e raggiungere una maggiore maturità nell'adozione dell'AI. È necessario uno sforzo congiunto per sviluppare le infrastrutture tecnologiche, incrementare le competenze specialistiche e creare un ecosistema favorevole all'innovazione e all'imprenditorialità nel campo dell'intelligenza artificiale.   Prossimi passi strategici per i Paesi Il report propone un insieme di iniziative per ciascun archetipo per promuovere l'adozione dell'AI. Per gli "AI Emergents", le economie ancora agli inizi, viene consigliato di costruire strategie nazionali di AI e di investire in infrastrutture digitali di base. Questo include l'adozione di misure volte a sviluppare competenze digitali di base nella popolazione, come programmi di alfabetizzazione digitale e corsi di formazione incentrati sull'AI. È inoltre cruciale creare centri di ricerca e sviluppo in partnership con attori internazionali per migliorare l'accesso alle tecnologie avanzate. Per gli "AI Contenders" e gli "AI Practitioners", il focus dovrebbe essere sull'accelerazione dell'adozione dell'AI. Una raccomandazione fondamentale è quella di concentrare gli investimenti su progetti di ricerca applicata che possano generare risultati tangibili nel breve termine. Questi Paesi dovrebbero anche incentivare la collaborazione tra settori industriali per favorire la condivisione di best practices e l'implementazione di soluzioni AI nei settori più promettenti, come quello manifatturiero e finanziario. Potenziamenti infrastrutturali, come l'espansione della rete di data center e il miglioramento delle reti di telecomunicazioni, sono essenziali per sostenere una maggiore adozione dell'AI su scala nazionale. Gli "AI Pioneers" sono invece chiamati a svolgere un ruolo di leadership globale. Per ampliare ulteriormente il proprio vantaggio competitivo, questi Paesi devono promuovere politiche di regolamentazione flessibile che favoriscano l'innovazione, garantendo allo stesso tempo la sicurezza e l'etica nell'uso dell'AI. Inoltre, i Pioneers dovrebbero creare ambienti di test (sandbox) per lo sviluppo di tecnologie AI avanzate, coinvolgendo attori internazionali per condividere conoscenze e favorire l'armonizzazione degli standard globali. È anche importante investire nella formazione continua del personale, garantendo che le competenze nel settore dell'AI rimangano al passo con le evoluzioni tecnologiche. Un esempio di strategia a livello settoriale è quello dell'India, che mira a utilizzare l'AI per ottimizzare l'intera filiera agricola, migliorando i rendimenti e la logistica grazie all'uso di dati e tecnologie predittive. Analogamente, la Malesia sta promuovendo lo sviluppo di hub tecnologici specializzati e incentivi fiscali per attirare startup innovative, favorendo la creazione di un ecosistema solido per la crescita dell'AI. Per concludere, ogni archetipo di Paese ha una serie di passi specifici da intraprendere per avanzare nel proprio percorso di maturità nell'AI. Le strategie suggerite nel report del Boston Consulting Group mirano a fornire una guida pratica ai policymaker su come navigare nel panorama in evoluzione dell'intelligenza artificiale e sfruttare il suo potenziale per rafforzare le economie e migliorare il benessere sociale complessivo.   Conclusioni L'analisi del Boston Consulting Group evidenzia chiaramente come l'intelligenza artificiale stia diventando una variabile strategica per il vantaggio competitivo delle economie globali. Tuttavia,  il vero valore di questa matrice non risiede solo nella fotografia attuale, ma nelle implicazioni sistemiche che ne derivano per il futuro delle economie e delle imprese . La riflessione che emerge è che non basta investire nell'AI: occorre comprendere come questa tecnologia reimposta le regole del gioco economico, ridisegnando le priorità strategiche. Uno dei punti chiave è la  necessità di un'ecosistema collaborativo tra pubblico e privato . I leader globali come gli Stati Uniti e Singapore dimostrano che le politiche governative non sono semplicemente "abilitatori" tecnologici ma strumenti di co-creazione con il settore privato. Questo è un paradigma nuovo, dove gli investimenti pubblici in formazione, infrastrutture e regolamentazione sono progettati non solo per stimolare l'adozione, ma per favorire la nascita di interi ecosistemi economici.  Le aziende devono quindi considerare i governi come partner strategici, non solo come regolatori . Un altro aspetto cruciale è l’asimmetria tra i settori. I settori ad alta intensità di conoscenza e tecnologia, come l’ICT e i servizi finanziari, stanno già capitalizzando sui vantaggi dell’AI, mentre comparti tradizionali come agricoltura e costruzioni rimangono indietro. Tuttavia, questa polarizzazione può rappresentare un'opportunità.  Le aziende che operano nei settori tradizionali hanno ora una finestra unica per posizionarsi come pionieri locali dell'AI, trasformando il ritardo in un vantaggio strategico . È evidente che l'adozione dell’AI non è solo una questione tecnologica ma una scelta culturale e organizzativa, che richiede una leadership visionaria. La competizione si sta spostando verso l’ambito delle  competenze e della capacità di trattenere talenti qualificati . Paesi come Singapore e Canada, che combinano politiche migratorie strategiche e investimenti in formazione avanzata, mostrano che il capitale umano è il fulcro dell'innovazione. Per le imprese, ciò significa che investire nella formazione interna e nell'attrazione di talenti globali non è un costo, ma un imperativo competitivo. Infine, emerge una riflessione fondamentale sull’etica e la governance. I leader nell’AI stanno definendo gli standard internazionali non solo dal punto di vista tecnico, ma anche etico.  Le imprese che integrano fin dall’inizio principi etici nelle loro applicazioni AI non solo evitano rischi reputazionali, ma creano un vantaggio competitivo nel conquistare la fiducia dei consumatori e delle istituzioni . In un mondo sempre più interconnesso, la conformità alle normative globali e la trasparenza diventeranno elementi distintivi. In sintesi, l’AI non è più solo una tecnologia emergente ma un acceleratore che obbliga aziende e nazioni a ripensare i propri modelli di business e governance. Podcast: https://spotifycreators-web.app.link/e/0gpixd1Y1Ob Fonte: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai

  • Adozione dell'AI aziendale. Analisi del Cisco AI Readiness Index 2024

    L'intelligenza artificiale (AI) continua a essere il tema dominante nel mondo degli affari. Tuttavia, nonostante gli ingenti investimenti e l'entusiasmo iniziale, molte aziende non sono pronte come pensavano di essere per adottare e integrare appieno l'AI. Questo è quanto emerge dal Cisco AI Readiness Index 2024, un'indagine che valuta la prontezza delle organizzazioni ad adottare l'AI attraverso sei pilastri chiave: Strategia, Infrastruttura, Dati, Governance, Talento e Cultura. L'indagine coinvolge quasi 8.000 leader aziendali a livello globale e offre uno spaccato realistico delle sfide che le aziende devono affrontare. Panoramica dei risultati Il Cisco AI Readiness Index 2024 rivela una situazione complessa: meno di un'azienda su sette viene classificata come "Pacesetter" (leader nell'adozione dell'AI), in diminuzione rispetto all'anno precedente. Le aziende vengono suddivise in quattro livelli di prontezza: Pacesetters  (leader assoluti), Chasers  (moderatamente preparati), Followers  (con preparazione limitata) e Laggards (poco preparati). Le percentuali dei Pacesetters sono scese al 13%, mentre i Followers sono il gruppo più numeroso, rappresentando il 51% del totale. Un altro dato significativo riguarda i livelli di investimento. Circa il 50% delle aziende ha dichiarato di destinare tra il 10% e il 30% del proprio budget IT all'AI, evidenziando un forte impegno finanziario nonostante le sfide. Tuttavia, quasi il 50% dei rispondenti afferma di non aver visto i risultati attesi dagli investimenti in AI, segnalando che molti progetti non hanno prodotto miglioramenti tangibili in termini di efficienza o automazione. Inoltre, è emerso che solo il 38% delle aziende dispone di metriche chiaramente definite per misurare l'impatto delle iniziative AI, suggerendo che la mancanza di processi di valutazione adeguati possa contribuire alla percezione di risultati deludenti. Il 59% delle aziende intervistate ha affermato che ha un massimo di un anno per implementare la propria strategia di AI, altrimenti rischia di perdere il vantaggio competitivo. Questo dato sottolinea l'urgenza percepita di accelerare l'adozione dell'AI, nonostante le difficoltà incontrate. Anche il supporto del top management è in calo: solo il 66% dei consigli di amministrazione e il 75% dei team dirigenziali si dichiara favorevole, percentuali in diminuzione rispetto all'82% dello scorso anno. La pressione per adottare l'AI proviene principalmente dai livelli più alti, con il 50% delle aziende che cita il CEO e il suo team come principali promotori dell'adozione dell'AI.   Sei pilastri dell’adozione dell'AI aziendale 1. Strategia La strategia è il pilastro con il livello più alto di prontezza, con il 76% delle aziende classificate come Pacesetters o Chasers. Quasi tutte le organizzazioni (95%) dichiarano di avere una strategia per l'AI ben definita o in fase di sviluppo. La priorità principale per l'adozione dell'AI è la cybersecurity, con il 42% delle aziende che ha già implementato avanzati sistemi di protezione. Inoltre, il 27% delle aziende indica che l'AI rappresenta una priorità assoluta per l'allocazione del budget, senza variazioni significative rispetto allo scorso anno. La volontà di investire è una delle caratteristiche che distingue i Pacesetters dalle altre aziende. 2. Infrastruttura La prontezza dell'infrastruttura è diminuita leggermente rispetto allo scorso anno. Il 68% dei rispondenti afferma che la propria infrastruttura è solo moderatamente pronta per adottare tecnologie AI. Le sfide principali includono la mancanza di potenza di calcolo adeguata e la limitata scalabilità e flessibilità delle infrastrutture esistenti, con il 54% delle aziende che dichiara problemi in questo ambito. Inoltre, il 78% non ha fiducia nella disponibilità di risorse di calcolo sufficienti per supportare i carichi di lavoro AI. L'aumento della richiesta di unità di elaborazione grafica (GPU) è un altro aspetto rilevante, con il 79% delle aziende che richiede ulteriori GPU per sostenere i carichi di lavoro futuri. 3. Dati I dati sono fondamentali per il successo dell'AI, ma meno di un terzo (32%) delle organizzazioni si sente realmente pronta da questo punto di vista. Le principali difficoltà riguardano la frammentazione dei dati, la cui accessibilità è ancora problematica per l'82% delle aziende. Anche l'integrazione degli strumenti di analisi con le piattaforme AI rappresenta un ostacolo significativo, con il 73% delle aziende che segnala difficoltà in quest'area. Un ulteriore 64% ha dichiarato di avere margini di miglioramento nel tracciare l'origine dei dati, mentre l'80% delle aziende continua a riscontrare problemi nella preelaborazione e pulizia dei dati per i progetti AI. 4. Governance La prontezza nella governance è diminuita quest'anno, anche a causa dell'evoluzione del panorama normativo globale sull'AI. Solo il 35% delle organizzazioni afferma di avere una buona comprensione degli standard globali sulla privacy dei dati. Inoltre, solo il 29% dispone di controlli regolari per monitorare e correggere eventuali bias nei dati utilizzati dall'AI. La mancanza di competenze in materia di governance, legge ed etica è stata segnalata dal 51% delle organizzazioni come una delle principali barriere per migliorare la propria prontezza in ambito governance. 5. Talento La mancanza di talento è una delle principali barriere all'adozione dell'AI. Solo il 31% delle aziende dichiara di avere talenti con un alto livello di preparazione per l'AI. Per affrontare questa sfida, il 40% delle organizzazioni sta investendo nella formazione del personale esistente, mentre il 56% si affida a contratti con fornitori esterni per colmare le lacune. In aggiunta, il 45% delle aziende ha indicato la carenza di talenti con competenze adeguate come uno dei principali ostacoli. Inoltre, il 48% degli intervistati ha sottolineato che la crescente competizione per attrarre professionisti qualificati rappresenta un fattore che contribuisce all’aumento dei costi.   6. Cultura La cultura aziendale è forse il pilastro più complesso da affrontare. Solo il 9% delle aziende rientra nella categoria dei Pacesetters per quanto riguarda la prontezza culturale, mentre il numero dei Chasers è diminuito dal 40% al 31%. Le resistenze culturali sono evidenti, con il 30% delle aziende che segnala una resistenza all'adozione dell'AI da parte dei dipendenti. Inoltre, la ricettività dei consigli di amministrazione è diminuita dal 82% al 66%, indicando un calo significativo nell'entusiasmo verso l'adozione dell'AI ai livelli più alti. Anche il supporto dei team di leadership è sceso al 75%, segnalando una maggiore difficoltà nell'ottenere un impegno diffuso all'interno delle organizzazioni.   Sfide e raccomandazioni in Italia La situazione italiana presenta delle peculiarità rispetto al resto del panorama globale analizzato dal Cisco AI Readiness Index 2024. In Italia, il livello di prontezza delle aziende per l'adozione dell'AI appare ancora più disomogeneo, con una concentrazione significativa di organizzazioni che rientrano nella categoria dei "Followers" o "Laggards". Infatti, solo il 10% delle aziende italiane è classificato come "Pacesetter", ben al di sotto della media globale del 13%. Questo dato riflette una lenta progressione nell'adottare le tecnologie AI, complice anche la scarsa digitalizzazione e il ritardo nella modernizzazione infrastrutturale che caratterizza molte realtà italiane. Infatti, per quanto riguarda le infrastrutture, l'Italia registra una carenza ancora più marcata in termini di disponibilità di risorse di calcolo e scalabilità. Il 63% delle aziende italiane segnala difficoltà significative nel garantire la disponibilità di GPU e altre risorse di calcolo necessarie per supportare i carichi di lavoro AI, e il 70% afferma che la propria infrastruttura non è sufficientemente flessibile per adattarsi alle esigenze crescenti. Questo aspetto limita fortemente la capacità delle imprese di competere su scala internazionale, dove le infrastrutture pronte per l'AI sono considerate un requisito fondamentale per accelerare l'innovazione. In termini di talento, la mancanza di competenze specifiche è particolarmente acuta in Italia. Solo il 28% delle aziende italiane afferma di disporre di personale adeguatamente formato per l'adozione dell'AI, mentre il 47% si affida a fornitori esterni per colmare le lacune di competenze. Questo dato evidenzia una forte dipendenza da partner esterni, che potrebbe limitare la capacità di sviluppare internamente competenze strategiche e sostenibili nel lungo periodo. Per risolvere questa situazione, il 35% delle aziende italiane ha iniziato a investire in programmi di formazione e reskilling del personale, ma la portata di questi sforzi rimane ancora limitata rispetto alle reali necessità. La governance dell'AI in Italia risulta anch'essa debole, soprattutto in relazione alla conformità con le normative europee emergenti. Solo il 30% delle aziende italiane dichiara di avere una buona comprensione degli standard di privacy e sicurezza dei dati imposti dal GDPR e dalle normative più recenti come l'AI Act dell'Unione Europea. Questo dato mette le aziende italiane in una posizione di vulnerabilità nel garantire la conformità ai requisiti legali, con il rischio di incorrere in sanzioni o di non poter sfruttare appieno le opportunità offerte dall'AI a causa di vincoli normativi. Per affrontare queste sfide, le raccomandazioni per le aziende italiane includono un maggiore focus sull'aggiornamento infrastrutturale e sull'adozione di soluzioni cloud scalabili che possano offrire una capacità di calcolo adeguata senza necessità di ingenti investimenti iniziali. Inoltre, è fondamentale incentivare la collaborazione tra aziende, università e centri di ricerca per favorire lo sviluppo di competenze locali nell'ambito dell'AI, riducendo la dipendenza da fornitori esterni. Infine, una maggiore attenzione alla governance e alla conformità normativa può aiutare le imprese italiane a migliorare la propria prontezza, assicurando che l'adozione dell'AI avvenga in modo responsabile e in linea con gli standard europei. Promuovere una cultura dell'innovazione è un ulteriore passo cruciale per l'Italia. Molte aziende italiane mostrano ancora una certa resistenza culturale all'adozione dell'AI, spesso vista come una minaccia piuttosto che un'opportunità. Incentivare l'uso sperimentale dell'AI, fornendo supporto formativo e promuovendo storie di successo interne, potrebbe contribuire a ridurre queste resistenze e a creare un contesto più favorevole all'innovazione tecnologica. Conclusioni L'adozione dell'intelligenza artificiale (AI) nelle aziende italiane riflette un panorama in cui la complessità delle sfide si intreccia con l'urgenza di trasformazione. Dall'analisi del Cisco AI Readiness Index 2024 emerge chiaramente come molte organizzazioni si trovino in una fase di stallo, dove l'entusiasmo iniziale si è scontrato con la dura realtà della preparazione infrastrutturale, culturale e strategica.  Tuttavia, nonostante il ritardo digitale rispetto al panorama industrializzato mondiale, l’Italia dispone di un patrimonio unico: le competenze delle maestranze e dell’imprenditoria diffusa, soprattutto nelle microimprese e PMI, che rappresentano un'eccellenza competitiva a livello globale.  Questo elemento deve diventare il cuore di una strategia nazionale che trasformi l’avvento dell’AI in un’opportunità di digitalizzazione delle competenze distintive del Paese, creando un’AI capace di differenziare l’Italia nel contesto industriale e manifatturiero globale. In primo luogo, il dato che solo il 10% delle aziende italiane è classificato come "Pacesetter" evidenzia un problema di  visione strategica e investimento sistemico.  Questo non può essere letto unicamente come mancanza di risorse, ma piuttosto come una fragilità nella capacità di pensare a lungo termine in un contesto globale.  L'AI offre l'opportunità di valorizzare e amplificare le competenze artigianali e specialistiche tipiche dell’Italia, creando un ecosistema tecnologico che rifletta le eccellenze locali.  In quest’ottica, il modello italiano potrebbe emergere non come emulazione delle grandi economie digitali, ma come una reinterpretazione in chiave innovativa e distintiva. La governance dell'AI in Italia pone un problema di compliance con le normative europee, ma soprattutto di  gestione etica e responsabile delle tecnologie emergenti.  Solo il 30% delle aziende italiane dichiara di comprendere pienamente gli standard di privacy e sicurezza. Questo dato è più di una lacuna tecnica; è una mancata opportunità per le aziende di posizionarsi come leader in uno scenario normativo sempre più regolamentato.  Integrare le competenze giuridiche e culturali delle PMI italiane nell'AI governance potrebbe rappresentare un elemento distintivo e un vantaggio competitivo.  L’approccio etico e su misura, caratteristico del “made in Italy”, può diventare il marchio di qualità anche in ambito tecnologico. Un tema particolarmente delicato è quello del talento. La dipendenza da fornitori esterni e la scarsa disponibilità di competenze specifiche nel mercato italiano riflettono una crisi strutturale che richiede soluzioni innovative.  Non basta investire in formazione: è necessario digitalizzare e capitalizzare le capacità uniche delle maestranze italiane, adattandole ai paradigmi dell’AI.  Il modello italiano delle filiere produttive, basato su una profonda conoscenza specialistica e su una flessibilità operativa senza eguali, potrebbe essere amplificato dall’introduzione dell’AI, rendendo l'Italia un hub globale di innovazione industriale e artigianale. Anche il problema culturale, spesso attribuito a resistenze interne, deve essere ripensato.  La percezione dell’AI come minaccia deve essere ribaltata, comunicandola come un’opportunità per preservare e potenziare l’identità produttiva e culturale del Paese.  I leader aziendali devono agire non solo come promotori tecnologici, ma come custodi di una trasformazione che coniughi tradizione e innovazione. Un approccio che metta al centro le persone e il loro know-how potrebbe generare una cultura aziendale dove l’AI diventa strumento per elevare il valore umano. In sintesi, l’Italia può trasformare il ritardo digitale in un’opportunità unica, costruendo un modello di AI che non solo digitalizza ma esalta le competenze distintive delle sue imprese.  Non si tratta di rincorrere il modello dei giganti tecnologici, ma di creare una visione alternativa dove la tecnologia serve a valorizzare ciò che rende l’Italia unica.  Questo approccio potrebbe non solo colmare il divario con le economie più avanzate, ma posizionare l’Italia come punto di riferimento per un’AI che integra tradizione, innovazione e responsabilità. Podcast: https://spotifycreators-web.app.link/e/Vjpn7otP0Ob Fonte:   https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html

  • Corporate AI. Analysis of the Cisco AI Readiness Index 2024

    Artificial Intelligence (AI) continues to dominate the business world. However, despite significant investments and initial enthusiasm, many companies are not as prepared as they thought to adopt and fully integrate AI. This is the main finding of the Cisco AI Readiness Index 2024, a survey that evaluates the readiness of organizations to adopt AI across six key pillars: Strategy, Infrastructure, Data, Governance, Talent, and Culture. The survey involves nearly 8,000 business leaders globally and provides a realistic picture of the challenges companies face. Overview of the Results The Cisco AI Readiness Index 2024 reveals a complex situation: fewer than one in seven companies are classified as "Pacesetters" (leaders in AI adoption), a decrease compared to the previous year. Companies are divided into four readiness levels: Pacesetters (absolute leaders), Chasers (moderately prepared), Followers (with limited preparation), and Laggards (poorly prepared). The percentage of Pacesetters has fallen to 13%, while Followers are the largest group, representing 51% of the total. Another significant finding concerns investment levels. About 50% of companies reported allocating between 10% and 30% of their IT budget to AI, highlighting a strong financial commitment despite the challenges. However, almost 50% of respondents say they have not seen the expected results from their AI investments, indicating that many projects have not delivered tangible improvements in efficiency or automation. Moreover, it emerged that only 38% of companies have clearly defined metrics to measure the impact of AI initiatives, suggesting that a lack of adequate evaluation processes may contribute to the perception of disappointing results. About 59% of the companies interviewed stated that they have a maximum of one year to implement their AI strategy, or they risk losing their competitive advantage. This figure underscores the perceived urgency to accelerate AI adoption, despite the difficulties encountered. Support from top management is also declining: only 66% of boards and 75% of executive teams express support, down from 82% last year. The pressure to adopt AI mainly comes from the highest levels, with 50% of companies citing the CEO and their team as the main promoters of AI adoption. Six Pillars of Corporate AI Adoption 1. Strategy Strategy is the pillar with the highest level of readiness, with 76% of companies classified as Pacesetters or Chasers. Nearly all organizations (95%) claim to have a well-defined or developing AI strategy. The top priority for AI adoption is cybersecurity, with 42% of companies already implementing advanced protection systems. Additionally, 27% of companies indicate that AI is an absolute priority for budget allocation, with no significant variation from last year. The willingness to invest is one of the characteristics that distinguishes Pacesetters from other companies. 2. Infrastructure Infrastructure readiness has slightly decreased compared to last year. About 68% of respondents say their infrastructure is only moderately ready to adopt AI technologies. The main challenges include a lack of adequate computing power and limited scalability and flexibility of existing infrastructures, with 54% of companies reporting issues in this area. Furthermore, 78% lack confidence in the availability of sufficient computing resources to support AI workloads. The growing demand for Graphics Processing Units (GPUs) is another relevant aspect, with 79% of companies requiring additional GPUs to support future workloads. 3. Data Data is fundamental to AI success, but fewer than one-third (32%) of organizations feel truly ready in this regard. The main difficulties concern data fragmentation, with access still being problematic for 82% of companies. The integration of analytics tools with AI platforms is also a significant obstacle, with 73% of companies reporting difficulties in this area. An additional 64% stated that there is room for improvement in tracing data origins, while 80% of companies continue to face issues in data preprocessing and cleaning for AI projects. 4. Governance Governance readiness has decreased this year, partly due to the evolving global regulatory landscape on AI. Only 35% of organizations claim to have a good understanding of global data privacy standards. Furthermore, only 29% have regular controls in place to monitor and correct biases in the data used by AI. A lack of expertise in governance, law, and ethics has been reported by 51% of organizations as one of the main barriers to improving their governance readiness. 5. Talent The lack of talent is one of the main barriers to AI adoption. Only 31% of companies report having talent with a high level of AI preparedness. To address this challenge, 40% of organizations are investing in training existing staff, while 56% rely on contracts with external suppliers to fill the gaps. Additionally, 45% of companies indicated that the lack of adequately skilled talent is one of the main obstacles. Furthermore, 48% of respondents emphasized that the growing competition to attract qualified professionals is contributing to increased costs. 6. Culture Corporate culture is perhaps the most complex pillar to tackle. Only 9% of companies fall into the Pacesetters category regarding cultural readiness, while the number of Chasers has dropped from 40% to 31%. Cultural resistance is evident, with 30% of companies reporting resistance to AI adoption by employees. Furthermore, the receptiveness of boards has dropped from 82% to 66%, indicating a significant decline in enthusiasm for AI adoption at the highest levels. Support from leadership teams has also dropped to 75%, signaling increased difficulty in gaining widespread commitment within organizations. Challenges and Recommendations in Italy The Italian situation presents some peculiarities compared to the rest of the global landscape analyzed by the Cisco AI Readiness Index 2024. In Italy, the level of readiness of companies for AI adoption appears even more uneven, with a significant concentration of organizations falling into the "Followers" or "Laggards" category. Indeed, only 10% of Italian companies are classified as "Pacesetters," well below the global average of 13%. This figure reflects slow progress in adopting AI technologies, partly due to poor digitalization and delayed infrastructure modernization that characterize many Italian companies. Regarding infrastructure, Italy shows an even more marked shortage in terms of computing resources and scalability. About 63% of Italian companies report significant difficulties in ensuring the availability of GPUs and other computing resources needed to support AI workloads, and 70% say that their infrastructure is not flexible enough to adapt to growing needs. This aspect significantly limits the ability of Italian businesses to compete internationally, where AI-ready infrastructure is considered a fundamental requirement to accelerate innovation. In terms of talent, the lack of specific skills is particularly acute in Italy. Only 28% of Italian companies say they have adequately trained personnel for AI adoption, while 47% rely on external providers to fill skill gaps. This figure highlights a strong dependence on external partners, which could limit the ability to develop internal, sustainable, strategic skills in the long term. To address this situation, 35% of Italian companies have started investing in training and reskilling programs for staff, but the scale of these efforts remains limited compared to actual needs. AI governance in Italy is also weak, especially regarding compliance with emerging European regulations. Only 30% of Italian companies claim to have a good understanding of data privacy and security standards imposed by the GDPR and more recent regulations such as the European Union's AI Act. This puts Italian companies in a vulnerable position regarding ensuring compliance with legal requirements, with the risk of incurring sanctions or not being able to fully exploit the opportunities offered by AI due to regulatory constraints. To address these challenges, recommendations for Italian companies include a greater focus on infrastructure upgrades and adopting scalable cloud solutions that can provide adequate computing capacity without requiring significant initial investments. Additionally, it is crucial to encourage collaboration between companies, universities, and research centers to foster the development of local AI skills, reducing reliance on external suppliers. Finally, increased attention to governance and regulatory compliance can help Italian companies improve their readiness, ensuring that AI adoption occurs responsibly and in line with European standards. Promoting an innovation culture is another crucial step for Italy. Many Italian companies still show some cultural resistance to AI adoption, often seen as a threat rather than an opportunity. Encouraging experimental use of AI, providing training support, and promoting internal success stories could help reduce these resistances and create a more favorable environment for technological innovation. Conclusions AI adoption in Italian companies reflects a landscape where the complexity of challenges intertwines with the urgency of transformation. The Cisco AI Readiness Index 2024 clearly shows how many organizations find themselves in a phase of stagnation, where initial enthusiasm has clashed with the harsh reality of infrastructural, cultural, and strategic preparedness. However, despite the digital lag compared to the industrialized world, Italy has a unique asset: the skills of its workforce and widespread entrepreneurship, particularly in micro-enterprises and SMEs, which represent a globally competitive excellence. This element must become the core of a national strategy that transforms the advent of AI into an opportunity to digitize the country's distinctive skills, creating AI capable of differentiating Italy in the global industrial and manufacturing landscape. First of all, the fact that only 10% of Italian companies are classified as "Pacesetters" highlights a problem of strategic vision and systemic investment. This cannot be seen merely as a lack of resources but rather as a weakness in long-term thinking in a global context. AI offers the opportunity to enhance and amplify Italy's artisanal and specialized skills, creating a technological ecosystem that reflects local excellences. In this context, the Italian model could emerge not as an emulation of large digital economies but as an innovative and distinctive reinterpretation. AI governance in Italy presents a problem of compliance with European regulations but, above all, of ethical and responsible management of emerging technologies. Only 30% of Italian companies claim to fully understand privacy and security standards. This figure is more than a technical gap; it is a missed opportunity for companies to position themselves as leaders in an increasingly regulated environment. Integrating legal and cultural expertise from Italian SMEs into AI governance could represent a distinctive element and a competitive advantage. The ethical and tailored approach, characteristic of "made in Italy," can become a mark of quality even in the technological field. A particularly delicate issue is talent. Dependence on external suppliers and the limited availability of specific skills in the Italian market reflect a structural crisis that requires innovative solutions. It is not enough to invest in training; it is necessary to digitize and capitalize on the unique capabilities of the Italian workforce, adapting them to AI paradigms. The Italian model of production chains, based on deep specialist knowledge and unparalleled operational flexibility, could be amplified by the introduction of AI, making Italy a global hub of industrial and artisanal innovation. The cultural problem, often attributed to internal resistance, must also be reconsidered. The perception of AI as a threat must be reversed, communicating it as an opportunity to preserve and enhance the country's productive and cultural identity. Business leaders must act not only as technological promoters but as guardians of a transformation that combines tradition and innovation. An approach that places people and their know-how at the center could generate a corporate culture where AI becomes a tool to elevate human value. In conclusion, Italy can transform its digital lag into a unique opportunity, building an AI model that not only digitizes but also enhances the distinctive competencies of its companies. This is not about chasing the model of technological giants but about creating an alternative vision where technology serves to enhance what makes Italy unique. This approach could not only bridge the gap with more advanced economies but position Italy as a reference point for AI that integrates tradition, innovation, and responsibility. Podcast: https://spotifycreators-web.app.link/e/LILYOqtP0Ob Source: https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html

  • University Exams and AI

    The recent rise of artificial intelligence systems, such as ChatGPT, presents a fundamental challenge for the education sector. The case study we analyze explores the infiltration of artificial intelligence in university examination systems, testing universities' ability to detect the use of AI tools to complete academic assessments. The research was conducted by Peter Scarfe, Kelly Watcham, Alasdair Clarke, and Etienne Roesch at the University of Reading, United Kingdom, and was published in the journal PLOS ONE on June 26, 2024. Objective and Methodology The primary objective of the study was to evaluate the ability of a university to detect exam responses generated by an AI system (specifically GPT-4) and the effect of these responses on the grading system. The methodology involved injecting AI-generated responses into five modules spread across all years of a BSc Psychology course at the University of Reading. For each module, approximately 5% of the total responses were produced by AI, a manageable number that did not overwhelm the evaluators and ensured uniform coverage. Two types of exams were used: Short Answer Questions (SAQ) and Essay-Based Questions. The SAQ exams involved answering four out of six questions, within a 2.5-hour time frame. For the Essay exams, students had to respond to a single question with an essay, completed within an 8-hour time limit. All exams were conducted at home, with access to study materials, academic articles, and the internet, which increased the risk of undetected use of AI tools. To ensure variety in the AI responses, standardized prompts were used for each type of question. However, it was found that the GPT-4 model tended to produce a word count not always in line with the required limit: 160 words for SAQ were often exceeded, while 2000 words for Essays were sometimes insufficient, requiring the use of the prompt "Please continue your answer" to generate more complete texts. In some cases, despite the prompt, the AI generated reference sections that were subsequently removed for consistency with the required response format. An interesting aspect of the experiment's design was the use of university student aliases created specifically for the submission of AI responses, which allowed for anonymity and ensured that the responses were treated like any other real response by the existing submission and evaluation tools. The AI responses were submitted at the end of the submission period for each exam, faithfully replicating the expected behavior of students. University Exams and AI: Main Findings The study's findings highlighted some particularly interesting trends. In addition to the fact that 94% of the AI-generated responses were not detected as suspicious, it was found that AI responses tended to score higher than the average of real students in four of the five modules. This effect was quantified through various measures, offering deeper insight into the results obtained: • Grade Distribution : The AI-generated responses showed a concentration in the higher score range. In particular, the grades obtained by AI responses were often placed between the 2:1 and first-class levels. In the grade distribution charts, the AI responses were concentrated in the upper range compared to real student responses, with averages falling within higher classifications. • Median Analysis : In four of the five modules, the medians of the AI responses were within the 2:1 and first-class range (considered excellent in the British grading system). Only in module P3-M1 did the AI score lower than real students, indicating difficulty in dealing with more advanced and abstract content. • Score Advantage : In terms of grade advantage, the average margin of the AI responses was about half a classification above the grades of real students, with extreme differences in some cases reaching almost an entire classification level. In module P1-M2, for instance, AI consistently scored in the first-class range, significantly outperforming real students. • Pass Probability : Through repeated random sampling analysis conducted 100,000 times, it emerged that there was an 83.4% probability that a random sample of AI responses would outperform a random sample of real student responses. In lower-level modules, such as P1-M1 and P1-M2, this probability was nearly 100%. Only in the more advanced module, P3-M1, did AI have a 19% chance of outperforming student responses. • Pass Rate Analysis : Overall, only 16% of student responses scored higher than the median of AI responses, confirming the superior overall performance of AI-generated answers. These results suggest that AI not only managed to pass undetected in terms of detectability but also produced significantly higher quality content compared to students in various settings. However, AI showed limitations in tasks requiring more abstract reasoning, as evidenced in module P3-M1. The Challenge of Detecting AI in Academic Assessments The analysis of the data collected during the study highlighted a low ability to detect AI-generated responses by the evaluators and the systems currently in use. Only 6% of the responses were flagged for suspicions of academic misconduct, without any explicit reference to the use of artificial intelligence. When the detection criterion was narrowed to cases where AI was specifically mentioned, the detection percentage further dropped to 3%. This highlights a significant difficulty in identifying AI-generated content, despite the efforts of evaluators. A more detailed analysis revealed that the ability to detect AI was particularly ineffective in Essay-Based questions, where none of the AI-generated responses were identified as suspicious. This could be attributed to GPT-4's ability to generate articulate and coherent responses, which closely resemble the writing style of real students, making it extremely difficult to differentiate between human and AI-generated content. In contrast, for Short Answer Questions (SAQ), where no similarity-checking software was used, some flags were raised. However, even in these cases, the detection rate remained extremely low. Interestingly, markers (the evaluators assigned to assign grades) flagged only those responses that had particularly anomalous characteristics, such as stylistic quality that was too high for a university exam. In these cases, some markers even attempted to verify the response through AI detection systems, but with poor results. According to the study, most markers lacked sufficient tools and guidelines to identify AI use, and even software designed to detect text generation by language models proved inadequate. For instance, detection systems used, including solutions specifically developed for GPT-4, had a detection success rate of less than 26%, rendering their efforts to counter unauthorized use of AI in assessments practically useless. These findings suggest a strong need to develop new methods for assessing academic integrity and to enhance markers' training in recognizing signs of AI usage, considering the high probability of false negatives. The analysis of detection rates and obtained grades clearly showed that AI responses were not only practically indistinguishable but also consistently scored better than those of real students, placing themselves in a dangerous position for academic integrity. The adoption of remote proctoring tools and the integration of new pedagogical approaches seem to be the most concrete options for addressing the issue in the future. Implications for Academic Integrity This study raises serious concerns about academic integrity and the ability of higher education institutions to deal with the use of AI. With such a high percentage of AI responses going undetected and even managing to achieve higher grades than real students, there is a real risk that students might use AI to gain undeserved academic advantages. The undetected use of AI raises the risk of a profound distortion of the value of academic qualifications. If AI is systematically outperforming human students and its responses go undetected, there is a danger that grades no longer reflect individual students' competencies, but rather their ability to use technological tools to enhance their performance. This undermines the reliability of the education system as an indicator of merit and acquired knowledge. In addition, the phenomenon of AI "hallucination," where it produces false but seemingly credible information, adds another layer of complexity. However, the fact that such errors were not evident enough to alert evaluators underscores how difficult it is for teachers to distinguish between authentic and automatically generated responses. This issue becomes even more critical considering that even the most advanced tools for AI detection have proven ineffective. Another important aspect is the growing phenomenon of unsupervised exams, a practice accelerated by the COVID-19 pandemic. This exam format offers students a much greater opportunity to use AI tools to complete their assignments. The research showed how home exams, without supervision, are particularly vulnerable to this type of abuse. Since grades assigned to AI-generated assignments were often higher than the average student scores, it is likely that an increasing number of students could be incentivized to use AI to improve their academic performance. The inclusion of AI technology in academic education may be inevitable, but it is necessary for clear norms to be established on how and when it is permissible to use it. A possible response could be to revise assessment methods, integrating approaches that are more challenging to tackle using AI. For example, practical assignments, oral assessments, or supervised group projects could reduce the impact of unauthorized use of technological tools. Additionally, it might be helpful to teach students how to use AI ethically and responsibly, preparing a generation of graduates who can leverage these technologies without resorting to academic misconduct. Conclusions The integration of artificial intelligence in university examination systems represents a crucial turning point for the education sector, highlighting deep vulnerabilities in traditional assessment methods and raising fundamental questions about academic integrity and the future of education. The analyzed study reveals an uncomfortable reality: AI is not only difficult to detect but often outperforms student responses, demonstrating that current evaluation criteria may favor content generated by algorithms rather than by human understanding. This underscores a paradox: academic success may depend less on individual capability and more on technological competence, undermining the meritocratic principle underlying higher education. University exams and AI open up scenarios of great strategic relevance, characterized by considerable complexity and a wide range of implications. First, a systemic challenge emerges: if AI can produce undetectable and high-quality responses, this forces institutions to reconsider not only detection methods but also the very concept of competence assessment. The ability to memorize information or write a well-structured essay may no longer be the benchmark for measuring learning. It becomes essential to redefine educational goals, focusing on skills that AI cannot easily replicate, such as critical thinking, creativity, and the ability to integrate interdisciplinary knowledge. This shift requires a transition from a reactive evaluation model to a proactive one. Universities must develop approaches that not only detect AI usage but consider AI itself as a teaching tool to be ethically integrated. For example, rather than banning the use of AI, students could be evaluated on their ability to collaborate with it effectively, transparently, and innovatively. Such an approach would not only reduce the risk of abuse but also prepare students for a job market where AI is increasingly pervasive. Another crucial element is the urgency of creating a resilient educational ecosystem. The pandemic has accelerated the adoption of unsupervised exams, but this format has proven particularly vulnerable to AI abuse. Institutions must balance the need for flexibility with the requirement to ensure the integrity of results. Solutions like remote proctoring, while useful, risk compromising trust between students and universities if perceived as intrusive. Therefore, it is essential to develop less intrusive but more effective technological tools and invest in a culture of transparency and ethics. Finally, the implications extend beyond education, affecting the job market and society at large. If academic qualifications lose credibility, there is a risk of a crisis of trust in academic institutions, with direct consequences on the employability of graduates. Companies, for their part, will need to adapt their selection processes to distinguish between real skills and abilities derived from AI usage. This requires greater collaboration between universities and employers to define assessment standards that reflect candidates' real capabilities. In summary, the advent of AI in university examination systems represents not only a technological challenge but also a unique opportunity to rethink education and its role in society. The future of learning will not be determined by the ability to avoid AI but by the ability to coexist with it, leveraging it as a catalyst for more authentic, inclusive, and real-world-oriented education. Podcast: https://spotifycreators-web.app.link/e/kRyJzuPp0Ob Source: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354

  • Esami universitari e AI

    L'ascesa recente dei sistemi di intelligenza artificiale, come ChatGPT, rappresenta una sfida fondamentale per il settore educativo. Il caso studio che analizziamo ha esplorato l'infiltrazione dell'intelligenza artificiale nei sistemi di esame universitari, mettendo alla prova la capacità delle università di rilevare l'utilizzo di strumenti di AI per completare valutazioni accademiche. La ricerca è stata condotta da Peter Scarfe, Kelly Watcham, Alasdair Clarke ed Etienne Roesch presso l'Università di Reading, nel Regno Unito, ed è stata pubblicata sulla rivista PLOS ONE  il 26 giugno 2024. Obiettivo e metodologia L'obiettivo principale dello studio è stato valutare la capacità di un'università di rilevare risposte d'esame generate da un sistema di AI (nello specifico GPT-4) e l'effetto di queste risposte sul sistema di valutazione. La metodologia ha previsto l'iniezione di risposte generate dall'AI in cinque moduli, distribuiti su tutti gli anni di studio di un corso di laurea BSc in Psicologia presso l'Università di Reading. Per ogni modulo, circa il 5% del totale delle risposte  è stato prodotto dall'AI, un numero gestibile che permetteva di non sovraccaricare i valutatori e garantiva una copertura uniforme. Sono stati utilizzati due tipi di esami: Short Answer Questions (SAQ)  ed Essay Based Questions . Gli esami SAQ consistevano nella risposta a quattro domande a scelta su sei, con una finestra di tempo di 2,5 ore . Per gli esami di tipo Essay, gli studenti dovevano rispondere a una singola domanda con un saggio, da completare in un limite di tempo di 8 ore . Tutti gli esami erano svolti a casa, con accesso a materiali di studio, articoli accademici e internet, il che aumentava il rischio di utilizzo non rilevato di strumenti di AI. Per garantire la varietà delle risposte AI, sono stati utilizzati prompt standardizzati per ogni tipo di domanda. Tuttavia, è emerso che il modello GPT-4 tendeva a produrre un numero di parole non sempre in linea con il limite richiesto: 160 parole  per SAQ risultavano spesso eccedenti, mentre 2000 parole  per gli Essay erano a volte insufficienti, richiedendo l'utilizzo del prompt "Per favore continua la tua risposta" per generare testi più completi. In alcuni casi, nonostante il prompt, l'AI generava sezioni di riferimento che sono state successivamente rimosse per coerenza con il formato di risposta richiesto. Un aspetto interessante del design dell'esperimento è stato l'uso di alias di studenti universitari creati appositamente per la sottomissione delle risposte AI, che hanno consentito di mantenere l'anonimato e garantire che le risposte venissero trattate come qualunque altra risposta reale dagli strumenti di sottomissione e valutazione esistenti. Le risposte AI sono state inviate alla fine del periodo di sottomissione per ogni esame, replicando fedelmente il comportamento atteso dagli studenti. Esami universitari e AI: risultati principali I risultati dello studio hanno evidenziato alcune tendenze particolarmente interessanti. Oltre al fatto che il 94% delle risposte generate dall'AI  non è stato rilevato come sospetto, è stato rilevato che le risposte dell'AI tendevano a ottenere punteggi superiori alla media degli studenti reali in quattro dei cinque moduli. Questo effetto è stato quantificato attraverso diverse misure, che offrono una visione più approfondita dei risultati ottenuti: Distribuzione dei voti : Le risposte generate dall'AI hanno mostrato una concentrazione nella fascia alta dei punteggi. In particolare, i voti ottenuti dalle risposte dell'AI erano spesso collocati tra il 2:1 e il primo livello . Nei grafici di distribuzione dei voti, le risposte dell'AI sono risultate concentrate nella fascia superiore rispetto alle risposte degli studenti reali, con medie situate nelle classificazioni più alte. Analisi delle mediane : In quattro dei cinque moduli, le mediane dei voti delle risposte dell'AI si trovavano nel range 2:1 e primo livello (considerati eccellenti nel sistema di classificazione britannico). Solo nel modulo P3-M1, l'AI ha ottenuto voti inferiori rispetto agli studenti reali, indicando una difficoltà nell'affrontare contenuti di livello più avanzato e astratto. Vantaggio di punteggio : In termini di vantaggio sui voti, il margine medio dei voti delle risposte dell'AI era superiore di circa mezza classe di classificazione  rispetto ai voti degli studenti reali, con differenze estreme che in alcuni casi hanno raggiunto quasi un'intera classe di classificazione. Nel modulo P1-M2 , ad esempio, l'AI ha ottenuto mediamente voti di prima classe, superando nettamente gli studenti reali. Probabilità di superamento : Attraverso un'analisi di campionamento casuale ripetuto 100.000 volte, è emerso che vi era una probabilità dell' 83,4% che un campione casuale di risposte dell'AI superasse un campione casuale di risposte di studenti reali. Nei moduli di livello più basso, come P1-M1 e P1-M2, tale probabilità era quasi del 100% . Solo nel modulo più avanzato, P3-M1, l'AI ha avuto una probabilità del 19%  di superare le risposte degli studenti. Analisi della percentuale di superamento : Complessivamente, solo il 16% delle risposte degli studenti ha ottenuto un punteggio superiore rispetto alla mediana delle risposte dell'AI, confermando la performance complessiva superiore delle risposte generate dall'AI. Questi risultati suggeriscono che l'AI non solo è riuscita a passare inosservata in termini di rilevabilità, ma è anche riuscita a produrre contenuti di qualità significativamente superiore rispetto agli studenti in diversi contesti. Tuttavia, l'AI ha mostrato limiti in compiti che richiedevano un ragionamento più astratto, come evidenziato nel modulo P3-M1.   La sfida del rilevamento dell'AI nelle valutazioni accademiche L'analisi dei dati raccolti durante lo studio ha evidenziato una bassa capacità di rilevamento delle risposte generate dall'AI da parte dei valutatori e dei sistemi attualmente in uso. Solo il 6%  delle risposte è stato segnalato per sospetti di cattiva condotta accademica, senza che vi fosse un riferimento esplicito all'uso di intelligenza artificiale. Quando il criterio di rilevamento è stato ristretto ai soli casi in cui l'AI veniva specificamente menzionata, la percentuale di rilevamento è ulteriormente scesa al 3% . Questo evidenzia una significativa difficoltà nell'individuare contenuti generati dall'AI, nonostante gli sforzi dei valutatori. Un'analisi più dettagliata ha rivelato che la capacità di rilevare l'AI era particolarmente inefficace nelle domande di tipo Essay Based , dove nessuna delle risposte generate dall'AI è stata identificata come sospetta. Questo potrebbe essere attribuito alla capacità del modello GPT-4 di generare risposte articolate e coerenti, che si avvicinano allo stile di scrittura degli studenti reali, rendendo estremamente difficile differenziare tra contenuti umani e generati. Al contrario, per le domande di tipo Short Answer Questions (SAQ) , in cui non erano utilizzati software di verifica della similitudine, si è verificata qualche segnalazione. Tuttavia, anche in questi casi, il tasso di rilevamento rimaneva estremamente basso. È interessante notare come i marker, ovvero i valutatori incaricati di assegnare i voti, abbiano segnalato come sospette solo le risposte che presentavano caratteristiche particolarmente anomale, come una qualità stilistica troppo elevata rispetto alle attese per un esame universitario. In questi casi, alcuni marker hanno persino provato a verificare la risposta tramite l'uso di sistemi di rilevamento dell'AI, ma con risultati poco efficaci. Secondo quanto emerso dallo studio, la maggior parte dei marker non aveva sufficienti strumenti e linee guida per identificare l'uso dell'AI, e persino i software progettati per rilevare la generazione di testi da parte di modelli di linguaggio risultavano insufficienti. Ad esempio, i sistemi di rilevamento utilizzati, tra cui anche soluzioni sviluppate appositamente per GPT-4, avevano un tasso di rilevamento di successo inferiore al 26% , rendendo di fatto inutili i loro sforzi per contrastare l'uso non autorizzato dell'AI nelle valutazioni. Questi risultati suggeriscono una forte necessità di sviluppare nuovi metodi di valutazione dell'integrità accademica e di potenziare la formazione dei marker nel riconoscere segnali di utilizzo dell'AI, considerando anche l'alta probabilità di falsi negativi. L'analisi delle percentuali di rilevamento e dei voti ottenuti ha mostrato chiaramente che le risposte dell'AI non solo erano praticamente indistinguibili, ma ottenevano anche voti migliori rispetto a quelle degli studenti reali, collocandosi in una posizione pericolosa per l'integrità accademica. L'adozione di strumenti di proctoring remoto e l'integrazione di nuovi approcci pedagogici sembrano essere le opzioni più concrete per contrastare il problema in futuro.   Implicazioni per l'integrità accademica Questo studio solleva seri dubbi sull'integrità accademica e sulla capacità degli istituti di istruzione superiore di affrontare l'uso dell'AI. Con una percentuale così elevata di risposte AI non rilevate e addirittura in grado di ottenere voti più alti rispetto agli studenti reali, c'è il rischio concreto che gli studenti possano utilizzare l'AI per ottenere vantaggi accademici non meritati. L'uso non rilevato dell'AI solleva il rischio di una profonda distorsione del valore dei titoli di studio. Se l'AI è in grado di superare sistematicamente gli studenti umani e le sue risposte non vengono rilevate, c'è il pericolo che i voti non riflettano più le competenze individuali degli studenti, ma piuttosto la loro abilità nell'utilizzare strumenti tecnologici per migliorare le proprie prestazioni. Questo compromette l'affidabilità del sistema educativo come indicatore di merito e conoscenza acquisita. In aggiunta, il fenomeno dell' AI che "allucina", ovvero che produce informazioni false ma apparentemente credibili, aggiunge un ulteriore livello di complessità. Tuttavia, il fatto che tali errori non siano stati abbastanza evidenti da allertare i valutatori sottolinea quanto sia arduo per gli insegnanti distinguere tra risposte autentiche e quelle generate automaticamente. Questo problema diventa ancora più critico considerando che anche gli strumenti più avanzati per la rilevazione dell'AI si sono dimostrati inefficaci. Un altro aspetto importante è il crescente fenomeno degli esami non supervisionati , una pratica accelerata dalla pandemia di COVID-19. Questo formato di esame offre agli studenti un'opportunità molto maggiore di sfruttare strumenti di AI per completare i loro compiti. La ricerca ha mostrato come gli esami a casa, senza vigilazione, siano particolarmente vulnerabili a questo tipo di abuso. Poiché i voti assegnati agli elaborati generati dall'AI erano spesso più alti rispetto alla media degli studenti, è probabile che un numero crescente di studenti potrebbe essere incentivato a utilizzare l'AI per migliorare le proprie prestazioni accademiche. L'inclusione della tecnologia AI nella formazione accademica potrebbe essere inevitabile, ma è necessario che vengano stabilite norme chiare su come e quando sia lecito farne uso. Una possibile risposta potrebbe essere quella di rivedere i metodi di valutazione, integrando modalità che siano più difficili da affrontare con l'uso dell'AI. Ad esempio, compiti pratici, valutazioni orali o progetti di gruppo supervisionati potrebbero ridurre l'impatto dell'uso non autorizzato di strumenti tecnologici. Inoltre, potrebbe essere utile insegnare agli studenti come utilizzare l'AI in modo etico e con consapevolezza, preparando una generazione di laureati che sappia sfruttare queste tecnologie senza cadere in comportamenti di cattiva condotta accademica.   Conclusioni L’integrazione dell’intelligenza artificiale nei sistemi di esame universitari rappresenta un punto di svolta cruciale per il settore educativo, evidenziando vulnerabilità profonde nei metodi di valutazione tradizionali e sollevando questioni fondamentali sull’integrità accademica e il futuro della formazione.  Lo studio analizzato mette in luce una realtà scomoda: l’AI non solo è difficile da rilevare, ma spesso supera in qualità le risposte degli studenti, dimostrando che i criteri di valutazione attuali possono favorire contenuti generati da algoritmi piuttosto che dalla comprensione umana. Questo dato sottolinea un paradosso: il successo accademico potrebbe dipendere sempre meno dalla capacità individuale e sempre più dalla competenza tecnologica, minando il principio meritocratico alla base dell’istruzione superiore. Gli esami universitari e l’AI aprono scenari di grande rilevanza strategica, caratterizzati da una notevole complessità e vastità di implicazioni. In primo luogo, emerge una sfida sistemica: se l’AI è in grado di produrre risposte non rilevabili e di alta qualità, ciò costringe le istituzioni a riconsiderare non solo i metodi di rilevazione, ma anche il concetto stesso di valutazione delle competenze. La capacità di memorizzare informazioni o di scrivere un saggio ben strutturato potrebbe non essere più il parametro di riferimento per misurare l’apprendimento. Diventa quindi essenziale ridefinire gli obiettivi educativi, puntando su competenze che l’AI non può replicare facilmente, come il pensiero critico, la creatività e la capacità di integrare conoscenze interdisciplinari. Questo cambiamento richiede una transizione da un modello valutativo reattivo a uno proattivo.  Le università devono sviluppare approcci che non si limitino a rilevare l’uso dell’AI, ma che considerino l’AI stessa come uno strumento didattico da integrare in modo etico. Ad esempio, anziché proibire l’uso dell’AI, gli studenti potrebbero essere valutati sulla loro capacità di collaborare con essa in modo efficace, trasparente e innovativo. Tale approccio non solo ridurrebbe il rischio di abuso, ma preparerebbe gli studenti a un mondo del lavoro dove l’AI è sempre più pervasiva. Un altro elemento cruciale è l’urgenza di creare un ecosistema educativo resiliente.  La pandemia ha accelerato l’adozione di esami non supervisionati, ma questo formato si è dimostrato particolarmente vulnerabile all’abuso dell’AI. Le istituzioni devono bilanciare la necessità di flessibilità con l’esigenza di garantire l’integrità dei risultati. Soluzioni come il proctoring remoto, pur utili, rischiano di compromettere la fiducia tra studenti e università se percepite come invasive. Di conseguenza, è fondamentale sviluppare strumenti tecnologici meno intrusivi ma più efficaci e investire in una cultura della trasparenza e dell’etica. Infine, le implicazioni non riguardano solo l’educazione, ma anche il mercato del lavoro e la società nel suo complesso.  Se i titoli di studio perdono credibilità, si rischia una crisi di fiducia nei confronti delle istituzioni accademiche, con conseguenze dirette sull’occupabilità dei laureati. Le imprese, dal canto loro, dovranno adattare i loro processi di selezione per distinguere tra competenze effettive e abilità derivanti dall’uso dell’AI. Questo richiede una maggiore collaborazione tra università e datori di lavoro per definire standard di valutazione che riflettano le reali capacità dei candidati. In sintesi, l’avvento dell’AI nei sistemi di esame universitari rappresenta non solo una sfida tecnologica, ma anche un’opportunità unica per ripensare l’educazione e il suo ruolo nella società.  Il futuro dell’apprendimento non sarà determinato dalla capacità di evitare l’AI, ma dalla capacità di conviverci, sfruttandola come catalizzatore di una formazione più autentica, inclusiva e orientata al mondo reale. Podcast: https://spotifycreators-web.app.link/e/xBd0tMwp0Ob Fonte: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354

  • Impatto dell’AI in contabilità e finanza

    L'intelligenza artificiale (AI) sta trasformando il settore della contabilità e della finanza, portando innovazione e migliorando significativamente i processi decisionali. Tuttavia, introduce anche sfide importanti, soprattutto in termini di etica, gestione dei dati e trasformazione delle competenze professionali. Questo articolo si basa su una ricerca condotta dall'Institute of Management Accountants (IMA), guidata da Qi "Susie" Duong, insieme ad altri consulenti esperti del settore. Esploreremo le principali tendenze dell'AI in contabilità e finanza, le applicazioni pratiche, e le sfide e i requisiti per un'implementazione efficace di tali tecnologie. Tendenze dell'AI in contabilità e finanza La crescita esponenziale dell'AI sta portando a una profonda trasformazione delle modalità operative delle aziende nel settore della contabilità e della finanza. Secondo la ricerca dell'IMA, il 70% dei leader aziendali ritiene che l'AI stia trasformando il settore, soprattutto grazie all'adozione di modelli predittivi e all'analisi dei dati in tempo reale. In particolare, l'integrazione di algoritmi di apprendimento automatico consente di ottenere previsioni più accurate e identificare tempestivamente i trend di mercato. Questo è evidente nell'adozione dell'AI da parte di aziende come Zoom e Ford, che stanno utilizzando modelli di AI per prevedere le richieste degli analisti e rispondere a quesiti interni, dimostrando un aumento della produttività fino al 25% in alcuni settori. Le tecnologie AI sono ora utilizzate per automatizzare processi tradizionalmente manuali come conti da pagare e ricevere, chiusure mensili e trimestrali, gestione delle spese e approvvigionamento. I leader aziendali stanno esplorando il potenziale dell'AI generativa per incrementare la produttività e ottenere nuovi spunti strategici. L'AI generativa, una sottoclasse del machine learning, è in grado di creare nuovi contenuti e generare valore aggiunto nei processi aziendali. Per esempio, il 45% dei partecipanti allo studio ha affermato che l'adozione dell'AI generativa ha migliorato significativamente l'efficienza nella gestione dei report finanziari e nella creazione di contenuti automatizzati per analisi strategiche.   Applicazioni dell'AI L'AI trova applicazione in vari aspetti della gestione finanziaria, inclusa la semplificazione dei processi e la gestione dei rischi. Una delle principali aree di utilizzo dell'AI è l'automazione dei processi contabili. Circa il 65% delle aziende intervistate ha implementato sistemi di automazione per conti da pagare e ricevere, ottenendo una riduzione dei tempi di elaborazione fino al 30%. Inoltre, l'AI è stata impiegata per migliorare l'accuratezza delle chiusure finanziarie trimestrali, riducendo il margine di errore umano del 20%. Questo è stato possibile grazie all'uso di algoritmi di riconoscimento ottico dei caratteri (OCR) che automatizzano il riconoscimento e la registrazione di documenti finanziari. Un altro esempio significativo è l'implementazione dell'AI per la gestione delle tasse in contesti internazionali complessi. Un'azienda leader nel settore dei dispositivi smart ha utilizzato un motore fiscale integrato basato su AI per identificare discrepanze nelle normative fiscali di diversi paesi, migliorando la compliance e riducendo i costi operativi legati alle irregolarità fiscali del 18%. L'integrazione di sistemi AI per la generazione automatica di report ha inoltre consentito un aumento dell'efficienza, permettendo una visione giornaliera e consolidata delle performance finanziarie globali. Nel settore sanitario, l'AI ha avuto un impatto particolarmente significativo nella gestione dei costi ospedalieri. L'adozione dell'AI per il monitoraggio delle spese operative ha portato a un risparmio del 15%, grazie all'analisi predittiva e al miglioramento delle decisioni basate sui dati. La capacità di processare grandi volumi di dati ha reso l'AI uno strumento chiave per la pianificazione strategica delle risorse, specialmente in situazioni di emergenza come la pandemia da COVID-19. Un altro esempio interessante è l'uso dell'intelligenza artificiale per ottimizzare la gestione della supply chain in un'azienda produttrice di uova. Il sistema AI, addestrato per analizzare le immagini delle uova, ha permesso di contarle accuratamente e rilevare difetti, generando un risparmio di circa 6 milioni di dollari grazie alla riduzione delle perdite. Questo esempio mostra chiaramente come l'AI possa contribuire a migliorare l'efficienza operativa e la redditività.   Sfide e prerequisiti dell'implementazione dell'AI Nonostante i vantaggi evidenti, l'integrazione dell'AI nel settore della contabilità e della finanza presenta sfide considerevoli. Secondo la ricerca dell'IMA, il 38% dei partecipanti ha identificato l'aspetto umano come la principale sfida per il successo delle iniziative di AI. In particolare, la mancanza di competenze specialistiche tra il personale rappresenta un problema significativo: molte aziende stanno cercando di colmare questo gap attraverso programmi di formazione e sviluppo, ma il 30% delle organizzazioni afferma di avere difficoltà a trovare talenti adeguati. Inoltre, la mancanza di supporto da parte dei vertici aziendali è stata citata come uno dei principali ostacoli per l'adozione efficace dell'AI, soprattutto per la necessità di riorganizzare le risorse e stabilire nuove priorità strategiche. Dal punto di vista tecnologico, il 33% dei partecipanti ha evidenziato la scarsa qualità dei dati come un elemento critico. La disponibilità di dati di alta qualità è essenziale per l'efficacia degli algoritmi AI, ma molti sistemi esistenti non sono in grado di fornire le informazioni necessarie con la precisione richiesta. La maturità digitale delle organizzazioni è stata identificata come un altro ostacolo rilevante, soprattutto nelle piccole e medie imprese, dove il 44% delle aziende ha dichiarato di non essere pronte a intraprendere un percorso di trasformazione digitale. La ricerca ha anche mostrato differenze regionali nelle sfide affrontate. Negli Stati Uniti, nella regione Asia-Pacifico e in Cina, le sfide principali riguardano gli aspetti umani, mentre nella regione del Medio Oriente e Nord Africa (MENA) i principali ostacoli sono legati alla maturità tecnologica e alla qualità dei dati. In Europa, le sfide operative costituiscono il maggiore ostacolo all'implementazione dell'AI, mentre in India le preoccupazioni sono prevalentemente di tipo etico e legate alla governance. Per quanto riguarda gli aspetti etici e di governance, il 20% dei partecipanti ha espresso preoccupazioni riguardo la sicurezza dei dati e la confidenzialità delle informazioni. La gestione dei bias nei dati e la trasparenza dei modelli di AI sono elementi chiave per garantire la fiducia degli stakeholder e mitigare i rischi etici associati all'adozione di queste tecnologie. È stato suggerito di stabilire protocolli di governance rigorosi e di adottare pratiche di controllo della qualità dei dati per evitare distorsioni che potrebbero compromettere i risultati. Un prerequisito fondamentale per il successo dell'AI, secondo il 40% dei partecipanti allo studio, è l'approccio "top-down". Il supporto e l'impegno della leadership aziendale sono essenziali per garantire che l'AI venga implementata in modo coerente con gli obiettivi strategici dell'organizzazione. Inoltre, il 25% delle organizzazioni ha sottolineato l'importanza di un'analisi costi-benefici dettagliata prima dell'adozione, per assicurarsi che gli investimenti in AI portino effettivi miglioramenti in termini di produttività e risparmio di tempo. L'assenza di supporto da parte dei vertici aziendali, la mancanza di competenze specifiche per lavorare con l'AI e la difficoltà nell'ottenere il consenso di tutti gli stakeholder rappresentano alcuni dei principali fattori limitanti. Ad esempio, è stato riscontrato che la resistenza al cambiamento è spesso più difficile da affrontare rispetto all'adozione stessa della tecnologia. La collaborazione tra professionisti finanziari e data scientist, nota come "collaborative intelligence", è essenziale per garantire un'implementazione efficace dell'AI e risultati ottimali. L'AI può amplificare le capacità cognitive umane, mentre gli esseri umani forniscono il contesto e la supervisione necessari per evitare errori e bias. Ad esempio, la partecipazione di esperti finanziari nel training degli algoritmi AI assicura che i modelli siano addestrati con dati realistici e che le analisi siano pertinenti per gli obiettivi dell'azienda. Aspetti etici e di governance L'adozione dell'AI in contabilità e finanza solleva importanti questioni etiche, come l'integrità dei dati, la sicurezza e la confidenzialità. Secondo la ricerca dell'IMA, il 40% dei partecipanti ha sottolineato l'importanza di garantire l'integrità dei dati per mitigare i rischi di bias nei dati stessi. Un partecipante negli Stati Uniti ha descritto come il proprio sistema AI sia stato addestrato con dati rappresentativi dell'intera popolazione dei prodotti per evitare bias e migliorare l'accuratezza nelle analisi. Inoltre, il 20% dei partecipanti ha espresso preoccupazioni riguardo alla sicurezza dei dati, con particolare enfasi sulla protezione delle informazioni personali e sulla necessità di garantire la confidenzialità durante tutte le fasi del trattamento dei dati. Un altro aspetto fondamentale riguarda la governance dei sistemi AI. Circa il 35% degli intervistati ha evidenziato l'importanza di stabilire protocolli di governance chiari e di educare gli stakeholder sull'uso delle tecnologie AI. Questo aspetto è particolarmente rilevante in regioni come l'Asia-Pacifico, dove alcuni governi, come quello giapponese, stanno iniziando a discutere di come regolamentare l'uso dell'AI sia nel settore pubblico che in quello privato. La fiducia nei sistemi AI dipende in gran parte dalla trasparenza: il 25% dei partecipanti ha dichiarato che una chiara comprensione dei processi che portano alle raccomandazioni generate dall'AI è essenziale per costruire e mantenere la fiducia tra gli utenti. Infine, la questione della fiducia nei sistemi AI rimane un punto cruciale. La mancanza di conoscenza su cosa l'AI possa effettivamente realizzare e su come essa possa trasformare il lavoro dei professionisti della contabilità e finanza è stata citata come un fattore significativo che contribuisce alla mancanza di fiducia. Per affrontare questo problema, è necessario sviluppare programmi di formazione che aiutino i professionisti a comprendere i limiti e le potenzialità dell'AI, promuovendo un utilizzo responsabile e consapevole delle tecnologie AI. Conclusioni L'impatto dell'intelligenza artificiale sulla contabilità e finanza non è soltanto una questione di efficienza operativa o riduzione dei costi: rappresenta una  profonda ridefinizione del ruolo umano e organizzativo in un ecosistema finanziario sempre più automatizzato e interconnesso . Ciò che emerge con forza è che la vera sfida non è solo tecnologica, ma anche culturale, strategica e persino etica. L'AI non si limita a cambiare "il come", ma forza le aziende a ripensare "il perché" di molte delle loro attività tradizionali. Questo porta a una riflessione critica sulla trasformazione digitale come opportunità non solo per migliorare, ma per ridefinire i modelli di valore aziendali. In primo luogo, l'automazione e l'analisi predittiva consentite dall'AI stanno spingendo le aziende a muoversi da un approccio reattivo a uno proattivo. Le decisioni non sono più basate solo su dati storici, ma su simulazioni e proiezioni che consentono di anticipare scenari futuri. Questo cambia radicalmente il  concetto di rischio , che diventa più gestibile ma anche più esposto all'interdipendenza di sistemi complessi. In tal senso, il ruolo del CFO non sarà più limitato alla supervisione della salute finanziaria aziendale, ma diventerà sempre più strategico, richiedendo una visione integrata che abbracci finanza, tecnologia e sostenibilità. Un punto critico che spesso sfugge è che l'AI  ridefinisce il concetto di valore aziendale . Non si tratta solo di fare meglio quello che già si faceva, ma di capire quali nuovi spazi di mercato, prodotti o servizi possono emergere. Ad esempio, l'AI generativa, attraverso la creazione di contenuti strategici, non solo migliora l'efficienza, ma trasforma l'approccio alla conoscenza aziendale, favorendo un tipo di innovazione che potremmo definire "guidata dai dati". Tuttavia, questa potenzialità rischia di rimanere inespressa senza un forte commitment da parte della leadership aziendale, che deve saper tradurre i risultati tecnologici in strategie concrete. Un aspetto ancora più profondo riguarda la  trasformazione delle competenze professionali . Il lavoro ripetitivo e transazionale è destinato a scomparire, ma con esso nasce la necessità di sviluppare competenze ibride. I professionisti della contabilità e finanza dovranno diventare interpreti, mediatori e curatori dei risultati generati dall’AI. Questo significa sviluppare un'intelligenza collaborativa che vada oltre il semplice utilizzo delle macchine, per comprendere e contestualizzare le loro analisi. La formazione continua, tuttavia, non è sufficiente: occorre un cambiamento nel mindset, che valorizzi la complementarità tra uomo e macchina. In altre parole, l’AI deve essere vista non come un sostituto, ma come un moltiplicatore delle capacità umane. Sul piano etico e di governance, emerge un tema cruciale: l'AI non è neutrale. I modelli di intelligenza artificiale ereditano i bias e le limitazioni dei dati con cui vengono addestrati. Questo impone alle aziende di  ridefinire i confini della responsabilità : chi è responsabile per un errore decisionale derivato da un algoritmo? Come si garantisce la trasparenza nei modelli che, per loro natura, sono spesso percepiti come opachi? E, soprattutto, come si può bilanciare l'adozione di tecnologie avanzate con la fiducia degli stakeholder, sempre più attenti ai temi di sicurezza e sostenibilità? Infine, l'AI introduce una dimensione geopolitica nel settore della contabilità e finanza. La maturità digitale e le normative locali influenzano la velocità e il successo dell'adozione. Tuttavia, le aziende che riescono a superare tali barriere e ad allineare l'implementazione dell'AI agli obiettivi strategici possono acquisire un vantaggio competitivo difficilmente replicabile. Questo pone una sfida ulteriore:  l'integrazione dell'AI deve essere accompagnata da una capacità di gestione del cambiamento a livello globale , che tenga conto delle differenze culturali, normative e di maturità tecnologica. In definitiva, l'intelligenza artificiale non è semplicemente un investimento tecnologico, ma un catalizzatore per un cambiamento organizzativo e sociale più ampio. Per sfruttarne appieno il potenziale, le aziende devono abbracciare un approccio olistico, in cui tecnologia, persone e strategie si fondano in un ecosistema agile, etico e orientato al futuro.  La vera sfida non è implementare l'AI, ma integrarla in modo che crei valore sostenibile per tutti gli stakeholder, anticipando i bisogni di un mondo sempre più complesso e interconnesso.   Podcast: https://spotifycreators-web.app.link/e/YjDUdCcf0Ob Fonte: https://eu.imanet.org/research-publications/ima-reports/the-impact-of-artificial-intelligence-on-accounting-and-finance

  • Impact of AI in Accounting and Finance

    Artificial intelligence (AI) is transforming the accounting and finance sector, bringing innovation and significantly improving decision-making processes. However, it also introduces important challenges, particularly in terms of ethics, data management, and the transformation of professional skills. This article is based on research conducted by the Institute of Management Accountants (IMA), led by Qi "Susie" Duong, along with other expert consultants in the sector. We will explore the main trends of AI in accounting and finance, practical applications, and the challenges and requirements for the effective implementation of these technologies. AI Trends in Accounting and Finance The exponential growth of AI is leading to a profound transformation in the way companies operate in the accounting and finance sector. According to IMA research, 70% of business leaders believe that AI is transforming the industry, especially through the adoption of predictive models and real-time data analysis. In particular, the integration of machine learning algorithms makes it possible to obtain more accurate forecasts and identify market trends in a timely manner. This is evident in the adoption of AI by companies such as Zoom and Ford, which are using AI models to predict analyst demands and respond to internal queries, demonstrating a productivity increase of up to 25% in some areas. AI technologies are now used to automate traditionally manual processes such as accounts payable and receivable, monthly and quarterly closings, expense management, and procurement. Business leaders are exploring the potential of generative AI to boost productivity and gain new strategic insights. Generative AI, a subclass of machine learning, can create new content and generate added value in business processes. For example, 45% of the study participants stated that the adoption of generative AI has significantly improved efficiency in managing financial reports and creating automated content for strategic analysis. Applications of AI AI is applied in various aspects of financial management, including process simplification and risk management. One of the main areas of AI use is the automation of accounting processes. About 65% of the companies surveyed have implemented automation systems for accounts payable and receivable, achieving a reduction in processing times by up to 30%. Additionally, AI has been employed to improve the accuracy of quarterly financial closings, reducing the margin of human error by 20%. This was possible thanks to the use of optical character recognition (OCR) algorithms that automate the recognition and recording of financial documents. Another significant example is the implementation of AI for tax management in complex international contexts. A leading company in the smart devices sector used an AI-integrated tax engine to identify discrepancies in tax regulations across different countries, improving compliance and reducing operational costs related to tax irregularities by 18%. The integration of AI systems for automatic report generation also increased efficiency, allowing a daily and consolidated view of global financial performance. In the healthcare sector, AI has had a particularly significant impact on hospital cost management. The adoption of AI for monitoring operational expenses has led to a 15% saving, thanks to predictive analysis and improved data-driven decision-making. The ability to process large volumes of data has made AI a key tool for strategic resource planning, especially in emergencies such as the COVID-19 pandemic. Another interesting example is the use of artificial intelligence to optimize supply chain management at an egg-producing company. The AI system, trained to analyze egg images, allowed for accurate counting and defect detection, resulting in a saving of about $6 million by reducing losses. This example clearly shows how AI can help improve operational efficiency and profitability. Challenges and Prerequisites of AI Implementation Despite the evident advantages, the integration of AI into the accounting and finance sector presents considerable challenges. According to IMA research, 38% of participants identified the human aspect as the main challenge for the success of AI initiatives. In particular, the lack of specialized skills among staff represents a significant problem: many companies are trying to bridge this gap through training and development programs, but 30% of organizations report difficulties finding suitable talent. Additionally, the lack of support from top management has been cited as one of the main obstacles to the effective adoption of AI, especially given the need to reorganize resources and establish new strategic priorities. From a technological point of view, 33% of participants highlighted poor data quality as a critical element. The availability of high-quality data is essential for the effectiveness of AI algorithms, but many existing systems cannot provide the necessary information with the required precision. The digital maturity of organizations has been identified as another relevant obstacle, especially in small and medium enterprises, where 44% of companies declared they are not ready to embark on a digital transformation journey. The research also showed regional differences in the challenges faced. In the United States, the Asia-Pacific region, and China, the main challenges are human aspects, while in the Middle East and North Africa (MENA) region, the main obstacles are related to technological maturity and data quality. In Europe, operational challenges constitute the biggest obstacle to AI implementation, while in India, concerns are mainly ethical and related to governance. Regarding ethical and governance aspects, 20% of participants expressed concerns about data security and information confidentiality. The management of biases in data and the transparency of AI models are key elements to ensure stakeholder trust and mitigate the ethical risks associated with adopting these technologies. It has been suggested to establish rigorous governance protocols and adopt data quality control practices to avoid distortions that could compromise results. A fundamental prerequisite for AI success, according to 40% of the study participants, is the "top-down" approach. The support and commitment of company leadership are essential to ensure that AI is implemented in line with the organization's strategic objectives. Additionally, 25% of organizations emphasized the importance of a detailed cost-benefit analysis before adoption, to ensure that investments in AI bring actual improvements in productivity and time savings. The lack of support from top management, the absence of specific skills to work with AI, and the difficulty in obtaining consensus from all stakeholders are some of the main limiting factors. For example, it has been found that resistance to change is often more challenging to address than the technology adoption itself. Collaboration between financial professionals and data scientists, known as "collaborative intelligence," is essential to ensure effective AI implementation and optimal results. AI can amplify human cognitive abilities, while humans provide the necessary context and oversight to avoid errors and biases. For instance, the involvement of financial experts in AI algorithm training ensures that models are trained with realistic data and that analyses are relevant to the company's objectives. Ethical and Governance Aspects The adoption of AI in accounting and finance raises important ethical issues, such as data integrity, security, and confidentiality. According to IMA research, 40% of participants stressed the importance of ensuring data integrity to mitigate the risks of biases in the data itself. A participant in the United States described how their AI system was trained with data representative of the entire product population to avoid biases and improve the accuracy of analyses. Additionally, 20% of participants expressed concerns about data security, with particular emphasis on protecting personal information and ensuring confidentiality during all stages of data processing. Another fundamental aspect concerns the governance of AI systems. About 35% of respondents highlighted the importance of establishing clear governance protocols and educating stakeholders on the use of AI technologies. This aspect is particularly relevant in regions such as Asia-Pacific, where some governments, like Japan's, are beginning to discuss how to regulate AI use in both the public and private sectors. Trust in AI systems largely depends on transparency: 25% of participants stated that a clear understanding of the processes leading to AI-generated recommendations is essential to build and maintain user trust. Finally, the issue of trust in AI systems remains crucial. The lack of knowledge about what AI can actually accomplish and how it can transform the work of accounting and finance professionals has been cited as a significant factor contributing to the lack of trust. To address this issue, it is necessary to develop training programs that help professionals understand the limits and potentials of AI, promoting responsible and informed use of AI technologies. Conclusions The impact of artificial intelligence on accounting and finance is not just a matter of operational efficiency or cost reduction: it represents a profound redefinition of the human and organizational role in an increasingly automated and interconnected financial ecosystem. What emerges strongly is that the real challenge is not only technological but also cultural, strategic, and even ethical. AI does not simply change the "how" but forces companies to rethink the "why" of many of their traditional activities. This leads to a critical reflection on digital transformation as an opportunity not only to improve but to redefine business value models. Firstly, the automation and predictive analysis enabled by AI are pushing companies to move from a reactive to a proactive approach. Decisions are no longer based only on historical data but on simulations and projections that allow future scenarios to be anticipated. This radically changes the concept of risk, which becomes more manageable but also more exposed to the interdependence of complex systems. In this sense, the role of the CFO will no longer be limited to overseeing the company's financial health but will become increasingly strategic, requiring an integrated vision that embraces finance, technology, and sustainability. A critical point that is often overlooked is that AI redefines the concept of business value. It is not just about doing better what was already done but understanding which new market spaces, products, or services can emerge. For example, generative AI, through the creation of strategic content, not only improves efficiency but transforms the approach to business knowledge, fostering a type of innovation that could be called "data-driven." However, this potential risks remaining unexpressed without a strong commitment from company leadership, which must be able to translate technological results into concrete strategies. An even deeper aspect concerns the transformation of professional skills. Repetitive and transactional work is destined to disappear, but with it comes the need to develop hybrid skills. Accounting and finance professionals will have to become interpreters, mediators, and curators of AI-generated results. This means developing collaborative intelligence that goes beyond simply using machines to understand and contextualize their analyses. Continuous training, however, is not enough: a change in mindset is needed, one that values the complementarity between humans and machines. In other words, AI should not be seen as a substitute but as a multiplier of human capabilities. On the ethical and governance level, a crucial theme emerges: AI is not neutral. AI models inherit the biases and limitations of the data with which they are trained. This requires companies to redefine the boundaries of responsibility: who is responsible for a decision error derived from an algorithm? How is transparency ensured in models that are often perceived as opaque by nature? And, above all, how can the adoption of advanced technologies be balanced with stakeholder trust, which is increasingly attentive to security and sustainability issues? Finally, AI introduces a geopolitical dimension to the accounting and finance sector. Digital maturity and local regulations influence the speed and success of adoption. However, companies that can overcome these barriers and align AI implementation with strategic objectives can gain a competitive advantage that is hard to replicate. This poses an additional challenge: AI integration must be accompanied by global change management capabilities, taking into account cultural, regulatory, and technological maturity differences. Ultimately, artificial intelligence is not simply a technological investment but a catalyst for broader organizational and social change. To fully exploit its potential, companies must embrace a holistic approach, where technology, people, and strategies merge into an agile, ethical, and future-oriented ecosystem. The real challenge is not to implement AI but to integrate it in such a way that it creates sustainable value for all stakeholders, anticipating the needs of an increasingly complex and interconnected world. Podcast: https://spotifycreators-web.app.link/e/oQYQ8Dcf0Ob Source: https://eu.imanet.org/research-publications/ima-reports/the-impact-of-artificial-intelligence-on-accounting-and-finance

  • BrainBench: Language Models Surpass Neuroscience Experts

    Scientific research is increasingly becoming a complex challenge, requiring the ability to synthesize decades of studies. The current human capacity to process information has become inadequate in the face of the enormous amount of publications produced daily. In this scenario, Large Language Models (LLMs), trained on a vast corpus of scientific literature, emerge as a promising solution for integrating and predicting new results, often with greater efficiency than human experts. A recent study, published in the journal Nature Human Behaviour, introduced BrainBench, an innovative benchmark designed to evaluate the ability of LLMs to make predictions in the field of neuroscience, directly comparing them with experts in the field. BrainBench and the Prediction Challenge BrainBench is a benchmark specifically designed to test the ability of language models to predict the outcomes of neuroscience experiments. The structure of BrainBench includes the presentation of modified versions of scientific abstracts, allowing evaluation of the ability of LLMs to distinguish between plausible and altered results. The peculiarity of BrainBench lies in its "forward-looking" nature, meaning its ability to measure the predictive ability of LLMs in new situations, rather than merely verifying their ability to recall known information. This approach differs from other benchmarks that are primarily "backward-looking," such as PubMedQA or MMLU, where questions are about recalling existing knowledge. In BrainBench, two versions of a scientific abstract are presented, one original and one with modified results, and the participant's task is to identify which version is correct. The benchmark includes case studies from five subcategories of neuroscience: behavioral/cognitive, cellular/molecular, systems/circuits, disease neurobiology, and development/plasticity/repair. This approach ensures a broad and representative coverage of different areas of neuroscience, making the prediction task particularly challenging. It has been observed that language models outperformed human experts in accuracy in all these subcategories. Specifically, the average accuracy of LLMs was 81.4%, while human experts reached only 63.4%. Even limiting the analysis to human experts with the highest self-assessed level of competence, accuracy reached only 66.2%, still lower than that of LLMs. Another interesting aspect is the evaluation of models of different sizes. For example, smaller models like Llama2-7B and Mistral-7B, with 7 billion parameters, achieved performances comparable to larger models like Falcon-40B and Galactica-120B. Furthermore, it emerged that models optimized for dialogue or conversational tasks (such as "chat" or "instruct" versions) performed worse than their base counterparts. This suggests that aligning LLMs for natural conversations might hinder their scientific inference abilities. The accuracy of LLMs was also measured based on their ability to reduce "perplexity," which indicates the level of surprise the model feels towards a text. The models showed a significant improvement when they could access complete contextual information, rather than focusing on local parts of the text. This demonstrates how the ability to integrate information at a global level is one of the keys to their success compared to humans. Overall, BrainBench represents an innovative method to evaluate not only the ability of LLMs to recall information but also their ability to generalize and predict the outcomes of experiments never seen before. The approach is based on the use of modified scientific abstracts, where the results of studies are substantially altered, to verify whether the models can distinguish between alternative versions of experiments. For example, an original abstract might report that stimulation of a specific brain area increases a certain activity, while the modified version might indicate a decrease in activity. BrainBench evaluates whether the model can determine which of the two outcomes is more plausible, using methodological information and details provided in the abstract. This method requires that the models not only identify changes in the results, such as an increase or decrease in brain activity, but also relate them to the rest of the information in the abstract, such as the method used or the logic behind the discovery. In this way, BrainBench measures the ability of LLMs to integrate contextual and methodological information to make coherent inferences about new situations, simulating a scientific discovery process. The goal of this evaluation is crucial to understanding the potential of LLMs in supporting scientific research, especially in complex fields like neuroscience, where coherence between method, data, and results is essential. This approach does not merely test the memorization of information but explores the ability of models to think critically and contribute to the interpretation and generalization of scientific knowledge. Why Are LLMs So Powerful in Prediction? A key element of the success of LLMs is their ability to integrate information from multiple sources and handle the complexity of different levels of detail, as evidenced by tests conducted with BrainBench. Specifically, when LLMs were tested using only single sections of the abstracts, their performance dropped drastically. On the other hand, with the integration of the entire abstract content, including methodology, background, and results, their predictive capability increased significantly. This suggests that LLMs can take advantage of the synergy of different pieces of information to formulate more precise predictions. Moreover, the ability of LLMs to generalize information, even when noisy or potentially redundant, represents a competitive advantage. BrainBench showed that models like BrainGPT, trained on a specific corpus and enriched through techniques such as Low-Rank Adaptation (LoRA), achieved 3% higher performance than standard models. This improvement indicates how targeted customization and training on high-quality data can make LLMs extremely effective tools for predicting scientific results. The LLMs' approach to prediction relies on architectures such as Transformers, which allow precise modeling of relationships between elements of the text. This approach is particularly useful in neuroscience, where the phenomena to be analyzed often involve complex and interdependent data. Thanks to their billions of parameters, LLMs can identify patterns and correlations that escape human experts, making them suitable not only for predicting experimental results but also for suggesting new research directions. Another factor explaining the success of LLMs in prediction is their ability to adjust behavior based on confidence signals. LLMs use the difference in perplexity between versions of abstracts to calibrate their confidence in responses, which results in overall greater reliability. This level of calibration was a key factor in surpassing human experts, as it allowed the models to identify correct answers with greater certainty, especially in the more complex cases. In summary, the ability of LLMs to process enormous amounts of data, integrating information at different levels of detail and effectively handling complexity, makes them powerful tools for prediction in complex scientific fields. Their performance on BrainBench demonstrates that they are not only capable of competing with human experts but also significantly outperforming them, opening up new possibilities for using AI in supporting research and scientific discovery. BrainGPT: A Model Tailored for Neuroscience BrainGPT is a large language model, further specialized beyond general LLMs through specific fine-tuning on the neuroscience corpus. This adaptation was achieved through the Low-Rank Adaptation (LoRA) technique, which allowed the addition of over 629 million new weights within the structures of the Mistral-7B model, equivalent to about 8% of the total number of weights of the base model. This approach made it possible to optimize the model for neuroscience tasks, improving the ability to predict experimental results. The training of BrainGPT involved over 1.3 billion tokens from neuroscience publications collected between 2002 and 2022, covering a total of 100 scientific journals. The data was extracted using the Entrez Programming Utilities (E-utilities) API and the Python package pubget, to ensure a high-quality and relevant dataset. This massive data corpus provided the model with a broad context for understanding and predicting neuroscience outcomes. LoRA was chosen for its efficiency in adapting pre-trained models. Instead of retraining the entire model, LoRA inserts low-rank adaptation matrices into Transformer blocks, which are then specifically trained to update the model's behavior in a specific domain of knowledge. This process was particularly effective for BrainGPT, leading to about a 3% improvement in performance on BrainBench compared to general models, as evidenced by the conducted tests. Analysis of the results showed that the LoRA technique not only improved the model's overall accuracy but also reduced the perplexity of correct answers (t(199) = 15.7, P < 0.001, Cohen's d = 0.25), indicating more effective specialization for neuroscience material. This improvement was achieved with relatively limited computational resources: the fine-tuning process required about 65 hours of computation on Nvidia A100 GPUs, using four units in parallel. An interesting aspect of BrainGPT is its ability to be continuously updated with new neuroscience data. Using complementary approaches such as retrieval-augmented generation (RAG), the model could be constantly aligned with the latest literature, thus ensuring always up-to-date and relevant performance. In this way, BrainGPT can evolve into a tool not only for prediction but also for suggesting and supporting the planning of future experiments. This lays the foundation for increasingly close collaboration between human researchers and artificial intelligence models, expanding the possibilities for scientific discoveries in a complex field like neuroscience. The Challenge of Confidence Calibration Confidence calibration turns out to be a key element in studying the performance of large language models (LLMs). Research has shown that there is a positive correlation between the confidence expressed by the models in their answers and the accuracy of these answers. Specifically, when models were highly confident, their predictions were significantly more accurate. This relationship was quantified using logistic regression, highlighting a significant relationship between perplexity (an indicator of how predictable a model considers a given text) and the correctness of the answers provided. It was found that language models perform better when they can clearly distinguish between correct and altered versions of a text. This ability was measured using a statistical tool called "Spearman correlation," which indicates how strongly two variables are related. In our case, the value of 0.75 shows a very strong relationship: the better the models were at noticing differences in texts, the more accurate their answers were. The result was confirmed with high certainty, with a very small margin of error (±0.08 in 95 out of 100 trials). This calibration has a crucial impact on decision support systems, where the model evaluations can integrate with human judgment. For example, by dividing results into twenty confidence bands, it was found that at the highest levels of confidence, the average accuracy exceeded 85%, while at the lowest levels it was around 55%. These results highlight the effectiveness of calibration, as both models and human experts showed the ability to accurately assess their own confidence concerning the probability of success. This capability enables more effective synergy between automatic predictions and human oversight. Another relevant aspect that emerged from the study concerns the differences between models and humans in perceiving the difficulty of the same tasks. Although the average correlation between difficulties perceived by LLMs and those by human experts was only 0.15, among different models the correlation rose to 0.75. This data indicates a complementarity between the areas where humans and models respectively show strengths or weaknesses. Such characteristics can be leveraged to improve collaboration in decision-making processes. Finally, it was highlighted how confidence calibration not only increases the accuracy of predictions but also contributes to creating a context of trust in the use of LLMs as support tools for research. The ability of a model to indicate the level of confidence in its answers is an essential aspect for the responsible and effective use of these technologies, especially in the scientific field. This allows scientists to rely on these tools for specific tasks while maintaining critical control over the overall decision-making process. Future Implications: Human-Machine Collaboration The success of BrainBench and BrainGPT raises a series of crucial questions about the future of science and the role of LLMs in scientific research. If, on the one hand, these models prove capable of accurately predicting experimental results, it is possible to imagine a future in which LLMs become an integral part of the scientific discovery process. These tools could suggest to researchers which experiments to conduct, identify promising results, and guide data interpretation. A crucial aspect will be to ensure effective integration between the computational power of LLMs and human ingenuity. LLMs are capable of managing a quantity of scientific data far exceeding human capacity, rapidly processing thousands of articles, and providing connections between studies that often elude experts. However, human intuition, creativity, and the ability to contextualize a specific problem remain irreplaceable to ensure that discoveries have a significant impact and are directed towards useful and innovative applications. To maximize the potential of human-machine collaboration, it will be necessary to develop support tools that help researchers understand LLM predictions and assess their confidence. For example, user interface-based tools that visualize an LLM's confidence level in a specific prediction could improve transparency and facilitate a more informed use of AI-generated recommendations. In particular, it could be useful to implement visualizations that show the differences in perplexity between correct and altered versions of abstracts, allowing researchers to better understand the basis on which an LLM has made its prediction. Another interesting implication concerns the possibility of using LLMs to generate innovative experimental hypotheses. The ability of language models to identify hidden patterns in data could lead to the formulation of hypotheses that would otherwise not be considered, thus accelerating the pace of discoveries. However, it is essential that researchers maintain a critical approach, carefully evaluating the predictions and hypotheses generated to avoid the risk of blindly following a direction suggested by AI, without considering the possibility of unexpected or contradictory results. Moreover, human-machine collaboration could benefit from continuous interaction and mutual adaptation. For example, LLMs like BrainGPT could be trained using explicit feedback from human researchers, continuously improving their ability to provide relevant suggestions. Similarly, human experts could develop new experimental or theoretical methodologies based on the suggestions of LLMs, creating a virtuous cycle of innovation and discovery. However, one of the main risks is relying too heavily on LLM predictions, especially when these suggest a research path that might seem safer or more promising. This could lead to a reduction in the exploration of less obvious but potentially groundbreaking hypotheses. The risk is that science becomes less exploratory and more oriented towards an optimization logic based on predictive models, which could limit the potential for truly innovative discoveries. Finally, the complementarity between LLMs and human researchers could be further enhanced by developing specialized models for different fields of knowledge. As demonstrated with BrainGPT, a model trained on a specific corpus improved its performance compared to generalist LLMs. Extending this approach, we could imagine a network of highly specialized LLMs, each with a deep understanding of a specific field, collaborating to solve complex problems, creating a knowledge ecosystem where the analytical capabilities of machines and human creativity enhance each other. In summary, the future of scientific research could see increasing integration between LLMs and human scientists, with these models becoming not only support tools but genuine partners in discovery. The key to success will be maintaining a balance between reliance on LLM predictions and human creativity and independent thinking, ensuring that innovation remains at the heart of the scientific process. Conclusions The ability of language models to surpass human experts in neuroscience raises profound questions about the future of scientific research and the dynamics of human-machine collaboration. This phenomenon is not merely a matter of computational efficiency but opens strategic perspectives on how we address the complexity of knowledge and organize intellectual resources. Through tools like BrainBench and specific models like BrainGPT, LLMs not only demonstrate their ability to compete with human experts but also push us to rethink the value and role of intuition and experience in data-intensive fields. The superior performance of LLMs is not just a matter of predictive accuracy but reflects a paradigm shift in knowledge management. Their ability to integrate enormous amounts of information, often distributed across different disciplines, redefines the concept of expertise, shifting it from the depth of individual knowledge to the breadth of collective analytical capability. This poses a fundamental challenge to traditional structures of scientific research, where the authority of the expert was a cornerstone. LLMs, with their adaptability and specialization capabilities, could soon become a new standard for validating, predicting, and proposing scientific hypotheses, making the boundaries of expertise more fluid and collaborative. A crucial aspect is the emergence of a "calculated confidence" that LLMs can offer, redefining the relationship between prediction and decision. The ability to calibrate confidence based on perplexity and communicate it transparently represents a strategic innovation for decision-making processes, not only in neuroscience but also in sectors such as medicine, economics, and engineering. This feature is not merely a technical improvement; it is a model of how humans can learn to manage uncertainties and probabilities in complex situations. Business decision-makers, for example, could adopt this approach to combine quantitative analysis and human judgment, optimizing strategies and reducing risks associated with uncertain decisions. The risk of an "optimized but not exploratory" science deserves a broader strategic reflection. If, on the one hand, LLMs can direct researchers towards areas of greater probability of success, on the other hand, they might discourage exploration of less obvious or contrary hypotheses. To avoid this danger, it will be essential to balance the analytical power of LLMs with human creative courage. Companies that invest in innovation models capable of integrating these two dimensions will have a competitive advantage in generating radical and not just incremental solutions. The human-machine complementarity should not be seen as a simple sum of the parts but as a new knowledge ecosystem where interaction produces emerging value. For example, the idea of continuous feedback between human experts and LLMs represents not only an opportunity to improve technological performance but also a way for humans to learn from perspectives that would otherwise remain inaccessible. This is not a technical detail but a guiding principle for building organizations capable of adapting rapidly to changes and anticipating future trends. Finally, the specialization of LLMs, as in the case of BrainGPT, opens up new scenarios for a "network of specialized artificial intelligences," where highly focused models work together to tackle complex and interdisciplinary problems. This concept of "distributed intelligence" is not limited to science but extends to businesses, governments, and other areas where success depends on the ability to connect dots across seemingly distant systems. The ability to orchestrate this network will be one of the key competencies of the future, redefining not only how we work but also how we think and innovate. In conclusion, the future of scientific research could see increasing integration between LLMs and human scientists, with these models becoming not only tools of support but true partners in discovery. The key to success will be maintaining a balance between relying on LLM predictions and fostering human creativity and independent thinking, ensuring that innovation remains at the core of the scientific process. Podcast: https://spotifycreators-web.app.link/e/xpQPvpMwSOb Source: https://www.nature.com/articles/s41562-024-02046-9.pdf

  • LLMs and Security: MRJ-Agent for a Multi-Round Attack

    The growing use of large language models, such as GPT-4, in critical areas has highlighted the need to address security and reliability issues with greater care. Although these models have a vast body of knowledge, there is a concrete risk that they may generate harmful or inappropriate responses, especially in the presence of specific attacks known as “jailbreaks.” The study conducted by Wang and collaborators proposes a new multi-round attack agent, called MRJ-Agent, developed to identify the vulnerabilities of language models and strengthen their security, delving into the complex dynamics of human dialogues. Issues in LLM Security and Limitations of Existing Approaches Jailbreak attacks focus on manipulating LLMs to induce them to provide sensitive or potentially harmful content. The research highlights that most efforts so far have focused on single-round attacks, i.e., with a single direct request to the model. However, these approaches are limited in reproducing the way humans actually interact with these systems: interactions are often multi-round, with questions and answers spread over multiple phases. Single-round attacks often use methods such as "prompt engineering," which involves constructing prompts designed to hide malicious intentions. For example, some approaches (Zou et al. 2023; Wei, Haghtalab, Steinhardt 2024) include the use of ASCII codes or encrypted messages to mask dangerous requests. These methods, although effective in some cases, fail to consider the complexity of multi-round interactions. As emerged from the research of Ma et al. (2024) and Perez et al. (2022), this type of more natural and complex interaction represents the real challenge for large language models, making single-round methods less meaningful from a practical point of view. In recent years, approaches for multi-round attacks have been developed, but they have shown several limitations. One example is the approach proposed by Zhou et al. (2024), which breaks down an original question into multiple sub-questions, then aggregates the answers to obtain harmful content. However, this method fails to reproduce the naturalness of a human conversation and often triggers the models' defense mechanisms, thereby reducing its effectiveness. Other methods (Russinovich, Salem, and Eldan 2024; Yang et al. 2024) adopt iterative trial-and-error tactics to induce the model to generate dangerous output. However, a key problem lies in the dependence on very powerful models like GPT-4, which often activate safety mechanisms, leading to rejected requests and a reduction in attack effectiveness. The research by Wang et al. introduces an innovative strategy to address these limitations by combining a risk decomposition strategy and psychological induction to make the attack more effective and less detectable. The risk decomposition strategy involves breaking down the original malicious intent into apparently harmless sub-requests, distributing the risk over multiple rounds. For example, a request like “how to build a bomb” is transformed into a series of questions about generic chemical reactions, which progressively lead to more specific content. The decomposition is carried out using models like GPT-4 to generate the sub-requests, maintaining a controlled level of semantic similarity to prevent the requests from becoming too obviously dangerous. Experiments have shown that by controlling the similarity between sub-requests and the original, the success rate of the attack can be significantly increased. Additionally, the psychological induction strategy exploits techniques such as reflective induction or support based on multiple pieces of evidence to reduce the likelihood of rejection by the model. The effectiveness of these strategies was successfully evaluated on both open-source models like LLama2-7B and closed-source models like GPT-4, showing a higher success rate in overcoming defenses compared to traditional approaches. MRJ-Agent: Technical Features and Attack Method MRJ-Agent introduces an innovative attack methodology that simulates a heuristic search process decomposed into multiple rounds. Starting from a potentially dangerous request (e.g., “how to build a bomb”), the process begins with an innocent question (such as a generic chemical reaction), then gradually progresses to more sensitive topics. This approach was designed to maximize the probability of circumventing the integrated safety mechanisms in LLMs. The method involves three main strategies: • Information Control Strategy: This strategy guides the trial-and-error process, controlling the similarity between the generated requests and the original. Information control is achieved through a heuristic approach that monitors the degree of semantic similarity between requests and the final goal. Experiments have shown that, by setting a minimum similarity threshold of 0.85 between the generated request and the original, it is possible to maintain the focus of the attack without compromising its effectiveness. • Psychological Induction Strategy: To minimize the probability of rejection by the model, psychological strategies are used to increase persuasion and decrease the perception of risk by the LLM. Specifically, psychological induction has been enhanced through 13 specific strategies, such as support based on multiple pieces of evidence and cognitive influence. The results show that, compared to merely decomposed requests, psychologically reinforced sub-requests increased the success rate by up to 39.7% on GPT-4. • Red-Team Training Strategy: A red-team model (called πred) was developed to perform multi-round attacks automatically, dynamically adapting to the target model’s responses. During training, the model used a direct preference optimization technique to learn to select the most effective strategies in each situation. The use of models with different capacities (7B and 13B) showed that increasing the size of the red-team model leads to a significant increase in the success rate, reaching 100% when the maximum number of rounds is 10 or more. Experimental Results and Comparison with Other Attack Methods The experimental results highlighted the outstanding performance of MRJ-Agent compared to other attack techniques, in both single-round and multi-round contexts. In particular, during evaluations on models such as LLama2-7B and GPT-4, MRJ-Agent achieved complete success (100%) in multi-round interactions, significantly surpassing the alternative method "Speak out of Round," which stopped at 20%. This figure reflects the system’s superior effectiveness in handling complex scenarios. Compared with other multi-round attack techniques, MRJ-Agent demonstrated a success rate of 92% on LLama2-7B with a single trial, increasing to 100% with multiple attempts. This result indicates a clear superiority in terms of efficiency and robustness, achieved without the need to repeat multiple rounds of attempts, as required by competing approaches. This feature highlights more effective management of the target model's responses, allowing MRJ-Agent to stand out as a highly optimized system. Additional tests have shown that MRJ-Agent maintains high performance even in the presence of advanced defenses. For example, with protection systems like "Prompt Detection" and "System Prompt Guard," success rates were 88% and 78%, respectively, with a single attempt, rising to 94% and 82% with two trials. These results demonstrate the system’s ability to adapt even to sophisticated countermeasures, maintaining high effectiveness in overcoming the implemented defenses. Compared to existing methods, MRJ-Agent also showed clear superiority against closed models like GPT-4, achieving an average success rate of 98%, compared to a maximum of 92% achieved with alternative methods such as "Chain-of-Attack" (CoA). Additionally, the ability to achieve these results with fewer interaction rounds and attempts than rival approaches represents a significant advantage in terms of operational efficiency. Another aspect analyzed concerns the impact of the size of the red-team model employed by MRJ-Agent. The results revealed that adopting a model with 13 billion parameters (13B), compared to one with 7 billion (7B), leads to a consistent increase in the success rate in more complex situations. For example, with a maximum of 15 rounds, the 13B model achieved complete success (100%), while the 7B model stopped at 94%. This suggests that using larger models can significantly improve the effectiveness of attacks, especially in more intricate contexts or with more elaborate defenses. In summary, MRJ-Agent has demonstrated remarkable multi-round interaction management capabilities, effectively adapting to both open-source and closed-source models, without showing performance declines. Particularly noteworthy was its robustness in circumventing the defense systems present in closed models like GPT-4, where the success rate approached 100%. These results highlight the urgency of developing more advanced security countermeasures to counter increasingly sophisticated attack systems. Generalization of the Attack and Other Scenarios The versatility of MRJ-Agent also extends to image-to-text tasks, where the ability to exploit visual details as a starting point for more delicate questions proved essential. For example, in attacking models like GPT-4o using harmless images, the success rate was 80%, showing that the model can use the visual context to guide subsequent questions towards sensitive content. This approach of linking visual and textual content is an innovative feature that increases the difficulty of effectively defending these models, as the requests seem more natural and less suspicious. In the case of text-to-image tasks, MRJ-Agent showed a reduced capability compared to text-to-text, with a success rate of 50% for generating potentially harmful images. This is partly due to more robust safety mechanisms integrated into commercial models like DALLE-3, which actively block sensitive content. However, MRJ-Agent demonstrated progressive adaptation of risk instructions, gradually increasing the likelihood of generating problematic content. This process of progressive refinement of instructions is particularly effective for circumventing automatic defenses, especially when the attack is carried out over multiple rounds. In another experiment, MRJ-Agent was tested on its ability to generalize on datasets such as JailbreakBench (JBB), which includes ten categories of risky behavior. On this benchmark, the success rate was 93.9%, confirming MRJ-Agent’s effectiveness not only in textual scenarios but also in broader and more diversified contexts. The most difficult categories to attack turned out to be those related to sexual content, with a success rate of 71.42% and an average number of queries of 11.85, suggesting that the model’s sensitivity to such stimuli remains high. Future Implications The future implications of the work on MRJ-Agent mainly concern the need to develop further defense mechanisms capable of addressing increasingly sophisticated attacks spread over multiple rounds of interaction. The effectiveness demonstrated by MRJ-Agent in circumventing defense mechanisms suggests that large models must be equipped with dynamic detection and response capabilities, capable of evolving in step with threats. An approach that could be adopted in the future is the implementation of AI-based defense strategies that can automatically adapt to changes in attack patterns and learn from previous interactions. Furthermore, the fact that MRJ-Agent has shown attack capabilities across a wide range of scenarios, including image-to-text and text-to-image, highlights the need to expand security methodologies to all AI application fields. This implies that not only language models but also image generative models and other types of AI must be made more robust against these types of threats. A possible development in this regard could be the creation of a series of standardized benchmarks to evaluate the resilience of models to different types of multi-round attacks. Another significant implication concerns the continuous alignment of models with human values. Multi-round attacks like those conducted by MRJ-Agent highlight the difficulty of maintaining stable alignment when models are subjected to prolonged and complex interactions. A future research area could focus on improving alignment techniques based on human feedback, for example by using adaptive reinforcement from human experts to detect deviation signals and correct the model’s behavior. Finally, the disclosure of the data and codes used to train MRJ-Agent represents another important step towards building a more transparent and collaborative research community. Making the attack code public could help researchers develop new defense techniques, thus promoting collective progress in AI security. However, this also carries the risk that malicious actors could use such information to develop more effective attacks. Therefore, it will be essential to adopt a balanced approach that allows for the progress of scientific research without compromising overall security. The work on MRJ-Agent not only highlights the current vulnerability of LLMs but also underlines the importance of a proactive and adaptive approach to model security. It is necessary to further explore the interaction between attack and defense, seeking solutions that can evolve as rapidly as emerging threats. Only in this way can we ensure that these models continue to serve humanity safely and responsibly. Conclusions The emergence of technologies like MRJ-Agent highlights a crucial truth in the landscape of artificial intelligence: the interaction between attack and defense is not static but evolves as a complex and interdependent dynamic. The multi-round capabilities of this system reveal a critical point that is often overlooked: language models are not simply response tools but active participants in dialogues that reflect the complexity of human interactions. This consideration transforms security from an issue of static technical barriers into a fluid process that requires constant adaptation. The risk decomposition and psychological induction introduced by MRJ-Agent are not just attack tactics but indicate a paradigm shift in how vulnerability is conceived. It is no longer an isolated model defect but a systemic flaw that emerges from the sum of interactions. This suggests that AI security must be redefined to address not only technical vulnerabilities but also cognitive and strategic manipulations. An effective security model cannot merely filter harmful requests; it must understand the sequence and context of the dialogue to detect insidious patterns that develop over time. The idea of using an automated red-team like the πred model raises a strategic question: how sustainable is the current passive security approach? Companies implementing LLMs in critical contexts must adopt an offensive mindset in security, investing not only in defenses but also in continuous testing against simulated attacks. This concept, similar to a "preventive war" in the world of cybersecurity, could change the traditional approach, shifting from an exclusive focus on static protections to a model of iterative and dynamic learning. Another fundamental aspect concerns the intersection between context and multimodal input. Attacks that combine text, images, and other modalities demonstrate how vulnerability is not confined to a single domain. This requires a convergence between model-specific defenses and a unified security framework capable of operating transversally. Companies developing multimodal systems must understand that the risk does not simply add up but amplifies: an initially harmless attack in one domain can be the key to exploiting weaknesses in another. This perspective requires a new generation of monitoring systems that can track the evolution of interactions across domains and modalities. Finally, the research on MRJ-Agent highlights a crucial problem for AI ethics and alignment. The growing sophistication of multi-round attacks challenges the idea that AI can maintain stable alignment over time. The implications for companies are profound: it is not enough for a model to be safe at the time of release; it is necessary to ensure that it remains aligned throughout its entire operational life cycle. This suggests the need for self-correction mechanisms, supported by continuous and human feedback. But this also opens the door to a dilemma: how to balance the model's autonomy with human supervision without reducing operational efficiency? Ultimately, the challenge posed by MRJ-Agent is not just about technological security but also touches on broader issues of governance, responsibility, and strategic design of AI systems. Companies must address these challenges not as isolated technical problems but as part of a broader transformation in risk management and building trust in artificial intelligence. Podcast: https://spotifycreators-web.app.link/e/PcqVZYzDTOb Source: https://arxiv.org/abs/2411.03814

bottom of page