Risultati di ricerca
654 risultati trovati con una ricerca vuota
- Introduction to Machine Learning
Machine Learning represents one of the most debated topics in the contemporary technological landscape. Its technical complexity, however, can make it difficult to understand for those without specific training. In this article, the goal will be to make Machine Learning more comprehensible, even though it will inevitably involve technical terms and concepts. What is Machine Learning? Machine Learning is a field of artificial intelligence (AI) that allows computers to learn from data and experiences without being explicitly programmed. In simpler terms, Machine Learning enables a machine to improve its performance on a given task by analyzing data, learning from past successes and errors. Imagine you need to teach a computer to recognize images of cats and dogs. Instead of explicitly programming every characteristic of a cat or a dog, we provide a large dataset of pre-labeled images (for example, labeled as "cat" or "dog"), and the system learns to identify animals autonomously based on this information. This approach is like how we humans learn: we learn by observing examples and making attempts. Machine Learning is not limited to image recognition but is used in many other areas of our daily lives. Every time you receive movie suggestions on Netflix, when your phone recognizes your voice, or when your email manager filters spam, you are interacting with Machine Learning models. These systems can recognize patterns, make predictions, and adapt based on the data they receive. We can divide Machine Learning into several main categories, each with different objectives and methodologies. Among these categories are: • Supervised Learning: where the machine learns from labeled data. For example, the system receives images of dogs and cats already classified and learns to distinguish between the two animals autonomously. • Unsupervised Learning: here, the machine works with unlabeled data and tries autonomously to find patterns or structures. For example, it might discover that there are groups of customers with similar purchasing behaviors without knowing in advance who these customers are. • Reinforcement Learning: a type of learning where an agent learns by performing actions in an environment to maximize a reward. This type of learning is used, for example, in video games and autonomous vehicles. • Ensemble Methods: which combine different algorithms to improve performance compared to using a single model. The idea is that different approaches can compensate for each other's weaknesses. One of the most interesting aspects of Machine Learning is its ability to continuously improve. Thanks to the vast amount of data generated every day, machines can refine their models more and more, making predictions and decisions increasingly accurate. In this way, Machine Learning presents itself as a fundamental tool for tackling complex challenges, such as diagnosing diseases, managing energy resources, or personalizing the user experience on digital services. Machine Learning is transforming the world, but it is important to remember that these algorithms work thanks to the data they receive and the objectives that humans provide. This means that behind every model are human choices that influence how systems learn and make decisions. Therefore, it is essential that the development and application of these systems be guided by ethical principles and a critical view of their impact on society. Supervised Learning Supervised Learning is one of the most common forms of Machine Learning. In this mode, the machine is supervised by a "teacher" who provides it with already labeled examples. For instance, if we are trying to train an algorithm to recognize images of dogs and cats, we will provide a series of images already classified as "dog" or "cat." The goal is to teach the machine to autonomously recognize these categories in new images. One of the most significant aspects of supervised learning is its similarity to how humans learn through direct teaching. When a child learns to distinguish between a dog and a cat, they are guided by an adult who points out the animals and explains the distinctive characteristics of each. Similarly, in supervised learning, the machine learns through examples provided by a "teacher" in the form of labeled data. There are two main categories of problems that supervised learning can solve: Classification: The goal of classification is to assign a specific category to an input. For example, recognizing whether an email is spam or not is a typical classification problem. Classification models are also used for facial recognition, diagnosing medical conditions based on radiographic images, and even for detecting fraud in online payments. Some of the most common classification algorithms are Naive Bayes, Decision Tree, Support Vector Machine (SVM), and K-Nearest Neighbors (k-NN). Regression: Unlike classification, which assigns a category, regression deals with predicting continuous values. An example of a regression problem is estimating the price of a house based on factors such as area, the number of rooms, and location. Common algorithms for regression problems include linear regression and polynomial regression. Another example is forecasting energy consumption over time, where the model tries to determine future trends based on historical data. Supervised learning is widely used in industry due to its effectiveness and ability to produce accurate models. For example, on e-commerce platforms, recommendation systems suggest products similar to those already purchased or viewed by users. This is possible thanks to supervised models that analyze past user behavior and identify preference patterns. Another common example concerns healthcare systems, where supervised learning models help predict the risk of diseases based on a patient's medical history. These systems can help identify critical conditions early, allowing for timely interventions. A key concept in supervised learning is the training dataset. This dataset contains labeled examples used to train the model. However, for the model to be effective in the real world, a test dataset is also needed, which contains new examples not seen during training. The test dataset is used to evaluate the model's performance, verifying whether it has truly learned the task for which it was trained and whether it can generalize correctly to new data. Finally, overfitting is a common problem in supervised learning. It occurs when the model "learns too well" the training dataset, adapting even to noise and irrelevant details, thus losing its ability to generalize to new data. To mitigate this problem, techniques such as regularization or cross-validation are used, which help create more robust models that are less susceptible to errors. Unsupervised Learning Unsupervised Learning is distinguished by the fact that it does not require labeled data. Instead of receiving examples with predefined answers, the machine is left free to explore the data and find patterns or hidden relationships autonomously. This approach is particularly useful when labeled data is not available or when one wants to discover intrinsic structures in the data itself. A classic example of unsupervised learning is clustering, which involves dividing a dataset into groups of similar elements. Clustering is used in a wide range of applications, such as marketing, where it allows for the identification of customer groups with similar purchasing behaviors, enabling the development of targeted strategies for each group. Another example is image analysis, where clustering algorithms are used to compress images by grouping pixels with similar colors, thereby reducing the amount of information needed to represent the image. Among the most well-known clustering algorithms is K-Means, which divides the data into a predefined number of groups by trying to minimize the distance between points within each group and their "centroid." Another important algorithm is DBSCAN, which allows for the identification of clusters of arbitrary shapes and the detection of anomalies or outliers, that is, points that do not belong to any cluster. For example, this is very useful for detecting anomalous behaviors in financial transactions, such as potential fraud. Another important technique in unsupervised learning is dimensionality reduction, which involves reducing the number of variables (or "dimensions") in the dataset while maintaining as much relevant information as possible. This approach is useful for visualizing complex data or simplifying overly intricate models. For example, Principal Component Analysis (PCA) is a technique used to reduce the dimensionality of data, transforming them into a set of principal components that explain most of the variability present. This technique is used in applications ranging from data compression to visualization of complex datasets. A practical use of unsupervised learning is also in anomaly detection. This method allows for the identification of unusual behaviors in a dataset. For instance, in a network of sensors monitoring the temperature of an industrial plant, unsupervised learning can be used to identify anomalies, such as sudden temperature changes that could indicate a technical problem. Unsupervised learning is particularly useful for exploratory data analysis and for discovering hidden patterns that might not be immediately evident. However, because it lacks explicit guidance, the results of unsupervised learning must be interpreted with caution, and often require in-depth analysis by domain experts to be useful. Reinforcement Learning Reinforcement Learning is often described as the most similar to how humans learn. Unlike other types of learning, where the model is trained with labeled data or is left to find patterns in the data, reinforcement learning is based on interaction with an environment. The agent, or algorithm, performs actions and receives rewards or penalties based on the results obtained. The goal is to maximize the total reward in the long term, learning which actions lead to the best outcomes. An intuitive example is that of a robot learning to walk. Initially, the robot makes random movements; if a movement brings it closer to the goal (for example, staying balanced or moving forward in a straight line), it receives a reward. If it falls or moves away from the goal, it receives a penalty. Through this trial-and-error process, the robot gradually learns which sequence of movements is optimal for achieving its goal. One of the best-known examples of reinforcement learning is Google's DeepMind AlphaGo, a system that managed to defeat the best human players in the game of Go. This remarkable achievement was made possible by combining several artificial intelligence techniques, including supervised learning and reinforcement learning. AlphaGo initially analyzed thousands of games played by human experts to learn patterns and strategies, then refined its abilities by playing millions of games against itself. This combination of approaches allowed the system to develop advanced strategies, gradually adapting to complex situations. Go, with its extraordinary complexity and a few combinations that exceeds that of atoms in the universe, is a perfect example to show the effectiveness of these methods, as it is impossible to win by merely memorizing moves. Reinforcement learning is also applied in autonomous vehicles, where the agent must make real-time decisions, such as stopping at a red light, avoiding obstacles, or yielding to pedestrians. Before being tested on real roads, these vehicles are trained in simulated environments, where they can make mistakes without real consequences and learn to minimize risks. There are two main approaches to reinforcement learning: Model-Based and Model-Free. In the Model-Based approach, the agent builds an internal representation of the environment, similar to a map, which it uses to plan its actions. This method can be useful in stable and predictable environments, but becomes ineffective in complex and dynamic environments, where it is not possible to know every variable in advance. The Model-Free approach, on the other hand, is based on directly learning the best actions without attempting to build a complete representation of the environment. An example of this approach is the Q-learning algorithm, which allows the agent to learn the quality of actions in different situations through a trial-and-error process. The Deep Q-Network (DQN) is an advanced version of Q-learning that uses deep neural networks to tackle complex problems with very large action spaces. This type of algorithm has been used, for example, to develop artificial intelligences capable of playing classic video games like those for Atari, learning strategies that were not explicitly programmed but evolved through interaction with the environment. An intriguing aspect of reinforcement learning is its application in contexts where the environment is highly dynamic and decisions must be made in real-time. For example, in financial markets, reinforcement learning algorithms can be used to develop trading strategies, learning to buy and sell stocks in response to market changes to maximize profits. Reinforcement learning is also the foundation of many emerging technologies related to robotics and industrial automation. Robots learning to manipulate objects in complex environments, drones learning to fly while avoiding obstacles, and even autonomous vacuum cleaners optimizing their cleaning paths are all examples of how this technology can be applied to improve machine efficiency and autonomy. However, reinforcement learning is not without challenges. One of the main problems is the exploration-exploitation trade-off: the agent must balance exploring new actions to find better solutions with exploiting known actions to maximize reward. Another issue is the credit assignment problem, that is, the difficulty of determining which of the many actions taken led to the final reward. These aspects make reinforcement learning an extremely dynamic and evolving field, with many open challenges yet to be solved. Ensemble Methods Ensemble Methods represent a powerful and advanced approach within Machine Learning. The idea behind ensemble methods is to combine several learning models to obtain a more robust and accurate model compared to using a single algorithm. Each model within the ensemble contributes to improving the quality of predictions, correcting each other's errors, and reducing the probability of making significant mistakes. A common example of an ensemble method is the Random Forest, which is a collection of decision trees. In this approach, each tree is trained on a different subset of the available data, and the final prediction is made by combining the results of all the trees. The advantage of the Random Forest is that it reduces model variance, improving the ability to generalize to unseen data. Another widespread ensemble method is Bagging (Bootstrap Aggregating). In bagging, multiple models of the same type are generated by training them on different samples of the dataset, obtained through resampling techniques. The final prediction is then calculated by averaging the predictions (in the case of regression) or by a majority vote (in the case of classification). Bagging is particularly effective in reducing the risk of overfitting, especially for algorithms like decision trees that tend to overfit the training data. Boosting is another powerful ensemble method, but unlike bagging, models are trained sequentially so that each new model focuses on the errors made by previous models. In this way, boosting seeks to progressively improve prediction quality, reducing errors at each iteration. Among the most well-known boosting algorithms are AdaBoost, Gradient Boosting, and XGBoost, which are widely used in data science competitions for their ability to achieve extremely accurate predictions. Stacking is another ensemble method in which several base models (also called "base learners") are combined using a higher-level model, called a "meta-model." In practice, the base learners make their predictions on the data, and these predictions are then used as input to train the meta-model, which provides the final prediction. The advantage of stacking is that it allows the strengths of different algorithms to be exploited, obtaining a model that can better adapt to the complexities of the data. The effectiveness of ensemble methods derives from their ability to reduce both variance and bias in Machine Learning models. Variance is reduced thanks to the use of multiple models trained on different data samples, while bias is reduced thanks to the combination of different algorithms that, by working together, can cover each other's weaknesses. However, a potential disadvantage of ensemble methods is that they can be computationally expensive, requiring high computing power and longer training times. Ensemble methods are used in a wide range of applications, from image analysis to natural language processing to financial risk prediction. For example, in computer vision systems, an ensemble of models can be used to improve accuracy in object recognition, while in recommendation systems, such as those used by Netflix or Amazon, ensemble methods help provide more accurate personalized suggestions. Neural Networks and Deep Learning Neural networks are the heart of Deep Learning, a branch of Machine Learning that has gained popularity in recent years thanks to technological advancements and the increased availability of computational power. A neural network consists of layers of artificial "neurons" that work together to analyze and learn from data. This approach is particularly useful for image recognition, natural language processing, and many other complex fields. Neural networks are inspired by the structure of the human brain, in which numerous neurons are interconnected and communicate with each other. Similarly, in artificial neural networks, neurons are connected by weights, which represent the strength of the connection between two neurons. During network training, these weights are adjusted to improve the network's ability to make accurate predictions. Backpropagation, or error backpropagation, is a key method used to train neural networks. It is an algorithm that adjusts the weights of neurons so that the prediction error is minimized, updating each connection proportionally to the error made. This process is repeated over millions of examples until the network can make predictions with high accuracy. Convolutional Networks (CNN) Convolutional Neural Networks, or CNNs, are primarily used for image analysis. CNNs consist of several layers that analyze images by dividing them into small blocks and searching for features such as lines, edges, and textures. Each layer of the network can recognize increasingly complex features, progressing from basic elements like edges to recognizing complete structures like a face. Thanks to this structure, CNNs can recognize objects and patterns in images, making them ideal for applications like facial recognition, medical diagnostics, and handwritten character recognition. A practical example of CNN is image recognition on platforms like Google Photos or Facebook, where neural networks are used to automatically identify people and objects in photos. This process is made possible by the CNNs' ability to learn from visual features and generalize this knowledge to new images never seen before. Recurrent Networks (RNN) Recurrent Neural Networks, or RNNs, are ideal for handling sequential data, such as language and voice. Unlike CNNs, RNNs have a kind of "internal memory" that allows them to keep track of previous information within a sequence of data. This makes them particularly suitable for applications like automatic translation, speech recognition, and text generation. A variant of RNNs is LSTM (Long Short-Term Memory), which improves the ability of recurrent networks to remember long-term information, thus solving some of the typical problems of standard RNNs, such as difficulty in handling long-term dependencies. LSTMs are used, for instance, in voice assistants like Apple's Siri or Amazon's Alexa to understand the context of user requests and respond more accurately. RNNs also find application in text generation, as in language models that can complete sentences or even autonomously write short articles. A concrete example of using RNNs is the automatic generation of video subtitles, where the network must not only understand the language but also adapt to the rhythm and pauses of speech. Generative Adversarial Networks (GAN) Another neural network architecture that has gained great attention in recent years is Generative Adversarial Networks, or GANs. GANs consist of two neural networks competing against each other: a generative network, which tries to create fake data similar to real data, and a discriminative network, which tries to distinguish between real and fake data. This competition process improves both networks, leading to the generation of extremely realistic synthetic data. GANs are used for a variety of creative applications, such as generating images of human faces that never existed, creating digital artworks, and even improving the quality of blurred images. For example, the DeepArt project uses GANs to transform ordinary photos into works of art that imitate the style of famous artists like Van Gogh or Picasso. The Importance of Deep Learning Deep Learning represents a significant evolution compared to traditional neural networks, thanks to its ability to work with deep networks, that is, composed of many layers of neurons. This approach has led to extraordinary results in fields like computer vision and natural language processing, overcoming the limitations of traditional Machine Learning approaches. One of the main reasons for Deep Learning's success is the availability of large amounts of data (the so-called Big Data) and increasingly powerful hardware, such as GPUs (Graphics Processing Units), which allow very complex neural networks to be trained in reasonable times. Moreover, software libraries like TensorFlow, PyTorch, and Keras have made developing Deep Learning models more accessible even for those without specific training in computer engineering. Deep Learning has paved the way for innovations that only a few years ago seemed like science fiction, such as autonomous vehicles, automated medical diagnostics, and human-machine interfaces that understand natural language. However, it is important to emphasize that the use of these technologies must be accompanied by ethical reflection, as neural networks learn from the data they receive, and biased or partial data can lead to erroneous or discriminatory decisions. Conclusions Machine Learning represents a profound transformation in contemporary technological paradigms, but it is equally crucial to understand the strategic and cultural implications that derive from it. The apparent simplicity with which models learn from data masks a complex reality: every phase of the process, from data collection to algorithm selection, is intrinsically shaped by human choices. This underscores the need for a more critical and conscious approach by companies wanting to integrate these technologies. One of the most relevant aspects is the concept of responsibility in the design and implementation of Machine Learning models. While the dominant narrative focuses on technical potential, the role of the objectives and constraints imposed by developers is often overlooked. These apparently neutral algorithms can amplify pre-existing biases in the data, with real effects on decisions affecting people and organizations. Therefore, companies cannot afford to consider Machine Learning as a simple "magic box" to improve performance: they must take on the ethical and operational responsibility of how these models are developed and used. Another crucial point is the dynamism of Machine Learning, which sets it apart from traditional programming approaches. The ability of models to learn from data in real time and adapt to changes makes them powerful but also unpredictable tools. For companies, this implies the need for continuous monitoring and constant evaluation of model performance. In critical contexts, such as finance or healthcare, the risk of model drift (i.e., the degradation of their performance over time) can have devastating consequences. Investing in model monitoring infrastructures is not only a preventive measure but a strategy to maintain a competitive edge. Moreover, Machine Learning is redefining how companies perceive and exploit data. It is no longer just about collecting large amounts of information but extracting strategic value by identifying patterns that would otherwise remain hidden. This requires cross-disciplinary skills that combine technical knowledge with a deep understanding of the business environment. Companies that invest in staff training to understand the functioning and implications of Machine Learning, even at non-technical levels, are better positioned to exploit its potential. Another key element is the role of creativity in applying Machine Learning. While standard solutions can improve efficiency and accuracy, true innovation arises from the ability to imagine unconventional applications. Consider, for example, the use of GANs to create realistic synthetic content: if used with strategic vision, they can open new markets and redefine entire industries, such as fashion, design, or entertainment. However, without adequate governance, these technologies risk being used irresponsibly, undermining public trust. Finally, the convergence between Machine Learning, ethics, and sustainability will be crucial for the future of businesses. Consumers and business partners are increasingly sensitive to the social and environmental implications of technologies. Companies that can demonstrate transparency and commitment to mitigating the risks associated with Machine Learning, such as biases or ecological impacts resulting from intensive computational resource use, will not only protect their reputation but attract investments and retain customers. In summary, Machine Learning is not just a technical tool but a strategic lever that requires a systemic vision. Companies must go beyond initial enthusiasm and pragmatically address the challenges associated with its implementation. Podcast: https://spotifycreators-web.app.link/e/yXeyYFg94Ob
- AI in Italy: From Benefits for Large Companies to Challenges for SMEs
In recent years, Artificial Intelligence (AI) has gained a prominent role in the Italian economic and social landscape. According to data provided by the Artificial Intelligence Observatory of the Politecnico di Milano, the AI market in Italy reached 760 million euros in 2023, with a 52% growth compared to the previous year. This figure highlights the acceleration of initiatives in this sector, particularly among large companies, which account for 90% of investments. However, the adoption of AI is still uneven, with small and medium-sized enterprises (SMEs) struggling to keep up, contributing only 18% of currently implemented AI projects. AI Adoption and Use in Italy: A Fragmented Picture One of the most significant aspects that emerges from the study is the marked disparity in AI adoption between different types of companies. Large companies are the ones investing the most and implementing AI solutions, while SMEs, due to economic and organizational constraints, are slower in their digitalization journey. Six out of ten large companies have already launched at least one AI project, compared to just 18% of SMEs. Generative AI, although representing only 5% of the market (38 million euros), is beginning to find significant applications, especially in areas such as data processing and predictive modeling. This disparity in adoption is also reflected in the strategies and projects undertaken by companies. The study shows that 22% of large companies already have a clear AI strategy, while an additional 13% are beginning to implement one. On the contrary, many SMEs are still in the exploratory phase or do not consider AI a strategic priority. Companies in the industry/manufacturing macro-sector are those most frequently activating AI strategies or projects, with 46% already active in this area, compared to 39% in other sectors. Another critical element is the available economic resources. Large companies have greater financial capacity, allowing them to allocate significant funds towards acquiring new technologies and developing AI solutions. As a result, 90% of total AI investments in Italy are made by large companies, leaving a reduced share for SMEs and Public Administration. Moreover, SMEs are often limited by a lack of internal expertise, which makes it challenging to adopt advanced technologies such as AI without significant external support. Geographic distribution plays an important role in the uneven adoption. Thirty-eight percent of the companies interviewed are based in the northwest of the country, while only 14% are located in the center and 15% in the south. This geographic gap further contributes to a non-uniform distribution of technological innovation and AI-related opportunities, with the more industrialized areas benefiting from greater resources and skills. The lack of training and specific skills represents another obstacle to the widespread adoption of AI. Forty-seven percent of Italian companies are investing in internal personnel training to overcome this barrier, but only 16% are actively hiring new specialized professionals. Companies in the industrial sector appear slightly ahead compared to other sectors in terms of acquiring new skills and technologies, with 74% of manufacturing companies considering it necessary to upgrade their capabilities to make the most of AI's potential. In conclusion, the picture that emerges is one of a two-speed adoption, where large companies manage to benefit more from the opportunities offered by AI, while SMEs continue to struggle with economic, organizational, and training barriers. To bridge this gap, structured support is needed, including economic incentives, training programs, and collaboration initiatives between large companies and SMEs. Only in this way can a more equitable and widespread adoption of AI technologies be ensured within the Italian business fabric. Main Areas of AI Application The applications of AI in Italian companies are diverse, with a particular emphasis on process automation and data analysis. According to the KPMG-IPSOS survey, 46% of companies are using AI to automate processes to improve efficiency and productivity, while 39% leverage data processing models to foster product innovation. Another 37% of the companies surveyed use AI for sales data analysis and to develop predictive models that support strategic planning activities. In addition to these areas, other interesting applications of AI are emerging, such as customer data analysis to create personalized marketing campaigns, an aspect mentioned by 26% of companies. These solutions make it possible to develop more effective and targeted marketing strategies, increasing conversion rates and improving return on investment. Moreover, 23% of companies have implemented chatbots that can interact with customers, answering questions and providing information in real time. This application not only improves customer service but also reduces the operational costs associated with managing support centers. Analyzing transaction patterns to identify suspicious activity and potential fraud represents another important area of application, chosen by 21% of companies. AI's data processing capabilities allow for the detection of anomalies and suspicious behaviors more quickly and accurately than traditional analysis methods, thereby contributing to corporate security and the prevention of financial fraud. Another sector in which AI is applied is systems for voice, image, and video recognition, adopted by 11% of companies to enhance security. These tools are used in areas such as access control, video surveillance, and monitoring of production activities, contributing to improved overall security and operational efficiency. AI technologies are seen to enhance human cognitive activities, with an impact that goes beyond simple automation. Indeed, AI is employed to support strategic decision-making (30%) and improve customer service (28%). The ability to process large amounts of data quickly and accurately allows managers to make more informed decisions, thereby improving the quality of business strategy and adaptation to market changes. These applications demonstrate that AI is not just a tool for improving operational efficiency but has the potential to transform how companies interact with customers, develop products, and manage their internal operations. Integrating AI into various corporate areas is enabling Italian companies to create new business models centered on innovation and personalized offerings. Challenges for AI Adoption Despite the enthusiasm surrounding AI adoption, there are numerous challenges that companies must face. One of the main challenges is cultural transformation, indicated as the greatest obstacle by 37% of the companies surveyed. In addition, the need to upgrade employee skills is a significant problem for 34% of companies, followed by the implementation of new production and operational processes (33%). Only 22% of companies perceive implementation costs as a crucial problem, suggesting that the main difficulties lie more in managing change than in mere financial aspects. The challenges related to AI introduction are not limited to the technological aspect but also involve the ability to manage cultural transition and organizational change. Finding the right combination of human capital and technological capital is identified by 27% of companies as a significant challenge. This balance is crucial for fully exploiting AI's potential without alienating workers. Additionally, compliance with regulatory and legislative implications is perceived as an obstacle by 13% of companies, highlighting the need to adhere to an ever-evolving legal framework that often imposes stringent constraints on AI use. An important aspect is the need for clear and structured governance for AI adoption. Indeed, 37% of companies believe that defined governance models are necessary to ensure that AI is developed and used responsibly and reliably. Internal staff training, indicated by 59% of companies, emerges as the most relevant factor for overcoming employee resistance and fostering AI acceptance. Only 19% of companies foresee significant difficulties in gaining employee acceptance, while 57% believe there will be no significant obstacles, suggesting a certain optimism regarding the ability to integrate AI without generating strong resistance. The issue of skills also plays a crucial role in managing challenges. Employee training and retraining are seen as indispensable tools for tackling change: 47% of companies are investing in staff training to develop AI-related skills, while only 16% are hiring new specialized figures. However, the standardization of skills, due to the adoption of generative AI technologies, could lead to a reduction in differences between high- and low-performing workers, making the workforce more homogeneous but less differentiated in distinctive abilities. In conclusion, the challenges for AI adoption are manifold and require an integrated approach that combines technological, training, and organizational aspects. Companies must not only invest in technological infrastructures but also develop a change management plan that involves staff and creates a corporate culture ready to embrace innovation. This path, although complex, is a necessity to remain competitive in an increasingly technology-driven economic environment. Benefits and Future Prospects The benefits of adopting artificial intelligence in Italian companies go beyond mere productivity gains and cost reductions. According to the study, three out of four companies believe that AI can significantly improve the internal economic situation of the company. This figure rises to 81% among companies that have already activated AI projects, demonstrating a high degree of confidence in the long-term benefits that these technologies can bring. The positive economic impact of AI is particularly felt in large companies, where 77% of respondents expect improvements, compared to 69% of SMEs. AI adoption is also profoundly influencing corporate leadership models. According to 95% of respondents, AI will allow managers to assume a more strategic role, freeing them from operational and routine tasks and allowing them to focus on decisions with a greater impact on the company. This change, which leads to a redistribution of responsibilities within the organization, can contribute to improving overall efficiency and making the company more agile and responsive to market dynamics. Another benefit concerns AI's ability to foster a more collaborative and innovation-centered work environment. AI technologies are indeed seen not just as automation tools but as "augmentation" tools, technologies that enhance human capabilities. This vision is particularly important in a Human Innovation perspective, where people remain at the center of the transformation process, and AI becomes a partner to enhance human contributions within the organization. In terms of innovation, only 13% of companies have reported AI's ability to innovate products and services as a main benefit, suggesting that the full potential of AI in this area is not yet fully exploited. However, 23% of companies indicated an improvement in acquiring and managing new customers as an important result of adopting AI solutions. This shows that AI can also play a significant role in business growth, not only by optimizing internal processes but also by directly contributing to improving market performance. Furthermore, AI is changing the competitive landscape, promoting the adoption of new, more scalable, and data-oriented business models. AI-driven companies tend to break down traditional silos, becoming more integrated and capable of continuously collecting, analyzing, and using data to improve decision-making processes and service quality. This approach not only improves internal efficiency but also enables companies to be more agile in adapting to market changes and to gain a sustainable competitive advantage. From a skills perspective, AI adoption requires a significant investment in employee training. However, it is not just about developing technical skills but also about promoting soft skills such as problem-solving and critical thinking, which are essential for fully exploiting AI's potential. The ability to adapt and understand the interaction between technology and human processes is crucial for long-term success. Companies are therefore promoting specific training programs to ensure that staff are prepared to manage these new technologies and integrate them effectively into business processes. Impact on Business Models AI adoption is also having a significant impact on business models. Sixty-four percent of the companies interviewed believe that AI will change their business model, with particularly relevant effects in production (indicated by 59% of respondents), sales (32%), and personnel organization (29%). This transformation will require a rethinking of business strategies and operating models, including greater collaboration between functions and the adoption of more agile ways of working open to innovation. According to the KPMG-IPSOS report, AI is becoming the core of companies' operating models, representing a true paradigm shift that changes the way of doing business. AI is no longer considered just a tool to improve efficiency or reduce costs but has become the universal engine that drives business transformation. This change implies a break from traditional silos and a reorganization towards greater scalability and flexibility. For example, AI-driven companies like MyBank, Amazon, and Zara have shown that integrating AI into operational processes not only improves service quality but also allows for the creation of a new value creation model, based on continuous learning from data collected in real-time. This transformation goes beyond simple technological application, as it redesigns how companies interact with markets and consumers. According to 95% of respondents, the introduction of AI will lead to a more strategic role for managers, freeing them from more operational tasks and allowing them to focus on creating new growth opportunities. AI indeed enables a better understanding of customer needs and supports the adoption of new business models oriented towards open innovation, in which collaboration with external partners and the collection of real-time insights become central to business success. Moreover, AI pushes companies to rethink their alliance ecosystem. The creation of strategic partnerships, even with companies from different sectors, represents one of the main opportunities for growth and differentiation from competitors. An AI-driven company can indeed offer more personalized products and services, increasing overall efficiency and leveraging an extended ecosystem of skills and resources. Conclusions The adoption of artificial intelligence represents a turning point for Italian companies, but only conscious leadership can ensure its full potential is harnessed. Strategic AI management requires an integrated vision that goes beyond mere technological fascination, shifting the focus from technology to the concrete goal of solving business problems. AI is not an end but a means to enhance organizations' decision-making and operational capabilities. However, many initiatives fail due to a disconnect between business objectives and technical design, often exacerbated by inadequate infrastructure and poor-quality data. For Italian SMEs, which struggle to keep up with large companies, AI integration must not be seen as a luxury but as a competitive necessity. This requires targeted public incentives and a collaborative culture between large companies and SMEs to share skills and resources. AI technology adoption can be transformative, but only if continuous training and the building of robust digital infrastructures are invested in. A critical area is data management. The quality and relevance of corporate data are not just technical issues but strategic decisions. Organizations must treat data as an asset, investing in data engineering and infrastructure capable of supporting scalable AI projects. Companies that do not adopt this vision risk losing competitiveness, remaining trapped in cycles of failure due to structural deficiencies. Corporate leadership must also address the cultural change necessary to integrate AI into decision-making processes. AI democratization requires inclusive governance that balances technological innovation and human capital. This means creating collaborative environments where technicians and executives work together to translate strategic needs into practical technical solutions. Only leadership capable of listening and learning can build trust in AI and harness its potential without falling into unrealistic expectations. Finally, it is crucial to shift the focus from immediate AI applications to its strategic role as a catalyst for new business models. AI offers the opportunity to redesign business processes for greater scalability, agility, and personalized offerings. This does not only imply adopting technology but building a new business ecosystem capable of generating value through continuous learning from data. Podcast: https://spotifycreators-web.app.link/e/RJW1VHHI3Ob Source: https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html
- AI in Italia, dai benefici per le grandi imprese alle sfide delle PMI
Negli ultimi anni, l'intelligenza artificiale (AI) ha acquisito un ruolo di primo piano nel panorama economico e sociale italiano. Secondo i dati forniti dall'Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato dell'AI in Italia ha raggiunto i 760 milioni di euro nel 2023, con una crescita del 52% rispetto all'anno precedente. Questo dato evidenzia l'accelerazione delle iniziative in questo settore, in particolare tra le grandi aziende, che rappresentano il 90% degli investimenti. Tuttavia, l'adozione dell'AI è ancora disomogenea, con le piccole e medie imprese (PMI) che stentano a tenere il passo, contribuendo solo al 18% dei progetti di AI attualmente implementati. Adozione e utilizzo dell'AI in Italia: un quadro disomogeneo Uno degli aspetti più significativi che emerge dallo studio è la forte disomogeneità nell'adozione dell'AI tra le diverse tipologie di imprese. Le grandi aziende sono quelle che più investono e implementano soluzioni di AI, mentre le PMI, a causa di limitazioni economiche e organizzative, risultano più lente nel loro percorso di digitalizzazione. Sei grandi aziende su dieci hanno già avviato almeno un progetto di AI, contro solo il 18% delle PMI. La Generative AI, seppur rappresentando solo il 5% del mercato (38 milioni di euro), sta cominciando a trovare applicazioni significative, soprattutto in settori come l'elaborazione dati e la creazione di modelli predittivi. Questa disparità nell'adozione si riflette anche nelle strategie e nei progetti intrapresi dalle aziende. Dallo studio emerge che il 22% delle grandi aziende ha già una strategia chiara sull'AI, mentre un ulteriore 13% sta iniziando a implementarla. Al contrario, molte PMI rimangono ancora alla fase esplorativa o non considerano l'AI una priorità strategica. Le aziende del macrosettore industria/manifattura sono quelle che più frequentemente hanno attivato strategie o progetti di AI, con il 46% già attive in questo ambito, contro il 39% degli altri settori. Un altro elemento di criticità è rappresentato dalle risorse economiche disponibili. Le grandi aziende hanno maggiori capacità finanziarie, il che permette loro di allocare fondi significativi verso l'acquisizione di nuove tecnologie e lo sviluppo di soluzioni AI. Questo si traduce nel fatto che il 90% degli investimenti totali in AI in Italia è realizzato dalle grandi imprese, lasciando una quota ridotta alle PMI e alla Pubblica Amministrazione. Inoltre, le PMI sono spesso limitate da una mancanza di competenze interne, cosa che rende difficile l'adozione di tecnologie avanzate come l'AI senza un significativo supporto esterno. La distribuzione geografica gioca un ruolo importante nella disomogeneità dell'adozione. Il 38% delle aziende intervistate ha sede nel nord-ovest del Paese, mentre solo il 14% si trova al centro e il 15% al sud. Questo divario geografico contribuisce ulteriormente a una distribuzione non uniforme dell'innovazione tecnologica e delle opportunità legate all'AI, con le aree più industrializzate che beneficiano di maggiori risorse e competenze. La mancanza di formazione e competenze specifiche rappresenta un ulteriore ostacolo per l'adozione diffusa dell'AI. Il 47% delle aziende italiane sta investendo nella formazione del personale interno per superare questa barriera, ma solo il 16% sta attivamente assumendo nuove figure professionali specializzate. Le aziende del settore industriale appaiono leggermente più avanti rispetto agli altri settori in termini di acquisizione di nuove competenze e tecnologie, con il 74% delle aziende del comparto manifatturiero che ritiene necessario aggiornare le proprie capacità per sfruttare al meglio le potenzialità dell'AI. In conclusione, il quadro che emerge è quello di un'adozione a due velocità, in cui le grandi aziende riescono a beneficiare maggiormente delle opportunità offerte dall'AI, mentre le PMI continuano a lottare con barriere economiche, organizzative e formative. Per colmare questo divario, è necessario un supporto strutturato, che includa incentivi economici, programmi di formazione e iniziative di collaborazione tra grandi aziende e PMI. Solo in questo modo si potrà garantire un'adozione più equa e diffusa delle tecnologie AI nel tessuto imprenditoriale italiano. Le principali aree di applicazione dell'AI Le applicazioni dell'AI nelle aziende italiane sono diversificate, con un'enfasi particolare sull'automazione dei processi e sull'analisi dei dati. Secondo il sondaggio KPMG-IPSOS, il 46% delle aziende sta utilizzando l'AI per automatizzare i processi al fine di migliorare l'efficienza e la produttività, mentre il 39% sfrutta modelli di elaborazione dati per favorire l'innovazione di prodotto. Un altro 37% delle aziende intervistate utilizza l'AI per l'analisi dei dati di vendita e per sviluppare modelli predittivi utili a supportare le attività di pianificazione strategica. Oltre a questi ambiti, emergono altre applicazioni interessanti dell'AI, quali l'analisi dei dati dei clienti per creare campagne di marketing personalizzate, un aspetto citato dal 26% delle aziende. Queste soluzioni consentono di sviluppare strategie di marketing più efficaci e mirate, aumentando il tasso di conversione e migliorando il ritorno sugli investimenti. Inoltre, il 23% delle aziende ha implementato chatbot che possono interagire con i clienti, rispondendo alle domande e fornendo informazioni in tempo reale. Questa applicazione non solo migliora il servizio clienti, ma riduce anche i costi operativi legati alla gestione dei centri di supporto. L'analisi dei modelli di transazioni per identificare attività sospette e potenziali frodi rappresenta un'altra importante area di applicazione, scelta dal 21% delle aziende. Le capacità di elaborazione dei dati dell'AI permettono di rilevare anomalie e comportamenti sospetti con una velocità e una precisione superiori rispetto ai tradizionali metodi di analisi, contribuendo così alla sicurezza aziendale e alla prevenzione delle frodi finanziarie. Un altro settore in cui l'intelligenza artificiale viene applicata è quello dei sistemi per il riconoscimento vocale, delle immagini e dei video, adottati dall'11% delle aziende con l'obiettivo di potenziare la sicurezza. Questi strumenti trovano utilizzo in ambiti come il controllo degli accessi, la videosorveglianza e il monitoraggio delle attività produttive, contribuendo a migliorare sia la sicurezza generale sia l'efficienza operativa. Le tecnologie AI sono viste come un mezzo per potenziare le attività cognitive delle persone, con un impatto che va oltre la semplice automazione. Infatti, l'AI viene impiegata per supportare le decisioni strategiche (30%) e migliorare il servizio clienti (28%). La capacità di elaborare grandi quantità di dati in modo rapido e accurato consente ai manager di prendere decisioni più informate, migliorando così la qualità della strategia aziendale e l'adattamento ai cambiamenti del mercato. Queste applicazioni dimostrano che l'AI non è soltanto uno strumento per migliorare l'efficienza operativa, ma ha il potenziale di trasformare il modo in cui le aziende interagiscono con i clienti, sviluppano prodotti e gestiscono le proprie operazioni interne. In particolare, l'integrazione dell'AI nelle diverse aree aziendali sta permettendo alle aziende italiane di creare nuovi modelli di business, che mettono al centro l'innovazione e la personalizzazione dell'offerta. Le sfide per l'adozione dell'AI in Italia Nonostante l'entusiasmo che circonda l'adozione dell'AI, ci sono numerose sfide che le aziende devono affrontare. Una delle principali è la trasformazione culturale, indicata come il maggiore ostacolo dal 37% delle aziende intervistate. Inoltre, la necessità di aggiornare le competenze del personale è una problematica significativa per il 34% delle imprese, seguita dall'implementazione di nuovi processi produttivi e operativi (33%). Solo il 22% delle aziende percepisce i costi di implementazione come un problema cruciale, suggerendo che le difficoltà principali risiedono più nella gestione del cambiamento che nei meri aspetti finanziari. Le sfide legate all'introduzione dell'AI non si limitano solo all'aspetto tecnologico, ma coinvolgono anche la capacità di gestire la transizione culturale e il cambiamento organizzativo. Trovare la giusta combinazione tra capitale umano e capitale tecnologico è indicato dal 27% delle aziende come una sfida importante. Questo equilibrio risulta fondamentale per sfruttare appieno le potenzialità dell'AI senza alienare i lavoratori. In aggiunta, il rispetto delle implicazioni normative e regolamentari viene percepito come un ostacolo dal 13% delle imprese, indicando la necessità di conformarsi a un quadro giuridico in costante evoluzione, che spesso impone vincoli stringenti all'uso dell'AI. Un aspetto non trascurabile è la necessità di una governance chiara e strutturata per l'adozione dell'AI. Infatti, il 37% delle aziende ritiene che siano necessari modelli di governance definiti per garantire che l'AI venga sviluppata e utilizzata in modo responsabile e affidabile. La formazione interna del personale, indicata dal 59% delle aziende, emerge come il fattore più rilevante per superare la resistenza dei dipendenti e favorire l'accettazione dell'AI. Solo il 19% delle aziende prevede significative difficoltà nell'ottenere l'accettazione da parte dei dipendenti, mentre il 57% ritiene che non ci saranno ostacoli significativi, suggerendo un certo ottimismo riguardo alla capacità di integrare l'AI senza generare forte resistenza. Anche il tema delle competenze gioca un ruolo cruciale nella gestione delle sfide. La formazione e la riqualificazione dei dipendenti sono viste come strumenti indispensabili per affrontare il cambiamento: il 47% delle aziende sta investendo nella formazione del personale per sviluppare competenze in ambito AI, mentre solo il 16% sta assumendo nuove figure specializzate. Tuttavia, la standardizzazione delle competenze, dovuta all'adozione di tecnologie AI generative, potrebbe portare a una riduzione delle differenze tra lavoratori ad alta e bassa performance, rendendo la forza lavoro più omogenea ma meno differenziata nelle capacità distintive. In conclusione, le sfide per l'adozione dell'AI sono molteplici e richiedono un approccio integrato che combini aspetti tecnologici, formativi e organizzativi. Le aziende devono non solo investire nelle infrastrutture tecnologiche, ma anche sviluppare un piano di gestione del cambiamento che coinvolga il personale e crei una cultura aziendale pronta ad abbracciare l'innovazione. Questo percorso, per quanto complesso, rappresenta una necessità per rimanere competitivi in un contesto economico sempre più guidato dalla tecnologia. Benefici e prospettive future dell'AI in Italia I benefici dell'adozione dell'intelligenza artificiale nelle aziende italiane vanno oltre il mero incremento di produttività e riduzione dei costi di produzione. Secondo lo studio, tre aziende su quattro ritengono che l'AI possa migliorare significativamente la situazione economica interna dell'impresa. Questo dato si innalza all'81% tra le aziende che hanno già attivato progetti AI, dimostrando un elevato grado di fiducia nei vantaggi a lungo termine che queste tecnologie possono apportare. L'impatto economico positivo dell'AI è particolarmente sentito nelle grandi imprese, dove il 77% degli intervistati prevede miglioramenti, rispetto al 69% delle PMI. L'adozione dell'AI sta anche influenzando profondamente i modelli di leadership aziendale. Secondo il 95% degli intervistati, l'AI consentirà ai manager di assumere un ruolo più strategico, liberandoli da compiti operativi e routinari e permettendo loro di concentrarsi su decisioni di maggiore impatto per l'azienda. Questo cambiamento, che porta a una redistribuzione delle responsabilità all'interno dell'organizzazione, può contribuire a migliorare l'efficienza complessiva e a rendere l'azienda più agile e reattiva alle dinamiche di mercato. Un altro beneficio riguarda la capacità dell'AI di favorire un ambiente di lavoro più collaborativo e centrato sull'innovazione. Le tecnologie AI, infatti, sono viste non solo come strumenti di automazione, ma come strumenti di "augmentation", ovvero tecnologie che potenziano le capacità umane. Questa visione è particolarmente importante in un'ottica di Human Innovation, dove le persone rimangono al centro del processo di trasformazione e l'AI diventa un partner per migliorare il contributo umano all'interno dell'organizzazione. In termini di innovazione, solo il 13% delle aziende ha segnalato la capacità dell'AI di innovare prodotti e servizi come un beneficio principale, suggerendo che il pieno potenziale dell'AI in questo ambito non è ancora completamente sfruttato. Tuttavia, il 23% delle aziende ha indicato un miglioramento nella capacità di acquisire e gestire nuovi clienti come un importante risultato dell'adozione di soluzioni AI. Questo dimostra come l'AI possa anche giocare un ruolo significativo nella crescita del business, non solo ottimizzando processi interni, ma contribuendo direttamente al miglioramento delle performance di mercato. Inoltre, l'AI sta cambiando il panorama competitivo, favorendo l'adozione di nuovi modelli di business più scalabili e orientati ai dati. Le aziende AI-driven tendono a rompere i silos tradizionali, diventando più integrate e capaci di raccogliere, analizzare e utilizzare dati in maniera continuativa per migliorare i processi decisionali e la qualità dei servizi. Questo approccio non solo migliora l'efficienza interna, ma consente alle aziende di essere più agili nell'adattarsi ai cambiamenti del mercato e di ottenere un vantaggio competitivo sostenibile. Dal punto di vista delle competenze, l'adozione dell'AI richiede un notevole investimento nella formazione del personale. Tuttavia, non si tratta solo di sviluppare competenze tecniche, ma anche di promuovere soft skills come il problem solving e il pensiero critico, che sono essenziali per sfruttare appieno il potenziale dell'AI. La capacità di adattarsi e di comprendere l'interazione tra tecnologia e processi umani è fondamentale per il successo a lungo termine. Le aziende stanno quindi promuovendo programmi di formazione specifici per assicurarsi che il personale sia preparato a gestire queste nuove tecnologie e a integrarle efficacemente nei processi aziendali. Impatti dell'AI sul modello di business L'adozione dell'AI sta anche avendo un impatto significativo sui modelli di business. Il 64% delle aziende intervistate ritiene che l'AI cambierà il proprio modello di business, con effetti particolarmente rilevanti nell'area della produzione (indicata dal 59% degli intervistati), nelle vendite (32%) e nell'organizzazione del personale (29%). Questa trasformazione richiederà un ripensamento delle strategie aziendali e dei modelli operativi, includendo una maggiore collaborazione tra funzioni e l'adozione di modalità di lavoro più agili e aperte all'innovazione. Secondo il report KPMG-IPSOS, l'AI sta diventando il cuore dei modelli operativi delle aziende, rappresentando un vero e proprio cambio di paradigma che modifica il modo di fare business. L'AI non è più considerata solo uno strumento per migliorare l'efficienza o ridurre i costi, ma diventa il motore universale che guida la trasformazione aziendale. Questo cambiamento implica una rottura con i silos tradizionali e una riorganizzazione in ottica di maggiore scalabilità e flessibilità. Ad esempio, le aziende AI-driven come MyBank, Amazon, e Zara hanno dimostrato che l'integrazione dell'AI nei processi operativi non solo migliora la qualità dei servizi, ma consente anche di creare un nuovo modello di creazione di valore, basato su un apprendimento continuo grazie ai dati raccolti in tempo reale. Questa trasformazione va oltre la semplice applicazione tecnologica, poiché ridisegna il modo in cui le aziende interagiscono con i mercati e i consumatori. Secondo il 95% degli intervistati, l'introduzione dell'AI comporterà un ruolo più strategico per i manager, liberandoli dai compiti più operativi e permettendo loro di focalizzarsi sulla creazione di nuove opportunità di crescita. L'AI consente infatti una migliore comprensione dei bisogni dei clienti e favorisce l'adozione di nuovi modelli di business orientati all'open innovation, nei quali la collaborazione con partner esterni e la raccolta di insight in tempo reale diventa centrale per il successo aziendale. Inoltre, l'AI spinge le aziende a ripensare il proprio ecosistema di alleanze. La creazione di partnership strategiche, anche con aziende di settori diversi, rappresenta una delle principali opportunità di crescita e di differenziazione rispetto ai concorrenti. Un'azienda AI-driven può infatti offrire prodotti e servizi più personalizzati, incrementando l'efficienza complessiva e sfruttando un ecosistema esteso di competenze e risorse. Conclusioni L'adozione dell'intelligenza artificiale rappresenta una svolta per le aziende italiane, ma solo una leadership consapevole può garantire il pieno sfruttamento delle sue potenzialità. La gestione strategica dell'AI richiede una visione integrata che superi la semplice fascinazione tecnologica , spostando l'attenzione dalla tecnologia all'obiettivo concreto di risolvere problemi di business. L'AI non è un fine, ma un mezzo per potenziare la capacità decisionale e operativa delle organizzazioni. Tuttavia, gran parte delle iniziative fallisce a causa di una disconnessione tra obiettivi aziendali e progettazione tecnica, spesso aggravata da infrastrutture inadeguate e dati di scarsa qualità. Per le PMI italiane, che faticano a tenere il passo rispetto alle grandi imprese, l'integrazione dell'AI non deve essere percepita come un lusso, ma come una necessità competitiva . Questo richiede incentivi pubblici mirati e una cultura collaborativa tra grandi aziende e PMI per condividere competenze e risorse. L'adozione di tecnologie AI può essere trasformativa, ma solo se si investe in formazione continua e nella costruzione di infrastrutture digitali robuste. Un'area critica è rappresentata dalla gestione dei dati. La qualità e la pertinenza dei dati aziendali non sono solo questioni tecniche, ma decisioni strategiche . Le organizzazioni devono trattare i dati come un asset, investendo in ingegneria dei dati e infrastrutture capaci di supportare progetti di AI scalabili. Le imprese che non adottano questa visione rischiano di perdere competitività, restando intrappolate in cicli di fallimenti dovuti a carenze strutturali. La leadership aziendale deve anche affrontare il cambiamento culturale necessario per integrare l'AI nei processi decisionali. La democratizzazione dell'AI richiede una governance inclusiva, che bilanci innovazione tecnologica e capitale umano . Questo significa creare ambienti collaborativi dove tecnici e dirigenti lavorano insieme per tradurre le esigenze strategiche in soluzioni tecniche praticabili. Solo una leadership capace di ascoltare e imparare potrà costruire fiducia nell'AI e sfruttarne le potenzialità senza cadere in aspettative irrealistiche. Infine, è cruciale spostare il focus dalle applicazioni immediate dell'AI al suo ruolo strategico come catalizzatore di nuovi modelli di business. L'AI offre l'opportunità di ridisegnare i processi aziendali in ottica di maggiore scalabilità, agilità e personalizzazione dell'offerta . Questo non implica solo l'adozione di una tecnologia, ma la costruzione di un nuovo ecosistema aziendale in grado di generare valore attraverso l'apprendimento continuo dai dati. Podcast: https://spotifycreators-web.app.link/e/sA1efb1H3Ob Fonte: https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html
- Potenziale delle Blockchain Permissionless nei servizi finanziari
Le blockchain permissionless rappresentano una prospettiva innovativa per migliorare l'infrastruttura finanziaria tradizionale. Questo articolo si basa su una ricerca condotta da Fabian Schär dell'Università di Basilea e preparata per la Commissione Europea, Direzione Generale per la Stabilità Finanziaria, Servizi Finanziari e Unione dei Mercati dei Capitali. La ricerca è stata completata nell'ottobre 2024, con il supporto di Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler e Dario Thürkauf, e ha coinvolto anche la collaborazione del Centro per le Politiche Orizzontali B4 per la Finanza Digitale. Questo articolo si concentra sulle caratteristiche fondamentali, sui vantaggi potenziali e sulle sfide che queste tecnologie possono portare al settore finanziario, esaminando in particolare come la loro neutralità, l'inclusività e la trasparenza possano favorire l'interoperabilità e la competizione nel mercato finanziario globale. Introduzione alla tecnologia Blockchain Le blockchain permissionless si basano su una rete di nodi distribuiti che operano senza la necessità di una autorità centrale per garantire la fiducia tra le parti. Questa struttura decentralizzata è essenziale per assicurare che chiunque possa partecipare alla rete senza restrizioni, consentendo una neutralità totale e garantendo un accesso trasparente. Nelle blockchain permissionless, ogni nodo è uguale, e non esistono intermediari che possano alterare o influenzare le transazioni senza il consenso di tutta la rete. Uno degli elementi centrali che definisce la blockchain permissionless è la capacità di transazione . Nella ricerca allegata, viene evidenziato come la capacità di elaborare transazioni nelle blockchain permissionless sia, al momento, limitata rispetto ai sistemi finanziari tradizionali. Le blockchain come Bitcoin ed Ethereum, ad esempio, possono gestire rispettivamente solo circa 7 e 30 transazioni al secondo, a fronte delle decine di migliaia di transazioni per secondo elaborate da reti centralizzate come Visa. Questo rappresenta una sfida importante, specialmente se le blockchain devono supportare volumi globali di attività finanziaria. Tuttavia, tecniche innovative come lo sharding e i protocolli Layer 2 (ad esempio rollup e canali di stato) stanno cercando di migliorare la scalabilità senza compromettere la decentralizzazione della rete. La legittimità delle transazioni è un altro aspetto fondamentale. Ogni transazione deve essere verificata crittograficamente per garantire la sicurezza e l'integrità della rete. L'uso di firme crittografiche assicura che solo il possessore di una specifica chiave privata possa autorizzare una transazione. Questa legittimità viene gestita tramite due principali modelli: il modello UTXO (Unspent Transaction Output), utilizzato da Bitcoin, e il modello account-based , adottato da Ethereum. Nel modello UTXO, ogni transazione traccia gli output non spesi, creando una sorta di catena di valore che aumenta la sicurezza e la tracciabilità. Al contrario, nel modello account-based, ogni account ha un saldo associato, e la transazione riduce semplicemente il saldo del mittente e lo aumenta per il destinatario. Entrambi i modelli hanno vantaggi e svantaggi: il modello UTXO, ad esempio, offre una maggiore privacy, mentre il modello account-based risulta più intuitivo per chi ha familiarità con i sistemi finanziari tradizionali. Per mantenere la coerenza dello stato del registro, la blockchain utilizza meccanismi di consenso distribuito , come il Proof of Work (PoW) e il Proof of Stake (PoS) . Il PoW, utilizzato da Bitcoin, garantisce la sicurezza della rete richiedendo ai nodi di risolvere complessi problemi matematici, con un elevato dispendio energetico. Il PoS, adottato da Ethereum con il passaggio a Ethereum 2.0, offre un'alternativa più sostenibile, basata sul possesso di token che vengono messi in staking per partecipare al processo di consenso. Entrambi i meccanismi sono progettati per garantire che la rete raggiunga un accordo comune, anche in presenza di attori malevoli, assicurando l'integrità e la sicurezza della blockchain. Un altro aspetto importante della blockchain permissionless è la programmabilità grazie agli smart contract. Questi contratti permettono di automatizzare operazioni complesse come prestiti, assicurazioni e transazioni di derivati senza la necessità di intermediari. Tuttavia, la ricerca evidenzia che questi smart contract sono tanto sicuri quanto il codice che li definisce. Le vulnerabilità nel codice possono portare a problemi di sicurezza significativi, come è stato evidenziato da alcuni noti incidenti di hacking su protocolli DeFi (Decentralized Finance). Inoltre, la blockchain opera su un'infrastruttura di rete peer-to-peer (P2P) , dove tutti i nodi partecipano alla condivisione delle informazioni senza bisogno di un server centrale. Questo aumenta la resilienza della rete, poiché non esiste un singolo punto di fallimento che possa compromettere l'intero sistema. Ogni nodo mantiene una mempool , ovvero una coda di transazioni in attesa di essere incluse nella blockchain. Il processo di selezione delle transazioni dalla mempool è fondamentale per garantire l'efficienza e l'equità nella conferma delle operazioni. Infine, il concetto di consenso sulla sequenza delle transazioni rappresenta un aspetto cruciale per il funzionamento della blockchain. La sequenza delle transazioni può influenzare l'esito delle stesse, specialmente in applicazioni DeFi, dove l'ordine delle operazioni può determinare la differenza tra guadagnare o perdere valore (fenomeno noto come Maximal Extractable Value - MEV ). Soluzioni per mitigare i rischi legati al MEV includono meccanismi di ordinamento agnostico rispetto al contenuto delle transazioni e l'adozione di protocolli come la proposer-builder separation (PBS) . Questi elementi costituiscono la base tecnologica delle blockchain permissionless e ne definiscono i vantaggi e le sfide rispetto ai sistemi finanziari tradizionali. L'obiettivo finale è quello di creare un'infrastruttura finanziaria più aperta, trasparente e inclusiva, ma per raggiungere questo traguardo è necessaria una continua innovazione sia tecnologica che regolamentare. Vantaggi e funzionalità delle Blockchain Permissionless Uno dei principali punti di forza delle blockchain permissionless è la loro programmabilità . Grazie ai contratti smart, è possibile automatizzare diverse operazioni finanziarie, come l'esecuzione di pagamenti e la gestione di prestiti. Tuttavia, la vera innovazione non è la semplice capacità di programmare processi, quanto piuttosto la capacità di farlo su una base neutrale e condivisa, senza la necessità di intermediari fidati. In questo modo, si eliminano potenziali punti di vulnerabilità e si riducono i costi associati a terzi. Un altro aspetto fondamentale della blockchain permissionless è la composability , che consente di creare nuovi servizi e prodotti finanziari sfruttando la capacità di combinare diversi protocolli e asset all'interno della stessa rete. Questo approccio permette la costruzione di soluzioni innovative, come l'integrazione di protocolli di prestito in mercati di derivati, aumentando così la flessibilità e la modularità dell'ecosistema finanziario. Secondo la ricerca, la composability è uno dei fattori principali che spinge verso la formazione di un livello base dominante, poiché consente di massimizzare gli effetti di rete e di creare un ecosistema paragonabile a quello di un'economia di piattaforma. La liquidità è un ulteriore beneficio cruciale derivante dall'uso delle blockchain permissionless. Grazie alla possibilità di avere asset diversi e numerosi protocolli disponibili sulla stessa piattaforma, l'integrazione di liquidità da diverse fonti diventa più semplice e immediata. Questo vantaggio è particolarmente evidente nei decentralized exchanges (DEX) , dove asset tokenizzati possono essere scambiati senza necessità di un intermediario centralizzato, garantendo tempi di regolamento più rapidi e costi di transazione inferiori rispetto alle borse tradizionali. Un'altra caratteristica distintiva è l' atomicità delle transazioni. L'atomicità garantisce che tutte le operazioni di una transazione siano eseguite contemporaneamente, eliminando il rischio di fallimento parziale. Questa proprietà è particolarmente utile nel contesto di transazioni finanziarie complesse, come le operazioni di delivery versus payment (DvP) , in cui entrambe le controparti vogliono essere sicure che la consegna dell'asset e il pagamento avvengano simultaneamente. La blockchain permette l'esecuzione di queste transazioni in modo totalmente automatizzato e sicuro. Le blockchain permissionless migliorano anche la trasparenza e la neutralità delle operazioni finanziarie. Poiché ogni transazione è registrata su un registro pubblico, diventa possibile verificare in modo indipendente la validità delle transazioni e monitorare i flussi di valore all'interno della rete. Questo livello di trasparenza è stato riconosciuto nella ricerca come un importante vantaggio per ridurre le asimmetrie informative e per garantire che nessun attore possa avere vantaggi ingiustificati a discapito degli altri partecipanti. Inoltre, la neutralità delle blockchain permissionless elimina la necessità di intermediari con il potere di discriminare l'accesso o di imporre regole arbitrarie, favorendo un'infrastruttura più equa e aperta. Infine, l'adozione delle blockchain permissionless può ridurre la dipendenza dalle infrastrutture centralizzate, mitigando così i rischi associati alla concentrazione del potere di mercato. Come evidenziato nella ricerca, le piattaforme centralizzate, se non regolamentate adeguatamente, possono esercitare un potere eccessivo, estrarre rendite economiche e creare problemi di lock-in per gli utenti. Le blockchain permissionless, invece, favoriscono la concorrenza e l'innovazione, consentendo la nascita di nuovi attori che possono contribuire a migliorare l'offerta di servizi finanziari. Sfide: scalabilità, privacy e sequenziamento delle transazioni Nonostante i vantaggi, le blockchain permissionless presentano diverse sfide che devono essere superate per poter essere utilizzate come base per i servizi finanziari tradizionali. La prima sfida è la scalabilità . Attualmente, la maggior parte delle blockchain ha difficoltà a gestire grandi volumi di transazioni. Aumentare la capacità di elaborazione senza sacrificare la decentralizzazione richiede soluzioni innovative, come l'implementazione di layer 2, sharding, e tecniche di ottimizzazione dell'efficienza. Secondo la ricerca, soluzioni come i rollup ottimistici e zk-rollup sono state proposte per migliorare significativamente la capacità di transazione, garantendo al contempo la sicurezza e la decentralizzazione. I zk-rollup , in particolare, utilizzano prove a conoscenza zero per garantire la validità delle transazioni senza la necessità di trasmettere ogni dettaglio, migliorando così sia la scalabilità sia la privacy. Inoltre, l'implementazione di canali di stato e plasma chains rappresentano strategie chiave per affrontare le problematiche di scalabilità. I canali di stato, come quelli utilizzati nel Lightning Network di Bitcoin, permettono agli utenti di effettuare transazioni al di fuori della blockchain principale, limitando l'uso della blockchain stessa solo per l'apertura e la chiusura del canale. Questo riduce notevolmente il carico di transazioni da processare sulla blockchain principale, migliorando la velocità di esecuzione e riducendo i costi di transazione. Un aspetto rilevante da considerare riguarda la tutela della privacy. Pur essendo la trasparenza delle blockchain fondamentale per assicurare la sicurezza delle transazioni, può rappresentare un ostacolo per gli utenti che richiedono un elevato grado di riservatezza, specialmente nel settore finanziario istituzionale. Secondo la ricerca, uno dei problemi principali è l'eccessiva trasparenza, che permette a chiunque di osservare e analizzare tutte le transazioni, compresi importi e controparti. Per risolvere questo problema, sono stati sviluppati vari protocolli di privacy-enhancing , come i zk-SNARKs e le ring signatures . I zk-SNARKs, ad esempio, permettono di verificare una transazione senza rivelare dettagli specifici, mentre le firme ad anello offrono un livello di anonimato creando una sorta di "mischiamento" delle chiavi pubbliche, rendendo difficile risalire al mittente della transazione. Alcuni progetti stanno esplorando l'uso della crittografia completamente omomorfica (FHE) per consentire il calcolo direttamente su dati criptati. Questo approccio potrebbe essere utilizzato per garantire la privacy degli utenti pur mantenendo la funzionalità di verifica e controllo necessaria per la conformità normativa. Un altro metodo in sviluppo è l'uso delle proposte a conoscenza zero avanzate , che permettono di dimostrare la validità delle transazioni mantenendo anonime sia le parti coinvolte sia i dettagli dell'operazione. Infine, il sequenziamento delle transazioni rappresenta una sfida importante. I nodi responsabili della conferma delle transazioni possono trarre vantaggio dall'ordine delle stesse, fenomeno noto come Maximal Extractable Value (MEV) . Secondo la ricerca, la MEV si manifesta quando i validatori manipolano l'ordine delle transazioni per estrarre valore aggiuntivo, spesso a scapito degli utenti. Per mitigare questo problema, sono stati proposti meccanismi come il proposer-builder separation (PBS) , in cui il compito di costruire i blocchi viene separato da quello di proporli, riducendo così le possibilità di manipolazione del sequenziamento. Inoltre, l'uso della timelock encryption e della soglia di crittografia permette di nascondere temporaneamente il contenuto delle transazioni durante la selezione, garantendo che il nodo validatore non possa influenzare l'ordine delle stesse in modo improprio. L'adozione di modelli come il PBS potrebbe ridurre le economie di scala dei validatori più grandi, rendendo più equo il processo di estrazione del valore e supportando la decentralizzazione. Tuttavia, la complessità tecnica di questi meccanismi e la necessità di coordinamento tra nodi comportano ulteriori sfide operative e rischi di centralizzazione, soprattutto nel caso in cui una piccola minoranza di attori riesca a dominare il mercato dei builder di blocchi. Queste sfide, pur essendo significative, rappresentano anche opportunità per migliorare l'infrastruttura tecnologica e la sicurezza delle blockchain permissionless, rendendole sempre più adatte a supportare servizi finanziari complessi in un ambiente aperto e decentralizzato. Opportunità future Le blockchain permissionless offrono un'opportunità unica per creare un'infrastruttura finanziaria più aperta, trasparente e competitiva. Tuttavia, è necessario un approccio prudente e graduale per introdurre queste tecnologie nei contesti regolamentati, iniziando con sperimentazioni limitate che permettano di valutarne l'efficacia e la sicurezza. Ad esempio, l'emissione di titoli per piccole e medie imprese su una blockchain pubblica potrebbe rappresentare un primo passo concreto verso l'integrazione di questa tecnologia nei mercati finanziari tradizionali. Secondo la ricerca allegata, una delle principali opportunità per le blockchain permissionless risiede nella loro capacità di ridurre i costi di riconciliazione e regolamento . Nei sistemi finanziari tradizionali, le operazioni di regolamento possono essere lente e costose, richiedendo spesso numerosi passaggi tra diversi enti. La blockchain, con la sua capacità di garantire la finalità delle transazioni in maniera automatica e verificabile, potrebbe abbattere queste barriere, riducendo non solo i costi ma anche i tempi di regolamento. La ricerca stima che l'uso delle blockchain potrebbe potenzialmente ridurre i costi operativi fino al 30% , migliorando l'efficienza complessiva del sistema. Inoltre, la blockchain potrebbe favorire l' integrazione di sistemi finanziari differenti , migliorando l'interoperabilità tra vari mercati e piattaforme. Attualmente, molti servizi finanziari operano in modo isolato, con scarsa interoperabilità tra diversi provider. L'integrazione su una blockchain pubblica potrebbe consentire la creazione di una rete globale che permetta la condivisione sicura e trasparente di informazioni finanziarie tra diverse istituzioni, favorendo una maggiore competizione e una riduzione dei costi per gli utenti finali. Secondo i dati contenuti nella ricerca, il miglioramento dell'interoperabilità potrebbe portare a un incremento del volume di transazioni transfrontaliere del 15-20% entro il 2030. Un'altra opportunità significativa riguarda l'uso delle blockchain per la tokenizzazione degli asset tradizionali . Questo processo permette di rappresentare digitalmente asset come immobili, titoli azionari o obbligazioni su una blockchain, rendendo più semplice il loro trasferimento e aumentando la liquidità. La ricerca evidenzia come la tokenizzazione degli asset possa creare nuove opportunità di finanziamento per le piccole e medie imprese (PMI), che potrebbero sfruttare mercati di capitale decentralizzati per ottenere finanziamenti con meno barriere rispetto ai canali tradizionali. Stime suggeriscono che il mercato della tokenizzazione potrebbe raggiungere un valore di 16 trilioni di dollari entro il 2030, grazie alla maggiore accessibilità e alle ridotte barriere all'ingresso. In termini di inclusione finanziaria , le blockchain permissionless offrono un'opportunità senza precedenti per espandere l'accesso ai servizi finanziari, specialmente nelle regioni meno sviluppate. Poiché non richiedono intermediari tradizionali, possono consentire a milioni di persone non bancarizzate di partecipare a un sistema economico globale, fornendo accesso a prestiti, risparmi, assicurazioni e investimenti. Questo è particolarmente rilevante nei paesi in via di sviluppo, dove le barriere all'accesso ai servizi finanziari sono spesso insormontabili. Secondo la ricerca, le blockchain potrebbero contribuire a ridurre il numero di persone non bancarizzate di oltre 1,7 miliardi entro il 2030, migliorando la qualità della vita e le opportunità economiche per vaste fasce della popolazione mondiale. Le blockchain permissionless, inoltre, possono supportare la creazione di nuovi modelli di governance decentralizzata . Questo tipo di governance, basato su regole predeterminate e trasparenti, permette una gestione più equa e partecipativa delle risorse, senza la necessità di un'autorità centrale. La decentralizzazione del processo decisionale potrebbe portare a una maggiore fiducia da parte degli utenti, specialmente in settori dove la fiducia verso le istituzioni tradizionali è bassa. La ricerca evidenzia che il 60% degli intervistati crede che l'adozione di sistemi di governance basati su blockchain potrebbe migliorare la trasparenza e ridurre la corruzione nelle istituzioni finanziarie. È fondamentale che i policy maker e gli operatori finanziari collaborino strettamente per esplorare le potenzialità delle blockchain pubbliche, senza pregiudizi ma con la consapevolezza delle sfide ancora da affrontare. Solo così si potrà capire se e come queste tecnologie possano contribuire a una finanza più efficiente, inclusiva e sicura. La collaborazione tra settore pubblico e privato sarà cruciale per sviluppare quadri normativi che possano accompagnare l'innovazione senza soffocarla, garantendo al contempo la sicurezza e la protezione degli utenti. Conclusioni L'analisi sull'impatto delle blockchain permissionless nel settore finanziario offre una visione strategica che supera i consueti vantaggi tecnologici e operativi . La neutralità , l' inclusività e la trasparenza di questa tecnologia rappresentano elementi fondamentali per una trasformazione profonda del sistema finanziario. Tuttavia, per comprendere appieno il potenziale strategico delle blockchain permissionless, è essenziale considerare aspetti che vanno oltre la loro semplice implementazione tecnica. Questa innovazione si distingue per la capacità di ridefinire le dinamiche competitive nel settore. Attualmente, le infrastrutture finanziarie operano spesso con modelli di governance centralizzati , che tendono a consolidare posizioni dominanti e a creare vincoli per gli utenti, noti come "costi di lock-in" . Al contrario, l'eliminazione della necessità di intermediari offerta dalle blockchain permissionless introduce un' infrastruttura aperta e condivisa , che stimola la competitività e favorisce l' innovazione . Questo approccio si traduce in una riduzione delle barriere all'ingresso per nuovi operatori e in una democratizzazione dell'accesso ai mercati finanziari su scala globale. Un ulteriore elemento, sebbene meno esplorato, riguarda la possibilità di abilitare forme di governance più inclusive e innovative . Mentre i sistemi tradizionali si basano su decisioni prese in contesti chiusi , l'introduzione di meccanismi di governance decentralizzata nelle blockchain pubbliche consente di coinvolgere una pluralità di attori. L'incremento della trasparenza derivante da questo modello riduce il rischio di decisioni arbitrarie o disallineate rispetto agli interessi di lungo termine dei diversi portatori di interesse . L'adozione di blockchain permissionless, dal punto di vista strategico, rappresenta un cambio paradigmatico più che una semplice scelta tecnologica. La possibilità di creare modelli di business innovativi , basati sull' interoperabilità e sulla "composability" , offre nuove prospettive. Con "composability" si indica la capacità di combinare e integrare servizi e prodotti in modi innovativi, dando vita a ecosistemi modulari e dinamici . Questa caratteristica rende le blockchain permissionless piattaforme abilitanti per un' economia della condivisione e della conoscenza . Nonostante il loro potenziale, permangono sfide significative legate alla scalabilità e alla protezione della privacy . Soluzioni tecnologiche come i layer 2 , strutture aggiuntive costruite sopra la blockchain principale, o le prove a conoscenza zero , che consentono di dimostrare la validità di un'operazione senza rivelarne i dettagli, cercano di affrontare queste problematiche. Tuttavia, per un'adozione su larga scala sarà necessario bilanciare efficienza tecnologica , regolamentazione e fiducia degli utenti . La capacità di soddisfare requisiti rigorosi in termini di sicurezza , prestazioni e conformità normativa sarà determinante, mantenendo al contempo i principi fondamentali di apertura e decentralizzazione . Un'ulteriore riflessione riguarda l' impatto culturale che questa tecnologia può avere sul settore finanziario. Non si tratta solo di implementare una nuova infrastruttura tecnologica, ma di ripensare i valori centrali del sistema finanziario stesso, quali trasparenza , equità e inclusività . L'opportunità di ottimizzare i processi operativi e al contempo rafforzare la fiducia e creare valore sostenibile nel lungo termine per tutti i soggetti coinvolti rappresenta un aspetto cruciale. In un contesto sempre più interconnesso, le blockchain permissionless non rappresentano semplicemente un'opzione tra le tante, ma possono costituire la base per un sistema finanziario più resiliente e democratico . Podcast: https://spotifycreators-web.app.link/e/jLAfRTRs3Ob Fonte: https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-
- Potential of Permissionless Blockchains in Financial Services
Permissionless blockchains represent an innovative perspective for enhancing the traditional financial infrastructure. This article is based on research conducted by Fabian Schär of the University of Basel and prepared for the European Commission, Directorate-General for Financial Stability, Financial Services and Capital Markets Union. The research was completed in October 2024, with the support of Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler, and Dario Thürkauf, and also involved collaboration with the Center for Horizontal Policies B4 for Digital Finance. This article focuses on the fundamental characteristics, potential advantages, and challenges that these technologies can bring to the financial sector, specifically examining how their neutrality, inclusiveness, and transparency can foster interoperability and competition in the global financial market. Introduction to Blockchain Technology Permissionless blockchains are based on a network of distributed nodes that operate without the need for a central authority to ensure trust between parties. This decentralized structure is essential for ensuring that anyone can participate in the network without restrictions, allowing complete neutrality and ensuring transparent access. In permissionless blockchains, every node is equal, and there are no intermediaries that can alter or influence transactions without the consent of the entire network. One of the central elements defining a permissionless blockchain is transaction capacity. The attached research highlights that the capacity to process transactions in permissionless blockchains is, at present, limited compared to traditional financial systems. Blockchains like Bitcoin and Ethereum, for instance, can handle only about 7 and 30 transactions per second, respectively, compared to the tens of thousands of transactions per second processed by centralized networks like Visa. This represents a significant challenge, especially if blockchains are to support global volumes of financial activity. However, innovative techniques such as sharding and Layer 2 protocols (e.g., rollups and state channels) are seeking to improve scalability without compromising network decentralization. Transaction legitimacy is another fundamental aspect. Every transaction must be cryptographically verified to ensure the network's security and integrity. The use of cryptographic signatures ensures that only the holder of a specific private key can authorize a transaction. This legitimacy is managed through two main models: the UTXO (Unspent Transaction Output) model, used by Bitcoin, and the account-based model, adopted by Ethereum. In the UTXO model, every transaction tracks unspent outputs, creating a sort of value chain that increases security and traceability. Conversely, in the account-based model, each account has an associated balance, and the transaction simply reduces the sender's balance and increases the recipient's. Both models have advantages and disadvantages: for example, the UTXO model offers greater privacy, while the account-based model is more intuitive for those familiar with traditional financial systems. To maintain the consistency of the ledger state, the blockchain uses distributed consensus mechanisms, such as Proof of Work (PoW) and Proof of Stake (PoS). PoW, used by Bitcoin, ensures network security by requiring nodes to solve complex mathematical problems, with high energy consumption. PoS, adopted by Ethereum with the transition to Ethereum 2.0, offers a more sustainable alternative, based on token ownership that is staked to participate in the consensus process. Both mechanisms are designed to ensure that the network reaches a common agreement, even in the presence of malicious actors, thus ensuring the integrity and security of the blockchain. Another important aspect of permissionless blockchain is programmability through smart contracts. These contracts allow for the automation of complex operations such as loans, insurance, and derivative transactions without the need for intermediaries. However, the research highlights that these smart contracts are only as secure as the code that defines them. Vulnerabilities in the code can lead to significant security issues, as evidenced by some notable hacking incidents in DeFi (Decentralized Finance) protocols. Furthermore, the blockchain operates on a peer-to-peer (P2P) network infrastructure, where all nodes participate in sharing information without the need for a central server. This increases the network's resilience, as there is no single point of failure that could compromise the entire system. Each node maintains a mempool, which is a queue of transactions waiting to be included in the blockchain. The process of selecting transactions from the mempool is essential to ensure efficiency and fairness in confirming operations. Finally, the concept of consensus on the sequence of transactions is crucial for the functioning of the blockchain. The sequence of transactions can influence their outcome, especially in DeFi applications, where the order of operations can determine the difference between gaining or losing value (a phenomenon known as Maximal Extractable Value - MEV). Solutions to mitigate risks related to MEV include mechanisms for content-agnostic transaction ordering and the adoption of protocols such as proposer-builder separation (PBS). These elements form the technological basis of permissionless blockchains and define their advantages and challenges compared to traditional financial systems. The ultimate goal is to create a more open, transparent, and inclusive financial infrastructure, but continuous innovation in both technology and regulation is necessary to achieve this. Advantages and Features of Permissionless Blockchains One of the main strengths of permissionless blockchains is their programmability. Thanks to smart contracts, it is possible to automate various financial operations, such as executing payments and managing loans. However, the true innovation is not just the ability to program processes but rather the ability to do so on a neutral, shared basis, without the need for trusted intermediaries. This way, potential points of vulnerability are eliminated, and the costs associated with third parties are reduced. Another fundamental aspect of permissionless blockchain is composability, which allows the creation of new financial services and products by leveraging the ability to combine different protocols and assets within the same network. This approach enables the construction of innovative solutions, such as the integration of lending protocols in derivative markets, thereby increasing the flexibility and modularity of the financial ecosystem. According to the research, composability is one of the main factors driving the formation of a dominant base layer, as it allows for the maximization of network effects and the creation of an ecosystem comparable to that of a platform economy. Liquidity is another crucial benefit derived from the use of permissionless blockchains. With the ability to have different assets and numerous protocols available on the same platform, integrating liquidity from different sources becomes simpler and more immediate. This advantage is particularly evident in decentralized exchanges (DEX), where tokenized assets can be exchanged without the need for a centralized intermediary, ensuring faster settlement times and lower transaction costs compared to traditional exchanges. Another distinguishing feature is the atomicity of transactions. Atomicity ensures that all operations in a transaction are executed simultaneously, eliminating the risk of partial failure. This property is particularly useful in the context of complex financial transactions, such as delivery versus payment (DvP) operations, where both parties want to be sure that asset delivery and payment occur simultaneously. Blockchain enables these transactions to be executed in a fully automated and secure manner. Permissionless blockchains also enhance the transparency and neutrality of financial operations. Since every transaction is recorded on a public ledger, it becomes possible to independently verify the validity of transactions and monitor value flows within the network. This level of transparency has been recognized in the research as an important advantage for reducing informational asymmetries and ensuring that no actor can have undue advantages over other participants. Furthermore, the neutrality of permissionless blockchains eliminates the need for intermediaries with the power to discriminate access or impose arbitrary rules, promoting a more equitable and open infrastructure. Finally, the adoption of permissionless blockchains can reduce dependency on centralized infrastructures, thus mitigating risks associated with market power concentration. As highlighted in the research, centralized platforms, if not adequately regulated, can exert excessive power, extract economic rents, and create lock-in problems for users. Permissionless blockchains, on the other hand, promote competition and innovation, allowing the emergence of new players that can help improve the offering of financial services. Challenges: Scalability, Privacy, and Transaction Sequencing Despite the advantages, permissionless blockchains present several challenges that need to be overcome to be used as the foundation for traditional financial services. The first challenge is scalability. Currently, most blockchains struggle to handle large volumes of transactions. Increasing processing capacity without sacrificing decentralization requires innovative solutions, such as implementing layer 2, sharding, and efficiency optimization techniques. According to the research, solutions like optimistic rollups and zk-rollups have been proposed to significantly improve transaction capacity while ensuring security and decentralization. Zk-rollups, in particular, use zero-knowledge proofs to ensure transaction validity without the need to transmit every detail, thus improving both scalability and privacy. Additionally, the implementation of state channels and plasma chains are key strategies for addressing scalability issues. State channels, like those used in Bitcoin's Lightning Network, allow users to make transactions off the main blockchain, limiting the blockchain's use to only the opening and closing of the channel. This significantly reduces the number of transactions that need to be processed on the main blockchain, improving execution speed and reducing transaction costs. A relevant aspect to consider concerns privacy protection. While blockchain transparency is essential to ensure transaction security, it can pose an obstacle for users who require a high degree of confidentiality, especially in the institutional financial sector. According to the research, one of the main problems is excessive transparency, which allows anyone to observe and analyze all transactions, including amounts and counterparties. To address this issue, various privacy-enhancing protocols, such as zk-SNARKs and ring signatures, have been developed. Zk-SNARKs, for example, allow verification of a transaction without revealing specific details, while ring signatures offer a level of anonymity by creating a sort of "mixing" of public keys, making it difficult to trace the transaction's sender. Some projects are exploring the use of fully homomorphic encryption (FHE) to enable computation directly on encrypted data. This approach could be used to ensure user privacy while maintaining the verification and control functionality necessary for regulatory compliance. Another method in development is the use of advanced zero-knowledge proofs, which allow demonstrating the validity of transactions while keeping both the parties involved and the details of the operation anonymous. Finally, transaction sequencing represents an important challenge. Nodes responsible for confirming transactions can benefit from the order of transactions, a phenomenon known as Maximal Extractable Value (MEV). According to the research, MEV occurs when validators manipulate the transaction order to extract additional value, often at the expense of users. To mitigate this problem, mechanisms such as proposer-builder separation (PBS) have been proposed, in which the task of building blocks is separated from that of proposing them, thereby reducing opportunities for manipulation of sequencing. Additionally, the use of timelock encryption and threshold encryption allows temporarily hiding transaction content during selection, ensuring that the validating node cannot improperly influence the order of transactions. Adopting models like PBS could reduce the economies of scale of larger validators, making the value extraction process fairer and supporting decentralization. However, the technical complexity of these mechanisms and the need for coordination among nodes pose additional operational challenges and centralization risks, especially if a small minority of actors manage to dominate the block builder market. These challenges, although significant, also represent opportunities to improve the technological infrastructure and security of permissionless blockchains, making them increasingly suitable to support complex financial services in an open and decentralized environment. Future Opportunities Permissionless blockchains offer a unique opportunity to create a more open, transparent, and competitive financial infrastructure. However, a prudent and gradual approach is needed to introduce these technologies in regulated environments, starting with limited experiments that allow evaluating their effectiveness and security. For example, issuing securities for small and medium-sized enterprises on a public blockchain could represent a concrete first step towards integrating this technology into traditional financial markets. According to the attached research, one of the main opportunities for permissionless blockchains lies in their ability to reduce reconciliation and settlement costs. In traditional financial systems, settlement operations can be slow and expensive, often requiring numerous steps between different entities. Blockchain, with its ability to guarantee transaction finality in an automatic and verifiable manner, could break down these barriers, reducing not only costs but also settlement times. The research estimates that the use of blockchains could potentially reduce operational costs by up to 30%, improving the system's overall efficiency. Moreover, blockchain could facilitate the integration of different financial systems, enhancing interoperability between various markets and platforms. Currently, many financial services operate in isolation, with little interoperability between different providers. Integration on a public blockchain could enable the creation of a global network that allows the secure and transparent sharing of financial information between different institutions, fostering greater competition and reducing costs for end-users. According to the research data, improving interoperability could lead to a 15-20% increase in cross-border transaction volumes by 2030. Another significant opportunity concerns the use of blockchains for the tokenization of traditional assets. This process allows representing assets such as real estate, equity, or bonds digitally on a blockchain, making their transfer easier and increasing liquidity. The research highlights how asset tokenization could create new financing opportunities for small and medium-sized enterprises (SMEs), which could leverage decentralized capital markets to obtain funding with fewer barriers than traditional channels. Estimates suggest that the tokenization market could reach a value of 16 trillion dollars by 2030, thanks to greater accessibility and reduced entry barriers. In terms of financial inclusion, permissionless blockchains offer an unprecedented opportunity to expand access to financial services, especially in less developed regions. Since they do not require traditional intermediaries, they can enable millions of unbanked people to participate in a global economic system, providing access to loans, savings, insurance, and investments. This is particularly relevant in developing countries, where barriers to accessing financial services are often insurmountable. According to the research, blockchains could help reduce the number of unbanked individuals by over 1.7 billion by 2030, improving quality of life and economic opportunities for large segments of the world population. Permissionless blockchains can also support the creation of new models of decentralized governance. This type of governance, based on predetermined and transparent rules, allows for more equitable and participatory resource management without the need for a central authority. Decentralizing the decision-making process could lead to greater trust from users, especially in sectors where trust in traditional institutions is low. The research highlights that 60% of respondents believe that adopting blockchain-based governance systems could improve transparency and reduce corruption in financial institutions. It is essential that policymakers and financial operators work closely together to explore the potential of public blockchains, without prejudice but with awareness of the challenges that still need to be addressed. Only in this way will it be possible to understand whether and how these technologies can contribute to more efficient, inclusive, and secure finance. Collaboration between the public and private sectors will be crucial to developing regulatory frameworks that can accompany innovation without stifling it, while ensuring user safety and protection. Conclusions The analysis of the impact of permissionless blockchains on the financial sector offers a strategic vision that goes beyond the usual technological and operational advantages. The neutrality, inclusiveness, and transparency of this technology are fundamental elements for a profound transformation of the financial system. However, to fully understand the strategic potential of permissionless blockchains, it is essential to consider aspects that go beyond their simple technical implementation. This innovation stands out for its ability to redefine competitive dynamics in the sector. Currently, financial infrastructures often operate with centralized governance models that tend to consolidate dominant positions and create lock-in costs for users. In contrast, the elimination of the need for intermediaries offered by permissionless blockchains introduces an open and shared infrastructure that stimulates competitiveness and promotes innovation. This approach results in reduced entry barriers for new operators and democratizes access to financial markets on a global scale. Another element, although less explored, concerns the possibility of enabling more inclusive and innovative forms of governance. While traditional systems rely on decisions made in closed environments, the introduction of decentralized governance mechanisms in public blockchains allows for the involvement of a plurality of actors. The increased transparency derived from this model reduces the risk of arbitrary decisions or those misaligned with the long-term interests of various stakeholders. The adoption of permissionless blockchains, from a strategic perspective, represents a paradigm shift rather than just a technological choice. The possibility of creating innovative business models, based on interoperability and composability, offers new perspectives. Composability refers to the ability to combine and integrate services and products in innovative ways, giving rise to modular and dynamic ecosystems. This characteristic makes permissionless blockchains enabling platforms for a sharing and knowledge economy. Despite their potential, significant challenges remain concerning scalability and privacy protection. Technological solutions such as layer 2, additional structures built on top of the main blockchain, or zero-knowledge proofs, which allow proving the validity of an operation without revealing its details, seek to address these issues. However, large-scale adoption will require balancing technological efficiency, regulation, and user trust. The ability to meet stringent requirements in terms of security, performance, and regulatory compliance will be decisive, while maintaining the fundamental principles of openness and decentralization. An additional reflection concerns the cultural impact that this technology can have on the financial sector. It is not just about implementing new technological infrastructure but rethinking the core values of the financial system itself, such as transparency, equity, and inclusiveness. The opportunity to optimize operational processes while strengthening trust and creating long-term sustainable value for all stakeholders is a crucial aspect. In an increasingly interconnected world, permissionless blockchains do not simply represent an option among many but can form the basis for a more resilient and democratic financial system. Podcast: https://spotifycreators-web.app.link/e/SAUZTzms3Ob Source: https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-en
- Sfide e opportunità nella produzione di sistemi di Intelligenza Artificiale Generativa
L'adozione dell'intelligenza artificiale generativa sta accelerando rapidamente, ma il passaggio da sperimentazioni limitate a implementazioni in produzione è tutt'altro che semplice. Un recente sondaggio condotto da MIT Technology Review Insights ad agosto 2024 ha evidenziato le sfide e le decisioni che le organizzazioni devono affrontare durante la transizione verso l'uso pratico di questi strumenti. Con 250 dirigenti provenienti da una vasta gamma di settori intervistati, emergono dati significativi sull'attuale panorama e sulle difficoltà operative delle aziende. L'adozione dell’Intelligenza Artificiale Generativa. Una crescita impetuosa L'intelligenza artificiale generativa è esplosa dopo l'introduzione di ChatGPT nel novembre 2022, con aziende di tutto il mondo che hanno iniziato ad esplorare modelli di grandi dimensioni (LLM) per risolvere problemi complessi e laboriosi. Oltre alla capacità di risolvere problemi tecnici complessi, l'AI generativa offre anche la possibilità di automatizzare processi ripetitivi e di gestire una mole di dati non strutturati, come video e documenti PDF. Queste funzionalità hanno attratto un massiccio interesse da parte delle aziende, desiderose di sfruttare queste tecnologie per ottenere vantaggi competitivi e migliorare l'efficienza operativa. Secondo il sondaggio condotto da MIT Technology Review Insights, la produttività stimata derivante dall'adozione di AI generativa potrebbe avere un impatto comparabile a quello delle principali innovazioni storiche, come Internet, l'automazione robotica e la macchina a vapore. Le proiezioni parlano di un impatto sul PIL globale che varia da appena sotto il trilione di dollari fino a ben 4,4 trilioni di dollari l'anno. Questa ampia forbice di stime riflette la variabilità nelle modalità di implementazione dell'AI e nelle capacità delle aziende di adattare i loro modelli operativi. Il sondaggio ha inoltre evidenziato che, mentre il 79% delle aziende aveva in programma di adottare progetti di AI generativa nel prossimo anno, solo il 5% era riuscito a mettere in produzione effettivi casi d'uso entro maggio 2024. Questo ritardo è attribuibile alle difficoltà operative e alla necessità di superare le sfide legate alla qualità degli output, all'integrazione nei sistemi esistenti e agli elevati costi di inferenza e addestramento dei modelli. Oltre alle difficoltà tecniche, è emersa anche una questione di fiducia nell'efficacia delle applicazioni. Due terzi dei leader aziendali intervistati hanno dichiarato di sentirsi ambivalenti o insoddisfatti dei progressi compiuti finora, citando come causa principale la complessità e il costo della messa in produzione. Molte aziende stanno quindi cercando di costruire uno stack tecnologico solido che possa supportare vari modelli base, strumenti di integrazione avanzati e soluzioni di orchestrazione, per facilitare l'adozione dell'AI generativa su larga scala. Sfide operative e complessità dell'implementazione Tra le principali sfide segnalate dai leader aziendali, la qualità dell'output dell'AI è fonte di preoccupazione per il 72% degli intervistati. Inoltre, il 62% ha segnalato difficoltà nell'integrazione con le infrastrutture esistenti, mentre il 58% ha citato i costi elevati sia per l'inferenza che per l'addestramento dei modelli. La latenza è un altro problema cruciale: il 56% delle aziende ha difficoltà a ridurre i tempi di risposta dei sistemi, particolarmente in scenari di utilizzo con elevata interazione in tempo reale. Un altro problema spesso citato riguarda la gestione del contesto da parte dei modelli generativi. Harrison Chase, co-fondatore e CEO di LangChain, ha evidenziato che una delle maggiori difficoltà è fornire il contesto giusto al modello, soprattutto quando si tratta di collegare i risultati di un modello LLM a una serie di dati specifici. Un “livello di orchestrazione” efficace è necessario per convogliare il contesto adeguato e assicurare che le risposte siano rilevanti e accurate. Tuttavia, fornire un maggiore contesto ai modelli spesso implica un aumento dei costi, il che rende cruciale trovare un equilibrio tra la qualità delle risposte e l'efficienza economica. I costi di addestramento e inferenza sono una delle sfide più rilevanti: circa il 58% delle aziende ha segnalato che i costi per eseguire i modelli sono ancora troppo elevati, in particolare per applicazioni che richiedono un'elevata scalabilità. Il costo per token, come evidenziato da Rowan Trollope di Redis, è un parametro chiave per ottimizzare l'efficienza dei modelli: ridurre il costo per token può rendere più conveniente l'inferenza su larga scala, permettendo alle aziende di ottenere maggiore valore dall'implementazione dell'AI. Anche la difficoltà di quantificare il ritorno sugli investimenti (ROI) rappresenta una barriera all'adozione. Secondo il sondaggio, il 48% delle aziende sta cercando di utilizzare indicatori chiave di performance (KPI) per valutare i propri progetti di AI, mentre il 38% ha sviluppato framework specifici per valutare l'impatto dell'AI generativa. Tuttavia, la mancanza di metodi standardizzati e la complessità intrinseca del calcolo del ROI rallentano il processo decisionale. Molte organizzazioni esitano a investire ulteriormente in AI senza una chiara evidenza del valore generato. Un'altra sfida significativa è rappresentata dalla scalabilità. Mentre il 51% delle aziende ha menzionato difficoltà nel far fronte alla crescente domanda e nel garantire che i sistemi possano gestire un numero sempre maggiore di utenti, la latenza diventa una problematica strettamente connessa. Ogni nuovo componente del sistema aggiunge latenza e ciò può compromettere l'esperienza utente. La latenza è particolarmente critica nelle applicazioni di AI generativa in tempo reale, come le interfacce vocali, dove anche pochi millisecondi di ritardo possono influire negativamente sull'interazione. Sistemi AI compositi: una possibile soluzione Per affrontare queste sfide, molte aziende stanno esplorando sistemi di intelligenza artificiale compositi o “compound AI”, che uniscono diversi modelli e tecnologie AI per gestire compiti complessi in modo più efficiente. Secondo il sondaggio, il 54% delle aziende utilizza già agenti AI, e un altro 29% prevede di farlo in futuro. I sistemi compositi possono ridurre i costi segmentando il lavoro tra modelli più economici in determinate fasi del processo, migliorando al contempo la performance complessiva. Un aspetto centrale per la creazione di sistemi AI compositi è l'uso di catene multi-step, che permette di suddividere un'attività complessa in una serie di passaggi più semplici e specializzati. Secondo il sondaggio, il 50% delle aziende ha già implementato catene multi-step nelle loro applicazioni di AI generativa, e un ulteriore 18% ha pianificato di farlo. Questo approccio consente di utilizzare modelli specializzati per singole fasi del processo, riducendo i costi e migliorando l'efficienza complessiva del sistema. Un altro elemento chiave è il semantic routing, che permette di instradare le richieste dell'utente verso lo strumento più appropriato, che potrebbe essere un altro modello di AI o persino un intervento umano. Questo tipo di routing consente di ottimizzare l'uso delle risorse disponibili, evitando di sovraccaricare modelli costosi per compiti che possono essere gestiti in maniera più economica. L'adozione di componenti come il Retrieval-Augmented Generation (RAG) è un esempio dell'approccio composito in azione. RAG combina la capacità generativa di un modello con la ricerca attraverso database aziendali o documenti, migliorando la pertinenza e la qualità delle risposte. Attualmente, il 38% delle aziende utilizza questa tecnica e un ulteriore 29% ha pianificato di implementarla. Un altro elemento tecnologico che supporta i sistemi compositi è l'utilizzo delle cache semantiche e dei database vettoriali. Le cache semantiche, che sono adottate dal 32% delle aziende, aiutano a raggruppare e memorizzare risposte a richieste simili per ridurre i costi di inferenza. I database vettoriali, adottati dal 37% delle aziende, sono invece fondamentali per memorizzare e cercare rappresentazioni complesse di dati e domande in formato vettoriale, ottimizzando così la capacità di recupero delle informazioni. Strategie per costruire uno Stack AI adattabile Per costruire uno stack AI adattabile, le aziende devono affrontare diverse sfide strategiche e operative. Un passo fondamentale è la scelta del modello o dei modelli su cui basare le applicazioni: il 67% delle aziende ha optato per modelli chiusi di terze parti, come quelli offerti da OpenAI, mentre il 42% delle aziende ha scelto modelli open-source su cloud. La preferenza per l'open-source sta crescendo, anche perché consente una maggiore flessibilità e controllo sui costi e la sicurezza. L'adozione di modelli open-source on-premise è un'opzione valutata dal 41% delle aziende intervistate: il 17% le utilizza già, mentre un altro 24% ha intenzione di implementarle in futuro. Questa soluzione può offrire alle aziende un maggiore controllo sui dati e una riduzione dei costi di licenza associati ai modelli commerciali. Un altro elemento cruciale per costruire uno stack AI adattabile è l'integrazione delle tecnologie esistenti e delle nuove soluzioni di AI. Secondo il sondaggio, l'utilizzo di API standardizzate, come quelle offerte da Redis e LangChain, permette alle aziende di scambiare e sostituire facilmente i componenti del loro stack, garantendo una maggiore flessibilità operativa. Le API standard aiutano a superare le differenze tra i parametri dei vari modelli e facilitano l'integrazione di nuovi strumenti. Un'altra considerazione importante è la gestione della latenza nei sistemi compositi, soprattutto per applicazioni che richiedono risposte in tempo reale. Per superare questo problema, è essenziale adottare una piattaforma di dati ad alta velocità in grado di supportare modelli che rispondano rapidamente, minimizzando i tempi di attesa degli utenti. Rowan Trollope di Redis ha sottolineato che “la latenza è il nuovo downtime”: la velocità di risposta diventa un fattore determinante per l'adozione su larga scala e il successo delle applicazioni di AI generativa. La complessità e i costi di implementazione restano barriere significative, ma l'adozione di tecnologie come cache semantiche e database vettoriali offre un'opportunità per migliorare l'efficienza complessiva. Questi strumenti possono ridurre il carico sui modelli più costosi, aumentando la rapidità e la pertinenza delle risposte, e sono già adottati da una parte consistente delle aziende intervistate. In conclusione, per costruire uno stack AI adattabile, è fondamentale bilanciare l'efficienza dei costi, la gestione della latenza e la flessibilità operativa. Perché i progetti AI aziendali falliscono e come invertire la tendenza Nonostante il potenziale trasformativo dell'intelligenza artificiale, una percentuale significativa di progetti AI aziendali non raggiunge i risultati desiderati. Stime recenti indicano che oltre l'80% dei progetti AI aziendali fallisce, un tasso doppio rispetto ai progetti IT tradizionali. Questa elevata percentuale di fallimenti riflette le difficoltà che molte aziende incontrano nel passare dalla sperimentazione a progetti realmente funzionanti e in produzione. Secondo lo studio "The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed" di James Ryseff, Brandon De Bruhl e Sydne J. Newberry, sono state identificate cinque cause principali di fallimento dei progetti AI, emerse attraverso interviste con 65 data scientist e ingegneri del settore. La causa più frequentemente indicata è l'incapacità della leadership aziendale di definire correttamente gli obiettivi del progetto. Una mancanza di visione strategica, unita a una scarsa comprensione delle capacità reali dell'AI, porta spesso a iniziative che non soddisfano le aspettative. Un'altra causa rilevante riguarda la qualità dei dati. Senza dati accurati, completi e pertinenti, anche i migliori modelli di AI falliscono nel fornire risultati affidabili. La carenza di dati adeguati è stata citata da oltre la metà degli intervistati come una delle principali ragioni di insuccesso. Questo problema è spesso accompagnato da una scarsa considerazione per l'ingegneria dei dati, vista come un'attività di minor valore rispetto allo sviluppo dei modelli. Altri fattori di fallimento includono la mancanza di infrastrutture adeguate a supportare il team di sviluppo, errori operativi commessi dai membri del team stesso, e limiti intrinseci delle capacità della tecnologia AI. Gli intervistati hanno inoltre evidenziato come un coinvolgimento inadeguato della leadership nei dettagli operativi e nelle decisioni tecniche contribuisca a un allineamento carente tra gli obiettivi aziendali e le soluzioni AI sviluppate. Per invertire questa tendenza, le organizzazioni devono adottare un approccio più olistico e strategico. È fondamentale che la leadership aziendale sia coinvolta attivamente nel processo, garantendo che gli obiettivi del progetto siano chiari e realistici. I leader devono collaborare strettamente con il team di sviluppo per tradurre questi obiettivi in requisiti tecnici concreti e realizzabili. Inoltre, investire in infrastrutture solide e in ingegneri del machine learning (ML) competenti è essenziale per superare i problemi legati alla qualità dei dati e garantire la corretta implementazione dei modelli. Una chiara comprensione delle reali capacità e limiti dell'AI, unita a un impegno a lungo termine, può contribuire a trasformare i progetti AI da esperimenti falliti in successi concreti, in grado di apportare un reale valore alle organizzazioni. Conclusioni L’intelligenza artificiale generativa rappresenta una rivoluzione tecnologica dal potenziale straordinario, ma il suo pieno sfruttamento richiede un ripensamento profondo delle strategie aziendali e operative. Le imprese si trovano oggi di fronte a una duplice sfida: da un lato, cogliere le opportunità offerte da questa innovazione per migliorare l’efficienza e generare valore; dall’altro, superare barriere tecniche, economiche e culturali che ne ostacolano l’implementazione su larga scala. Questa dualità rivela un punto cruciale: l’adozione dell’AI generativa non è una semplice evoluzione tecnologica, ma un catalizzatore per un cambiamento sistemico. Un aspetto chiave è la necessità di ripensare l’infrastruttura digitale aziendale. L’approccio tradizionale, caratterizzato da sistemi monolitici e statici, non è più adeguato a supportare tecnologie che richiedono adattabilità, scalabilità e un uso ottimale delle risorse. L’emergere di soluzioni composite e modulari, come le catene multi-step, il semantic routing e l’utilizzo di database vettoriali, segna il passaggio a una visione in cui la flessibilità è il fulcro dell’efficienza. Le aziende devono imparare a segmentare i processi, distribuire i carichi e ottimizzare i costi, trasformando la complessità in un’opportunità per ottenere vantaggi competitivi. Un’altra lezione fondamentale riguarda il rapporto tra innovazione e ROI. Le difficoltà nel misurare l’impatto economico dell’AI generativa non sono semplicemente un ostacolo tecnico, ma un sintomo di una lacuna più ampia: l’incapacità di molte imprese di riconoscere e valorizzare i benefici intangibili dell’innovazione. Velocità decisionale, personalizzazione su larga scala e miglioramento dell’esperienza utente non sono facilmente quantificabili, ma possono determinare il successo in mercati sempre più competitivi. Le aziende che sapranno sviluppare metodi innovativi per misurare il valore generato dall’AI generativa avranno un vantaggio decisivo. La fiducia emerge come un altro pilastro strategico. Il fatto che molti leader aziendali si dichiarino ambivalenti o insoddisfatti dei progressi nell’implementazione dell’AI generativa sottolinea una problematica culturale oltre che tecnologica. La costruzione della fiducia non può limitarsi alla qualità degli output: deve includere trasparenza sui costi, prevedibilità dei risultati e un approccio etico nell’uso dei dati. In un’epoca in cui la reputazione aziendale è sempre più legata alla gestione responsabile della tecnologia, l’adozione di modelli open-source e soluzioni on-premise rappresenta non solo una scelta tecnica, ma anche una dichiarazione di intenti. Infine, la velocità diventa un fattore critico. In un contesto dove la latenza è “il nuovo downtime”, come affermato da Rowan Trollope, la capacità di rispondere rapidamente alle esigenze degli utenti non è solo una questione tecnica, ma un fattore che influenza direttamente la percezione del valore da parte dei clienti. Investire in infrastrutture che riducano la latenza e aumentino la resilienza operativa non è un costo, ma un investimento strategico che può differenziare le aziende in mercati saturi. In sintesi, l’adozione dell’AI generativa è molto più di una questione tecnologica: è una sfida strategica che richiede nuove competenze, nuove metriche e una visione olistica dell’innovazione. Podcast: https://spotifycreators-web.app.link/e/hIsr6mgd2Ob Fonte: https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/
- Challenges and Opportunities in Deploying Generative AI Systems
The adoption of generative artificial intelligence is accelerating rapidly, but moving from limited experimentation to production deployment is far from simple. A recent survey conducted by MIT Technology Review Insights in August 2024 highlighted the challenges and decisions organizations face during the transition to practical use of these tools. With 250 executives from a wide range of industries interviewed, significant insights emerge into the current landscape and the operational difficulties companies are experiencing. The Adoption of Generative AI Systems. Rapid Growth Generative artificial intelligence has exploded following the introduction of ChatGPT in November 2022, with companies worldwide beginning to explore large language models (LLMs) to solve complex and labor-intensive problems. Beyond the ability to solve complex technical issues, generative AI also offers the potential to automate repetitive processes and handle unstructured data, such as videos and PDF documents. These capabilities have attracted massive interest from companies eager to leverage these technologies to gain competitive advantages and improve operational efficiency. According to the survey conducted by MIT Technology Review Insights, the estimated productivity gains from adopting generative AI could have an impact comparable to major historical innovations, such as the internet, robotic automation, and the steam engine. Projections suggest an impact on global GDP ranging from just under a trillion dollars to as much as $4.4 trillion annually. This broad range of estimates reflects the variability in the ways AI is implemented and the ability of companies to adapt their operating models. The survey also highlighted that while 79% of companies planned to adopt generative AI projects within the next year, only 5% had managed to put actual use cases into production by May 2024. This delay is attributed to operational difficulties and the need to overcome challenges related to output quality, integration into existing systems, and high inference and training costs. In addition to technical difficulties, trust in the effectiveness of applications also emerged as an issue. Two-thirds of the business leaders interviewed stated that they felt ambivalent or dissatisfied with the progress made so far, citing the complexity and cost of production deployment as the primary reasons. Many companies are therefore trying to build a solid technology stack that can support various foundational models, advanced integration tools, and orchestration solutions to facilitate the large-scale adoption of generative AI. Operational Challenges and Implementation Complexity Among the main challenges reported by business leaders, the quality of AI output is a concern for 72% of respondents. Additionally, 62% reported difficulties in integrating with existing infrastructures, while 58% cited high costs for both inference and model training. Latency is another crucial issue: 56% of companies struggle to reduce response times, particularly in high-interaction, real-time usage scenarios. Another frequently cited problem concerns the management of context by generative models. Harrison Chase, co-founder and CEO of LangChain, emphasized that one of the biggest challenges is providing the right context to the model, especially when linking the results of an LLM to a specific dataset. An effective “orchestration layer” is needed to convey the appropriate context and ensure that responses are relevant and accurate. However, providing greater context to models often implies increased costs, making it crucial to find a balance between response quality and economic efficiency. Training and inference costs are among the most significant challenges: about 58% of companies reported that the costs of running models are still too high, especially for applications requiring high scalability. The cost per token, as highlighted by Rowan Trollope of Redis, is a key parameter for optimizing model efficiency: reducing the cost per token can make large-scale inference more affordable, allowing companies to derive greater value from AI deployment. The difficulty of quantifying return on investment (ROI) also represents a barrier to adoption. According to the survey, 48% of companies are trying to use key performance indicators (KPIs) to evaluate their AI projects, while 38% have developed specific frameworks to assess the impact of generative AI. However, the lack of standardized methods and the inherent complexity of calculating ROI slow down decision-making processes. Many organizations hesitate to invest further in AI without clear evidence of the value generated. Scalability is another significant challenge. While 51% of companies mentioned difficulties in keeping up with growing demand and ensuring systems can handle an increasing number of users, latency becomes a closely related problem. Each new system component adds latency, which can compromise the user experience. Latency is particularly critical in real-time generative AI applications, such as voice interfaces, where even a few milliseconds of delay can negatively impact interaction. Composite AI Systems: A Possible Solution To address these challenges, many companies are exploring composite artificial intelligence systems or “compound AI,” which combine different models and AI technologies to manage complex tasks more efficiently. According to the survey, 54% of companies already use AI agents, and another 29% plan to do so in the future. Composite systems can reduce costs by segmenting work among cheaper models at certain stages of the process while simultaneously improving overall performance. A central aspect of creating composite AI systems is the use of multi-step chains, which allows a complex task to be divided into a series of simpler, specialized steps. According to the survey, 50% of companies have already implemented multi-step chains in their generative AI applications, and an additional 18% plan to do so. This approach enables the use of specialized models for individual phases of the process, reducing costs and improving overall system efficiency. Another key element is semantic routing, which allows user requests to be directed to the most appropriate tool, which could be another AI model or even a human intervention. This type of routing optimizes the use of available resources, avoiding overloading costly models for tasks that can be handled more economically. The adoption of components such as Retrieval-Augmented Generation (RAG) is an example of the composite approach in action. RAG combines a model’s generative capability with searches through corporate databases or documents, improving the relevance and quality of responses. Currently, 38% of companies use this technique, and another 29% plan to implement it. Another technological element supporting composite systems is the use of semantic caches and vector databases. Semantic caches, adopted by 32% of companies, help group and store responses to similar requests to reduce inference costs. Vector databases, adopted by 37% of companies, are essential for storing and searching complex representations of data and questions in vector format, thereby optimizing the ability to retrieve information. Strategies for Building an Adaptable AI Stack To build an adaptable AI stack, companies must address various strategic and operational challenges. A fundamental step is choosing the model or models on which to base applications: 67% of companies have opted for third-party closed models, such as those offered by OpenAI, while 42% have chosen open-source models on the cloud. The preference for open source is growing, partly because it allows greater flexibility and control over costs and security. The adoption of on-premises open-source models is an option considered by 41% of the companies surveyed: 17% already use them, while another 24% plan to implement them in the future. This solution can offer companies greater control over data and reduced licensing costs associated with commercial models. Another crucial element for building an adaptable AI stack is integrating existing technologies with new AI solutions. According to the survey, using standardized APIs, such as those offered by Redis and LangChain, allows companies to easily exchange and replace components within their stack, ensuring greater operational flexibility. Standard APIs help overcome differences between model parameters and facilitate the integration of new tools. Another important consideration is latency management in composite systems, especially for applications requiring real-time responses. To overcome this issue, it is essential to adopt a high-speed data platform capable of supporting models that respond quickly, minimizing user wait times. Rowan Trollope of Redis emphasized that “latency is the new downtime”: response speed becomes a determining factor for large-scale adoption and the success of generative AI applications. The complexity and costs of implementation remain significant barriers, but the adoption of technologies such as semantic caches and vector databases offers an opportunity to improve overall efficiency. These tools can reduce the load on more expensive models, increasing the speed and relevance of responses and are already adopted by a substantial portion of the surveyed companies. In conclusion, building an adaptable AI stack requires balancing cost efficiency, latency management, and operational flexibility. Why Enterprise AI Projects Fail and How to Reverse the Trend Despite the transformative potential of artificial intelligence, a significant percentage of enterprise AI projects fail to achieve the desired outcomes. Recent estimates indicate that over 80% of enterprise AI projects fail, a rate twice that of traditional IT projects. This high failure rate reflects the difficulties many companies encounter in transitioning from experimentation to truly functional and production-ready projects. According to the study “The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed” by James Ryseff, Brandon De Bruhl, and Sydne J. Newberry, five main causes of AI project failure were identified through interviews with 65 data scientists and engineers in the industry. The most frequently cited cause is the inability of corporate leadership to properly define project goals. A lack of strategic vision, combined with a poor understanding of AI’s actual capabilities, often leads to initiatives that fail to meet expectations. Another significant cause relates to data quality. Without accurate, complete, and relevant data, even the best AI models fail to provide reliable results. The lack of adequate data was cited by more than half of the respondents as one of the main reasons for failure. This issue is often accompanied by a lack of appreciation for data engineering, which is seen as a less valuable activity compared to model development. Other factors contributing to failure include a lack of adequate infrastructure to support the development team, operational errors by team members, and the intrinsic limitations of AI technology capabilities. Respondents also highlighted how inadequate leadership involvement in operational details and technical decisions contributes to poor alignment between business goals and the AI solutions developed. To reverse this trend, organizations must adopt a more holistic and strategic approach. It is crucial that corporate leadership is actively involved in the process, ensuring that project goals are clear and realistic. Leaders must work closely with the development team to translate these goals into concrete and achievable technical requirements. Moreover, investing in solid infrastructure and competent machine learning (ML) engineers is essential to overcome data quality issues and ensure proper model implementation. A clear understanding of AI’s real capabilities and limitations, combined with a long-term commitment, can help turn AI projects from failed experiments into tangible successes that bring real value to organizations. Conclusions Generative artificial intelligence represents a technological shift with extraordinary potential, but its full exploitation requires a profound rethinking of business and operational strategies. Companies today face a dual challenge: on the one hand, seizing the opportunities offered by this innovation to improve efficiency and generate value; on the other, overcoming technical, economic, and cultural barriers that hinder large-scale implementation. This duality reveals a crucial point: the adoption of generative AI is not a simple technological evolution, but a catalyst for systemic change. A key aspect is the need to rethink the corporate digital infrastructure. The traditional approach, characterized by monolithic and static systems, is no longer adequate to support technologies that require adaptability, scalability, and optimal resource utilization. The emergence of composite and modular solutions, such as multi-step chains, semantic routing, and the use of vector databases, marks the transition to a vision where flexibility is the core of efficiency. Companies must learn to segment processes, distribute loads, and optimize costs, turning complexity into an opportunity to gain competitive advantages. Another fundamental lesson concerns the relationship between innovation and ROI. The difficulties in measuring the economic impact of generative AI are not merely a technical obstacle, but a symptom of a broader gap: the inability of many companies to recognize and value the intangible benefits of innovation. Decision-making speed, large-scale personalization, and improved user experience are not easily quantifiable, but they can determine success in increasingly competitive markets. Companies that develop innovative methods for measuring the value generated by generative AI will have a decisive advantage. Trust emerges as another strategic pillar. The fact that many business leaders declare themselves ambivalent or dissatisfied with the progress in implementing generative AI underscores a cultural as well as technological problem. Building trust cannot be limited to output quality: it must include transparency on costs, predictability of outcomes, and an ethical approach to data use. In an era where corporate reputation is increasingly linked to responsible technology management, the adoption of open-source models and on-premises solutions is not only a technical choice but also a statement of intent. Finally, speed becomes a critical factor. In a scenario where latency is “the new downtime,” as stated by Rowan Trollope, the ability to respond quickly to user needs is not just a technical issue, but a factor that directly influences the perceived value by customers. Investing in infrastructure that reduces latency and increases operational resilience is not a cost but a strategic investment that can differentiate companies in saturated markets. In summary, adopting generative AI is much more than a technological issue: it is a strategic challenge that requires new skills, new metrics, and a holistic vision of innovation. Podcast: https://spotifycreators-web.app.link/e/RWIb8ogd2Ob Source: https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/
- Boston Consulting Group. The AI Maturity Map
In November 2024, the Boston Consulting Group presented a global vision of artificial intelligence (AI) maturity across 73 world economies through its new "AI Maturity Matrix." This study not only analyzes which economies are ready to leverage AI, but also identifies six distinct archetypes of AI development and economic potential. The matrix assesses each economy on two fundamental axes: exposure to AI-driven transformations and readiness to manage and utilize them. Let's explore the key findings. The Leading Economies for AI Maturity Among the 73 economies examined, only five were identified as "AI Pioneers": Canada, China, Singapore, the United Kingdom, and the United States. These countries have reached a high level of readiness by combining key elements such as investments and infrastructure to turn the potential disruptions caused by AI into a competitive advantage. Advanced AI adoption in these countries is driven by robust technological infrastructure, significant research and innovation capacity, and continuous investment in specialized training. The United States and Singapore stand out for their AI talent pools, which are crucial for driving innovation. China, on the other hand, leads in the production of patents and academic papers related to AI. The United States demonstrates an excellent ability to attract private investment in AI-related startups. With a total of over 200 unicorns in the tech sector, the United States also leads the global market for AI-focused venture capital, representing about 50% of total investments in the sector. This flow of investment not only supports existing startups but also creates a fertile environment for new companies developing advanced AI solutions. Furthermore, the presence of some of the world's top universities, such as MIT and Stanford, ensures a steady supply of highly qualified talent. Singapore, despite its relatively small size, has shown remarkable efficiency in implementing a national AI strategy, investing over 743 million dollars in a five-year plan to consolidate its position as a global hub for business and innovation. This investment has been accompanied by government initiatives such as the TechSkills Accelerator, which has trained more than 230,000 people since 2016, increasing the local talent pool and attracting international experts through programs like ONE Pass and Tech@SG. Singapore also established the Centre for Frontier AI Research (CFAR) to support the research and development of advanced AI technologies on a national scale. Mainland China, on the other hand, has adopted an aggressive approach to AI adoption, focusing on strategic sectors such as consumer electronics, surveillance, and autonomous vehicles. China leads the world in AI-related patents, registering over 150,000 patents in recent years, surpassing the United States and Europe. This commitment has also been supported by massive government investments in technological infrastructure, such as the establishment of world-class supercomputing centers and the enhancement of telecommunications networks. China is also a leader in publishing AI-related academic papers, with output accounting for 27% of all global publications in this field. The United Kingdom is one of the main AI hubs in Europe, thanks to a combination of favorable policies, access to capital, and a strong network of leading universities such as the University of Cambridge and Imperial College London. The country has developed a national strategy that includes funding centers of excellence for AI, aiming to expand AI use in sectors such as healthcare and finance. Furthermore, the UK government has allocated around 1.2 billion pounds to support AI, also focusing on developing a regulatory framework to ensure the safe and ethical use of technology. Canada stands out for its inclusive and sustainable approach to AI research and adoption. With the Pan-Canadian AI Strategy, Canada was one of the first countries to outline a national strategic plan for AI, investing 125 million dollars to support development and research in its major tech cities: Toronto, Montreal, and Vancouver. This has led to the creation of a strong research ecosystem, with leading institutes such as the Vector Institute and Mila attracting talent from around the world. Canada has also placed a strong emphasis on ethics and transparency in AI use, contributing to the development of international guidelines for responsible technology adoption. The analysis shows that these countries are not only investing significantly in research and development but are also establishing specific AI regulatory codes, such as Singapore's "Model AI Governance Framework," which ensures the ethical use of AI. Such an approach allows them to maintain a leadership position, influence the global AI ecosystem, and set international standards. AI Contenders and Practitioners Right after the leaders, we find the "AI Contenders" and "AI Practitioners," two categories that include economies like Germany, Japan, India, Malaysia, Saudi Arabia, and Indonesia. The "Contenders" are characterized by high readiness but relatively less exposure to AI compared to the "Pioneers." This means that while they are ready to adopt AI, not all their industries are sufficiently exposed to the benefits of this technology. Germany is an emblematic example of a "Steady Contender." With strong exposure to the financial services and advanced manufacturing sectors, Germany has benefited from a solid industrial base and a long-term technology innovation strategy. The German government has invested significant resources in developing tech hubs and facilitated collaboration between universities, private companies, and research institutes. The robust telecommunications infrastructure and access to advanced technologies have enabled Germany to position itself among the leading European technological players. Japan, known for its industrial innovation capability, has focused its efforts on applying AI in sectors such as robotics and manufacturing. The Japanese government has launched strategic plans to expand AI use in society, aiming to address challenges like an aging population. Significant investments in digital infrastructure and public-private collaboration have contributed to Japan's growing competitiveness in AI. India, on the other hand, is classified among the "Rising Contenders." The Indian government has launched several AI-focused initiatives, such as the National AI Strategy, with the goal of integrating AI into key sectors like agriculture and education. India is investing heavily in training a specialized workforce, with education and training programs aimed at increasing the number of AI specialists. Moreover, the Indian startup ecosystem, particularly in sectors like fintech and agritech, is rapidly expanding, supported by growing access to venture capital. Malaysia represents an interesting case among the Contenders, thanks to strong government support and its National AI Roadmap. This strategic plan includes investments in tech hubs and university programs to train professionals in the AI sector. The Malaysian government's goal is to achieve technological competitiveness comparable to that of high-income economies. Saudi Arabia and Indonesia are also classified as "Rising Contenders" and are making significant progress in AI adoption. Saudi Arabia, with its Vision 2030, aims to become a global center of excellence for AI in priority sectors like energy, healthcare, and education. This path is supported by substantial investments in digital infrastructure and training programs. Indonesia, for its part, is focusing efforts on education and long-term economic growth, with the National AI Strategy emphasizing education and the adoption of emerging technologies to improve productivity. Sectoral Exposure. Where AI Has the Greatest Impact The report also analyzes the level of exposure of different economies to AI based on economic sectors. Six sectors are found to be most exposed to AI-induced changes: information and communication, high-tech goods, financial services, retail, public services, and motor vehicle production. This is due to AI's ability to automate tasks and optimize processes, profoundly transforming how work is done in these sectors. In particular, economies with strong ICT sectors tend to grow in terms of GDP thanks to their ability to produce AI technologies that can be used in other sectors. In sectors like information and communication, AI can increase productivity through the automation of repetitive tasks and the optimization of business communications. According to the Boston Consulting Group, efficiency in these areas can increase by up to 20% through AI integration. Furthermore, AI technologies are particularly important in the production of high-tech goods, where they can reduce production costs and increase the precision of assembly lines, as demonstrated by sectors like electronics and semiconductors. Another key sector is financial services. AI adoption enables better risk management, faster decision-making processes, and a more personalized customer experience. For example, many banks use machine learning algorithms to prevent fraud and more accurately analyze customer risk profiles. This approach has allowed operational costs to be reduced and service efficiency to be improved. In retail, AI is having a significant impact on inventory management and demand forecasting. The use of predictive algorithms helps retailers optimize their inventories, reducing storage costs and improving product availability. AI applications in public services, on the other hand, improve energy efficiency and facilitate resource management through demand forecasting and optimization of distribution networks. Motor vehicle production is another sector where AI is radically transforming processes. The introduction of AI systems for assembly and quality control has improved production precision and speed, with a direct impact on costs and the quality of produced vehicles. Additionally, the development of autonomous vehicle technologies has further strengthened the role of AI in this sector, creating new opportunities for economic growth. On the other hand, countries with a sectoral composition more oriented towards agriculture and construction, such as India, Indonesia, and Ethiopia, show less exposure to potential disruptions caused by AI. However, the use of AI can still bring indirect benefits, improving efficiency in the agricultural sector and modernizing adjacent sectors like transportation. For example, the use of AI in precision agriculture allows optimization of production through monitoring weather and soil conditions, reducing resource use and increasing agricultural yields. In general, AI is contributing to differentiation between sectors that rapidly adopt the technology and sectors that lag behind, creating uneven impacts on the overall economy. However, sectors that effectively integrate AI see significant increases in productivity and competitiveness, as highlighted by the Boston Consulting Group, which estimates a revenue increase of up to 2.5 times for companies that adopt AI compared to those that do not. The ASPIRE Index. Assessing AI Readiness To assess each economy's readiness, the matrix uses the ASPIRE index, which consists of six dimensions: Ambition, Skills, Policy and Regulation, Investments, Research and Innovation, and Ecosystem. Only five economies out of 73 have surpassed 50% in all these dimensions, demonstrating a high degree of maturity in AI adoption. The ASPIRE index considers several key metrics to assess an economy's overall readiness for AI adoption. Among these metrics are the existence of a national AI strategy and the presence of a specialized government entity for implementation, which are key indicators of a country's ambition. Additionally, the index evaluates the concentration of AI specialists through indicators such as the number of professionals registered on platforms like LinkedIn and public contributions on GitHub, highlighting a country's ability to train and retain talent. Regarding regulation, the ASPIRE index includes measures of policy quality, government effectiveness, and data management, as well as the alignment of democratic values with AI development. In terms of investments, the index takes into account the value of AI startups, the market capitalization of tech companies, and the availability of venture capital, elements that indicate how well an economy can financially support AI adoption and growth. The "Research and Innovation" dimension is represented by the number of scientific publications on AI, patents registered, and the number of AI startups, factors that reflect a country's ability to innovate and contribute to the global development of technology. The maturity level of a digital ecosystem, on the other hand, is measured through indicators such as the quality of telecommunications infrastructure, average download speed, and public cloud spending per employee, aspects that directly influence the ability to implement AI technologies on a large scale. The United States and Singapore lead in the skills dimension, with highly developed talent pools. Specifically, the United States leads in investments, thanks to sophisticated capital markets and the presence of numerous unicorns in the AI field. Mainland China, in contrast, excels in research and development, being a leader in both patents registered and the number of academic AI publications. Countries like Japan and Germany perform well in the field of infrastructure and digital ecosystem but often lack adequate levels of investment in research and development, which could limit their long-term competitiveness. The global reality of AI adoption clearly shows significant disparities. More than 70% of the economies analyzed scored below half in the dimensions of ecosystem participation, skills, and R&D. This indicates that many countries still need to work significantly to achieve satisfactory readiness for AI adoption. Governments and the private sector must collaborate to improve infrastructure and promote policies that foster education and technological innovation. The ASPIRE index not only serves as a measure of the current level of AI maturity but also provides a practical guide to identifying priority areas for action to accelerate AI adoption in a balanced and sustainable manner. Italy. A Case of Potential and Challenges Italy ranks among the "AI Practitioners," with a moderate level of exposure and readiness. The country has begun to take significant steps towards AI adoption, but several obstacles still need to be overcome to reach the level of global leaders. One of the crucial aspects characterizing the Italian situation is the lack of adequate technological infrastructure. In particular, the availability of supercomputing centers and advanced data centers is lower compared to many other European economies. This technological limitation affects the country's ability to support large-scale AI projects and reduces attractiveness for foreign investments in high-tech sectors. The number of data centers in Italy is significantly lower than the European average, limiting data storage and processing capacity, an essential aspect for implementing complex AI solutions. In the manufacturing sector, which is one of the pillars of the Italian economy, AI adoption can lead to significant improvements in efficiency and automation. However, only a fraction of companies has started adopting these technologies extensively. The report indicates that about 30% of Italian manufacturing companies have implemented advanced automation solutions, compared to an average of 50% observed in major European countries like Germany and France. Automation of production processes and the introduction of AI technologies for predictive maintenance are two areas of particular interest but require targeted investments and coordinated action by the government and the private sector for effective implementation. Regarding agriculture, the potential for adopting AI technologies is high, especially in precision agriculture, which could significantly improve efficiency in the use of natural resources. However, large-scale adoption of such technologies is hampered by the fragmentation of the agricultural sector and the lack of access to dedicated funding. According to report data, less than 20% of Italian farms have access to the advanced technologies needed for precision agriculture, while countries like Spain and the Netherlands exceed 35%. The implementation of specialized training programs and concessional financing could help overcome these obstacles and facilitate the transition to more modern and sustainable agriculture. Another key element for improving Italy's position in the AI ecosystem concerns skills development. Currently, the number of AI specialists per million inhabitants is much lower than the European average. Only 15 specialists per million inhabitants are dedicated to AI, compared to a European average of 40. Creating regional tech hubs and incentivizing university and post-university programs specifically focused on AI are crucial to bridging this gap. Moreover, integrating AI training courses into high school curricula and collaboration between universities and companies could significantly help expand the available skills pool. Investments in research and development (R&D) are another critical point for Italy. Currently, Italy invests less than 1.5% of GDP in R&D, a value well below the European average of 2.5% and far from the levels of leaders like Germany and France, which invest over 3%. This low level of investment translates into a reduced capacity to innovate and develop advanced technologies. The report suggests that to improve competitiveness, Italy should increase research funding and encourage greater collaborations between the public and private sectors, particularly in AI application areas such as healthcare, mobility, and energy. The technological startup ecosystem in Italy is still weak compared to other advanced economies. The number of AI startups remains low, with fewer than 200 active startups compared to over 500 in comparable economies like Spain. The reasons for this lag include poor availability of venture capital and a high perceived risk associated with investments in emerging technologies. To address this issue, more aggressive tax incentives and dedicated acceleration programs are needed, capable of attracting national and international investments and creating an environment conducive to the birth and growth of new companies in the AI sector. In summary, Italy has the potential to improve its position in the AI field but requires a structural commitment and a long-term vision involving both the public and private sectors. Collaboration between universities, industries, and the government will be crucial to accelerating progress and achieving greater AI adoption maturity. A concerted effort is needed to develop technological infrastructure, increase specialist skills, and create an environment conducive to innovation and entrepreneurship in artificial intelligence. Strategic Next Steps for Countries The report proposes a set of initiatives for each archetype to promote AI adoption. For "AI Emergents," the economies still in the early stages, it is recommended to build national AI strategies and invest in basic digital infrastructure. This includes adopting measures to develop basic digital skills in the population, such as digital literacy programs and AI-focused training courses. It is also crucial to create research and development centers in partnership with international players to improve access to advanced technologies. For "AI Contenders" and "AI Practitioners," the focus should be on accelerating AI adoption. A key recommendation is to focus investments on applied research projects that can generate tangible results in the short term. These countries should also encourage collaboration between industrial sectors to promote the sharing of best practices and the implementation of AI solutions in the most promising sectors, such as manufacturing and financial services. Infrastructure enhancements, such as the expansion of the data center network and improvements to telecommunications networks, are essential to support greater AI adoption on a national scale. The "AI Pioneers" are called to play a global leadership role. To further expand their competitive advantage, these countries must promote flexible regulatory policies that encourage innovation while ensuring the safety and ethics of AI use. Furthermore, the Pioneers should create testing environments (sandboxes) for the development of advanced AI technologies, involving international players to share knowledge and promote the harmonization of global standards. It is also important to invest in continuous workforce training, ensuring that AI skills keep pace with technological advances. An example of a sectoral strategy is India, which aims to use AI to optimize the entire agricultural supply chain, improving yields and logistics through the use of data and predictive technologies. Similarly, Malaysia is promoting the development of specialized tech hubs and tax incentives to attract innovative startups, fostering the creation of a solid ecosystem for AI growth. To conclude, each archetype of country has a set of specific steps to take to advance its AI maturity journey. The strategies suggested in the Boston Consulting Group report aim to provide practical guidance to policymakers on how to navigate the evolving landscape of artificial intelligence and harness its potential to strengthen economies and improve overall social welfare. Conclusions The Boston Consulting Group's analysis clearly highlights how artificial intelligence is becoming a strategic variable for the competitive advantage of global economies. However, the true value of this matrix lies not only in the current snapshot but also in the systemic implications it has for the future of economies and businesses. The emerging reflection is that investing in AI is not enough: it is essential to understand how this technology redefines the economic rules of the game, reshaping strategic priorities. One of the key points is the need for a collaborative ecosystem between public and private sectors. Global leaders such as the United States and Singapore show that government policies are not merely technological "enablers" but tools for co-creation with the private sector. This is a new paradigm, where public investments in training, infrastructure, and regulation are designed not only to stimulate adoption but to foster the birth of entire economic ecosystems. Companies must therefore consider governments as strategic partners, not just regulators. Another crucial aspect is the asymmetry between sectors. Knowledge- and technology-intensive sectors, such as ICT and financial services, are already capitalizing on AI's advantages, while traditional sectors like agriculture and construction are lagging behind. However, this polarization can represent an opportunity. Companies operating in traditional sectors now have a unique window to position themselves as local AI pioneers, turning the delay into a strategic advantage. It is evident that AI adoption is not just a technological issue but a cultural and organizational choice that requires visionary leadership. Competition is shifting towards skills and the ability to retain qualified talent. Countries like Singapore and Canada, which combine strategic immigration policies and investments in advanced training, show that human capital is the core of innovation. For companies, this means that investing in internal training and attracting global talent is not a cost but a competitive imperative. Finally, a fundamental reflection emerges on ethics and governance. AI leaders are setting international standards not only from a technical point of view but also an ethical one. Companies that integrate ethical principles into their AI applications from the outset not only avoid reputational risks but also create a competitive advantage in gaining the trust of consumers and institutions. In an increasingly interconnected world, compliance with global regulations and transparency will become distinguishing elements. In summary, AI is no longer just an emerging technology but an accelerator that forces companies and nations to rethink their business models and governance. Podcast: https://spotifycreators-web.app.link/e/uvvWCb1Y1Ob Source: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai
- Boston Consulting Group. La mappa della maturità dell'intelligenza artificiale
Nel novembre 2024, il Boston Consulting Group ha presentato una visione globale della maturità dell'intelligenza artificiale (AI) in 73 economie mondiali attraverso la sua nuova "AI Maturity Matrix". Questo studio non solo analizza quali economie sono pronte a sfruttare l'AI, ma identifica anche sei archetipi distinti di sviluppo e potenziale economico legato all'AI. La matrice valuta ciascuna economia su due assi fondamentali: l'esposizione alle trasformazioni indotte dall'AI e la prontezza nel gestirle e utilizzarle. Scopriamo insieme i risultati principali. Le economie leader per maturità dell'intelligenza artificiale Tra le 73 economie esaminate, solo cinque sono state definite "AI Pioneers": Canada, Cina, Singapore, Regno Unito e Stati Uniti. Questi Paesi hanno raggiunto un alto livello di prontezza combinando elementi chiave come investimenti e infrastrutture per trasformare le potenziali interruzioni causate dall'AI in un vantaggio competitivo. L'adozione avanzata dell'AI in questi Paesi è guidata da robuste infrastrutture tecnologiche, una notevole capacità di ricerca e innovazione, e l'investimento continuo in formazione specialistica. Gli Stati Uniti e Singapore si distinguono per i loro pool di talenti in AI, essenziali per guidare l'innovazione. La Cina è invece in testa per la produzione di brevetti e articoli accademici legati all'AI. Gli Stati Uniti mostrano un'eccellente capacità di attrarre investimenti privati in startup legate all'AI. Con un totale di oltre 200 unicorni nel settore tecnologico, gli Stati Uniti guidano anche il mercato globale del capitale di rischio dedicato all'AI, rappresentando circa il 50% degli investimenti totali nel settore. Questo flusso di investimenti non solo sostiene le startup esistenti, ma contribuisce anche alla creazione di un ambiente fertile per nuove aziende che sviluppano soluzioni avanzate basate sull'intelligenza artificiale. Inoltre, la presenza di alcune delle migliori università al mondo, come MIT e Stanford, assicura un continuo apporto di talenti altamente qualificati. Singapore, nonostante la sua dimensione relativamente ridotta, ha dimostrato una notevole efficienza nella realizzazione di una strategia nazionale per l'AI, investendo oltre 743 milioni di dollari in un piano quinquennale volto a consolidare la sua posizione come hub globale per il business e l'innovazione. Questo investimento è stato accompagnato da iniziative governative come la TechSkills Accelerator, che ha formato più di 230.000 persone dal 2016, aumentando il bacino di talenti locali e attirando esperti internazionali grazie a programmi come ONE Pass e Tech@SG. Singapore ha inoltre stabilito il Centro per la Ricerca AI di Frontiera (CFAR) per sostenere la ricerca e sviluppo di tecnologie AI avanzate su scala nazionale. La Cina continentale, invece, ha adottato un approccio aggressivo all'adozione dell'AI, focalizzandosi su settori strategici come l'elettronica di consumo, la sorveglianza e i veicoli autonomi. La Cina guida il mondo per numero di brevetti legati all'AI e ha registrato oltre 150.000 brevetti negli ultimi anni, superando Stati Uniti ed Europa. Questo impegno è stato sostenuto anche da enormi investimenti governativi in infrastrutture tecnologiche, come l'istituzione di centri di supercalcolo di classe mondiale e il miglioramento delle reti di telecomunicazioni. La Cina è anche leader nella pubblicazione di articoli accademici riguardanti l'AI, con una produzione che rappresenta il 27% di tutte le pubblicazioni globali in questo campo. Il Regno Unito è uno dei principali hub di AI in Europa, grazie a una combinazione di politiche favorevoli, accesso ai capitali e una forte rete di università di eccellenza come l'Università di Cambridge e l'Imperial College di Londra. Il Paese ha sviluppato una strategia nazionale che include il finanziamento di centri di eccellenza per l'AI, con l'obiettivo di espandere l'uso dell'AI in settori come la sanità e la finanza. Inoltre, il governo del Regno Unito ha destinato circa 1,2 miliardi di sterline per il supporto all'AI, concentrandosi anche sullo sviluppo di un quadro normativo per garantire l'uso sicuro ed etico della tecnologia. Il Canada si distingue per l'approccio inclusivo e sostenibile alla ricerca e all'adozione dell'AI. Con il programma Pan-Canadian AI Strategy, il Canada è stato uno dei primi Paesi a delineare un piano strategico nazionale per l'AI, investendo 125 milioni di dollari per supportare lo sviluppo e la ricerca nelle sue principali città tecnologiche: Toronto, Montreal e Vancouver. Questo ha portato alla creazione di un ecosistema di ricerca forte, con istituti leader come il Vector Institute e Mila che attraggono talenti da tutto il mondo. Il Canada ha anche puntato molto sull'etica e la trasparenza nell'uso dell'AI, contribuendo allo sviluppo di linee guida internazionali per l'adozione responsabile della tecnologia. L'analisi mostra che questi Paesi non solo stanno investendo significativamente in ricerca e sviluppo, ma stanno anche stabilendo codici di regolamentazione specifici per l'AI, come il "Model AI Governance Framework" di Singapore, che garantisce l'uso etico dell'AI. Tale approccio consente loro di mantenere una posizione di leadership, influenzando l'ecosistema globale dell'AI e stabilendo standard internazionali. AI Contenders e Practitioners Subito dopo i leader troviamo i "AI Contenders" e gli "AI Practitioners", due categorie che includono economie come Germania, Giappone, India, Malesia, Arabia Saudita e Indonesia. I "Contenders" si distinguono per un'alta prontezza ma una relativamente minore esposizione all'AI rispetto ai "Pioneers". Questo significa che, pur essendo pronti a adottare l'AI, non tutte le loro industrie sono ancora sufficientemente esposte ai benefici di questa tecnologia. La Germania è un esempio emblematico di "Steady Contender". Con una forte esposizione ai settori dei servizi finanziari e della produzione avanzata, la Germania ha beneficiato di una base industriale solida e di una strategia di innovazione tecnologica orientata al lungo termine. Il governo tedesco ha investito notevoli risorse per sviluppare hub tecnologici e ha facilitato la collaborazione tra università, aziende private e istituti di ricerca. La robusta infrastruttura di telecomunicazioni e l'accesso a tecnologie avanzate hanno consentito alla Germania di posizionarsi tra i principali attori tecnologici europei. Il Giappone, noto per la sua capacità di innovazione industriale, ha concentrato i suoi sforzi sull'applicazione dell'AI in settori come la robotica e la produzione manifatturiera. Il governo giapponese ha varato piani strategici per espandere l'uso dell'AI nella società, puntando a risolvere sfide come l'invecchiamento della popolazione. Investimenti significativi in infrastrutture digitali e la collaborazione tra settore pubblico e privato hanno contribuito alla crescita della competitività giapponese nel campo dell'AI. L'India si colloca invece tra i "Rising Contenders". Il governo indiano ha lanciato numerose iniziative focalizzate sull'AI, come la National AI Strategy, con lo scopo di integrare l'AI in settori chiave quali l'agricoltura e l'educazione. L'India sta investendo pesantemente nella formazione di una forza lavoro specializzata, con programmi di educazione e formazione per aumentare il numero di specialisti in AI. Inoltre, l'ecosistema di startup indiane, soprattutto in settori come fintech e agritech, è in rapida espansione, sostenuto da un accesso crescente al capitale di rischio. La Malesia rappresenta un caso interessante tra i Contenders, grazie al forte supporto governativo e alla sua National AI Roadmap. Questo piano strategico include investimenti in hub tecnologici e programmi universitari per formare professionisti nel settore AI. L'obiettivo del governo malese è raggiungere una competitività tecnologica paragonabile a quella delle economie ad alto reddito. Arabia Saudita e Indonesia sono anch'esse classificate come "Rising Contenders" e stanno compiendo significativi progressi nell'adozione dell'AI. L'Arabia Saudita, con la sua Vision 2030, mira a diventare un centro di eccellenza globale per l'AI in settori prioritari come l'energia, la sanità e l'istruzione. Questo percorso è sostenuto da ingenti investimenti in infrastrutture digitali e programmi di formazione. L'Indonesia, dal canto suo, sta concentrando gli sforzi sull'istruzione e sulla crescita economica a lungo termine, con la National AI Strategy che enfatizza l'educazione e l'adozione di tecnologie emergenti per migliorare la produttività. L'esposizione settoriale. Dove l'AI sta avendo il maggior impatto Il report analizza anche il livello di esposizione delle diverse economie all'AI in base ai settori economici. Sei settori risultano essere maggiormente esposti ai cambiamenti indotti dall'AI: informazione e comunicazione, beni tecnologici avanzati, servizi finanziari, vendita al dettaglio, servizi pubblici e la produzione di veicoli a motore. Questo è dovuto alla capacità dell'AI di automatizzare compiti e ottimizzare processi, trasformando profondamente il modo di lavorare in questi settori. In particolare, le economie con settori ICT forti tendono a crescere in termini di PIL grazie alla capacità di produrre tecnologie AI che possono essere utilizzate in altri settori. In settori come l'informazione e la comunicazione, l'AI è in grado di aumentare la produttività grazie all'automazione di attività ripetitive e all'ottimizzazione delle comunicazioni aziendali. Secondo il Boston Consulting Group, l'efficienza può aumentare fino al 20% in queste aree grazie all'integrazione dell'AI. Inoltre, le tecnologie AI sono particolarmente importanti nella produzione di beni tecnologici avanzati, dove possono ridurre i costi di produzione e aumentare la precisione delle linee di assemblaggio, come dimostrato dagli esempi di settori come l'elettronica e i semiconduttori. Un altro settore chiave è quello dei servizi finanziari. L'adozione dell'AI consente una migliore gestione del rischio, processi decisionali più veloci e un'esperienza cliente più personalizzata. Ad esempio, molte banche stanno utilizzando algoritmi di machine learning per prevenire le frodi e analizzare in modo più accurato i profili di rischio dei clienti. Questo approccio ha permesso di ridurre i costi operativi e migliorare l'efficienza del servizio. Nella vendita al dettaglio, l'AI sta avendo un impatto significativo nella gestione delle scorte e nella previsione della domanda. L'uso di algoritmi predittivi aiuta i rivenditori a ottimizzare i loro inventari, riducendo i costi di stoccaggio e migliorando la disponibilità dei prodotti. Le applicazioni AI nei servizi pubblici, invece, migliorano l'efficienza energetica e facilitano la gestione delle risorse attraverso la previsione della domanda e l'ottimizzazione delle reti di distribuzione. La produzione di veicoli a motore è un altro settore dove l'AI sta trasformando radicalmente i processi. L'introduzione di sistemi AI per l'assemblaggio e il controllo qualità ha migliorato la precisione e la velocità della produzione, con un impatto diretto sui costi e sulla qualità dei veicoli prodotti. Inoltre, lo sviluppo di tecnologie per veicoli autonomi ha ulteriormente rafforzato il ruolo dell'AI in questo settore, creando nuove opportunità di crescita economica. D'altra parte, Paesi con una composizione settoriale più orientata all'agricoltura e alla costruzione, come India, Indonesia ed Etiopia, mostrano una minore esposizione alle potenziali interruzioni causate dall'AI. Tuttavia, l'utilizzo dell'AI può comunque portare benefici indiretti, migliorando l'efficienza del settore agricolo e modernizzando altri settori adiacenti come i trasporti. Ad esempio, l'uso di AI in agricoltura di precisione permette di ottimizzare la produzione tramite il monitoraggio delle condizioni climatiche e del suolo, riducendo l'impiego di risorse e aumentando i rendimenti agricoli. In generale, l'AI sta contribuendo a una differenziazione tra settori che adottano rapidamente la tecnologia e settori che rimangono indietro, creando un impatto disomogeneo sull'economia complessiva. Tuttavia, i settori che riescono a integrare efficacemente l'AI vedono un aumento significativo della produttività e della competitività, come evidenziato dal Boston Consulting Group, che stima un incremento del fatturato fino a 2,5 volte per le aziende che adottano l'AI rispetto a quelle che non lo fanno. L'indice ASPIRE. Valutare la prontezza all'AI Per valutare la prontezza di ciascuna economia, la matrice utilizza l'indice ASPIRE, che si compone di sei dimensioni: Ambizione, Competenze (Skills), Politica e regolamentazione, Investimenti, Ricerca e innovazione, ed Ecosistema. Solo cinque economie su 73 hanno superato il 50% in tutte queste dimensioni, dimostrando un alto grado di maturità nell'adozione dell'AI. L'indice ASPIRE considera diverse metriche fondamentali per valutare la prontezza complessiva di un'economia verso l'adozione dell'AI. Tra queste metriche vi sono l'esistenza di una strategia nazionale per l'AI e la presenza di un'entità governativa specializzata per l'implementazione, che sono indicatori chiave dell'ambizione di un Paese. Inoltre, l'indice valuta la concentrazione di specialisti in AI attraverso indicatori come il numero di professionisti registrati su piattaforme come LinkedIn e il contributo pubblico su GitHub, evidenziando la capacità di un Paese di formare e trattenere talenti. Per quanto riguarda la regolamentazione, l'indice ASPIRE include misure della qualità delle politiche, dell'efficacia governativa e della gestione dei dati, così come l'allineamento dei valori democratici con lo sviluppo dell'AI. A livello di investimenti, l'indice tiene conto del valore delle startup in ambito AI, della capitalizzazione di mercato delle società tecnologiche, e della disponibilità di venture capital, elementi che indicano quanto un'economia sia in grado di sostenere finanziariamente l'adozione e la crescita dell'AI. La dimensione "Ricerca e innovazione" è rappresentata dal numero di pubblicazioni scientifiche sull'AI, dai brevetti registrati e dal numero di startup in campo AI, fattori che riflettono la capacità di un Paese di innovare e contribuire allo sviluppo globale della tecnologia. Il livello di maturità di un ecosistema digitale, invece, è misurato tramite indicatori come la qualità delle infrastrutture di telecomunicazioni, la velocità di download media, e la spesa per il cloud pubblico per ogni dipendente, aspetti che influenzano direttamente la capacità di implementare tecnologie AI su larga scala. Gli Stati Uniti e Singapore sono leader per la dimensione delle competenze, con pool di talenti molto sviluppati. In particolare, gli Stati Uniti sono leader negli investimenti, grazie a mercati di capitali sofisticati e alla presenza di numerosi unicorni nel campo dell'AI. La Cina continentale si distingue invece nella ricerca e sviluppo, essendo leader sia per i brevetti registrati che per il numero di pubblicazioni accademiche sull'AI. Paesi come Giappone e Germania mostrano buone performance nel campo delle infrastrutture e dell'ecosistema digitale, ma spesso mancano di adeguati livelli di investimento in ricerca e sviluppo, che potrebbero limitare la loro competitività a lungo termine. La realtà globale dell'adozione dell'AI mostra chiaramente delle disparità significative. Più del 70% delle economie analizzate hanno ottenuto un punteggio inferiore alla metà nelle dimensioni di partecipazione all'ecosistema, competenze e R&D. Questo indica che molti Paesi devono ancora lavorare significativamente per raggiungere una prontezza soddisfacente nell'adozione dell'AI. È fondamentale che i governi e il settore privato collaborino per migliorare le infrastrutture e promuovere politiche che favoriscano l'educazione e l'innovazione tecnologica. L'indice ASPIRE non solo funge da misura del livello attuale di maturità dell'AI, ma fornisce anche una guida pratica per identificare le aree prioritarie su cui intervenire per accelerare l'adozione dell'AI in modo equilibrato e sostenibile. Italia. Un caso di potenziale e sfide L'Italia si colloca tra gli "AI Practitioners", con un livello di esposizione e prontezza moderato. Il Paese ha iniziato a intraprendere passi significativi verso l'adozione dell'AI, ma ci sono ancora diversi ostacoli da superare per raggiungere il livello dei leader globali. Uno degli aspetti cruciali che caratterizzano la situazione italiana è la mancanza di un'infrastruttura tecnologica adeguata. In particolare, la disponibilità di centri di supercalcolo e di data center avanzati è inferiore rispetto a molte altre economie europee. Questo limite tecnologico incide sulla capacità del Paese di supportare l'espansione di progetti AI su larga scala e riduce l'attrattività per investimenti esteri in settori ad alta tecnologia. Il numero di data center in Italia è significativamente inferiore alla media europea, limitando la capacità di immagazzinamento e di elaborazione dei dati, un aspetto essenziale per l'implementazione di soluzioni AI complesse. Nel settore manifatturiero, che è uno dei pilastri dell'economia italiana, l'adozione dell'AI può portare a miglioramenti significativi in termini di efficienza e automazione. Tuttavia, solo una frazione delle aziende ha iniziato a adottare queste tecnologie in modo esteso. Il report indica che circa il 30% delle aziende manifatturiere italiane ha implementato soluzioni di automazione avanzata, rispetto a una media del 50% osservata nei principali Paesi europei come Germania e Francia. L'automazione dei processi produttivi e l'introduzione di tecnologie AI per la manutenzione predittiva sono due aree di particolare interesse, ma richiedono investimenti mirati e un'azione coordinata da parte del governo e del settore privato per essere effettivamente implementati. Per quanto riguarda l'agricoltura, il potenziale per l'adozione di tecnologie AI è elevato, soprattutto nell'agricoltura di precisione, che potrebbe migliorare significativamente l'efficienza nell'uso delle risorse naturali. Tuttavia, l'adozione su larga scala di tali tecnologie è ostacolata dalla frammentazione del settore agricolo e dalla mancanza di accesso a finanziamenti dedicati. Secondo i dati del report, meno del 20% delle aziende agricole italiane ha accesso alle tecnologie avanzate necessarie per l'agricoltura di precisione, mentre Paesi come la Spagna e i Paesi Bassi superano il 35%. L'implementazione di programmi di formazione specializzata e di finanziamenti agevolati potrebbe aiutare a superare questi ostacoli e a facilitare la transizione verso un'agricoltura più moderna e sostenibile. Un altro elemento fondamentale per migliorare la posizione dell'Italia nell'ecosistema AI riguarda lo sviluppo delle competenze. Attualmente, il numero di specialisti in AI per ogni milione di abitanti è molto inferiore rispetto alla media europea. Solo 15 specialisti ogni milione di abitanti sono dedicati all'AI, contro una media europea di 40. La creazione di poli tecnologici regionali e l'incentivazione di percorsi universitari e post-universitari specificamente incentrati sull'AI sono cruciali per colmare questo divario. Inoltre, l'integrazione di corsi di formazione sull'AI nei curricula delle scuole superiori e la collaborazione tra università e aziende potrebbero contribuire significativamente ad ampliare il bacino di competenze disponibili. Gli investimenti in ricerca e sviluppo (R&D) rappresentano un altro punto critico per l'Italia. Attualmente, l'Italia investe meno dell'1,5% del PIL in R&D, un valore ben inferiore rispetto alla media europea del 2,5% e lontano dai livelli dei leader come Germania e Francia, che investono oltre il 3%. Questo basso livello di investimenti si traduce in una minore capacità di innovare e di sviluppare tecnologie avanzate. Il report suggerisce che per migliorare la competitività, l'Italia dovrebbe aumentare i fondi destinati alla ricerca e incoraggiare maggiori collaborazioni tra settore pubblico e privato, in particolare nelle aree di applicazione dell'AI, come la sanità, la mobilità e l'energia. L'ecosistema delle startup tecnologiche in Italia è ancora debole rispetto ad altre economie avanzate. Il numero di startup nel settore AI rimane basso, con meno di 200 startup attive rispetto alle oltre 500 presenti in economie comparabili come la Spagna. Le ragioni di questo ritardo includono una scarsa disponibilità di venture capital e una percezione di rischio elevato associato agli investimenti in tecnologie emergenti. Per affrontare questo problema, sarebbero necessari incentivi fiscali più aggressivi e programmi di accelerazione dedicati, capaci di attrarre investimenti nazionali e internazionali e di creare un ambiente favorevole alla nascita e alla crescita di nuove imprese nel settore AI. In sintesi, l'Italia ha il potenziale per migliorare la propria posizione nell'ambito dell'AI, ma necessita di un impegno strutturale e di una visione a lungo termine che coinvolga sia il settore pubblico che quello privato. La collaborazione tra università, industrie e governo sarà fondamentale per accelerare il progresso e raggiungere una maggiore maturità nell'adozione dell'AI. È necessario uno sforzo congiunto per sviluppare le infrastrutture tecnologiche, incrementare le competenze specialistiche e creare un ecosistema favorevole all'innovazione e all'imprenditorialità nel campo dell'intelligenza artificiale. Prossimi passi strategici per i Paesi Il report propone un insieme di iniziative per ciascun archetipo per promuovere l'adozione dell'AI. Per gli "AI Emergents", le economie ancora agli inizi, viene consigliato di costruire strategie nazionali di AI e di investire in infrastrutture digitali di base. Questo include l'adozione di misure volte a sviluppare competenze digitali di base nella popolazione, come programmi di alfabetizzazione digitale e corsi di formazione incentrati sull'AI. È inoltre cruciale creare centri di ricerca e sviluppo in partnership con attori internazionali per migliorare l'accesso alle tecnologie avanzate. Per gli "AI Contenders" e gli "AI Practitioners", il focus dovrebbe essere sull'accelerazione dell'adozione dell'AI. Una raccomandazione fondamentale è quella di concentrare gli investimenti su progetti di ricerca applicata che possano generare risultati tangibili nel breve termine. Questi Paesi dovrebbero anche incentivare la collaborazione tra settori industriali per favorire la condivisione di best practices e l'implementazione di soluzioni AI nei settori più promettenti, come quello manifatturiero e finanziario. Potenziamenti infrastrutturali, come l'espansione della rete di data center e il miglioramento delle reti di telecomunicazioni, sono essenziali per sostenere una maggiore adozione dell'AI su scala nazionale. Gli "AI Pioneers" sono invece chiamati a svolgere un ruolo di leadership globale. Per ampliare ulteriormente il proprio vantaggio competitivo, questi Paesi devono promuovere politiche di regolamentazione flessibile che favoriscano l'innovazione, garantendo allo stesso tempo la sicurezza e l'etica nell'uso dell'AI. Inoltre, i Pioneers dovrebbero creare ambienti di test (sandbox) per lo sviluppo di tecnologie AI avanzate, coinvolgendo attori internazionali per condividere conoscenze e favorire l'armonizzazione degli standard globali. È anche importante investire nella formazione continua del personale, garantendo che le competenze nel settore dell'AI rimangano al passo con le evoluzioni tecnologiche. Un esempio di strategia a livello settoriale è quello dell'India, che mira a utilizzare l'AI per ottimizzare l'intera filiera agricola, migliorando i rendimenti e la logistica grazie all'uso di dati e tecnologie predittive. Analogamente, la Malesia sta promuovendo lo sviluppo di hub tecnologici specializzati e incentivi fiscali per attirare startup innovative, favorendo la creazione di un ecosistema solido per la crescita dell'AI. Per concludere, ogni archetipo di Paese ha una serie di passi specifici da intraprendere per avanzare nel proprio percorso di maturità nell'AI. Le strategie suggerite nel report del Boston Consulting Group mirano a fornire una guida pratica ai policymaker su come navigare nel panorama in evoluzione dell'intelligenza artificiale e sfruttare il suo potenziale per rafforzare le economie e migliorare il benessere sociale complessivo. Conclusioni L'analisi del Boston Consulting Group evidenzia chiaramente come l'intelligenza artificiale stia diventando una variabile strategica per il vantaggio competitivo delle economie globali. Tuttavia, il vero valore di questa matrice non risiede solo nella fotografia attuale, ma nelle implicazioni sistemiche che ne derivano per il futuro delle economie e delle imprese . La riflessione che emerge è che non basta investire nell'AI: occorre comprendere come questa tecnologia reimposta le regole del gioco economico, ridisegnando le priorità strategiche. Uno dei punti chiave è la necessità di un'ecosistema collaborativo tra pubblico e privato . I leader globali come gli Stati Uniti e Singapore dimostrano che le politiche governative non sono semplicemente "abilitatori" tecnologici ma strumenti di co-creazione con il settore privato. Questo è un paradigma nuovo, dove gli investimenti pubblici in formazione, infrastrutture e regolamentazione sono progettati non solo per stimolare l'adozione, ma per favorire la nascita di interi ecosistemi economici. Le aziende devono quindi considerare i governi come partner strategici, non solo come regolatori . Un altro aspetto cruciale è l’asimmetria tra i settori. I settori ad alta intensità di conoscenza e tecnologia, come l’ICT e i servizi finanziari, stanno già capitalizzando sui vantaggi dell’AI, mentre comparti tradizionali come agricoltura e costruzioni rimangono indietro. Tuttavia, questa polarizzazione può rappresentare un'opportunità. Le aziende che operano nei settori tradizionali hanno ora una finestra unica per posizionarsi come pionieri locali dell'AI, trasformando il ritardo in un vantaggio strategico . È evidente che l'adozione dell’AI non è solo una questione tecnologica ma una scelta culturale e organizzativa, che richiede una leadership visionaria. La competizione si sta spostando verso l’ambito delle competenze e della capacità di trattenere talenti qualificati . Paesi come Singapore e Canada, che combinano politiche migratorie strategiche e investimenti in formazione avanzata, mostrano che il capitale umano è il fulcro dell'innovazione. Per le imprese, ciò significa che investire nella formazione interna e nell'attrazione di talenti globali non è un costo, ma un imperativo competitivo. Infine, emerge una riflessione fondamentale sull’etica e la governance. I leader nell’AI stanno definendo gli standard internazionali non solo dal punto di vista tecnico, ma anche etico. Le imprese che integrano fin dall’inizio principi etici nelle loro applicazioni AI non solo evitano rischi reputazionali, ma creano un vantaggio competitivo nel conquistare la fiducia dei consumatori e delle istituzioni . In un mondo sempre più interconnesso, la conformità alle normative globali e la trasparenza diventeranno elementi distintivi. In sintesi, l’AI non è più solo una tecnologia emergente ma un acceleratore che obbliga aziende e nazioni a ripensare i propri modelli di business e governance. Podcast: https://spotifycreators-web.app.link/e/0gpixd1Y1Ob Fonte: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai
- Adozione dell'AI aziendale. Analisi del Cisco AI Readiness Index 2024
L'intelligenza artificiale (AI) continua a essere il tema dominante nel mondo degli affari. Tuttavia, nonostante gli ingenti investimenti e l'entusiasmo iniziale, molte aziende non sono pronte come pensavano di essere per adottare e integrare appieno l'AI. Questo è quanto emerge dal Cisco AI Readiness Index 2024, un'indagine che valuta la prontezza delle organizzazioni ad adottare l'AI attraverso sei pilastri chiave: Strategia, Infrastruttura, Dati, Governance, Talento e Cultura. L'indagine coinvolge quasi 8.000 leader aziendali a livello globale e offre uno spaccato realistico delle sfide che le aziende devono affrontare. Panoramica dei risultati Il Cisco AI Readiness Index 2024 rivela una situazione complessa: meno di un'azienda su sette viene classificata come "Pacesetter" (leader nell'adozione dell'AI), in diminuzione rispetto all'anno precedente. Le aziende vengono suddivise in quattro livelli di prontezza: Pacesetters (leader assoluti), Chasers (moderatamente preparati), Followers (con preparazione limitata) e Laggards (poco preparati). Le percentuali dei Pacesetters sono scese al 13%, mentre i Followers sono il gruppo più numeroso, rappresentando il 51% del totale. Un altro dato significativo riguarda i livelli di investimento. Circa il 50% delle aziende ha dichiarato di destinare tra il 10% e il 30% del proprio budget IT all'AI, evidenziando un forte impegno finanziario nonostante le sfide. Tuttavia, quasi il 50% dei rispondenti afferma di non aver visto i risultati attesi dagli investimenti in AI, segnalando che molti progetti non hanno prodotto miglioramenti tangibili in termini di efficienza o automazione. Inoltre, è emerso che solo il 38% delle aziende dispone di metriche chiaramente definite per misurare l'impatto delle iniziative AI, suggerendo che la mancanza di processi di valutazione adeguati possa contribuire alla percezione di risultati deludenti. Il 59% delle aziende intervistate ha affermato che ha un massimo di un anno per implementare la propria strategia di AI, altrimenti rischia di perdere il vantaggio competitivo. Questo dato sottolinea l'urgenza percepita di accelerare l'adozione dell'AI, nonostante le difficoltà incontrate. Anche il supporto del top management è in calo: solo il 66% dei consigli di amministrazione e il 75% dei team dirigenziali si dichiara favorevole, percentuali in diminuzione rispetto all'82% dello scorso anno. La pressione per adottare l'AI proviene principalmente dai livelli più alti, con il 50% delle aziende che cita il CEO e il suo team come principali promotori dell'adozione dell'AI. Sei pilastri dell’adozione dell'AI aziendale 1. Strategia La strategia è il pilastro con il livello più alto di prontezza, con il 76% delle aziende classificate come Pacesetters o Chasers. Quasi tutte le organizzazioni (95%) dichiarano di avere una strategia per l'AI ben definita o in fase di sviluppo. La priorità principale per l'adozione dell'AI è la cybersecurity, con il 42% delle aziende che ha già implementato avanzati sistemi di protezione. Inoltre, il 27% delle aziende indica che l'AI rappresenta una priorità assoluta per l'allocazione del budget, senza variazioni significative rispetto allo scorso anno. La volontà di investire è una delle caratteristiche che distingue i Pacesetters dalle altre aziende. 2. Infrastruttura La prontezza dell'infrastruttura è diminuita leggermente rispetto allo scorso anno. Il 68% dei rispondenti afferma che la propria infrastruttura è solo moderatamente pronta per adottare tecnologie AI. Le sfide principali includono la mancanza di potenza di calcolo adeguata e la limitata scalabilità e flessibilità delle infrastrutture esistenti, con il 54% delle aziende che dichiara problemi in questo ambito. Inoltre, il 78% non ha fiducia nella disponibilità di risorse di calcolo sufficienti per supportare i carichi di lavoro AI. L'aumento della richiesta di unità di elaborazione grafica (GPU) è un altro aspetto rilevante, con il 79% delle aziende che richiede ulteriori GPU per sostenere i carichi di lavoro futuri. 3. Dati I dati sono fondamentali per il successo dell'AI, ma meno di un terzo (32%) delle organizzazioni si sente realmente pronta da questo punto di vista. Le principali difficoltà riguardano la frammentazione dei dati, la cui accessibilità è ancora problematica per l'82% delle aziende. Anche l'integrazione degli strumenti di analisi con le piattaforme AI rappresenta un ostacolo significativo, con il 73% delle aziende che segnala difficoltà in quest'area. Un ulteriore 64% ha dichiarato di avere margini di miglioramento nel tracciare l'origine dei dati, mentre l'80% delle aziende continua a riscontrare problemi nella preelaborazione e pulizia dei dati per i progetti AI. 4. Governance La prontezza nella governance è diminuita quest'anno, anche a causa dell'evoluzione del panorama normativo globale sull'AI. Solo il 35% delle organizzazioni afferma di avere una buona comprensione degli standard globali sulla privacy dei dati. Inoltre, solo il 29% dispone di controlli regolari per monitorare e correggere eventuali bias nei dati utilizzati dall'AI. La mancanza di competenze in materia di governance, legge ed etica è stata segnalata dal 51% delle organizzazioni come una delle principali barriere per migliorare la propria prontezza in ambito governance. 5. Talento La mancanza di talento è una delle principali barriere all'adozione dell'AI. Solo il 31% delle aziende dichiara di avere talenti con un alto livello di preparazione per l'AI. Per affrontare questa sfida, il 40% delle organizzazioni sta investendo nella formazione del personale esistente, mentre il 56% si affida a contratti con fornitori esterni per colmare le lacune. In aggiunta, il 45% delle aziende ha indicato la carenza di talenti con competenze adeguate come uno dei principali ostacoli. Inoltre, il 48% degli intervistati ha sottolineato che la crescente competizione per attrarre professionisti qualificati rappresenta un fattore che contribuisce all’aumento dei costi. 6. Cultura La cultura aziendale è forse il pilastro più complesso da affrontare. Solo il 9% delle aziende rientra nella categoria dei Pacesetters per quanto riguarda la prontezza culturale, mentre il numero dei Chasers è diminuito dal 40% al 31%. Le resistenze culturali sono evidenti, con il 30% delle aziende che segnala una resistenza all'adozione dell'AI da parte dei dipendenti. Inoltre, la ricettività dei consigli di amministrazione è diminuita dal 82% al 66%, indicando un calo significativo nell'entusiasmo verso l'adozione dell'AI ai livelli più alti. Anche il supporto dei team di leadership è sceso al 75%, segnalando una maggiore difficoltà nell'ottenere un impegno diffuso all'interno delle organizzazioni. Sfide e raccomandazioni in Italia La situazione italiana presenta delle peculiarità rispetto al resto del panorama globale analizzato dal Cisco AI Readiness Index 2024. In Italia, il livello di prontezza delle aziende per l'adozione dell'AI appare ancora più disomogeneo, con una concentrazione significativa di organizzazioni che rientrano nella categoria dei "Followers" o "Laggards". Infatti, solo il 10% delle aziende italiane è classificato come "Pacesetter", ben al di sotto della media globale del 13%. Questo dato riflette una lenta progressione nell'adottare le tecnologie AI, complice anche la scarsa digitalizzazione e il ritardo nella modernizzazione infrastrutturale che caratterizza molte realtà italiane. Infatti, per quanto riguarda le infrastrutture, l'Italia registra una carenza ancora più marcata in termini di disponibilità di risorse di calcolo e scalabilità. Il 63% delle aziende italiane segnala difficoltà significative nel garantire la disponibilità di GPU e altre risorse di calcolo necessarie per supportare i carichi di lavoro AI, e il 70% afferma che la propria infrastruttura non è sufficientemente flessibile per adattarsi alle esigenze crescenti. Questo aspetto limita fortemente la capacità delle imprese di competere su scala internazionale, dove le infrastrutture pronte per l'AI sono considerate un requisito fondamentale per accelerare l'innovazione. In termini di talento, la mancanza di competenze specifiche è particolarmente acuta in Italia. Solo il 28% delle aziende italiane afferma di disporre di personale adeguatamente formato per l'adozione dell'AI, mentre il 47% si affida a fornitori esterni per colmare le lacune di competenze. Questo dato evidenzia una forte dipendenza da partner esterni, che potrebbe limitare la capacità di sviluppare internamente competenze strategiche e sostenibili nel lungo periodo. Per risolvere questa situazione, il 35% delle aziende italiane ha iniziato a investire in programmi di formazione e reskilling del personale, ma la portata di questi sforzi rimane ancora limitata rispetto alle reali necessità. La governance dell'AI in Italia risulta anch'essa debole, soprattutto in relazione alla conformità con le normative europee emergenti. Solo il 30% delle aziende italiane dichiara di avere una buona comprensione degli standard di privacy e sicurezza dei dati imposti dal GDPR e dalle normative più recenti come l'AI Act dell'Unione Europea. Questo dato mette le aziende italiane in una posizione di vulnerabilità nel garantire la conformità ai requisiti legali, con il rischio di incorrere in sanzioni o di non poter sfruttare appieno le opportunità offerte dall'AI a causa di vincoli normativi. Per affrontare queste sfide, le raccomandazioni per le aziende italiane includono un maggiore focus sull'aggiornamento infrastrutturale e sull'adozione di soluzioni cloud scalabili che possano offrire una capacità di calcolo adeguata senza necessità di ingenti investimenti iniziali. Inoltre, è fondamentale incentivare la collaborazione tra aziende, università e centri di ricerca per favorire lo sviluppo di competenze locali nell'ambito dell'AI, riducendo la dipendenza da fornitori esterni. Infine, una maggiore attenzione alla governance e alla conformità normativa può aiutare le imprese italiane a migliorare la propria prontezza, assicurando che l'adozione dell'AI avvenga in modo responsabile e in linea con gli standard europei. Promuovere una cultura dell'innovazione è un ulteriore passo cruciale per l'Italia. Molte aziende italiane mostrano ancora una certa resistenza culturale all'adozione dell'AI, spesso vista come una minaccia piuttosto che un'opportunità. Incentivare l'uso sperimentale dell'AI, fornendo supporto formativo e promuovendo storie di successo interne, potrebbe contribuire a ridurre queste resistenze e a creare un contesto più favorevole all'innovazione tecnologica. Conclusioni L'adozione dell'intelligenza artificiale (AI) nelle aziende italiane riflette un panorama in cui la complessità delle sfide si intreccia con l'urgenza di trasformazione. Dall'analisi del Cisco AI Readiness Index 2024 emerge chiaramente come molte organizzazioni si trovino in una fase di stallo, dove l'entusiasmo iniziale si è scontrato con la dura realtà della preparazione infrastrutturale, culturale e strategica. Tuttavia, nonostante il ritardo digitale rispetto al panorama industrializzato mondiale, l’Italia dispone di un patrimonio unico: le competenze delle maestranze e dell’imprenditoria diffusa, soprattutto nelle microimprese e PMI, che rappresentano un'eccellenza competitiva a livello globale. Questo elemento deve diventare il cuore di una strategia nazionale che trasformi l’avvento dell’AI in un’opportunità di digitalizzazione delle competenze distintive del Paese, creando un’AI capace di differenziare l’Italia nel contesto industriale e manifatturiero globale. In primo luogo, il dato che solo il 10% delle aziende italiane è classificato come "Pacesetter" evidenzia un problema di visione strategica e investimento sistemico. Questo non può essere letto unicamente come mancanza di risorse, ma piuttosto come una fragilità nella capacità di pensare a lungo termine in un contesto globale. L'AI offre l'opportunità di valorizzare e amplificare le competenze artigianali e specialistiche tipiche dell’Italia, creando un ecosistema tecnologico che rifletta le eccellenze locali. In quest’ottica, il modello italiano potrebbe emergere non come emulazione delle grandi economie digitali, ma come una reinterpretazione in chiave innovativa e distintiva. La governance dell'AI in Italia pone un problema di compliance con le normative europee, ma soprattutto di gestione etica e responsabile delle tecnologie emergenti. Solo il 30% delle aziende italiane dichiara di comprendere pienamente gli standard di privacy e sicurezza. Questo dato è più di una lacuna tecnica; è una mancata opportunità per le aziende di posizionarsi come leader in uno scenario normativo sempre più regolamentato. Integrare le competenze giuridiche e culturali delle PMI italiane nell'AI governance potrebbe rappresentare un elemento distintivo e un vantaggio competitivo. L’approccio etico e su misura, caratteristico del “made in Italy”, può diventare il marchio di qualità anche in ambito tecnologico. Un tema particolarmente delicato è quello del talento. La dipendenza da fornitori esterni e la scarsa disponibilità di competenze specifiche nel mercato italiano riflettono una crisi strutturale che richiede soluzioni innovative. Non basta investire in formazione: è necessario digitalizzare e capitalizzare le capacità uniche delle maestranze italiane, adattandole ai paradigmi dell’AI. Il modello italiano delle filiere produttive, basato su una profonda conoscenza specialistica e su una flessibilità operativa senza eguali, potrebbe essere amplificato dall’introduzione dell’AI, rendendo l'Italia un hub globale di innovazione industriale e artigianale. Anche il problema culturale, spesso attribuito a resistenze interne, deve essere ripensato. La percezione dell’AI come minaccia deve essere ribaltata, comunicandola come un’opportunità per preservare e potenziare l’identità produttiva e culturale del Paese. I leader aziendali devono agire non solo come promotori tecnologici, ma come custodi di una trasformazione che coniughi tradizione e innovazione. Un approccio che metta al centro le persone e il loro know-how potrebbe generare una cultura aziendale dove l’AI diventa strumento per elevare il valore umano. In sintesi, l’Italia può trasformare il ritardo digitale in un’opportunità unica, costruendo un modello di AI che non solo digitalizza ma esalta le competenze distintive delle sue imprese. Non si tratta di rincorrere il modello dei giganti tecnologici, ma di creare una visione alternativa dove la tecnologia serve a valorizzare ciò che rende l’Italia unica. Questo approccio potrebbe non solo colmare il divario con le economie più avanzate, ma posizionare l’Italia come punto di riferimento per un’AI che integra tradizione, innovazione e responsabilità. Podcast: https://spotifycreators-web.app.link/e/Vjpn7otP0Ob Fonte: https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html
- Corporate AI. Analysis of the Cisco AI Readiness Index 2024
Artificial Intelligence (AI) continues to dominate the business world. However, despite significant investments and initial enthusiasm, many companies are not as prepared as they thought to adopt and fully integrate AI. This is the main finding of the Cisco AI Readiness Index 2024, a survey that evaluates the readiness of organizations to adopt AI across six key pillars: Strategy, Infrastructure, Data, Governance, Talent, and Culture. The survey involves nearly 8,000 business leaders globally and provides a realistic picture of the challenges companies face. Overview of the Results The Cisco AI Readiness Index 2024 reveals a complex situation: fewer than one in seven companies are classified as "Pacesetters" (leaders in AI adoption), a decrease compared to the previous year. Companies are divided into four readiness levels: Pacesetters (absolute leaders), Chasers (moderately prepared), Followers (with limited preparation), and Laggards (poorly prepared). The percentage of Pacesetters has fallen to 13%, while Followers are the largest group, representing 51% of the total. Another significant finding concerns investment levels. About 50% of companies reported allocating between 10% and 30% of their IT budget to AI, highlighting a strong financial commitment despite the challenges. However, almost 50% of respondents say they have not seen the expected results from their AI investments, indicating that many projects have not delivered tangible improvements in efficiency or automation. Moreover, it emerged that only 38% of companies have clearly defined metrics to measure the impact of AI initiatives, suggesting that a lack of adequate evaluation processes may contribute to the perception of disappointing results. About 59% of the companies interviewed stated that they have a maximum of one year to implement their AI strategy, or they risk losing their competitive advantage. This figure underscores the perceived urgency to accelerate AI adoption, despite the difficulties encountered. Support from top management is also declining: only 66% of boards and 75% of executive teams express support, down from 82% last year. The pressure to adopt AI mainly comes from the highest levels, with 50% of companies citing the CEO and their team as the main promoters of AI adoption. Six Pillars of Corporate AI Adoption 1. Strategy Strategy is the pillar with the highest level of readiness, with 76% of companies classified as Pacesetters or Chasers. Nearly all organizations (95%) claim to have a well-defined or developing AI strategy. The top priority for AI adoption is cybersecurity, with 42% of companies already implementing advanced protection systems. Additionally, 27% of companies indicate that AI is an absolute priority for budget allocation, with no significant variation from last year. The willingness to invest is one of the characteristics that distinguishes Pacesetters from other companies. 2. Infrastructure Infrastructure readiness has slightly decreased compared to last year. About 68% of respondents say their infrastructure is only moderately ready to adopt AI technologies. The main challenges include a lack of adequate computing power and limited scalability and flexibility of existing infrastructures, with 54% of companies reporting issues in this area. Furthermore, 78% lack confidence in the availability of sufficient computing resources to support AI workloads. The growing demand for Graphics Processing Units (GPUs) is another relevant aspect, with 79% of companies requiring additional GPUs to support future workloads. 3. Data Data is fundamental to AI success, but fewer than one-third (32%) of organizations feel truly ready in this regard. The main difficulties concern data fragmentation, with access still being problematic for 82% of companies. The integration of analytics tools with AI platforms is also a significant obstacle, with 73% of companies reporting difficulties in this area. An additional 64% stated that there is room for improvement in tracing data origins, while 80% of companies continue to face issues in data preprocessing and cleaning for AI projects. 4. Governance Governance readiness has decreased this year, partly due to the evolving global regulatory landscape on AI. Only 35% of organizations claim to have a good understanding of global data privacy standards. Furthermore, only 29% have regular controls in place to monitor and correct biases in the data used by AI. A lack of expertise in governance, law, and ethics has been reported by 51% of organizations as one of the main barriers to improving their governance readiness. 5. Talent The lack of talent is one of the main barriers to AI adoption. Only 31% of companies report having talent with a high level of AI preparedness. To address this challenge, 40% of organizations are investing in training existing staff, while 56% rely on contracts with external suppliers to fill the gaps. Additionally, 45% of companies indicated that the lack of adequately skilled talent is one of the main obstacles. Furthermore, 48% of respondents emphasized that the growing competition to attract qualified professionals is contributing to increased costs. 6. Culture Corporate culture is perhaps the most complex pillar to tackle. Only 9% of companies fall into the Pacesetters category regarding cultural readiness, while the number of Chasers has dropped from 40% to 31%. Cultural resistance is evident, with 30% of companies reporting resistance to AI adoption by employees. Furthermore, the receptiveness of boards has dropped from 82% to 66%, indicating a significant decline in enthusiasm for AI adoption at the highest levels. Support from leadership teams has also dropped to 75%, signaling increased difficulty in gaining widespread commitment within organizations. Challenges and Recommendations in Italy The Italian situation presents some peculiarities compared to the rest of the global landscape analyzed by the Cisco AI Readiness Index 2024. In Italy, the level of readiness of companies for AI adoption appears even more uneven, with a significant concentration of organizations falling into the "Followers" or "Laggards" category. Indeed, only 10% of Italian companies are classified as "Pacesetters," well below the global average of 13%. This figure reflects slow progress in adopting AI technologies, partly due to poor digitalization and delayed infrastructure modernization that characterize many Italian companies. Regarding infrastructure, Italy shows an even more marked shortage in terms of computing resources and scalability. About 63% of Italian companies report significant difficulties in ensuring the availability of GPUs and other computing resources needed to support AI workloads, and 70% say that their infrastructure is not flexible enough to adapt to growing needs. This aspect significantly limits the ability of Italian businesses to compete internationally, where AI-ready infrastructure is considered a fundamental requirement to accelerate innovation. In terms of talent, the lack of specific skills is particularly acute in Italy. Only 28% of Italian companies say they have adequately trained personnel for AI adoption, while 47% rely on external providers to fill skill gaps. This figure highlights a strong dependence on external partners, which could limit the ability to develop internal, sustainable, strategic skills in the long term. To address this situation, 35% of Italian companies have started investing in training and reskilling programs for staff, but the scale of these efforts remains limited compared to actual needs. AI governance in Italy is also weak, especially regarding compliance with emerging European regulations. Only 30% of Italian companies claim to have a good understanding of data privacy and security standards imposed by the GDPR and more recent regulations such as the European Union's AI Act. This puts Italian companies in a vulnerable position regarding ensuring compliance with legal requirements, with the risk of incurring sanctions or not being able to fully exploit the opportunities offered by AI due to regulatory constraints. To address these challenges, recommendations for Italian companies include a greater focus on infrastructure upgrades and adopting scalable cloud solutions that can provide adequate computing capacity without requiring significant initial investments. Additionally, it is crucial to encourage collaboration between companies, universities, and research centers to foster the development of local AI skills, reducing reliance on external suppliers. Finally, increased attention to governance and regulatory compliance can help Italian companies improve their readiness, ensuring that AI adoption occurs responsibly and in line with European standards. Promoting an innovation culture is another crucial step for Italy. Many Italian companies still show some cultural resistance to AI adoption, often seen as a threat rather than an opportunity. Encouraging experimental use of AI, providing training support, and promoting internal success stories could help reduce these resistances and create a more favorable environment for technological innovation. Conclusions AI adoption in Italian companies reflects a landscape where the complexity of challenges intertwines with the urgency of transformation. The Cisco AI Readiness Index 2024 clearly shows how many organizations find themselves in a phase of stagnation, where initial enthusiasm has clashed with the harsh reality of infrastructural, cultural, and strategic preparedness. However, despite the digital lag compared to the industrialized world, Italy has a unique asset: the skills of its workforce and widespread entrepreneurship, particularly in micro-enterprises and SMEs, which represent a globally competitive excellence. This element must become the core of a national strategy that transforms the advent of AI into an opportunity to digitize the country's distinctive skills, creating AI capable of differentiating Italy in the global industrial and manufacturing landscape. First of all, the fact that only 10% of Italian companies are classified as "Pacesetters" highlights a problem of strategic vision and systemic investment. This cannot be seen merely as a lack of resources but rather as a weakness in long-term thinking in a global context. AI offers the opportunity to enhance and amplify Italy's artisanal and specialized skills, creating a technological ecosystem that reflects local excellences. In this context, the Italian model could emerge not as an emulation of large digital economies but as an innovative and distinctive reinterpretation. AI governance in Italy presents a problem of compliance with European regulations but, above all, of ethical and responsible management of emerging technologies. Only 30% of Italian companies claim to fully understand privacy and security standards. This figure is more than a technical gap; it is a missed opportunity for companies to position themselves as leaders in an increasingly regulated environment. Integrating legal and cultural expertise from Italian SMEs into AI governance could represent a distinctive element and a competitive advantage. The ethical and tailored approach, characteristic of "made in Italy," can become a mark of quality even in the technological field. A particularly delicate issue is talent. Dependence on external suppliers and the limited availability of specific skills in the Italian market reflect a structural crisis that requires innovative solutions. It is not enough to invest in training; it is necessary to digitize and capitalize on the unique capabilities of the Italian workforce, adapting them to AI paradigms. The Italian model of production chains, based on deep specialist knowledge and unparalleled operational flexibility, could be amplified by the introduction of AI, making Italy a global hub of industrial and artisanal innovation. The cultural problem, often attributed to internal resistance, must also be reconsidered. The perception of AI as a threat must be reversed, communicating it as an opportunity to preserve and enhance the country's productive and cultural identity. Business leaders must act not only as technological promoters but as guardians of a transformation that combines tradition and innovation. An approach that places people and their know-how at the center could generate a corporate culture where AI becomes a tool to elevate human value. In conclusion, Italy can transform its digital lag into a unique opportunity, building an AI model that not only digitizes but also enhances the distinctive competencies of its companies. This is not about chasing the model of technological giants but about creating an alternative vision where technology serves to enhance what makes Italy unique. This approach could not only bridge the gap with more advanced economies but position Italy as a reference point for AI that integrates tradition, innovation, and responsibility. Podcast: https://spotifycreators-web.app.link/e/LILYOqtP0Ob Source: https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html
- University Exams and AI
The recent rise of artificial intelligence systems, such as ChatGPT, presents a fundamental challenge for the education sector. The case study we analyze explores the infiltration of artificial intelligence in university examination systems, testing universities' ability to detect the use of AI tools to complete academic assessments. The research was conducted by Peter Scarfe, Kelly Watcham, Alasdair Clarke, and Etienne Roesch at the University of Reading, United Kingdom, and was published in the journal PLOS ONE on June 26, 2024. Objective and Methodology The primary objective of the study was to evaluate the ability of a university to detect exam responses generated by an AI system (specifically GPT-4) and the effect of these responses on the grading system. The methodology involved injecting AI-generated responses into five modules spread across all years of a BSc Psychology course at the University of Reading. For each module, approximately 5% of the total responses were produced by AI, a manageable number that did not overwhelm the evaluators and ensured uniform coverage. Two types of exams were used: Short Answer Questions (SAQ) and Essay-Based Questions. The SAQ exams involved answering four out of six questions, within a 2.5-hour time frame. For the Essay exams, students had to respond to a single question with an essay, completed within an 8-hour time limit. All exams were conducted at home, with access to study materials, academic articles, and the internet, which increased the risk of undetected use of AI tools. To ensure variety in the AI responses, standardized prompts were used for each type of question. However, it was found that the GPT-4 model tended to produce a word count not always in line with the required limit: 160 words for SAQ were often exceeded, while 2000 words for Essays were sometimes insufficient, requiring the use of the prompt "Please continue your answer" to generate more complete texts. In some cases, despite the prompt, the AI generated reference sections that were subsequently removed for consistency with the required response format. An interesting aspect of the experiment's design was the use of university student aliases created specifically for the submission of AI responses, which allowed for anonymity and ensured that the responses were treated like any other real response by the existing submission and evaluation tools. The AI responses were submitted at the end of the submission period for each exam, faithfully replicating the expected behavior of students. University Exams and AI: Main Findings The study's findings highlighted some particularly interesting trends. In addition to the fact that 94% of the AI-generated responses were not detected as suspicious, it was found that AI responses tended to score higher than the average of real students in four of the five modules. This effect was quantified through various measures, offering deeper insight into the results obtained: • Grade Distribution : The AI-generated responses showed a concentration in the higher score range. In particular, the grades obtained by AI responses were often placed between the 2:1 and first-class levels. In the grade distribution charts, the AI responses were concentrated in the upper range compared to real student responses, with averages falling within higher classifications. • Median Analysis : In four of the five modules, the medians of the AI responses were within the 2:1 and first-class range (considered excellent in the British grading system). Only in module P3-M1 did the AI score lower than real students, indicating difficulty in dealing with more advanced and abstract content. • Score Advantage : In terms of grade advantage, the average margin of the AI responses was about half a classification above the grades of real students, with extreme differences in some cases reaching almost an entire classification level. In module P1-M2, for instance, AI consistently scored in the first-class range, significantly outperforming real students. • Pass Probability : Through repeated random sampling analysis conducted 100,000 times, it emerged that there was an 83.4% probability that a random sample of AI responses would outperform a random sample of real student responses. In lower-level modules, such as P1-M1 and P1-M2, this probability was nearly 100%. Only in the more advanced module, P3-M1, did AI have a 19% chance of outperforming student responses. • Pass Rate Analysis : Overall, only 16% of student responses scored higher than the median of AI responses, confirming the superior overall performance of AI-generated answers. These results suggest that AI not only managed to pass undetected in terms of detectability but also produced significantly higher quality content compared to students in various settings. However, AI showed limitations in tasks requiring more abstract reasoning, as evidenced in module P3-M1. The Challenge of Detecting AI in Academic Assessments The analysis of the data collected during the study highlighted a low ability to detect AI-generated responses by the evaluators and the systems currently in use. Only 6% of the responses were flagged for suspicions of academic misconduct, without any explicit reference to the use of artificial intelligence. When the detection criterion was narrowed to cases where AI was specifically mentioned, the detection percentage further dropped to 3%. This highlights a significant difficulty in identifying AI-generated content, despite the efforts of evaluators. A more detailed analysis revealed that the ability to detect AI was particularly ineffective in Essay-Based questions, where none of the AI-generated responses were identified as suspicious. This could be attributed to GPT-4's ability to generate articulate and coherent responses, which closely resemble the writing style of real students, making it extremely difficult to differentiate between human and AI-generated content. In contrast, for Short Answer Questions (SAQ), where no similarity-checking software was used, some flags were raised. However, even in these cases, the detection rate remained extremely low. Interestingly, markers (the evaluators assigned to assign grades) flagged only those responses that had particularly anomalous characteristics, such as stylistic quality that was too high for a university exam. In these cases, some markers even attempted to verify the response through AI detection systems, but with poor results. According to the study, most markers lacked sufficient tools and guidelines to identify AI use, and even software designed to detect text generation by language models proved inadequate. For instance, detection systems used, including solutions specifically developed for GPT-4, had a detection success rate of less than 26%, rendering their efforts to counter unauthorized use of AI in assessments practically useless. These findings suggest a strong need to develop new methods for assessing academic integrity and to enhance markers' training in recognizing signs of AI usage, considering the high probability of false negatives. The analysis of detection rates and obtained grades clearly showed that AI responses were not only practically indistinguishable but also consistently scored better than those of real students, placing themselves in a dangerous position for academic integrity. The adoption of remote proctoring tools and the integration of new pedagogical approaches seem to be the most concrete options for addressing the issue in the future. Implications for Academic Integrity This study raises serious concerns about academic integrity and the ability of higher education institutions to deal with the use of AI. With such a high percentage of AI responses going undetected and even managing to achieve higher grades than real students, there is a real risk that students might use AI to gain undeserved academic advantages. The undetected use of AI raises the risk of a profound distortion of the value of academic qualifications. If AI is systematically outperforming human students and its responses go undetected, there is a danger that grades no longer reflect individual students' competencies, but rather their ability to use technological tools to enhance their performance. This undermines the reliability of the education system as an indicator of merit and acquired knowledge. In addition, the phenomenon of AI "hallucination," where it produces false but seemingly credible information, adds another layer of complexity. However, the fact that such errors were not evident enough to alert evaluators underscores how difficult it is for teachers to distinguish between authentic and automatically generated responses. This issue becomes even more critical considering that even the most advanced tools for AI detection have proven ineffective. Another important aspect is the growing phenomenon of unsupervised exams, a practice accelerated by the COVID-19 pandemic. This exam format offers students a much greater opportunity to use AI tools to complete their assignments. The research showed how home exams, without supervision, are particularly vulnerable to this type of abuse. Since grades assigned to AI-generated assignments were often higher than the average student scores, it is likely that an increasing number of students could be incentivized to use AI to improve their academic performance. The inclusion of AI technology in academic education may be inevitable, but it is necessary for clear norms to be established on how and when it is permissible to use it. A possible response could be to revise assessment methods, integrating approaches that are more challenging to tackle using AI. For example, practical assignments, oral assessments, or supervised group projects could reduce the impact of unauthorized use of technological tools. Additionally, it might be helpful to teach students how to use AI ethically and responsibly, preparing a generation of graduates who can leverage these technologies without resorting to academic misconduct. Conclusions The integration of artificial intelligence in university examination systems represents a crucial turning point for the education sector, highlighting deep vulnerabilities in traditional assessment methods and raising fundamental questions about academic integrity and the future of education. The analyzed study reveals an uncomfortable reality: AI is not only difficult to detect but often outperforms student responses, demonstrating that current evaluation criteria may favor content generated by algorithms rather than by human understanding. This underscores a paradox: academic success may depend less on individual capability and more on technological competence, undermining the meritocratic principle underlying higher education. University exams and AI open up scenarios of great strategic relevance, characterized by considerable complexity and a wide range of implications. First, a systemic challenge emerges: if AI can produce undetectable and high-quality responses, this forces institutions to reconsider not only detection methods but also the very concept of competence assessment. The ability to memorize information or write a well-structured essay may no longer be the benchmark for measuring learning. It becomes essential to redefine educational goals, focusing on skills that AI cannot easily replicate, such as critical thinking, creativity, and the ability to integrate interdisciplinary knowledge. This shift requires a transition from a reactive evaluation model to a proactive one. Universities must develop approaches that not only detect AI usage but consider AI itself as a teaching tool to be ethically integrated. For example, rather than banning the use of AI, students could be evaluated on their ability to collaborate with it effectively, transparently, and innovatively. Such an approach would not only reduce the risk of abuse but also prepare students for a job market where AI is increasingly pervasive. Another crucial element is the urgency of creating a resilient educational ecosystem. The pandemic has accelerated the adoption of unsupervised exams, but this format has proven particularly vulnerable to AI abuse. Institutions must balance the need for flexibility with the requirement to ensure the integrity of results. Solutions like remote proctoring, while useful, risk compromising trust between students and universities if perceived as intrusive. Therefore, it is essential to develop less intrusive but more effective technological tools and invest in a culture of transparency and ethics. Finally, the implications extend beyond education, affecting the job market and society at large. If academic qualifications lose credibility, there is a risk of a crisis of trust in academic institutions, with direct consequences on the employability of graduates. Companies, for their part, will need to adapt their selection processes to distinguish between real skills and abilities derived from AI usage. This requires greater collaboration between universities and employers to define assessment standards that reflect candidates' real capabilities. In summary, the advent of AI in university examination systems represents not only a technological challenge but also a unique opportunity to rethink education and its role in society. The future of learning will not be determined by the ability to avoid AI but by the ability to coexist with it, leveraging it as a catalyst for more authentic, inclusive, and real-world-oriented education. Podcast: https://spotifycreators-web.app.link/e/kRyJzuPp0Ob Source: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354






