top of page

Risultati di ricerca

601 risultati trovati con una ricerca vuota

  • PaliGemma 2: A New Frontier in Vision-Language Models

    PaliGemma 2 represents a significant evolution in the field of Vision-Language Models (VLMs), offering a wide range of applications from Optical Character Recognition (OCR) tasks to medical report generation. Developed by a team of researchers including Andreas Steiner, André Susano Pinto, and Michael Tschannen at Google Research, this family of open-weight models is based on the integration between the SigLIP-So400m visual encoder and the Gemma 2 language models, with versions ranging from 3 to 28 billion parameters and resolutions varying between 224px² and 896px². PaliGemma 2: Architecture and Training The architecture of PaliGemma 2 is designed to maximize flexibility and the ability to transfer knowledge from one domain or task to another, even when they differ significantly. The system integrates a pre-trained visual encoder, SigLIP-So400m, designed to leverage Google’s latest Tensor Processing Units, a specialized hardware accelerating calculations in machine learning models. Visual representations are linearly mapped into the embedding space of the language model, enabling seamless integration with textual tokens for subsequent autoregressive prediction. The training process is divided into three main stages: 1. Stage 1: The first stage combines the pre-trained checkpoints of SigLIP-So400m and Gemma 2 into a unified multimodal framework, training them with a mix of tasks designed to foster transferability. The image resolution is initially set at 224px², and no parameters are frozen during this phase. 2. Stage 2: This stage focuses on increasing the resolution to 448px² and subsequently 896px², optimizing tasks that benefit from higher visual details. During this phase, the output sequence length is extended, supporting applications such as OCR for complex and lengthy visual texts. 3. Stage 3: The final stage involves task-specific fine-tuning, using the checkpoints generated in the previous stages. This phase includes the optimization of hyperparameters specific to each target application, such as table structure recognition or medical report generation. Additional optimizations include soft-capping techniques for attention logits and outputs during Stages 1 and 2, while these are omitted in the final stage to enhance performance on specific tasks. Moreover, training uses the Adam optimizer with predefined parameters, adjusting the learning rate based on the model size. The training pipeline employs a mix of multimodal data, including captioning, visual question answering (VQA), detection, and segmentation, integrating labels generated by open-source specialist models. This strategy relies on high-level infrastructures, such as TPUv5e, and employs a Fully Sharded Data Parallel (FSDP) approach, enabling efficient scalability even for the most complex models. Applications and Performance PaliGemma 2 excels in numerous application domains, demonstrating unique flexibility and achieving state-of-the-art results in various complex tasks: 1. Advanced Text Recognition (OCR): The model exhibits high competence in detecting and recognizing text in images, outperforming previous techniques in benchmarks such as ICDAR’15, an international dataset designed to evaluate text recognition systems on complex images, and Total-Text, a dataset including images with texts in various orientations and formats, useful for testing algorithm robustness. Leveraging multimodal datasets composed of heterogeneous information like images and textual descriptions, the model combines localization accuracy—the ability to precisely identify the text's position within the image—with transcription accuracy, or the ability to convert detected text into digital characters with high fidelity. This result is also achieved thanks to its ability to handle high-resolution images up to 896px², enabling detailed character representation for more precise processing. 2. Table Structure Recognition: Optimized using datasets such as PubTabNet, a collection of tabular images with structured annotations representing a standard for evaluating models’ ability to recognize and reconstruct tables, and FinTabNet, focused on complex financial tabular data, the model can extract tabular content from images and convert it into HTML format. PaliGemma 2 stands out in metrics such as TEDS (Table Entity Detection and Structure), which assesses precision in recognizing table structure, and GriTS (Grid-based Table Similarity), an indicator measuring similarity between reconstructed table structures and those annotated in the datasets. These advancements have significantly improved table structure representation and the quality of generated annotations, ensuring greater consistency and accuracy in reconstruction. 3. Molecular Structure Recognition: Trained on datasets like PubChem, a vast public database collecting millions of chemical molecules with details on structure, properties, and biological activity, PaliGemma 2 converts molecular drawings into SMILES (Simplified Molecular Input Line Entry System) strings. This standardized textual format allows chemical structures to be represented compactly, facilitating molecular computing, comparison, and research. The model achieves unprecedented accuracy levels, showcasing an extraordinary ability to adapt to stylistic variations in molecular drawings. This versatility makes it an essential tool for fundamental computational chemistry tasks, such as discovering new molecules, optimizing chemical reactions, and analyzing physicochemical properties. 4. Medical Report Generation: Using the MIMIC-CXR dataset, a large archive of chest radiological images accompanied by textual reports, PaliGemma 2 can produce detailed descriptions of radiological images. These descriptions include detected clinical observations, such as anomalies or lesions, and diagnostic suggestions based on image interpretation, offering insights into potential pathologies. The model excels in the healthcare field, significantly improving the RadGraph F1-score, a metric that evaluates the ability to identify and correctly link clinical entities in reports. This advancement represents a step forward compared to previous models, making the system a promising tool for supporting automated medical image interpretation and accurate clinical report writing. 5. Extended and Fine-Grained Captioning: Trained on datasets such as DOCCI, which includes images with highly detailed textual descriptions, PaliGemma 2 can generate precise and rich descriptions (captions) for complex images. The model integrates various capabilities, such as spatial relationship recognition, i.e., the position and orientation of objects within the image, the ability to accurately count the number of objects present, and the use of contextual knowledge to better interpret the represented scene. PaliGemma 2 has shown a significant improvement in factual alignment, i.e., the correspondence between the content described in the caption and the actual image content, outperforming baseline models and demonstrating greater reliability in generating semantically accurate descriptions. 6. Music and Spatial Reasoning: In music score recognition, PaliGemma 2 can convert sheet music into digital formats such as MusicXML or MEI, standardized representations facilitating editing, searching, and automated note analysis and relationships. The model significantly reduces the margin of error compared to previous techniques, ensuring greater precision in sheet music digitization. In parallel, it excels in spatial reasoning benchmarks such as VSR (Visual Spatial Reasoning), which assess the ability to understand and analyze relationships between objects and spaces, including positioning, distance, and orientation. The model accurately solves complex tasks requiring advanced processing of spatial relationships, demonstrating remarkable competence in areas combining visual perception and geometric reasoning. Technical Analysis The technical analysis of PaliGemma 2 highlights how increasing resolution, defined as the number of pixels used to analyze an image, and the model size, measured in billions of parameters, impact performance on various tasks, such as text recognition or description generation. The models vary in size from 3 to 28 billion parameters, with the SigLIP-So400m visual encoder, although relatively small in parameter count, representing a significant computational component due to the intensive processing of visual tokens, i.e., segments of visual information converted into input units for the model. Training uses TPUv5e with fully parallel sharding strategies, an approach that splits data and model across multiple devices, enabling parallel execution of computations. This method ensures optimal scalability and training speed, even for large models. Increasing resolution from 224px² to 896px² entails a significant computational cost, up to 23 times higher for the 3-billion-parameter model. This investment in resources, however, results in evident improvements for activities requiring high levels of visual detail, such as advanced text recognition (OCR) and table structure identification. In parallel, increasing model size proves particularly advantageous for tasks requiring deep linguistic understanding, such as generating detailed descriptions or interpreting medical images. Nevertheless, expanding to very large models, such as the 28-billion-parameter version, offers marginal improvements compared to the significant increase in computational costs, suggesting that an optimal model size for many tasks may be in the 10 to 28-billion-parameter range. A distinctive feature of the model is the use of linear projections, i.e., mathematical functions that map visual tokens into the embedding space of the language model. These transformations allow visual tokens to be represented as vectors compatible with language, facilitating effective autoregressive prediction, where the model generates outputs sequentially using previous outputs as subsequent inputs. Advanced techniques, such as attention logit soft capping, limit the range of attention values to reduce numerical errors and ensure greater stability during training. Furthermore, optimization using Adam, an algorithm widely used for its ability to automatically adapt parameter update steps, contributes to improved stability and accuracy in the initial training phases. These technical precautions play a crucial role in the model's overall reliability. The model excels in transferability, performing well on over 30 academic benchmarks and demonstrating substantial improvements in numerous complex tasks. For example, in detailed captioning tasks, as evaluated on the DOCCI dataset, PaliGemma 2 showed up to a 15% improvement in factual alignment metrics compared to baseline models. In molecular recognition, trained on one million molecules from the PubChem dataset, the model achieved a 94.8% accuracy in converting chemical drawings into SMILES strings, surpassing the previous state-of-the-art performance by 5%. PaliGemma 2 also stands out for its versatility in inference, the phase in which the model, after training, is used to generate outputs or make predictions. Low-precision versions, optimized for inference on CPUs via the gemma.cpp framework, allow the model to run while reducing computational costs and maintaining comparable performance quality to those obtained on TPUs. This optimization has enabled a reduction in computational consumption of up to 70%. Measurements conducted on CPUs such as Apple M1 Max and AMD Genoa highlighted prefill times of 0.36 seconds (the time required to load data and generate the first output tokens) and an extension speed of 147 tokens per second on AMD Genoa, demonstrating the model's efficiency in generating output sequences. These results make PaliGemma 2 highly suitable for cost-effective deployment scenarios where hardware resources are limited but performance needs to remain competitive. This balance between computational efficiency and prediction quality consolidates PaliGemma 2 as a practical and scalable solution even for applications in hardware-constrained environments. Safety and Ethics Safety and ethics are key elements in the development and use of PaliGemma 2. Researchers have introduced several protocols to assess and mitigate risks associated with the model, including the generation of potentially harmful or discriminatory content. For this analysis, diverse datasets like FairFace, which includes facial images balanced by ethnicity, age, and gender, were used to identify and mitigate biases related to gender, ethnicity, and age. Tests revealed very low levels of toxicity. Perceived toxicity, a metric measuring how offensive a text might appear to human evaluators or analysis algorithms, recorded an average value of 0.13. For identity attacks, i.e., content targeting specific social identities (e.g., based on ethnicity or sexual orientation), the average value was 0.02. These results demonstrate that the model was designed with particular attention to inclusivity, offering performances that minimize discrimination risks and promote responsible and respectful use of diversity. A fundamental aspect of PaliGemma 2 is its emphasis on transparency and its ability to explain its decisions. The model integrates interpretability approaches, i.e., techniques that allow understanding the reasons behind a response. These methods, such as highlighting the input parts that most influenced the result, provide traceability of predictions, proving particularly useful in sensitive sectors. In the medical field, for instance, understanding the reasons for an automated diagnosis is essential to support healthcare professionals in their assessments. Similarly, in law, it is necessary to provide transparent justifications for a decision or legal advice, ensuring consistency with the regulatory framework. Despite these advancements, continuous monitoring is crucial to prevent the model from generating potentially offensive or prejudiced content. This ensures that the model's use remains ethical and reliable, fostering trust and responsibility in its deployment. In the ethical domain, the development team has adopted targeted strategies to prevent the model from amplifying cultural stereotypes or implicit discrimination. Among these measures is the use of balanced datasets designed to ensure an equitable distribution of genders, ethnicities, and other characteristics, preventing the over-representation of one group at the expense of others. Furthermore, training was supported by fairness-aware learning techniques, which integrate equity objectives directly into the model's learning process, reducing the risk of systemic biases. To maintain high-quality standards, the team implemented continuous prediction evaluation through tools such as Perspective API, developed by Google. This API uses machine learning models to detect potentially toxic or offensive content in real-time, enabling constant monitoring and iterative improvement of the model's performance. These initiatives testify to the team's commitment to developing a reliable, inclusive, and respectful system. Finally, to ensure responsible use, researchers released PaliGemma 2 with detailed documentation that includes guidelines for the model's safe and ethical use. This approach represents a significant step towards the adoption of VLMs in real-world scenarios, balancing technological innovation and social responsibility. Future Perspectives The future perspectives for PaliGemma 2 aim at expanding towards increasingly complex and diversified applications, leveraging the integration of high resolutions with large-scale language models. Among the most promising developments is optimization for transfer to specific tasks using targeted training strategies. A key role could be played by approaches such as meta-learning, which allows the model to learn how to quickly adapt to new tasks, making it more flexible and effective in dynamic scenarios. At the same time, reinforcement learning could be used to further enhance the model’s performance: through a reward and penalty system, the model could learn to optimize its decisions based on task objectives. These combined approaches pave the way for a new generation of models capable of not only excelling in individual tasks but also easily adapting to emerging needs, consolidating PaliGemma 2's role as a versatile and innovative platform. For example, adopting task-specific reward systems, i.e., reward systems tailored to specific objectives, represents a significant opportunity to further improve the model's capabilities in specialized domains. In these systems, the model receives positive feedback whenever it achieves a desired outcome in each task, reinforcing optimal behaviors and adapting its responses to domain requirements. This strategy would allow refining performance in increasingly complex contexts, such as medical diagnosis, legal interpretation, or scientific data processing, where objectives are highly specific and require extreme precision. The integration of personalized reward systems, combined with advanced learning techniques, could transform PaliGemma 2 into an even more performant and versatile tool, capable of responding to the challenges of the most demanding sectors with targeted and optimized solutions. A fundamental area of interest concerns the implementation of PaliGemma 2 in industrial settings with limited computational resources. Thanks to its CPU-optimized inference versions, the model has already demonstrated the ability to maintain high performance, making it particularly suitable for expanding access to advanced technologies in critical sectors. This approach could have a significant impact in areas such as healthcare in developing countries, precision agriculture, and environmental analysis, where technological constraints represent a major challenge. Another significant step forward is represented by integration with multispectral and temporal data, opening up new application opportunities. For example, interpreting data from multispectral sensors, such as satellite images and lidar scans, could expand the model's use in sectors such as climate monitoring, disaster prevention, and sustainable resource management. Similarly, training on temporal data would provide the model with the ability to analyze and manage dynamic information, improving its performance in applications such as intelligent surveillance and event prediction. These developments could make PaliGemma 2 an even more versatile and indispensable tool, capable of tackling complex challenges in global settings and promoting innovative solutions in diverse fields. Another promising direction for PaliGemma 2’s development is model scaling optimization, i.e., balancing the size in terms of parameters, architectural complexity, and computational resources required. This approach aims to identify configurations that optimize the cost-benefit ratio, focusing on solutions that reduce computational costs while maintaining or improving performance. Although larger models have so far shown marginal advantages relative to additional costs, further research could identify combinations of architectures and hyperparameters, such as learning rate, batch size, and model depth, that maximize efficiency for specific application scenarios. A promising example is represented by model distillation techniques, a process in which a smaller model, called a "student," learns to replicate the behavior of a larger model, called a "teacher." This approach enables transferring the capabilities of complex models into lighter versions, significantly reducing parameter counts without substantially compromising performance. The use of distillation, combined with scaling optimization, could lead to the creation of lighter and more versatile versions of PaliGemma 2, suitable for applications in resource-constrained environments. Conclusions PaliGemma 2 represents a strategic advancement in a rapidly evolving sector, but its real differentiation emerges from its ability to balance precision, scalability, and application versatility in an increasingly competitive ecosystem. While other vision-language models often excel in specific domains, PaliGemma 2 manages to bridge multiple domains, ranging from molecular analysis to medical report generation. This interdisciplinary integration is not just a demonstration of technological excellence but an indication of the direction in which the AI sector is moving: holistic solutions capable of operating in diverse domains without sacrificing specialization. A distinctive aspect of PaliGemma 2 is its emphasis on transferability and modularity. The architecture, designed to support specific tasks through scalable and progressive training, addresses a key market need: offering models that do not require complete redesign for every new application. This not only reduces the time-to-market for implementations but represents a competitive advantage in sectors where adaptability to changing customer needs is crucial. However, the biggest challenge for PaliGemma 2 does not lie in the technology itself but in its ability to differentiate itself in a landscape where platforms like GPT-4 Vision or other next-generation multimodal models are investing in efficiency and performance. The ability to operate effectively on resource-constrained devices, a strength of PaliGemma 2, could be the key to capturing emerging markets or contexts with less advanced technological infrastructures, such as healthcare in developing countries or precision agriculture. This ability to democratize access to advanced technologies is not just a market opportunity but a strategic responsibility that could expand the model’s social impact. At the same time, the focus on AI safety and ethics reflects an awareness of the social and reputational implications accompanying the use of technologies of this caliber. The ability to keep bias and toxicity to a minimum, combined with interpretability measures, strengthens the model's reliability, particularly in regulated sectors such as healthcare or legal. Nevertheless, the real challenge for PaliGemma 2 will be ensuring these safeguards remain effective even when the model is adopted in scenarios unforeseen by its developers, an inherent risk for any highly adaptable technology. Looking ahead, the evolution of PaliGemma 2 will need to focus on two key directions: optimization and specialization. On the one hand, the pursuit of more cost-efficient configurations could ensure greater long-term accessibility, favoring global adoption. On the other hand, expansion into emerging domains such as multispectral and temporal data integration will offer new market opportunities, strengthening the model’s competitive positioning. Ultimately, the true value of PaliGemma 2 lies not only in its performance but in its ability to serve as an adaptable and responsible platform. In an era where technological innovation often risks becoming an end, models like PaliGemma 2 remind us that long-term success will depend on the ability to balance technical excellence, operational sustainability, and social impact. Podcast: https://spotifycreators-web.app.link/e/uixW9hrhaPb Source: https://arxiv.org/abs/2412.03555

  • U.S. Digital Security Law: Lessons from the TikTok Case

    On December 6, 2024, the United States Court of Appeals for the District of Columbia examined relevant aspects of the "Protecting Americans from Foreign Adversary Controlled Applications Act," addressing issues related to the TikTok and ByteDance case without issuing a definitive ruling. This article explores the main aspects of the case, highlighting constitutional questions, national interests, and practical implications for digital platforms. Background of the Controversy The law, enacted on April 24, 2024, aims to protect American citizens from risks associated with foreign control over digital applications, specifically identifying China, Russia, Iran, and North Korea as "foreign adversaries." It prohibits the distribution and updating of applications controlled by these countries unless certain conditions are met, such as the transfer of control to entities unaffiliated with adversarial nations. This legislative measure stems from a long-standing concern regarding national security, initiated in 2017 when ByteDance relaunched TikTok in the United States following the acquisition of Musical.ly . The U.S. government, recognizing a growing risk, began investigating potential links between ByteDance and the Chinese government. In 2020, the Committee on Foreign Investment in the United States (CFIUS) concluded that TikTok could not adequately mitigate national security concerns, leading President Trump to issue executive orders aimed at forcing ByteDance to divest ownership. While these orders were later challenged in court, the Biden administration continued investigations, identifying foreign control as a critical threat. Key risks identified included: • Personal data collection: TikTok gathers a wide array of data, from keystroke patterns to GPS information, potentially accessible to ByteDance and indirectly to the Chinese government. • Content manipulation: The U.S. government fears TikTok could be used to covertly influence information flow, promote propaganda, or censor content critical of the Chinese regime. In response, Congress held hearings and classified briefings, culminating in the law, which stands out for three main features: Definition of "foreign adversary-controlled applications," including platforms like TikTok managed by entities linked to adversarial governments. Targeted prohibitions to prevent operational support in the U.S. for such applications without qualified divestiture. A "divestiture exemption" option, allowing continued operations only if ownership is transferred to entities unaffiliated with adversarial governments. This law reflects a balance between national security concerns and efforts to regulate foreign control over digital technologies, setting a significant precedent for the future of global platforms operating in the U.S. TikTok Case: Analysis of the Ruling The ruling focused on multiple constitutional and regulatory aspects, analyzing the balance between national security risks and rights guaranteed under the First and Fifth Amendments of the Constitution. The court assessed the proportionality of the law's measures relative to governmental interests, considering the escalating geopolitical tensions between the U.S. and China. A central issue of the decision involves the Chinese government's control over domestic technology companies. The court acknowledged that the Chinese Communist Party possesses legislative and operational tools to access data collected by companies like ByteDance. Such tools, including China’s 2017 cybersecurity law, mandate companies to cooperate with government authorities, making U.S. concerns about potential data misuse for espionage or information manipulation credible. Another relevant point is the analysis of the Chinese government’s ability to influence content distributed by TikTok. The court evaluated evidence provided by the U.S. government, including documented cases of censorship of content critical of China on other platforms controlled by entities similar to ByteDance. These incidents supported the argument that the risk of content manipulation on TikTok is not merely theoretical but tangible. The court also reviewed alternatives proposed by TikTok, such as the National Security Agreement (NSA), which involved data management by Oracle and the implementation of independent controls. However, these measures were deemed insufficient by the U.S. government, which highlighted the difficulty of effectively monitoring compliance and the inherent vulnerability stemming from the integration between ByteDance and TikTok. The ruling further addressed the preventive nature of the law, emphasizing that it is not retroactive punishment but a necessary measure to protect the future interests of the U.S. The court dismissed TikTok’s argument that the law violated the Bill of Attainder clause and the Takings Clause, affirming that the provisions allow operational flexibility, provided the condition of control transfer is met. Lastly, the court underscored the importance of legislative and interinstitutional cooperation between Congress and the Presidency in defining the law, highlighting how it represents a proportional and specific response to identified risks. The decision reaffirms the principle that national security can justify significant restrictions, provided they are based on solid evidence and accompanied by appropriate review mechanisms. Conclusions The U.S. Court of Appeals ruling on the "Protecting Americans from Foreign Adversary Controlled Applications Act" is not just a significant legal precedent but a pivotal moment for reflecting on the interplay between digital sovereignty, constitutional rights, and the geopolitics of technological innovation. The ruling highlights a growing conflict between the openness of the global digital market and the protection of national interests, emphasizing how technology has evolved from merely an economic and social progress tool to a battleground for political and strategic control. The TikTok case is not an isolated anomaly but a symbol of a broader dynamic posing unprecedented challenges to global digital governance. The law, and its judicial confirmation, mark a departure from the traditional laissez-faire approach to technology. The United States, long a proponent of a free and open internet model, is adopting a more protectionist approach, reflecting an increasing awareness of the role of data as a strategic resource. The massive collection of personal information, enabled by digital platforms, is no longer seen solely as a privacy issue but as an existential threat to national security. The court recognized that the Chinese government, through cybersecurity and national security laws, can compel ByteDance to provide sensitive data on American users, with potential implications for political coercion, informant recruitment, and social manipulation. Moreover, fears that the Chinese Communist Party could use TikTok to influence American public opinion through content distribution control were deemed not only theoretical but plausibly concrete. This decision challenges the very concept of technological neutrality. Far from being neutral infrastructure, technology has become a geopolitical power tool. Governments, especially in Western democracies, face the challenge of balancing individual rights protection with safeguarding critical infrastructures from the growing influence of hostile foreign actors. The ruling suggests that the U.S. approach is no longer guided solely by economic considerations but by a strategic vision that sees digital sovereignty as an essential component of national security. This approach could trigger a chain reaction, prompting other nations to replicate similar measures and contributing to the fragmentation of the global cyberspace, already threatened by regulatory and cultural barriers. A less obvious but equally significant aspect concerns the impact on the technological innovation ecosystem. The exclusion of TikTok from the U.S. market, should the divestiture imposed by the law not be completed, would create a void that could be filled by local or international competitors. However, this scenario raises questions about the diversity and competitiveness of the digital market. While it could encourage the development of domestic platforms, it risks fostering market concentration, consolidating the power of a few already dominant players. Moreover, regulatory uncertainty could deter foreign investment in the U.S., particularly in the tech sector, with potential negative effects on innovation. Another point for reflection is the interaction between national legislation and global dynamics. The ruling reaffirms the primacy of national law over transnational platforms but raises questions about the ability of individual nations to address challenges that, by nature, transcend geographical boundaries. Unilateral regulation risks creating inefficiencies and duplications, highlighting the need for more coordinated and inclusive international digital governance. However, the current geopolitical climate, characterized by growing U.S.-China rivalry, makes global cooperation on these issues unlikely in the short term. For businesses, this decision sends a clear signal: the geopolitical landscape is no longer a marginal variable but a determining factor in defining corporate strategies. Technology companies must adopt a proactive approach to managing geopolitical risk, recognizing that their operational and governance decisions can have strategic consequences beyond mere profit. This entails not only compliance with local regulations but also a deep understanding of the political and social implications of their global operations. The "Protecting Americans from Foreign Adversary Controlled Applications Act" ruling marks a turning point in the relationship between technology, politics, and law. This judgment suggests that the future of digital will increasingly be defined by governments' ability to balance openness and protection, innovation and security, local and global. In an increasingly interconnected world, this tension is not only inevitable but will likely constitute the main battleground for 21st-century economies and societies. Businesses, lawmakers, and citizens must adapt to this new reality, recognizing that technology is not just a driver of progress but also a field of conflict where some of the most crucial challenges of our time are played out.   Podcast: https://spotifycreators-web.app.link/e/dkZ8d7PI8Ob

  • Legge sulla sicurezza digitale USA. Lezioni dal caso TikTok

    Il 6 dicembre 2024, la Corte d'Appello degli Stati Uniti per il Distretto di Columbia ha discusso aspetti rilevanti legati all'applicazione della legge "Protecting Americans from Foreign Adversary Controlled Applications Act", esaminando questioni legate al caso TikTok e ByteDance, senza emettere una vera e propria sentenza conclusiva in merito. Questo articolo esamina i principali aspetti della sentenza, evidenziando le questioni costituzionali, gli interessi nazionali e le conseguenze pratiche per le piattaforme digitali. Contesto della controversia La legge, promulgata il 24 aprile 2024, mira a proteggere i cittadini americani dai rischi legati al controllo straniero su applicazioni digitali, identificando specificamente la Cina, la Russia, l’Iran e la Corea del Nord come "avversari stranieri". In particolare, vieta la distribuzione e l'aggiornamento di applicazioni controllate da questi paesi a meno che non siano rispettate determinate condizioni, come la cessione del controllo a entità non affiliate a paesi avversari. Questo provvedimento legislativo nasce da un lungo processo di preoccupazioni riguardanti la sicurezza nazionale, avviato nel 2017, quando ByteDance rilanciò TikTok negli Stati Uniti a seguito dell'acquisizione di Musical.ly . Il governo americano, riconoscendo un rischio crescente, ha iniziato a indagare sui possibili legami tra ByteDance e il governo cinese. Nel 2020, il Comitato sugli Investimenti Esteri negli Stati Uniti (CFIUS) ha concluso che TikTok non poteva mitigare adeguatamente le preoccupazioni di sicurezza nazionale, portando il Presidente Trump a emettere ordini esecutivi mirati a forzare la cessione della proprietà di ByteDance. Sebbene questi ordini siano stati successivamente contestati in tribunale, la nuova amministrazione Biden ha proseguito le indagini, identificando il controllo straniero come una minaccia cruciale. Tra i principali rischi individuati vi sono stati: Raccolta di dati personali : La piattaforma TikTok raccoglie un vasto assortimento di dati, dai modelli di digitazione alle informazioni GPS, che potrebbero essere accessibili a ByteDance e, indirettamente, al governo cinese. Manipolazione dei contenuti : Il governo americano teme che TikTok possa essere usato per influenzare segretamente il flusso di informazioni, promuovendo propaganda o censurando contenuti critici verso il regime cinese. In risposta, il Congresso ha condotto audizioni e briefing classificati, culminati nella promulgazione della legge, che si distingue per tre caratteristiche principali: Definizione di "foreign adversary controlled applications" che include piattaforme come TikTok gestite da entità collegate a governi avversari. Proibizioni mirate a impedire il supporto operativo negli Stati Uniti per tali applicazioni senza una cessione qualificata del controllo. Opzione di "divestiture exemption", che consente la continuazione delle operazioni solo con la cessione della proprietà a entità non affiliate a governi avversari. Questa legge rappresenta una sintesi tra preoccupazioni di sicurezza nazionale e tentativi di regolamentare il controllo straniero sulle tecnologie digitali, stabilendo un precedente significativo per il futuro delle piattaforme globali operanti negli Stati Uniti. Caso TikTok, analisi della sentenza La sentenza si è focalizzata su molteplici aspetti di carattere costituzionale e normativo, analizzando il bilanciamento tra i rischi per la sicurezza nazionale e i diritti garantiti dal Primo e dal Quinto Emendamento della Costituzione. La Corte ha valutato la proporzionalità delle misure previste dalla Legge rispetto agli interessi governativi, considerando anche il contesto di crescente tensione geopolitica tra Stati Uniti e Cina. Un aspetto centrale della decisione riguarda il controllo esercitato dal governo cinese sulle aziende tecnologiche nazionali. La Corte ha riconosciuto che il Partito Comunista Cinese possiede strumenti legislativi e operativi per accedere ai dati raccolti da aziende come ByteDance. Tali strumenti, come la legge cinese sulla cybersicurezza del 2017, obbligano le aziende a collaborare con le autorità governative, rendendo plausibili i timori del governo americano su possibili utilizzi dei dati raccolti per attività di spionaggio o manipolazione dell'informazione. Un altro punto rilevante è l'analisi della capacità del governo cinese di influenzare i contenuti distribuiti da TikTok. La Corte ha valutato le prove fornite dal governo degli Stati Uniti, che includono casi documentati di censura di contenuti critici verso la Cina su altre piattaforme controllate da entità simili a ByteDance. Questi episodi sono stati utilizzati per sostenere che il rischio di manipolazione dei contenuti su TikTok non è solo teorico, ma concreto. La Corte ha anche analizzato le alternative proposte da TikTok, come l'accordo di sicurezza nazionale (NSA) che prevedeva la gestione dei dati da parte di Oracle e l'implementazione di controlli indipendenti. Tuttavia, tali misure sono state ritenute insufficienti dal governo americano, che ha evidenziato la difficoltà di monitorare efficacemente il rispetto delle condizioni e la vulnerabilità intrinseca derivante dall'integrazione tra ByteDance e TikTok. La sentenza ha inoltre discusso la natura preventiva della Legge, sottolineando che non si tratta di una punizione retroattiva, ma di una misura necessaria per proteggere gli interessi futuri degli Stati Uniti. La Corte ha rigettato l'argomentazione di TikTok secondo cui la Legge violerebbe la clausola di Attainder e la clausola di Esproprio, affermando che le disposizioni consentono un margine di operatività, a patto che venga soddisfatta la condizione della cessione del controllo. Infine, la Corte ha sottolineato l'importanza del ruolo legislativo e della cooperazione interistituzionale tra Congresso e Presidenza nella definizione della Legge, evidenziando come questa rappresenti una risposta proporzionata e specifica ai rischi identificati. La decisione riafferma il principio secondo cui la sicurezza nazionale può giustificare restrizioni significative, purché basate su prove solide e accompagnate da meccanismi di revisione adeguati. Conclusioni La sentenza della Corte d'Appello del Distretto di Columbia sulla  “Protecting Americans from Foreign Adversary Controlled Applications Act”  non rappresenta solo un precedente giuridico significativo, ma un momento di riflessione fondamentale sul rapporto tra  sovranità digitale , diritti costituzionali e  geopolitica dell’innovazione tecnologica . La sentenza mette in luce un conflitto crescente tra  l’apertura del mercato digitale globale  e la protezione degli interessi nazionali, evidenziando come la tecnologia non sia più soltanto uno strumento di progresso economico e sociale, ma anche un  campo di battaglia per il controllo politico e strategico . Il caso TikTok non è un’anomalia isolata, ma un simbolo di una dinamica più ampia che pone sfide senza precedenti alla governance globale del digitale. La legge, e la sua conferma giudiziaria, segnano una rottura rispetto al paradigma tradizionale del  laissez-faire tecnologico . Gli Stati Uniti, da tempo promotori di un modello di internet libero e aperto, stanno adottando un approccio più  protezionista , riflettendo una crescente consapevolezza del ruolo dei  dati come risorsa strategica . La raccolta massiva di informazioni personali, abilitata dalle piattaforme digitali, non è più vista solo come una questione di  privacy , ma come un rischio esistenziale per la  sicurezza nazionale . La Corte ha riconosciuto che il governo cinese, attraverso le leggi sulla  cybersicurezza  e sulla  sicurezza nazionale , può obbligare ByteDance a fornire  dati sensibili sugli utenti americani , con potenziali implicazioni per il  ricatto politico , il  reclutamento di informatori  e la  manipolazione sociale . Inoltre, il timore che il Partito Comunista Cinese possa utilizzare TikTok per influenzare  l’opinione pubblica americana , attraverso il controllo della distribuzione dei contenuti, è stato giudicato non solo teorico, ma concretamente plausibile. Questa decisione mette in discussione il concetto stesso di  neutralità tecnologica . La tecnologia, lungi dall’essere un’infrastruttura neutrale, è diventata uno  strumento di potere geopolitico . I governi, specialmente quelli delle democrazie occidentali, si trovano a dover bilanciare la tutela dei  diritti individuali  con la protezione delle proprie  infrastrutture critiche  dalla crescente influenza di attori stranieri ostili. La sentenza suggerisce che l’approccio statunitense non è più guidato solo da considerazioni economiche, ma da una visione strategica che considera la  sovranità digitale una componente essenziale della sicurezza nazionale . Questo approccio potrebbe innescare una reazione a catena, spingendo altre nazioni a replicare misure simili e contribuendo a una  frammentazione del cyberspazio globale , già minacciato da barriere normative e culturali. Un aspetto meno evidente, ma altrettanto significativo, riguarda  l’impatto sull’ecosistema dell’innovazione tecnologica . L’esclusione di TikTok dal mercato americano, qualora la cessione imposta dalla legge non venga completata, creerebbe un vuoto che potrebbe essere riempito da  concorrenti locali o internazionali . Tuttavia, questo scenario solleva interrogativi sulla  diversità e sulla competitività del mercato digitale . Se da un lato potrebbe incentivare lo sviluppo di piattaforme domestiche, dall’altro rischia di favorire una  concentrazione di mercato , consolidando il potere di pochi attori già predominanti. Inoltre,  l’incertezza normativa  potrebbe scoraggiare gli investimenti esteri negli Stati Uniti, specialmente nel settore tecnologico, con potenziali effetti negativi sull’innovazione. Un altro elemento di riflessione è l’interazione tra  legislazione nazionale  e  dinamiche globali . La sentenza riafferma il  primato del diritto nazionale  sulle piattaforme transnazionali, ma solleva domande sulla capacità delle singole nazioni di affrontare sfide che, per loro natura,  trascendono i confini geografici . La regolamentazione unilaterale rischia di creare inefficienze e duplicazioni, evidenziando la necessità di una  governance internazionale del digitale  che sia più coordinata e inclusiva. Tuttavia, l’attuale contesto geopolitico, caratterizzato da  rivalità crescenti tra Stati Uniti e Cina , rende difficile immaginare una cooperazione globale su questi temi nel breve termine. Per le imprese, questa decisione rappresenta un segnale chiaro: il  contesto geopolitico  non è più una variabile marginale, ma un  fattore determinante  nella definizione delle strategie aziendali. Le aziende tecnologiche, in particolare, devono adottare un  approccio proattivo  alla gestione del rischio geopolitico, riconoscendo che le loro decisioni operative e di governance possono avere  conseguenze strategiche  che vanno oltre il semplice profitto. Ciò implica non solo il rispetto delle normative locali, ma anche una  comprensione approfondita delle implicazioni politiche e sociali  delle proprie operazioni globali. La sentenza sulla  "Protecting Americans from Foreign Adversary Controlled Applications Act"  segna un punto di svolta nel rapporto tra tecnologia, politica e diritto. Questo giudizio suggerisce che il  futuro del digitale  sarà sempre più definito dalla capacità dei governi di bilanciare  apertura e protezione ,  innovazione e sicurezza ,  locale e globale . In un mondo sempre più interconnesso, questa tensione non è solo inevitabile, ma probabilmente costituirà il principale terreno di confronto per le  economie e le società del XXI secolo . Le imprese, i legislatori e i cittadini dovranno adattarsi a questa nuova realtà, riconoscendo che la tecnologia non è solo un  motore di progresso , ma anche un  campo di conflitto  dove si giocano alcune delle sfide più cruciali del nostro tempo. Podcast: https://spotifycreators-web.app.link/e/XgGai9PI8Ob

  • Organized Crime and Artificial Intelligence

    Artificial Intelligence (AI) is rapidly transforming many aspects of our society, but its impact is not always positive. One of the areas where AI is finding controversial applications is organized crime. A recent study from the EL PACCTO 2.0 program highlighted how the adoption of AI technologies by criminal groups is already a reality, especially in Latin America, the Caribbean, and the European Union. This article explores how AI is exploited by organized crime, the main crimes committed using AI tools, and how justice and security institutions are attempting to respond to these challenges. Organized Crime and Artificial Intelligence: A Dangerous Alliance Organized crime and artificial intelligence have strengthened illegal activities such as human trafficking, ransomware, banking fraud, and sexual exploitation. A particularly alarming aspect is the ease with which these technologies can be used even by individuals with limited technical expertise. Through automation, the scope of criminal operations can be expanded while reducing the likelihood of detection. One illustrative example is the use of AI-controlled bots to launch large-scale attacks such as Distributed Denial of Service (DDoS) or to distribute malware. Recent reports indicate that these bots are increasingly sophisticated and capable of identifying and exploiting vulnerabilities in real time, enhancing efficiency and reducing the time required to carry out an attack. According to the EL PACCTO program, between 2021 and 2023, there was a 284% increase in identity theft cases in South Africa, facilitated by AI use in creating fake identities and financial fraud. These numbers demonstrate how AI not only increases the effectiveness of criminal actions but also makes it extremely difficult for authorities to counteract. In Latin America, criminal groups have begun using AI-controlled drones to transport drugs and carry out physical attacks against rival groups or law enforcement. For instance, in 2018, a drone attack targeted the Secretary of Public Security in Baja California, Mexico. Equipped with explosive devices, these drones represent a new threat that combines the autonomy and precision of AI technologies with the lethality of weapons. Furthermore, these devices have been used to monitor and surveil law enforcement activities, further complicating authorities' operations. AI is also used to identify potential victims of human trafficking through digital platforms such as social media and dating sites. This enables criminals to precisely target vulnerable individuals in economically or socially difficult situations. A recent EL PACCTO report noted that online recruitment and AI manipulation of victims are now standard practices in human trafficking networks in Europe and Latin America. Machine learning techniques are employed to analyze victim profiles and optimize persuasion tactics, increasing the success of recruitment operations. Another worrying aspect is the use of deepfake technologies. Beyond creating fake videos and audio to impersonate others, these technologies are exploited for sophisticated financial fraud. In 2024, a scam in England involved deepfakes to impersonate a CFO, convincing an employee to transfer over $25 million. In many cases, deepfakes are used to forge identities and commit banking fraud or other fraudulent activities, making it increasingly difficult for victims to distinguish between reality and fiction. The Response of Justice and Security Institutions Justice and security institutions are trying to respond to the challenges posed by the criminal use of AI by adopting AI technologies themselves for crime prevention and counteraction. Among the most common applications are: • Predictive analysis and surveillance: AI is used to analyze large amounts of data and predict where crimes might occur, enabling law enforcement to optimize resource allocation. A significant example is the use of predictive algorithms to identify high-risk areas and improve patrolling. In Colombia, a project developed in collaboration with UNESCO improved police resource distribution based on historical and real-time crime data. However, the use of predictive technologies raises ethical issues and concerns related to human rights, such as discrimination and excessive surveillance of vulnerable communities. • Judicial case management: In Europe, several countries have adopted AI-based systems to manage judicial cases more efficiently, automating repetitive tasks and facilitating access to legal information. In Germany, the OLGA system (Online Criminal Proceedings Register for Organized Crime and Money Laundering) centralizes and manages organized crime case data, improving information sharing and response times. Similarly, in Latin America, some jurisdictions are attempting to digitize and modernize their judicial infrastructures through AI integration, though implementation is hindered by limited resources and fragile infrastructures. • Facial recognition: AI-based facial recognition technologies are used to identify suspects or victims, though there are significant ethical issues related to privacy and the possibility of errors. In Latin America, facial recognition systems have been adopted in countries like Brazil and Mexico, where they are used to monitor public spaces and ensure security. However, there have been numerous cases of misuse, such as unauthorized surveillance of activists and journalists, raising concerns about human rights protection. • International cooperation and blockchain: Another important element in the response to organized crime is international cooperation. Projects like INSPECTr, funded by the European Union, use blockchain technology to ensure the integrity of collected evidence and data traceability across jurisdictions. This technology helps reduce the risk of evidence tampering and facilitates secure information sharing among authorities. • Automatic translation and interpretation: In the context of international cooperation, language barriers represent a significant challenge. Projects like MARCELL, within the Connecting Europe Facility (CEF) program, aim to improve the quality of automatic translations in legal contexts, enabling smoother communication during transnational proceedings. This is particularly relevant in cases where cooperation between different countries is essential to combat organized crime. Despite these efforts, many challenges remain in using AI for justice and security activities. One major issue concern protecting human rights and managing algorithmic biases that could lead to discrimination. The need for rigorous regulations to ensure ethical and responsible use of these technologies is more evident than ever, especially in the introduction of tools like facial recognition and predictive analysis, which can have a direct impact on citizens' lives. Recommendations and Guidelines from International Organizations In recent years, there has been a growing interest in the ethical, responsible, and fair development of artificial intelligence technologies. In this field, many international institutions have worked diligently to define guidelines, principles, and recommendations. A significant reference at the European level is the "Guidelines for Trustworthy AI," published in 2019 by the High-Level Expert Group on Artificial Intelligence (HLEG), a group of experts established by the European Commission to outline a shared vision ensuring respect for human rights, democratic values, and deeply rooted ethical principles. The guidelines highlighted the importance of technical robustness capable of minimizing risks and vulnerabilities, the centrality of safety in technological development, and transparency, essential for enabling users and regulators to understand the logic underlying automated decision-making processes. Additionally, they emphasized the responsibility of all actors involved in the AI lifecycle and the need to prevent any form of discrimination to avoid technology becoming a tool for injustice or inequality. Attention to this issue has extended well beyond the European Union, reaching the United Nations and its decision-making bodies. In 2024, the UN General Assembly adopted a General Resolution (78/L.49), emphasizing the centrality of human rights and urging member states not to use AI in ways contrary to international law, committing them to prevent scenarios where these technologies could be exploited to harm fundamental freedoms or target already vulnerable groups. This document lays the foundation for international cooperation aimed at protecting rights at every stage of the design, development, distribution, and use of automated systems, inspiring national policies that never overlook the ethical dimension of technology. Another tool provided to the international community is the Toolkit for Responsible Artificial Intelligence for law enforcement, developed by the United Nations Interregional Crime and Justice Research Institute (UNICRI) and INTERPOL, with support from the European Union. This Toolkit offers practical guidance for security agencies in understanding and employing AI systems, providing recommendations on how to use technology consistently with human rights, ethical principles, and fundamental values underpinning contemporary societies. Through this initiative, police forces and judicial institutions in various countries can acquire theoretical and operational knowledge, adopt transparent procedures, assess the impact of technologies on the ground, and enhance crime prevention and control activities without compromising principles of accountability and legitimacy. The United Nations Educational, Scientific and Cultural Organization (UNESCO) has played a crucial role in this global effort by creating a Global Observatory on AI Ethics and Governance, designed as a permanent monitoring tool for ethical practices adopted in different national settings. In addition to providing guidelines for evaluating the impact of AI technologies, UNESCO has promoted the dissemination of best practices and established structures like the AI Ethics and Governance Lab, intended to gather knowledge, experiences, studies, and research to foster the continuous evolution of regulations and supervisory mechanisms. Already in 2021, UNESCO published the "Recommendation on the Ethics of Artificial Intelligence," a landmark document summarizing values and principles useful for guiding governments and policymakers in creating regulatory frameworks that combine technological innovation with respect for human dignity, cultural diversity, and environmental protection. Another prominent body is the Organization for Economic Co-operation and Development (OECD), which outlined a specific recommendation on AI, promoting the vision of technology usage aligned with democratic principles, human rights protection, and the need to maintain human oversight where automated systems may exhibit undesired behavior. The OECD updated its guidelines in 2024, broadening the definition of "AI system" and addressing safety issues more specifically, ensuring that human intervention remains possible and secure even in emergency scenarios, thus preventing potential abuses or malfunctions. Overall, the framework emerging from the work of international organizations, specialized agencies, and globally funded projects is one of a constantly evolving ecosystem aimed at creating shared standards for the governance, regulation, and ethics of artificial intelligence. This ecosystem, while recognizing the innovative potential of these technologies, seeks to maintain human oversight, bind them to specific ethical principles, and place them within a sustainable, inclusive perspective attentive to social, environmental, and economic dimensions. It is an ongoing process, a collective effort involving governments, supranational institutions, experts, scientific communities, civil society, and the private sector, aiming to ensure that artificial intelligence becomes a resource benefiting humanity, consistently oriented towards respect for rights, freedoms, safety, and the common good. International Legal Cooperation In recent years, international legal cooperation has gained increasing importance in combating transnational crime, prompting the European Union and its partners to finance and promote innovative projects to support security agencies, law enforcement, and judicial institutions. Projects like EXCAPE have inaugurated a new generation of tools based on artificial intelligence and advanced data analysis, aimed at identifying and predicting organized crime dynamics on a global scale. By integrating diverse information sources, ranging from social networks to financial and criminal records, EXCAPE seeks to provide a comprehensive view of illicit activities, fostering more effective coordination among various jurisdictions and accelerating interventions against particularly complex and articulated phenomena. In parallel, the ROXANNE project has demonstrated how voice recognition, combined with advanced social network analysis techniques, can enhance law enforcement's ability to identify and dismantle organized criminal groups. By processing intercepted communications, ROXANNE has shown how it is possible to connect suspected individuals, revealing links, hierarchies, and internal dynamics often very difficult to uncover with traditional methods. In this way, it has been possible to provide more solid evidence to the competent authorities, improving the quality and effectiveness of investigations. Another piece of this mosaic is represented by the TRACE project, which specifically aims to combat human trafficking using machine learning algorithms capable of detecting online recruitment patterns and mapping routes used by traffickers. This approach makes it possible to systematically analyze communications and movements, revealing networks of accomplices and geographical trafficking routes that, once identified, can be disrupted and dismantled. Understanding these dynamics has provided an important practical tool for helping investigators intervene promptly and effectively, protecting vulnerable individuals and discouraging the proliferation of such crimes. Equally relevant has been the experience gained with the INSPECTr project. Here, the focus has been on creating a common technological infrastructure, a sort of shared intelligence platform that, leveraging big data analysis, machine learning, and blockchain technology, has facilitated the circulation of digital and forensic information across different jurisdictions. INSPECTr has enabled faster and smarter management of investigations into complex crimes, reducing costs and overcoming obstacles related to fragmented databases or heterogeneous procedures. This greater fluidity in information exchange and operational coordination has strengthened cross-border collaboration, raising the level of trust among the parties involved and significantly improving the effectiveness of the international response to rapidly evolving criminal threats. A different but equally crucial approach to legal cooperation has been implemented by the AVIDICUS project, which investigated the use of video-mediated interpretation in international criminal proceedings. Divided into three phases, this journey allowed for the observation of the impact of videoconferencing and remote interpretation on the quality of communication between judges, lawyers, defendants, witnesses, and interpreters. From improving mutual understanding to providing specific training for the professionals involved, AVIDICUS has shown how communication technologies can contribute to a more efficient and inclusive judicial system, reducing linguistic and cultural barriers that previously slowed or compromised the fairness of trials. Harmonizing procedures and easier access to interpretation services have also facilitated information sharing, enhancing cooperation between states and promoting effective administration of justice. Overall, the combination of these projects highlights an integrated vision of international legal cooperation, where cutting-edge technologies, data analysis, mediated interpretation, artificial intelligence, and blockchain come together to make crime control more timely, coordinated, and incisive. The common goal is to establish a collaborative ecosystem where regulatory, linguistic, or organizational differences no longer constitute insurmountable obstacles but rather challenges to be overcome through knowledge sharing, technological innovation, and building mutual trust. These initiatives demonstrate the international community's commitment to ensuring a future where legal cooperation can constantly adapt to the changing nature of crime, protecting citizens, fundamental values, and the stability of societies in the long term. Regional and National Regulatory Initiatives In recent years, at regional and national levels, there has been an intensification of efforts to integrate international ethical recommendations and principles into strategies for adopting artificial intelligence. In particular, Latin America and the Caribbean are progressively incorporating these guidelines, with numerous countries developing their own national strategies to promote the responsible use of AI technologies in various economic and social sectors. Argentina, Brazil, Chile, Colombia, Mexico, Peru, and Uruguay, for example, have already defined or are defining policy guidelines reflecting the awareness of the need to balance innovation opportunities with safeguarding human rights, protecting democracy, ensuring process transparency, and equitable access to the benefits of AI. Costa Rica, through its Ministry of Science, Innovation, Technology, and Telecommunications (MICITT), has made public the 2024-2027 National AI Strategy, indicating that alongside technological progress, maintaining fundamental values such as inclusion, responsibility, and sustainability is essential. These initiatives are not limited to mechanically replicating recommendations from entities such as the OECD and UNESCO but tend to root them in local dynamics and priorities. The search for a balance between economic needs, infrastructure availability, trained human capital, and attention to digital rights has led, for instance, to the creation of the Latin American Artificial Intelligence Index (ILAI), developed by the Economic Commission for Latin America and the Caribbean (ECLAC) in collaboration with Chile's National Center for Artificial Intelligence (CENAI) and supported by the Inter-American Development Bank (IDB). This assessment tool not only highlights the capacity of individual countries to adopt and integrate AI technologies but also provides a comparative framework on the quality of introduced policies and resources. The ILAI results indicate that Chile, Brazil, and Uruguay stand out in terms of investments in research, training, and innovation, positioning themselves as regional models in creating more mature and aware technological ecosystems. Despite progress, there are still areas where regulations and strategies appear less developed, particularly in the justice sector. Employing AI systems in the judicial context could offer significant advantages in terms of efficiency and workflow management but raises critical issues related to protecting individual rights, fairness in automated decisions, algorithm transparency, and the accountability of involved actors. So far, only a limited number of countries have begun developing dedicated AI strategies in the justice sector, and the guidelines developed by CEPEJ and UNESCO, as well as the experiences of other countries, serve as essential reference points to avoid automation introducing new forms of discrimination or undermining trust in legal systems. The regulation of AI has become particularly prominent in the European Union, where the Artificial Intelligence Regulation (REAI) approved in 2024 establishes a regulatory framework identifying different risk levels associated with AI technology use, imposing stringent obligations in critical sectors and banning certain applications deemed incompatible with the EU's fundamental values. This approach is based on preventing potential abuses, such as prohibiting certain remote biometric identification systems in public spaces, and strengthening provider accountability, requiring them to meet specific requirements before bringing their systems to market. Alongside the REAI, the Council of Europe's Framework Convention on AI, open for signature also in 2024, adds another layer to protecting human rights, democracy, and the rule of law in the digital age. This binding international treaty emphasizes the importance of adopting legislative, policy, and supervisory measures to ensure the use of AI aligns with the highest standards of transparency, safety, and accountability, calling on states for continuous cooperation in harmonizing national policies. Overall, the regional and national landscape reveals a complexity where countries with varying development levels, political priorities, and financial resources are trying to build a regulatory framework consistent with international principles and ethical recommendations. On the one hand, integrated strategies connecting key economic sectors, training pathways, technological infrastructures, and governance choices are maturing; on the other hand, there remains a pressing need to strengthen regulation in specific areas such as justice and the protection of vulnerable individuals, as well as to consolidate cooperation among states and international organizations. The outcome of these intersecting efforts should be greater confidence in humanity's ability to govern and leverage artificial intelligence so that technology, rather than undermining rights and values, transparently and responsibly contributes to economic growth, social progress, and sustainable development. Ethical Challenges and Human Rights The use of AI-based tools in justice and security activities raises numerous ethical questions. Among the main risks are algorithmic biases, which can lead to significant discrimination. For example, facial recognition systems often make errors in identifying individuals belonging to ethnic minorities, risking the impartiality of investigations. A study conducted by the AI Now Institute found that women of color have significantly higher error rates compared to Caucasian men, thus increasing the danger of injustices and discrimination. To address these issues, the European Union has issued Recommendation CM/Rec(2020)1, prescribing periodic assessments of the impact that AI systems used in criminal investigations have on human rights and privacy. Moreover, using AI for predictive surveillance raises concerns about citizens' privacy and potential violations of fundamental human rights. Predictive surveillance tools could lead to mass profiling of individuals, where people from certain social or demographic categories are identified as potential threats without concrete evidence. Colombia's Constitutional Court recently issued an opinion on using generative AI tools, such as ChatGPT, in judicial decisions, warning about risks to citizens' fundamental rights and emphasizing the importance of ensuring the final decision remains in the hands of human judges. Additionally, adopting AI in justice without adequate training for judicial personnel could amplify risks of bias and incorrect decisions. For this reason, various international organizations, such as UNESCO and the OECD, are promoting training programs to ensure judicial personnel have the necessary skills to understand and responsibly use AI technologies. For example, the fAIr LAC+ program by the Inter-American Development Bank offers ethical guidelines and tools to evaluate AI use in the public sector, specifically targeting contexts in Latin America and the Caribbean. Another issue is the lack of representation of women in AI algorithm development. According to a UNESCO study, only 22% of AI professionals are women, which can lead to a lack of gender perspectives in technology development. This imbalance not only perpetuates existing biases but also limits the ability to create inclusive solutions that protect all sectors of society. UNESCO has launched initiatives like the Global AI Ethics and Governance Observatory to monitor the adoption of ethical guidelines and promote gender equality in AI technology development. In conclusion, addressing the ethical challenges and human rights issues posed by AI adoption in justice and security requires a multilateral commitment. AI technologies can offer powerful tools for crime prevention and control, but their implementation must be accompanied by strict regulation, adequate training, and oversight mechanisms to ensure fair and responsible use. Without these measures, there is a risk that AI technologies will reinforce inequalities and perpetuate injustices rather than contribute to a safer and fairer society. Conclusions The use of artificial intelligence by organized crime represents a dark reflection of our technological aspirations, revealing one of the most profound dichotomies of innovation: the ability to amplify both human progress and its deviations. The real question is not so much how to limit the illicit uses of AI but rather understanding why systemic, cultural, and institutional vulnerabilities in our society continue to create fertile ground for such abuses. This analysis prompts a strategic reflection on governance, political priorities, and dominant economic models, urging businesses and institutions to rethink their roles in a complex and interconnected global scenario. The increasing use of AI for illicit activities such as drug trafficking, human trafficking, and financial fraud cannot be viewed solely as a "technological problem" to be solved with more security tools. It is rather an inevitable consequence of a development model that prioritizes innovation speed over ethical and social sustainability. The democratization of access to AI technologies, while positive in many respects, is breaking down technical barriers that once limited the adoption of sophisticated tools by criminals. However, the deeper issue lies in the structural gap between the pace of technological innovation and the normative and institutional capacity to regulate it in real-time. The response strategy must go beyond implementing counter technologies such as facial recognition or predictive analysis and address a systemic revision of root causes. This includes institutional fragility in some regions, disparities in access to educational resources, and the inability to build resilient governance infrastructures. Organized crime exploits these weaknesses not only to adopt AI but to fill the voids left by inefficient or corrupt state institutions, strengthening its social and economic control. An often-overlooked element is the private sector's role as a crucial actor in preventing abuses related to AI. Technology companies, traditionally seen as solution providers, are also the primary producers of technologies that end up being used illicitly. The urgency to monetize innovations often leads to relaxed safety standards, creating products that, while market-accessible, lack adequate safeguards against misuse. This raises an ethical dilemma for companies: to what extent are they willing to sacrifice economic growth to ensure greater social security? It is here that the concept of "shared accountability" should be redefined, requiring companies to take direct responsibility not only for the legitimate use of their technologies but also for the side effects of their applications. The emergence of technologies like deepfakes and autonomous drones introduces another dimension of risk: AI's ability to undermine the very fabric of social trust. When the line between reality and fiction dissolves, the foundations that sustain cooperation and respect for the law begin to erode. This effect is not limited to those who directly suffer fraud or attacks but has deeper implications for the stability of financial markets, trust in public institutions, and the collective sense of security. In this scenario, companies are called to reflect on their role as guarantors of public trust, adopting stricter ethical principles in innovation processes. Another key point is the paradox of predictive surveillance, which promises to prevent crime but risks fueling inequalities and discrimination. The adoption of predictive tools based on historical data can perpetuate existing biases, worsening the marginalization of already vulnerable communities. This raises a fundamental question: who has the right to define what constitutes "normality" or "deviation" in the context of security? Companies, particularly those operating in the technology sector, must consider their contribution to perpetuating these biases and develop algorithms that reflect authentic diversity rather than perpetuating exclusion models. Finally, adopting AI in crime control should not become a technological arms race between criminals and institutions but rather an opportunity to rethink the foundations of the global security system. In a world where digital technologies know no borders, security must be redefined as a global public good, requiring deeper and more structured international cooperation. In this sense, businesses play an essential role in facilitating dialogue between governments, civil society, and academic institutions, contributing to the construction of an ethical and regulatory framework that is not merely reactive but proactive and long-term-oriented. Artificial intelligence, therefore, is not just a tool but a mirror reflecting the priorities and fragilities of our societies. The way we choose to address its adoption by organized crime will not only determine the future of security but also shape our relationship with innovation, justice, and ethics.   Podcast: https://spotifycreators-web.app.link/e/BWYcyiIk8Ob Source: https://elpaccto.eu/en/

  • Criminalità organizzata e intelligenza artificiale

    L'intelligenza artificiale (AI) sta rapidamente trasformando molti aspetti della nostra società, ma il suo impatto non è sempre positivo. Uno degli ambiti in cui l'AI sta trovando utilizzi controversi è quello della criminalità organizzata. Un recente studio del programma EL PACCTO 2.0 ha evidenziato come l'adozione di tecnologie AI da parte di gruppi criminali sia già una realtà, soprattutto in America Latina, nei Caraibi e nell'Unione Europea. In questo articolo, esploreremo come l'AI viene sfruttata dalla criminalità organizzata, quali sono i principali crimini commessi con strumenti AI e come le istituzioni di giustizia e sicurezza stanno cercando di rispondere a queste sfide. Criminalità organizzata e intelligenza artificiale: un connubio pericoloso Criminalità organizzata e intelligenza artificiale hanno favorito un rafforzamento delle attività illecite come il traffico di esseri umani, il ransomware, le frodi bancarie e gli abusi sessuali. Un elemento particolarmente allarmante riguarda la semplicità con cui queste tecnologie possono essere utilizzate anche da individui con competenze tecniche limitate. Grazie all'automazione, è possibile ampliare il raggio d'azione delle operazioni criminali, riducendo al contempo le probabilità di essere individuati. Un esempio emblematico è l'utilizzo dei bot controllati dall'AI per lanciare attacchi su larga scala, come i Distributed Denial of Service (DDoS), o per distribuire malware. Recenti rapporti evidenziano che questi bot sono sempre più sofisticati e in grado di identificare e sfruttare le vulnerabilità in tempo reale, aumentando l'efficacia e riducendo i tempi necessari per portare a termine un attacco. Secondo il programma EL PACCTO, tra il 2021 e il 2023, si è registrato un aumento del 284% nei casi di furto d'identità in Sud Africa, facilitato dall'utilizzo di AI per creare identità false e frodi finanziarie. Questi numeri testimoniano come l'AI non solo incrementi l'efficacia delle azioni criminali, ma renda anche estremamente difficile il contrasto da parte delle autorità. In America Latina, i gruppi criminali hanno iniziato ad utilizzare droni controllati da AI per trasportare droga e per condurre attacchi fisici contro gruppi rivali o forze dell'ordine. Nel 2018, ad esempio, un attacco con droni è stato portato contro il Segretario della Sicurezza Pubblica dello Stato di Baja California in Messico. I droni, equipaggiati con dispositivi esplosivi, rappresentano una nuova minaccia che combina l'autonomia e la precisione delle tecnologie AI con l'efficacia di armi letali. Inoltre, questi dispositivi sono stati utilizzati per monitorare e sorvegliare le attività delle forze dell'ordine, complicando ulteriormente le operazioni delle autorità. L'AI viene anche utilizzata per identificare le vittime potenziali del traffico di esseri umani attraverso piattaforme digitali, come social media e siti di incontri. Questo consente ai criminali di targettizzare con precisione persone vulnerabili in situazioni di difficoltà economica o sociale. Un recente rapporto del programma EL PACCTO ha rilevato che il reclutamento online e l'uso di AI per manipolare le vittime è una pratica ormai consolidata nelle reti di traffico di esseri umani in Europa e America Latina. Le tecniche di machine learning vengono impiegate per analizzare i profili delle vittime e ottimizzare le tattiche di persuasione, aumentando il successo delle operazioni di reclutamento. Un altro aspetto preoccupante è l'uso delle tecnologie deepfake. Oltre a creare video e audio falsi per impersonare altre persone, queste tecnologie vengono sfruttate per truffe finanziarie sofisticate. Nel 2024, una truffa in Inghilterra ha visto l'utilizzo di deepfake per impersonare un direttore finanziario, convincendo un dipendente a trasferire oltre 25 milioni di dollari. In molti casi, i deepfake vengono utilizzati per falsificare identità e compiere truffe bancarie o altre attività fraudolente, rendendo sempre più difficile per le vittime distinguere tra realtà e finzione.   La risposta delle istituzioni di Giustizia e Sicurezza Le istituzioni di giustizia e sicurezza stanno cercando di rispondere alle sfide poste dall'uso criminale dell'AI adottando a loro volta tecnologie AI per la prevenzione e il contrasto dei crimini. Tra le applicazioni più comuni ci sono: Analisi predittiva e sorveglianza : L'AI viene utilizzata per analizzare grandi quantità di dati e prevedere dove potrebbero verificarsi crimini, consentendo alle forze dell'ordine di ottimizzare l'allocazione delle risorse. Un esempio significativo è l'utilizzo di algoritmi predittivi per identificare aree ad alto rischio e migliorare il pattugliamento. In Colombia, il progetto sviluppato in collaborazione con UNESCO ha permesso di migliorare la distribuzione delle risorse di polizia basandosi su dati di criminalità storici e in tempo reale. Tuttavia, l'utilizzo di tecnologie predittive solleva importanti questioni etiche e relative ai diritti umani, come la discriminazione e la sorveglianza eccessiva di comunità vulnerabili. Gestione dei casi giudiziari : In Europa, vari paesi hanno adottato sistemi basati sull'AI per gestire i casi giudiziari in modo più efficiente, automatizzando compiti ripetitivi e facilitando l'accesso alle informazioni legali. In Germania, il sistema OLGA (On-line-Strafverfahrensregister für Organisierte Kriminalität und Geldwäsche) consente di centralizzare e gestire i dati dei casi di criminalità organizzata, migliorando la condivisione delle informazioni e ottimizzando i tempi di risposta. Anche in America Latina, alcune giurisdizioni stanno cercando di digitalizzare e modernizzare le loro infrastrutture giudiziarie attraverso l'integrazione dell'AI, anche se l'implementazione è ostacolata da risorse limitate e infrastrutture fragili. Riconoscimento facciale : Le tecnologie di riconoscimento facciale basate sull'AI sono utilizzate per identificare sospetti o vittime, sebbene vi siano importanti questioni etiche legate alla privacy e alla possibilità di errori. In America Latina, i sistemi di riconoscimento facciale sono stati adottati in paesi come Brasile e Messico, dove vengono utilizzati per monitorare luoghi pubblici e garantire la sicurezza. Tuttavia, vi sono stati numerosi casi di uso improprio di queste tecnologie, come la sorveglianza non autorizzata di attivisti e giornalisti, sollevando preoccupazioni riguardo alla protezione dei diritti umani. Cooperazione internazionale e blockchain : Un altro elemento importante nella risposta alla criminalità organizzata è la cooperazione internazionale. Progetti come INSPECTr, finanziato dall'Unione Europea, utilizzano la tecnologia blockchain per garantire l'integrità delle prove raccolte e la tracciabilità dei dati tra le diverse giurisdizioni. Questa tecnologia aiuta a ridurre il rischio di manipolazione delle prove e facilita la condivisione sicura delle informazioni tra le autorità. Traduzione e interpretazione automatica : In un contesto di cooperazione internazionale, le barriere linguistiche rappresentano una sfida significativa. Progetti come MARCELL, all'interno del programma Connecting Europe Facility (CEF), mirano a migliorare la qualità delle traduzioni automatiche in contesti legali, permettendo una comunicazione più fluida durante i procedimenti transnazionali. Questo è particolarmente rilevante nei casi in cui la cooperazione tra diversi paesi è essenziale per combattere il crimine organizzato. Nonostante questi sforzi, rimangono numerose sfide legate all'utilizzo dell'AI nelle attività di giustizia e sicurezza. Una delle principali riguarda la protezione dei diritti umani e la gestione dei bias algoritmici che potrebbero portare a discriminazioni. La necessità di regolamentazioni rigorose per garantire un uso etico e responsabile di queste tecnologie è più che mai evidente, soprattutto nel contesto dell'introduzione di strumenti come il riconoscimento facciale e l'analisi predittiva, che possono avere un impatto diretto sulla vita dei cittadini. Raccomandazioni e linee guida di organizzazioni internazionali Negli ultimi anni si è registrato un crescente interesse verso lo sviluppo etico, responsabile ed equo delle tecnologie di intelligenza artificiale. In questo ambito, molte istituzioni internazionali hanno operato con impegno, contribuendo alla definizione di linee guida, principi e raccomandazioni. Un riferimento significativo a livello europeo è rappresentato dalle "Linee Guida per l’AI Affidabile", pubblicate nel 2019 dall'High Level Expert Group on Artificial Intelligence (HLEG), un gruppo di esperti istituito dalla Commissione Europea con l'obiettivo di delineare una visione condivisa che assicuri il rispetto dei diritti umani, dei valori democratici e dei principi etici profondamente radicati. Le linee guida hanno evidenziato l’importanza di una robustezza tecnica capace di minimizzare rischi e vulnerabilità, la centralità della sicurezza nello sviluppo tecnologico e la trasparenza, essenziale per consentire a utenti e regolatori di comprendere le logiche alla base dei processi decisionali automatizzati. Inoltre, è stata messa in luce la responsabilità di ogni soggetto coinvolto nel ciclo di vita dei sistemi di intelligenza artificiale e l’esigenza di prevenire qualsiasi forma di discriminazione, per evitare che la tecnologia diventi strumento di ingiustizia o disuguaglianza. L’attenzione verso il tema si è estesa ben oltre l’Unione Europea, toccando le Nazioni Unite e i loro organi decisionali. Nel 2024, l’Assemblea Generale delle Nazioni Unite ha adottato una Risoluzione Generale (78/L.49) che, rimarcando la centralità dei diritti umani, invita gli Stati membri a non utilizzare l’AI in modo contrario al diritto internazionale, impegnandoli a prevenire scenari in cui queste tecnologie possano essere sfruttate per attività lesive delle libertà fondamentali o per colpire categorie di persone già vulnerabili. Il documento pone le basi per una cooperazione internazionale che miri alla protezione dei diritti in ogni fase della progettazione, sviluppo, distribuzione e utilizzo dei sistemi automatizzati, ispirando politiche nazionali che non trascurino, nemmeno per un istante, la dimensione etica della tecnologia. Un ulteriore strumento messo a disposizione della comunità internazionale è rappresentato dal Toolkit per l’Intelligenza Artificiale Responsabile destinato alle forze dell’ordine, realizzato dall’Istituto Interregionale delle Nazioni Unite per la Ricerca sul Crimine e la Giustizia (UNICRI) e da INTERPOL, con il sostegno dell’Unione Europea. Questo Toolkit offre una guida pratica per orientare le agenzie di sicurezza nella comprensione e nell’impiego di sistemi di AI, fornendo indicazioni su come utilizzare la tecnologia in modo coerente con i diritti umani, i principi etici e i valori fondamentali su cui si basano le società contemporanee. Attraverso questa iniziativa, le forze di polizia e le istituzioni giudiziarie di diversi paesi possono acquisire conoscenze teoriche e operative, adottare procedure trasparenti, valutare l’impatto delle tecnologie sul terreno e rendere più efficaci le attività di prevenzione e contrasto del crimine, senza però venir meno ai principi di responsabilità e legittimità. L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO) ha svolto un ruolo cruciale in questo sforzo globale attraverso la creazione di un Osservatorio Globale per la Governance e l’Etica dell’AI, concepito come uno strumento di monitoraggio permanente sulle pratiche etiche adottate in diversi contesti nazionali. Oltre a fornire linee guida per valutare l’impatto delle tecnologie AI, l’UNESCO ha promosso la diffusione di buone pratiche e dato vita a strutture come il Laboratorio per l’Etica e la Governance dell’AI, pensato per raccogliere conoscenze, esperienze, studi e ricerche, così da favorire una costante evoluzione delle normative e dei meccanismi di supervisione. Già nel 2021 l’UNESCO aveva pubblicato la “Raccomandazione sull’Etica dell’Intelligenza Artificiale”, un documento fondamentale che sintetizza valori e principi utili a orientare i governi e i decisori politici nella creazione di quadri normativi capaci di coniugare l’innovazione tecnologica con il rispetto della dignità umana, della diversità culturale e della tutela ambientale. Un altro organismo di primo piano è l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), che ha delineato una raccomandazione specifica sull’AI, promuovendo la visione di un uso della tecnologia in linea con i principi democratici, la protezione dei diritti umani e la necessità di mantenere il controllo umano laddove i sistemi automatizzati possano manifestare comportamenti non desiderati. L’OCSE ha aggiornato le proprie linee guida nel 2024, ampliando la definizione di “sistema di AI” e affrontando in modo più specifico le problematiche legate alla sicurezza, in modo che l’intervento umano continui a essere possibile e sicuro anche in scenari di emergenza, prevenendo potenziali abusi o malfunzionamenti. Nel complesso, il quadro che emerge dal lavoro di organizzazioni internazionali, agenzie specializzate e progetti finanziati su scala globale è quello di un ecosistema in costante evoluzione, teso alla creazione di standard condivisi per la governance, la regolamentazione e l’etica dell’intelligenza artificiale. Un ecosistema che, pur riconoscendo le potenzialità innovative di queste tecnologie, cerca di mantenerne il controllo umano, di vincolarle a precisi principi etici e di collocarle all’interno di una prospettiva sostenibile, inclusiva e attenta alle dimensioni sociali, ambientali ed economiche. Si tratta di un processo in corso, un lavoro collettivo che coinvolge governi, istituzioni sovranazionali, esperti, comunità scientifiche, società civile e settore privato, e che mira ad assicurare che l’intelligenza artificiale diventi una risorsa a beneficio dell’umanità, costantemente orientata al rispetto dei diritti, delle libertà, della sicurezza e del bene comune.   Cooperazione giuridica internazionale Negli ultimi anni, la cooperazione giuridica internazionale ha acquisito un ruolo di crescente rilevanza nel contrasto alla criminalità transnazionale, spingendo l’Unione Europea e i suoi partner a finanziare e promuovere progetti innovativi per sostenere agenzie di sicurezza, forze dell’ordine e istituzioni giudiziarie. Progetti come EXCAPE hanno inaugurato una nuova generazione di strumenti basati sull’intelligenza artificiale e sull’analisi avanzata dei dati, finalizzati a identificare e prevedere le dinamiche della criminalità organizzata su scala globale. Attraverso l’integrazione di fonti informative diversificate, che spaziano dai social network ai registri finanziari e criminali, EXCAPE mira a fornire una visione completa delle attività illecite, favorendo un coordinamento più efficace tra le varie giurisdizioni e accelerando gli interventi contro fenomeni particolarmente complessi e articolati. In parallelo, il progetto ROXANNE ha illustrato come il riconoscimento vocale, unito a sofisticate tecniche di analisi delle reti sociali, possa potenziare la capacità delle forze dell’ordine di identificare e disarticolare gruppi criminali organizzati. Attraverso l’elaborazione di comunicazioni intercettate, ROXANNE ha mostrato come sia possibile collegare tra loro individui sospettati, svelando legami, gerarchie e dinamiche interne spesso molto difficili da far emergere con i metodi tradizionali. In tal modo, è stato possibile fornire prove più solide alle autorità competenti, migliorando la qualità e l’efficacia delle indagini. Un ulteriore tassello di questo mosaico è rappresentato dal progetto TRACE, che punta specificamente a contrastare il traffico di esseri umani grazie all’impiego di algoritmi di apprendimento automatico in grado di rilevare pattern di reclutamento online e mappare le rotte utilizzate dai trafficanti. Questo approccio rende possibile analizzare comunicazioni e movimenti in modo sistematico, facendo emergere reti di complici e percorsi geografici della tratta che, una volta identificati, possono essere ostacolati e smantellati. La comprensione di queste dinamiche ha offerto un importante strumento pratico per aiutare gli inquirenti a intervenire in maniera tempestiva e mirata, proteggendo individui vulnerabili e scoraggiando la proliferazione di tali crimini. Altrettanto rilevante è stata l’esperienza maturata con il progetto INSPECTr. Qui, l’attenzione si è concentrata sulla creazione di un’infrastruttura tecnologica comune, una sorta di piattaforma di intelligence condivisa che, sfruttando l’analisi di big data, il machine learning e la tecnologia blockchain, ha facilitato la circolazione di informazioni digitali e forensi fra diverse giurisdizioni. INSPECTr ha infatti consentito una gestione più rapida e intelligente delle indagini su crimini complessi, riducendo i costi e superando ostacoli legati alla frammentazione delle banche dati o all’eterogeneità delle procedure. Questa maggiore fluidità nello scambio di informazioni e nel coordinamento operativo ha rafforzato la collaborazione transfrontaliera, innalzando il livello di fiducia tra le parti coinvolte e migliorando sensibilmente l’efficacia della risposta internazionale a minacce criminali in rapida evoluzione. Un approccio diverso ma altrettanto cruciale per la cooperazione giuridica è stato implementato dal progetto AVIDICUS, che ha indagato l’utilizzo dell’interpretazione video-mediata nei procedimenti penali internazionali. Suddiviso in tre fasi, questo percorso ha consentito di osservare l’impatto della videoconferenza e dell’interpretazione a distanza sulla qualità delle comunicazioni tra giudici, avvocati, imputati, testimoni e interpreti. Dal miglioramento della comprensione reciproca alla fornitura di formazione specifica per i professionisti coinvolti, AVIDICUS ha mostrato come le tecnologie di comunicazione possano contribuire a un sistema giudiziario più efficiente e inclusivo, riducendo le barriere linguistiche e culturali che in passato rallentavano o compromettevano l’equità dei processi. L’armonizzazione delle procedure e l’accesso più agevole ai servizi di interpretariato hanno inoltre agevolato la condivisione di informazioni, potenziando la cooperazione tra gli Stati e favorendo un’efficace amministrazione della giustizia. Nel complesso, l’insieme di questi progetti mette in luce una visione integrata della cooperazione giuridica internazionale, in cui tecnologie all’avanguardia, analisi dei dati, interpretazione mediata, intelligenza artificiale e blockchain si combinano per rendere il contrasto al crimine più tempestivo, coordinato e incisivo. L’obiettivo comune è instaurare un ecosistema di collaborazione in cui le differenze normative, linguistiche o organizzative non costituiscano più un ostacolo insormontabile, bensì una sfida da superare attraverso la condivisione di conoscenze, l’innovazione tecnologica e la costruzione di fiducia reciproca. Queste iniziative testimoniano l’impegno profuso a livello internazionale per garantire un futuro in cui la cooperazione giuridica sia in grado di adeguarsi costantemente alla natura mutevole della criminalità, proteggendo i cittadini, i valori fondamentali e la stabilità delle società nel lungo periodo.   Iniziative regolamentari regionali e nazionali Negli ultimi anni, a livello regionale e nazionale, si è osservata un’intensificazione degli sforzi volti a integrare le raccomandazioni e i principi etici internazionali all’interno delle strategie per l’adozione dell’intelligenza artificiale. In particolare, l’America Latina e i Caraibi stanno progressivamente incorporando questi orientamenti, con numerosi paesi impegnati nello sviluppo di proprie strategie nazionali volte a favorire l’uso responsabile di tecnologie AI in diversi settori economici e sociali. Argentina, Brasile, Cile, Colombia, Messico, Perù e Uruguay, ad esempio, hanno già definito o stanno definendo linee guida politiche che riflettono la consapevolezza della necessità di bilanciare opportunità d’innovazione con la salvaguardia dei diritti umani, la tutela della democrazia, la trasparenza dei processi e l’accesso equo ai benefici dell’AI. Il Costa Rica, attraverso il suo Ministero della Scienza, Innovazione, Tecnologia e Telecomunicazioni (MICITT), ha reso pubblica la Strategia Nazionale sull’Intelligenza Artificiale 2024-2027, indicando come, oltre al progresso tecnologico, sia essenziale mantenere saldo il rispetto di valori fondamentali come l’inclusione, la responsabilità e la sostenibilità. Queste iniziative non si limitano a ricalcare meccanicamente le raccomandazioni provenienti da enti quali OCSE e UNESCO, ma tendono a radicarle nelle dinamiche e nelle priorità locali. La ricerca di un equilibrio tra esigenze economiche, disponibilità infrastrutturale, capitale umano formato e attenzione ai diritti digitali ha portato, ad esempio, alla creazione dell’Indice Latino-americano sull’Intelligenza Artificiale (ILAI), sviluppato dalla Commissione Economica per l’America Latina e i Caraibi (CEPAL) in collaborazione con il Centro Nazionale di Intelligenza Artificiale del Cile (CENAI) e con il sostegno della Banca Interamericana di Sviluppo (IDB). Questo strumento di valutazione non solo evidenzia la capacità dei singoli paesi di adottare e integrare tecnologie AI, ma offre anche un quadro comparativo sulla qualità delle politiche e delle risorse introdotte. I risultati dell’ILAI indicano che Cile, Brasile e Uruguay si distinguono in termini di investimenti in ricerca, formazione e innovazione, proponendosi come modelli regionali nella creazione di ecosistemi tecnologici più maturi e consapevoli. Nonostante i progressi, emergono ancora aree in cui le normative e le strategie appaiono meno sviluppate, specialmente nel settore della giustizia. L’impiego di sistemi AI nel contesto giudiziario potrebbe infatti offrire notevoli vantaggi in termini di efficienza e gestione dei flussi di lavoro, ma solleva questioni critiche relative alla protezione dei diritti individuali, all’equità delle decisioni automatizzate, alla trasparenza degli algoritmi e alla responsabilità degli attori coinvolti. Finora, soltanto un numero limitato di paesi ha iniziato a elaborare strategie dedicate all’AI nel settore della giustizia, e le linee guida elaborate dalla CEPEJ e dall’UNESCO, così come le esperienze di altri paesi, rappresentano punti di riferimento essenziali per evitare che l’automazione introduca nuove forme di discriminazione o comprometta la fiducia nei sistemi legali. La questione della regolamentazione dell’AI è diventata particolarmente viva nell’Unione Europea, dove il Regolamento sull’Intelligenza Artificiale (REAI) approvato nel 2024 stabilisce un quadro normativo che individua diversi livelli di rischio associati all’uso delle tecnologie AI, imponendo obblighi stringenti in settori critici e vietando talune applicazioni considerate incompatibili con i valori fondamentali dell’UE. Questo approccio si fonda sulla prevenzione di eventuali abusi, ad esempio vietando alcuni sistemi di identificazione biometrica remota in spazi pubblici, e sul rafforzamento della responsabilità dei fornitori, imponendo loro di rispettare determinati requisiti prima di immettere i propri sistemi sul mercato. Parallelamente al REAI, la Convenzione Quadro del Consiglio d’Europa sull’AI, aperta alla firma sempre nel 2024, aggiunge un ulteriore tassello alla protezione dei diritti umani, della democrazia e dello stato di diritto nell’era digitale. Questo trattato internazionale vincolante sottolinea l’importanza di adottare misure legislative, politiche e di supervisione in grado di rendere l’uso dell’AI compatibile con gli standard più elevati di trasparenza, sicurezza e responsabilità, richiamando gli Stati a un costante sforzo di cooperazione nell’armonizzazione delle politiche nazionali. Nel complesso, il panorama regionale e nazionale mostra una complessità in cui paesi con diversi livelli di sviluppo, diverse priorità politiche e differenti risorse finanziarie stanno cercando di costruire un framework normativo coerente con i principi internazionali e con le raccomandazioni etiche. Da un lato, si assiste alla maturazione di strategie integrate, che collegano settori economici chiave, percorsi di formazione, infrastrutture tecnologiche e scelte di governance; dall’altro, rimane viva la necessità di rinforzare la regolamentazione in ambiti specifici come la giustizia e la protezione di soggetti vulnerabili, nonché di consolidare la cooperazione tra Stati e organizzazioni internazionali. Il risultato di questi sforzi incrociati dovrebbe essere una maggiore fiducia nella capacità dell’umanità di governare e sfruttare l’intelligenza artificiale in modo che la tecnologia, anziché sovvertire diritti e valori, contribuisca in modo trasparente e responsabile alla crescita economica, al progresso sociale e allo sviluppo sostenibile.   Sfide etiche e di diritti umani L'uso di strumenti basati sull'intelligenza artificiale nelle attività di giustizia e sicurezza pone numerosi interrogativi di natura etica. Tra i rischi principali si evidenziano i pregiudizi algoritmici, che possono determinare discriminazioni significative. Ad esempio, i sistemi di riconoscimento facciale tendono spesso a commettere errori nell'identificazione di individui appartenenti a minoranze etniche, mettendo a rischio l'imparzialità delle indagini. Uno studio condotto dall'AI Now Institute ha rilevato che le donne di colore presentano tassi di errore significativamente superiori rispetto agli uomini caucasici, aumentando così il pericolo di ingiustizie e discriminazioni. Per affrontare questi problemi, l'Unione Europea ha emanato la Raccomandazione CM/Rec(2020)1, che prescrive valutazioni periodiche sull'impatto che i sistemi di intelligenza artificiale utilizzati nelle indagini penali hanno sui diritti umani e sulla privacy. Inoltre, l'utilizzo dell'AI per la sorveglianza predittiva solleva preoccupazioni riguardo la privacy dei cittadini e la possibile violazione dei diritti umani fondamentali. L'uso di strumenti di sorveglianza predittiva potrebbe portare a una "profilazione di massa" delle persone, in cui individui appartenenti a determinate categorie sociali o demografiche vengano identificati come potenziali minacce senza alcuna prova concreta. La Corte costituzionale della Colombia ha recentemente emesso un parere sull'uso di strumenti generativi di AI, come ChatGPT, nelle decisioni giudiziarie, avvertendo sui rischi per i diritti fondamentali dei cittadini e sull'importanza di garantire che la decisione finale rimanga nelle mani dei giudici umani. Inoltre, l'adozione di AI nel campo della giustizia senza un'adeguata formazione del personale giudiziario potrebbe amplificare i rischi di bias e decisioni scorrette. Per questo motivo, varie organizzazioni internazionali, come UNESCO e OECD, stanno promuovendo programmi di formazione per garantire che il personale giudiziario abbia le competenze necessarie per comprendere e utilizzare in modo responsabile le tecnologie AI. Ad esempio, il programma fAIr LAC+ dell'Inter-American Development Bank offre linee guida etiche e strumenti per valutare l'uso delle AI nel settore pubblico, mirate specificamente ai contesti dell'America Latina e dei Caraibi. Un altro problema è la scarsità di rappresentanza delle donne nello sviluppo di algoritmi AI. Secondo uno studio dell'UNESCO, solo il 22% dei professionisti dell'AI sono donne, il che può portare a una scarsa considerazione delle prospettive di genere nello sviluppo delle tecnologie. Questo squilibrio non solo contribuisce a perpetuare bias esistenti, ma limita anche la capacità di creare soluzioni inclusive che proteggano tutti i settori della società. L'UNESCO ha lanciato iniziative come il Global AI Ethics and Governance Observatory per monitorare l'adozione di linee guida etiche e promuovere la parità di genere nello sviluppo delle tecnologie AI. In conclusione, affrontare le sfide etiche e di diritti umani poste dall'adozione dell'AI nel campo della giustizia e della sicurezza richiede un impegno multilaterale. Le tecnologie AI possono offrire strumenti potenti per la prevenzione e il contrasto della criminalità, ma la loro implementazione deve essere accompagnata da una regolamentazione rigorosa, formazione adeguata e meccanismi di controllo per garantire un uso equo e responsabile. Senza queste misure, il rischio è che le tecnologie AI finiscano per rafforzare disuguaglianze e perpetuare ingiustizie piuttosto che contribuire a una società più sicura ed equa.   Conclusioni L'utilizzo dell’intelligenza artificiale da parte della criminalità organizzata rappresenta uno specchio oscuro delle nostre aspirazioni tecnologiche, svelando una delle più profonde dicotomie dell’innovazione: la capacità di amplificare sia il progresso umano sia le sue devianze.  La vera questione non è tanto come limitare gli usi illeciti dell’AI, quanto piuttosto comprendere il perché le vulnerabilità sistemiche, culturali e istituzionali della nostra società continuino a creare terreno fertile per tali abusi.  Questa analisi porta a una riflessione strategica sulla governance, sulle priorità politiche e sui modelli economici dominanti, spingendo le imprese e le istituzioni a ripensare il proprio ruolo in uno scenario globale complesso e interconnesso. Il crescente utilizzo dell’AI per attività illecite come il traffico di droga, la tratta di esseri umani e le truffe finanziarie non può essere letto esclusivamente come un "problema tecnologico" da risolvere con maggiori strumenti di sicurezza.  È piuttosto una conseguenza inevitabile di un modello di sviluppo che privilegia la velocità di innovazione rispetto alla sostenibilità etica e sociale.  La democratizzazione dell’accesso alle tecnologie AI, pur positiva per molti versi, sta abbattendo le barriere tecniche che un tempo limitavano l’adozione di strumenti sofisticati da parte dei criminali. Ma la questione più profonda riguarda il divario strutturale tra il ritmo dell’innovazione tecnologica e la capacità normativa e istituzionale di regolarla in tempo reale. La strategia di risposta deve andare oltre l'implementazione di tecnologie di contrasto, come il riconoscimento facciale o l'analisi predittiva, e affrontare una revisione sistemica delle cause alla radice.  Ciò include la fragilità istituzionale in alcune regioni, la disparità nell'accesso a risorse educative e l'incapacità di costruire infrastrutture di governance resilienti. La criminalità organizzata sfrutta queste debolezze non solo per adottare l’AI, ma per inserirsi nei vuoti lasciati da istituzioni statali inefficienti o corrotte, rafforzando il proprio controllo sociale ed economico. Un elemento spesso trascurato è il ruolo del settore privato come attore cruciale nella prevenzione degli abusi legati all’AI.  Le imprese tecnologiche, tradizionalmente viste come fornitrici di soluzioni, sono anche le principali produttrici delle tecnologie che finiscono per essere utilizzate in modo illecito. L’urgenza di monetizzare le innovazioni spesso porta a un rilassamento degli standard di sicurezza, creando prodotti che, pur essendo accessibili sul mercato, mancano di meccanismi di protezione adeguati contro l’abuso. Questo solleva un dilemma etico per le aziende: fino a che punto sono disposte a sacrificare la crescita economica per garantire una maggiore sicurezza sociale? È qui che il concetto di "accountability condivisa" dovrebbe essere ridefinito, richiedendo alle imprese di assumersi una responsabilità diretta non solo per l’uso legittimo delle loro tecnologie, ma anche per gli effetti collaterali delle loro applicazioni. L’emergere di tecnologie come i deepfake e i droni autonomi introduce un'altra dimensione di rischio: la capacità dell’AI di minare il tessuto stesso della fiducia sociale.  Quando la linea tra realtà e finzione si dissolve, le basi che sostengono la cooperazione e il rispetto della legge iniziano a cedere. Questo effetto non si limita a colpire chi subisce direttamente frodi o attacchi, ma incide in modo più profondo sulla stabilità dei mercati finanziari, sulla fiducia nelle istituzioni pubbliche e sulla percezione collettiva di sicurezza. Di fronte a questo scenario, le imprese sono chiamate a riflettere sul proprio ruolo come garanti della fiducia pubblica, adottando principi etici più rigorosi nei processi di innovazione. Un altro punto chiave è il paradosso della sorveglianza predittiva, che promette di prevenire il crimine, ma rischia di alimentare disuguaglianze e discriminazioni.  L’adozione di strumenti predittivi basati su dati storici può perpetuare bias esistenti, aggravando la marginalizzazione di comunità già vulnerabili. Questo solleva una questione fondamentale: chi ha il diritto di definire cosa sia "normalità" o "devianza" nel contesto della sicurezza? Le imprese, in particolare quelle che operano nel settore tecnologico, devono considerare il loro contributo alla perpetuazione di questi bias e sviluppare algoritmi che riflettano una diversità autentica, piuttosto che perpetuare modelli di esclusione. Infine, l’adozione di AI nel contrasto alla criminalità non deve trasformarsi in una corsa agli armamenti tecnologici tra criminali e istituzioni, ma piuttosto in un’opportunità per ripensare i fondamenti del sistema di sicurezza globale.  In un mondo in cui le tecnologie digitali non conoscono confini, la sicurezza deve essere ridefinita come un bene pubblico globale, richiedendo una cooperazione internazionale più profonda e strutturata. In questo senso, le imprese hanno un ruolo essenziale nel facilitare un dialogo tra i governi, la società civile e le istituzioni accademiche, contribuendo alla costruzione di un framework etico e normativo che non sia semplicemente reattivo, ma proattivo e orientato al lungo termine. L'intelligenza artificiale, dunque, non è solo uno strumento, ma uno specchio che riflette le priorità e le fragilità delle nostre società.  Il modo in cui scegliamo di affrontare la sua adozione da parte della criminalità organizzata non determinerà solo il futuro della sicurezza, ma plasmerà anche il nostro rapporto con l’innovazione, la giustizia e l’etica. Podcast: https://spotifycreators-web.app.link/e/WUGYcG5i8Ob Fonte: https://elpaccto.eu/en/

  • Il Panorama della Cybersecurity nell'Unione Europea 2024

    Il 2024 si è rivelato un anno cruciale per la cybersecurity nell'Unione Europea, con l'Agenzia dell'Unione Europea per la Cybersecurity (ENISA) che ha pubblicato il primo rapporto sullo stato della sicurezza informatica nell'UE, elaborato in collaborazione con il Gruppo di Cooperazione NIS e la Commissione Europea. Questo documento rappresenta uno strumento fondamentale per comprendere il panorama attuale e per definire le strategie future in ambito di sicurezza informatica. Cybersecurity nell'Unione Europea in numeri Nel corso del 2024, l'Unione Europea ha registrato un significativo aumento delle minacce informatiche, dovuto all'accelerazione della digitalizzazione e all'incremento della connettività sociale ed economica. Il rapporto sottolinea un forte aumento degli attacchi ransomware e di tipo Denial-of-Service (DoS/DDoS), che insieme costituiscono oltre la metà degli incidenti osservati. Tra luglio 2023 e giugno 2024, si è registrato un picco di attacchi DDoS, con un massimo di 600 eventi mensili durante questo periodo Secondo i dati del rapporto ENISA, tra luglio 2023 e giugno 2024, il numero totale di incidenti di cybersecurity segnalati è aumentato del 24% rispetto all'anno precedente. Di questi, il 32% erano attacchi ransomware, mentre gli attacchi DoS/DDoS hanno rappresentato il 29%. Questo incremento è attribuito in parte al contesto geopolitico instabile, che ha portato a un maggiore utilizzo di attacchi da parte di gruppi di hacktivisti legati a conflitti internazionali, come quello in Ucraina e quello tra Israele e Palestina. Gli attacchi alla supply chain sono stati un'altra tendenza preoccupante, con il 14% degli incidenti che ha coinvolto direttamente fornitori digitali. In termini di settori colpiti, il rapporto evidenzia che il settore pubblico hanno subito il 19% degli attacchi totali, mentre il settore della sanità ha visto un incremento significativo, con il 15% degli attacchi rivolti verso ospedali e infrastrutture sanitarie. Questo aumento è stato attribuito alla vulnerabilità dei sistemi legacy e alla crescente dipendenza da dispositivi medici connessi. Anche il settore bancario e finanziario è stato preso di mira, rappresentando il 9% degli incidenti segnalati, principalmente attraverso attacchi ransomware volti a estorcere denaro o informazioni sensibili. Un altro dato significativo riguarda la durata media delle interruzioni causate da attacchi informatici. Nel 2024, la durata media delle interruzioni è aumentata a 17 ore, rispetto alle 12 ore dell'anno precedente. Questo aumento riflette la crescente sofisticazione degli attacchi e la difficoltà delle organizzazioni nel ripristinare rapidamente i propri sistemi. La risposta agli incidenti è stata spesso ostacolata dalla mancanza di personale qualificato e dalle carenze nei piani di risposta agli incidenti. Inoltre, il rapporto ENISA segnala che il 25% delle organizzazioni colpite da attacchi informatici ha subito una compromissione dei dati, con una significativa quantità di dati sensibili che è stata esfiltrata o distrutta. La maggior parte di questi attacchi è stata perpetrata utilizzando vulnerabilità note ma non risolte, il che mette in evidenza l'importanza della gestione delle vulnerabilità e degli aggiornamenti tempestivi dei sistemi. Il rapporto mostra inoltre che la maturità della cybersecurity tra i vari paesi dell'Unione presenta una notevole variabilità, con alcuni paesi che mostrano un'alta preparazione e altri che sono ancora in ritardo. Livello di maturità e capacità cybersecurity L'analisi del livello di maturità delle capacità di cybersecurity a livello dell'Unione mostra una valutazione complessiva di 62,65 su 100. Questo valore indica una discreta convergenza tra gli Stati Membri, ma con notevoli differenze nei settori legati all'attuazione delle politiche di disclosure delle vulnerabilità e delle misure di sorveglianza. Secondo il rapporto ENISA, esistono alcune aree con punteggi di maturità molto alti, come la gestione delle minacce e la capacità di rilevamento degli incidenti. Tuttavia, altri settori mostrano notevoli lacune. Ad esempio, solo il 47% degli Stati Membri ha adottato un processo di disclosure coordinato delle vulnerabilità a livello nazionale, mentre il 55% è ancora nella fase di definizione. Questo indica che vi è una considerevole disparità nella capacità di gestire e divulgare le vulnerabilità tra i diversi Stati Membri. Inoltre, l'adozione di misure di sicurezza per la supply chain è ancora limitata. Solo il 37% degli Stati Membri ha adottato politiche di gestione della sicurezza della supply chain per le entità essenziali e importanti. Questo dato è particolarmente preoccupante alla luce dell'aumento degli attacchi alla supply chain che colpiscono fornitori critici di servizi digitali. Il rapporto sottolinea anche che il 52% delle entità critiche ha implementato una policy rigorosa di gestione delle vulnerabilità, ma il 13,5% di queste non ha alcuna visibilità sullo stato di patching dei propri asset informatici. Nel contesto del settore privato, i settori telecomunicazioni, energia e finanza sono considerati altamente maturi in termini di cybersecurity, mentre i settori della salute e del trasporto ferroviario, seppur critici, presentano livelli di maturità inferiori. La situazione è particolarmente problematica per il settore del petrolio, che si trova agli inizi del suo percorso di digitalizzazione e di maturità in termini di sicurezza informatica. Inoltre, il rapporto indica che la mancanza di competenze specifiche rappresenta una delle principali sfide per la maggior parte degli Stati Membri, con un divario crescente nella disponibilità di personale qualificato e nella capacità di rispondere agli incidenti.   Consapevolezza e capacità sociale Uno degli aspetti più preoccupanti emersi dal rapporto riguarda la consapevolezza informatica tra i cittadini dell'UE. Secondo i dati di Eurostat riportati nel rapporto ENISA, il 46% degli europei non possiede competenze digitali sufficienti, con una forte disparità tra le diverse fasce d'età. Solo il 35% dei cittadini di età compresa tra 55 e 74 anni possiede competenze digitali di base, rispetto al 70% dei giovani adulti. Inoltre, il divario digitale tra le aree urbane e quelle rurali è ancora significativo: il 61% degli abitanti delle aree urbane possiede competenze digitali di base, mentre nelle aree rurali questa percentuale scende al 46%. Nonostante il divario di genere nelle competenze digitali sia in diminuzione, esiste ancora una differenza del 3,4% tra uomini e donne. Un altro aspetto emerso riguarda la fiducia dei cittadini nella propria capacità di proteggersi dai rischi informatici, che è diminuita al 59% nel 2024 rispetto al 71% nel 2017. Questa diminuzione potrebbe riflettere una maggiore consapevolezza dei rischi informatici e della crescente complessità delle minacce. Inoltre, solo il 22% dei cittadini è consapevole dell'esistenza di un canale ufficiale per la segnalazione dei crimini informatici, un dato che sottolinea l'urgenza di migliorare la comunicazione e l'informazione a livello pubblico. Questi dati evidenziano la necessità di avviare iniziative mirate alla formazione e alla sensibilizzazione, coinvolgendo sia i giovani che le persone appartenenti alle fasce di età più avanzate. Particolare attenzione dovrebbe essere dedicata alle aree rurali, dove il divario digitale risulta maggiormente accentuato. Inoltre, l'offerta di programmi di istruzione superiore in ambito di cybersecurity presenta notevoli differenze tra gli Stati Membri, con alcuni Paesi caratterizzati da una varietà ampia di percorsi formativi, mentre altri registrano ancora un significativo ritardo in questo settore. Cybersecurity in Italia Il rapporto del 2024 dell'Agenzia dell'Unione Europea per la Sicurezza Informatica (ENISA) evidenzia alcune lacune significative nella preparazione alla cybersecurity in Italia, specialmente se confrontate con la media europea. La cybersecurity in Italia presenta alcune criticità a livello di capacità di risposta agli incidenti e di preparazione alle crisi. In particolare, un numero limitato di grandi aziende dispone di centri operativi di sicurezza (SOC), il che riflette una maturità inferiore rispetto ad altri Stati membri dell'UE. Anche la gestione del rischio legato alla catena di fornitura appare meno sviluppata in Italia, con una percentuale ridotta di aziende che implementano politiche efficaci per la gestione di questi rischi rispetto agli standard europei. Tra luglio 2023 e giugno 2024 sono stati registrati vari incidenti di cybersecurity significativi in Italia, principalmente attacchi di tipo ransomware e Denial of Service (DDoS). Questi attacchi hanno spesso preso di mira il settore pubblico e quello sanitario, due aree particolarmente vulnerabili. Tuttavia, le autorità pubbliche italiane non hanno ancora implementato in modo diffuso piani strutturati di risposta agli incidenti, dimostrando un livello di preparazione inferiore rispetto alla media dell'Unione Europea. Per quanto riguarda la gestione delle vulnerabilità, molte organizzazioni italiane non sono ancora pienamente in grado di coprire tutte le risorse critiche, né riescono ad applicare patch in modo tempestivo. La gestione dei rischi, soprattutto quella relativa a vulnerabilità note, rappresenta ancora un'area di miglioramento. Questi limiti sono particolarmente rilevanti per le organizzazioni con infrastrutture e sistemi operativi estesi, che incontrano difficoltà nel mantenere aggiornati e protetti tutti gli asset tecnologici. Anche la partecipazione delle organizzazioni italiane a esercitazioni di cybersecurity a livello nazionale o internazionale è inferiore rispetto alla media europea. Ciò implica una preparazione inadeguata per la gestione delle crisi, con poche organizzazioni che hanno testato regolarmente i propri piani di risposta attraverso simulazioni ed esercitazioni. Questo riduce la capacità di reazione di fronte a possibili attacchi e minacce su larga scala. Per quanto riguarda la formazione e le competenze, le grandi imprese italiane dimostrano una maggiore attenzione alla sicurezza informatica, investendo più frequentemente nella formazione dei dipendenti. Tuttavia, le piccole e medie imprese (PMI) sono meno propense a fornire formazione specifica sulla cybersecurity, segno di una maturità ancora limitata in questo settore. C'è una chiara difficoltà a reperire figure professionali con competenze in sicurezza informatica, e questo si riflette nella carenza di assunzioni recenti in tale ambito, contribuendo al persistente divario di competenze rispetto ai bisogni reali. Questa situazione evidenzia la necessità di migliorare le infrastrutture di sicurezza, di aumentare la formazione del personale e di promuovere un coinvolgimento attivo nelle esercitazioni a livello europeo per aumentare la capacità di risposta e di adattamento alle minacce sempre più sofisticate.   Raccomandazioni e prospettive future Per affrontare le sfide emerse, il rapporto propone diverse raccomandazioni strategiche. Una delle principali riguarda il rafforzamento delle capacità di gestione delle crisi informatiche attraverso la revisione del Blueprint dell'UE per la risposta coordinata agli incidenti su larga scala. Inoltre, viene raccomandato di potenziare la formazione e il reskilling della forza lavoro europea nel settore della cybersecurity, con un'attenzione particolare alla riduzione del divario di competenze e all'inclusione di gruppi demografici sottorappresentati, come le donne e gli abitanti delle aree rurali. L'Unione Europea è chiamata anche a sviluppare una politica orizzontale avanzata per la sicurezza della supply chain, puntando su una valutazione coordinata del rischio e sulla promozione di iniziative di gestione delle vulnerabilità che coinvolgano sia il settore pubblico che quello privato. Il potenziamento delle capacità di condivisione delle informazioni tra Stati Membri e la creazione di meccanismi di allerta coordinati rappresentano altri punti chiave per garantire una resilienza informatica a livello europeo. Secondo il rapporto ENISA, è fondamentale garantire un supporto tecnico e finanziario alle autorità competenti nazionali e agli EUIBA (Enti, Uffici e Agenzie dell'UE) per assicurare una implementazione armonizzata, tempestiva e coerente del quadro normativo in continua evoluzione. Inoltre, la revisione del Blueprint europeo per le risposte agli incidenti su larga scala dovrebbe promuovere ulteriormente l'armonizzazione della cybersecurity a livello dell'UE e ottimizzare le capacità di risposta sia a livello nazionale che europeo. La Cybersecurity Skills Academy è uno dei pilastri principali per affrontare il divario di competenze nel settore, con l'obiettivo di creare un approccio coordinato a livello europeo per la formazione, la certificazione e la gestione delle competenze in cybersecurity. È necessario sviluppare programmi di formazione specifici che rispondano alle esigenze del mercato del lavoro e garantire la partecipazione di gruppi demografici sottorappresentati per colmare il divario di competenze e promuovere una forza lavoro inclusiva. Per migliorare la sicurezza della supply chain, il rapporto propone di intensificare le valutazioni dei rischi coordinati a livello europeo e di sviluppare un quadro politico avanzato che affronti le sfide specifiche legate alla cybersecurity sia nel settore pubblico che privato. L'adozione di politiche efficaci per la gestione delle vulnerabilità, una maggiore cooperazione tra gli Stati Membri e una migliore consapevolezza delle specificità settoriali sono tutte azioni ritenute essenziali per rafforzare la resilienza del sistema nel suo complesso.   Conclusioni Il rapporto ENISA 2024 offre uno spaccato complesso e articolato delle sfide che l'Unione Europea affronta nel panorama della cybersecurity, evidenziando non solo le minacce emergenti ma anche i significativi ritardi strutturali che limitano la resilienza complessiva degli Stati Membri. Questo quadro mette in evidenza una dinamica strategica cruciale:  la cybersecurity non è più soltanto una questione tecnica o di gestione del rischio aziendale, ma rappresenta una vera e propria infrastruttura di fiducia su cui si fonda l’intera economia digitale europea. Le disparità nella maturità delle capacità di cybersecurity tra gli Stati Membri evidenziano un pericolo strategico: un approccio disomogeneo rende l’UE nel suo complesso vulnerabile a minacce transnazionali che sfruttano gli anelli deboli della catena.  In un contesto interconnesso, il fallimento di un singolo Stato può avere effetti domino devastanti su settori critici come trasporti, energia e sanità , creando un contesto di insicurezza che mina la competitività dell’intero blocco. La sicurezza della supply chain, ad esempio, emerge come uno dei nodi più critici: l'insufficienza di politiche coordinate su scala europea è un limite che richiede un cambio di paradigma nella gestione delle interdipendenze digitali. Un aspetto chiave che spesso sfugge alla narrativa tradizionale è il ruolo della  geopolitica come amplificatore delle minacce informatiche . Gli attacchi cyber sponsorizzati da stati o da gruppi di hacktivisti legati a conflitti internazionali non sono solo strumenti di disgregazione locale, ma vere e proprie leve di destabilizzazione economica e sociale. Ciò sottolinea l’urgenza di integrare la sicurezza informatica nelle strategie di politica estera e di difesa comune europea. La cybersecurity diventa, quindi, un nuovo campo di sovranità condivisa, in cui  l’armonizzazione normativa e il rafforzamento delle capacità operative transfrontaliere non sono un’opzione ma una necessità. In Italia, il livello di maturità della cybersecurity inferiore alla media europea rappresenta un ulteriore campanello d’allarme, ma anche un’opportunità per ripensare il ruolo della sicurezza informatica come elemento strategico per lo sviluppo economico. L'elevata incidenza di attacchi su settori critici come sanità ed energia mette in luce una criticità sistemica:  il fallimento di adeguarsi alle nuove minacce non è solo una questione di protezione, ma rischia di bloccare il processo di innovazione e trasformazione digitale del Paese.  È evidente che l’Italia deve affrontare con maggiore determinazione la frammentazione delle competenze e la mancanza di una visione centralizzata per la gestione della crisi. La lentezza nell’adozione di processi di gestione delle vulnerabilità è un esempio emblematico di come le organizzazioni, sia pubbliche che private, spesso sottovalutino l’importanza della proattività rispetto alla reattività.  Investire nella formazione di competenze specifiche non è solo un fattore di mitigazione del rischio, ma un acceleratore per la crescita economica , capace di posizionare l’UE e i suoi Stati Membri come leader nel mercato globale delle tecnologie sicure. Tuttavia, questo richiede una visione politica che superi la logica del breve termine e riconosca il valore strategico delle risorse umane. Infine, un punto fondamentale che emerge dal rapporto riguarda la  consapevolezza digitale e la fiducia dei cittadini . La percezione del rischio cyber come un problema distante o esclusivamente tecnico è una delle più grandi debolezze della società europea. Cambiare questa mentalità attraverso strategie di comunicazione efficaci e programmi educativi capillari potrebbe generare un vantaggio competitivo inestimabile.  Un cittadino consapevole è un cittadino resiliente , capace non solo di difendersi dai rischi informatici, ma anche di contribuire attivamente a una cultura di sicurezza condivisa. In sintesi, la cybersecurity si pone oggi come il cuore della sovranità digitale europea. Non affrontare con determinazione le lacune strutturali e culturali emerse dal rapporto significherebbe non solo compromettere la resilienza interna, ma anche perdere un’opportunità unica per ridefinire il ruolo dell’UE come leader globale in un’epoca in cui la sicurezza digitale è sinonimo di progresso e stabilità.  L'Unione Europea deve agire con visione e coraggio, trasformando le vulnerabilità attuali in un progetto coeso e ambizioso di leadership cyber. Podcast: https://spotifycreators-web.app.link/e/jCYq677Q5Ob Fonte: https://www.enisa.europa.eu/publications/2024-report-on-the-state-of-the-cybersecurity-in-the-union

  • The Landscape of Cybersecurity in the European Union 2024

    The year 2024 has proven to be a crucial one for cybersecurity in the European Union, with the European Union Agency for Cybersecurity (ENISA) publishing its first report on the state of cybersecurity within the EU. This report, produced in collaboration with the NIS Cooperation Group and the European Commission, serves as an essential tool for understanding the current landscape and defining future strategies in cybersecurity. Cybersecurity in the European Union by the Numbers Throughout 2024, the European Union has seen a significant rise in cyber threats, driven by the acceleration of digitalization and increased social and economic connectivity. The report highlights a sharp increase in ransomware and Denial-of-Service (DoS/DDoS) attacks, which together account for over half of the incidents observed. Between July 2023 and June 2024, there was a peak in DDoS attacks, with a maximum of 600 events per month during this period. According to data from the ENISA report, between July 2023 and June 2024, the total number of reported cybersecurity incidents increased by 24% compared to the previous year. Of these, 32% were ransomware attacks, while DoS/DDoS attacks accounted for 29%. This increase is partly attributed to the unstable geopolitical climate, which has led to more attacks by hacktivist groups linked to international conflicts, such as the one in Ukraine and the conflict between Israel and Palestine. Supply chain attacks have also emerged as a concerning trend, with 14% of incidents involving digital suppliers directly. In terms of affected sectors, the report indicates that the public sector suffered 19% of the total attacks, while the healthcare sector saw a significant rise, with 15% of attacks targeting hospitals and healthcare infrastructure. This increase has been attributed to the vulnerability of legacy systems and the growing reliance on connected medical devices. The banking and financial sector was also targeted, accounting for 9% of reported incidents, mainly through ransomware attacks aimed at extorting money or sensitive information. Another significant data point concerns the average duration of disruptions caused by cyberattacks. In 2024, the average duration of disruptions rose to 17 hours, compared to 12 hours the previous year. This increase reflects the growing sophistication of attacks, and the difficulty organizations face in quickly restoring their systems. Incident response was often hindered by a lack of qualified personnel and deficiencies in incident response plans. Additionally, the ENISA report notes that 25% of organizations affected by cyberattacks suffered data compromise, with a substantial amount of sensitive data being exfiltrated or destroyed. Most of these attacks were carried out using known but unresolved vulnerabilities, highlighting the importance of vulnerability management and timely system updates. The report also shows that the maturity of cybersecurity across the various EU countries presents significant variability, with some countries demonstrating high preparedness and others still lagging. Cybersecurity Maturity and Capabilities Level The analysis of the level of maturity of cybersecurity capabilities across the Union shows an overall assessment of 62.65 out of 100. This value indicates a decent convergence among Member States, but with notable differences in areas related to the implementation of vulnerability disclosure policies and surveillance measures. According to the ENISA report, there are some areas with very high maturity scores, such as threat management and incident detection capabilities. However, other sectors show significant gaps. For instance, only 47% of Member States have adopted a nationally coordinated vulnerability disclosure process, while 55% are still in the definition phase. This indicates a considerable disparity in the ability to manage and disclose vulnerabilities among different Member States. Moreover, the adoption of supply chain security measures is still limited. Only 37% of Member States have adopted security management policies for the supply chain of essential and important entities. This figure is particularly worrying given the rise in supply chain attacks affecting critical digital service providers. The report also highlights that 52% of critical entities have implemented strict vulnerability management policies, but 13.5% of these have no visibility into the patching status of their IT assets. In the context of the private sector, the telecommunications, energy, and finance sectors are considered highly mature in terms of cybersecurity, while the health and rail transport sectors, although critical, show lower maturity levels. The situation is particularly problematic for the oil sector, which is in the early stages of its digitalization and cybersecurity maturity. Furthermore, the report indicates that the lack of specific skills is one of the main challenges for most Member States, with a growing gap in the availability of qualified personnel and the ability to respond to incidents. Awareness and Social Capacity One of the most concerning aspects emerging from the report is the cybersecurity awareness among EU citizens. According to Eurostat data reported by ENISA, 46% of Europeans lack sufficient digital skills, with significant disparity across different age groups. Only 35% of citizens aged between 55 and 74 have basic digital skills, compared to 70% of young adults. Additionally, the digital divide between urban and rural areas remains significant: 61% of urban residents have basic digital skills, while this percentage drops to 46% in rural areas. Although the gender gap in digital skills is decreasing, there is still a 3.4% difference between men and women. Another issue highlighted is the confidence of citizens in their ability to protect themselves from cyber risks, which dropped to 59% in 2024, compared to 71% in 2017. This decline could reflect a greater awareness of cyber risks and the increasing complexity of threats. Furthermore, only 22% of citizens are aware of the existence of an official channel for reporting cybercrimes, emphasizing the urgency of improving public communication and information. These data point to the need to launch targeted awareness and training initiatives, involving both young people and older adults. Particular attention should be given to rural areas, where the digital divide is more pronounced. Moreover, the availability of higher education programs in cybersecurity varies significantly between Member States, with some countries offering a wide variety of courses, while others still show significant lag in this area. Cybersecurity in Italy The 2024 report from the European Union Agency for Cybersecurity (ENISA) highlights significant gaps in Italy's cybersecurity preparedness, especially compared to the European average. Cybersecurity in Italy faces several challenges in terms of incident response capabilities and crisis preparedness. Only a limited number of large companies have security operations centers (SOCs), reflecting a lower maturity compared to other EU Member States. Additionally, supply chain risk management appears less developed in Italy, with a reduced percentage of companies implementing effective policies to manage these risks compared to European standards. Between July 2023 and June 2024, several significant cybersecurity incidents were recorded in Italy, primarily ransomware and Denial of Service (DDoS) attacks. These attacks often targeted the public and healthcare sectors, two particularly vulnerable areas. However, Italian public authorities have yet to widely implement structured incident response plans, showing a level of preparedness below the EU average. Regarding vulnerability management, many Italian organizations are still not fully able to cover all critical resources, nor are they able to apply patches promptly. Risk management, especially concerning known vulnerabilities, remains an area for improvement. These limitations are particularly relevant for organizations with extensive infrastructures and operating systems, which struggle to keep all technological assets updated and secure. Italian organizations also lag the European average in participating in national or international cybersecurity exercises. This implies inadequate crisis management preparedness, with few organizations regularly testing their response plans through simulations and exercises. This reduces their ability to react to potential large-scale attacks and threats. In terms of training and skills, large Italian companies demonstrate a greater focus on cybersecurity, investing more frequently in employee training. However, small and medium-sized enterprises (SMEs) are less likely to provide specific cybersecurity training, indicating limited maturity in this area. There is a clear difficulty in finding professionals with cybersecurity skills, reflected in the lack of recent hires in this field, contributing to the persistent skills gap relative to real needs. This situation underscores the need to improve security infrastructure, increase staff training, and promote active participation in European-level exercises to enhance response capabilities and adaptability to increasingly sophisticated threats. Recommendations and Future Prospects To address the challenges highlighted, the report proposes several strategic recommendations. One of the main recommendations concerns strengthening the capabilities to manage cyber crises through a review of the EU Blueprint for coordinated response to large-scale incidents. Moreover, it is recommended to enhance training and reskilling of the European workforce in cybersecurity, with a particular focus on reducing the skills gap and including underrepresented demographic groups, such as women and rural residents. The European Union is also called upon to develop an advanced horizontal policy for supply chain security, focusing on coordinated risk assessment and promoting vulnerability management initiatives involving both the public and private sectors. Enhancing information-sharing capabilities among Member States and creating coordinated alert mechanisms are other key points for ensuring cybersecurity resilience across Europe. According to the ENISA report, it is crucial to ensure technical and financial support to competent national authorities and EUIBA (EU Institutions, Bodies, and Agencies) to ensure harmonized, timely, and consistent implementation of the ever-evolving regulatory framework. Additionally, the review of the European Blueprint for large-scale incident responses should further promote the harmonization of cybersecurity at the EU level and optimize response capabilities at both national and European levels. The Cybersecurity Skills Academy is one of the main pillars for addressing the skills gap in the sector, aiming to create a coordinated European approach to cybersecurity training, certification, and skills management. It is necessary to develop specific training programs that meet the needs of the labor market and ensure the participation of underrepresented demographic groups to bridge the skills gap and promote an inclusive workforce. To improve supply chain security, the report proposes intensifying coordinated risk assessments at the European level and developing an advanced policy framework that addresses the specific challenges related to cybersecurity in both the public and private sectors. The adoption of effective vulnerability management policies, greater cooperation among Member States, and better awareness of sector-specific challenges are all considered essential actions to strengthen the overall resilience of the system. Conclusions The 2024 ENISA report offers a complex and detailed picture of the challenges the European Union faces in the cybersecurity landscape, highlighting not only emerging threats but also significant structural delays that limit the overall resilience of Member States. This scenario highlights a crucial strategic dynamic: cybersecurity is no longer just a technical or corporate risk management issue but represents a true trust infrastructure on which the entire European digital economy is founded. Disparities in the maturity of cybersecurity capabilities among Member States point to a strategic danger: a disjointed approach makes the EU vulnerable to transnational threats that exploit weak links in the chain. In an interconnected context, the failure of a single State can have devastating domino effects on critical sectors such as transport, energy, and healthcare, creating an insecure environment that undermines the competitiveness of the entire bloc. Supply chain security, for example, emerges as one of the most critical issues: the lack of coordinated policies on a European scale is a limitation that requires a paradigm shift in managing digital interdependencies. A key aspect often overlooked in traditional narratives is the role of geopolitics as an amplifier of cyber threats. State-sponsored cyberattacks or those by hacktivist groups linked to international conflicts are not just local disruption tools but genuine levers of economic and social destabilization. This underscores the urgency of integrating cybersecurity into common European foreign and defense strategies. Cybersecurity thus becomes a new field of shared sovereignty, where regulatory harmonization and the strengthening of cross-border operational capabilities are not optional but a necessity. In Italy, the lower maturity level of cybersecurity compared to the European average is another wake-up call, but also an opportunity to rethink the role of cybersecurity as a strategic element for economic development. The high incidence of attacks on critical sectors such as healthcare and energy reveal a systemic vulnerability: failing to adapt to new threats is not just a matter of protection but risks halting the country’s process of digital transformation and innovation. It is evident that Italy must more determinedly address the fragmentation of skills and the lack of a centralized vision for crisis management. The slow adoption of vulnerability management processes is an emblematic example of how both public and private organizations often underestimate the importance of proactivity over reactivity. Investing in specific skills training is not only a risk mitigation factor but also an economic growth accelerator, capable of positioning the EU and its Member States as leaders in the global secure technology market. However, this requires a political vision that goes beyond short-term logic and recognizes the strategic value of human resources. Finally, a fundamental point emerging from the report concerns digital awareness and citizen trust. The perception of cyber risk as a distant or purely technical issue is one of the greatest weaknesses of European society. Changing this mindset through effective communication strategies and widespread educational programs could generate an invaluable competitive advantage. An aware citizen is a resilient citizen, capable not only of defending against cyber risks but also of actively contributing to a shared security culture. In summary, cybersecurity today stands at the heart of European digital sovereignty. Failing to address the structural and cultural gaps highlighted in the report with determination would not only compromise internal resilience but also forfeit a unique opportunity to redefine the EU’s role as a global leader in an era where digital security is synonymous with progress and stability. The European Union must act with vision and courage, transforming current vulnerabilities into a cohesive and ambitious project of cyber leadership. Podcast: https://spotifycreators-web.app.link/e/FiptEb3Q5Ob Source:   https://www.enisa.europa.eu/publications/2024-report-on-the-state-of-the-cybersecurity-in-the-union

  • Introduction to Machine Learning

    Machine Learning represents one of the most debated topics in the contemporary technological landscape. Its technical complexity, however, can make it difficult to understand for those without specific training. In this article, the goal will be to make Machine Learning more comprehensible, even though it will inevitably involve technical terms and concepts. What is Machine Learning? Machine Learning is a field of artificial intelligence (AI) that allows computers to learn from data and experiences without being explicitly programmed. In simpler terms, Machine Learning enables a machine to improve its performance on a given task by analyzing data, learning from past successes and errors. Imagine you need to teach a computer to recognize images of cats and dogs. Instead of explicitly programming every characteristic of a cat or a dog, we provide a large dataset of pre-labeled images (for example, labeled as "cat" or "dog"), and the system learns to identify animals autonomously based on this information. This approach is like how we humans learn: we learn by observing examples and making attempts. Machine Learning is not limited to image recognition but is used in many other areas of our daily lives. Every time you receive movie suggestions on Netflix, when your phone recognizes your voice, or when your email manager filters spam, you are interacting with Machine Learning models. These systems can recognize patterns, make predictions, and adapt based on the data they receive. We can divide Machine Learning into several main categories, each with different objectives and methodologies. Among these categories are: • Supervised Learning: where the machine learns from labeled data. For example, the system receives images of dogs and cats already classified and learns to distinguish between the two animals autonomously. • Unsupervised Learning: here, the machine works with unlabeled data and tries autonomously to find patterns or structures. For example, it might discover that there are groups of customers with similar purchasing behaviors without knowing in advance who these customers are. • Reinforcement Learning: a type of learning where an agent learns by performing actions in an environment to maximize a reward. This type of learning is used, for example, in video games and autonomous vehicles. • Ensemble Methods: which combine different algorithms to improve performance compared to using a single model. The idea is that different approaches can compensate for each other's weaknesses. One of the most interesting aspects of Machine Learning is its ability to continuously improve. Thanks to the vast amount of data generated every day, machines can refine their models more and more, making predictions and decisions increasingly accurate. In this way, Machine Learning presents itself as a fundamental tool for tackling complex challenges, such as diagnosing diseases, managing energy resources, or personalizing the user experience on digital services. Machine Learning is transforming the world, but it is important to remember that these algorithms work thanks to the data they receive and the objectives that humans provide. This means that behind every model are human choices that influence how systems learn and make decisions. Therefore, it is essential that the development and application of these systems be guided by ethical principles and a critical view of their impact on society. Supervised Learning Supervised Learning is one of the most common forms of Machine Learning. In this mode, the machine is supervised by a "teacher" who provides it with already labeled examples. For instance, if we are trying to train an algorithm to recognize images of dogs and cats, we will provide a series of images already classified as "dog" or "cat." The goal is to teach the machine to autonomously recognize these categories in new images. One of the most significant aspects of supervised learning is its similarity to how humans learn through direct teaching. When a child learns to distinguish between a dog and a cat, they are guided by an adult who points out the animals and explains the distinctive characteristics of each. Similarly, in supervised learning, the machine learns through examples provided by a "teacher" in the form of labeled data. There are two main categories of problems that supervised learning can solve: Classification: The goal of classification is to assign a specific category to an input. For example, recognizing whether an email is spam or not is a typical classification problem. Classification models are also used for facial recognition, diagnosing medical conditions based on radiographic images, and even for detecting fraud in online payments. Some of the most common classification algorithms are Naive Bayes, Decision Tree, Support Vector Machine (SVM), and K-Nearest Neighbors (k-NN). Regression: Unlike classification, which assigns a category, regression deals with predicting continuous values. An example of a regression problem is estimating the price of a house based on factors such as area, the number of rooms, and location. Common algorithms for regression problems include linear regression and polynomial regression. Another example is forecasting energy consumption over time, where the model tries to determine future trends based on historical data. Supervised learning is widely used in industry due to its effectiveness and ability to produce accurate models. For example, on e-commerce platforms, recommendation systems suggest products similar to those already purchased or viewed by users. This is possible thanks to supervised models that analyze past user behavior and identify preference patterns. Another common example concerns healthcare systems, where supervised learning models help predict the risk of diseases based on a patient's medical history. These systems can help identify critical conditions early, allowing for timely interventions. A key concept in supervised learning is the training dataset. This dataset contains labeled examples used to train the model. However, for the model to be effective in the real world, a test dataset is also needed, which contains new examples not seen during training. The test dataset is used to evaluate the model's performance, verifying whether it has truly learned the task for which it was trained and whether it can generalize correctly to new data. Finally, overfitting is a common problem in supervised learning. It occurs when the model "learns too well" the training dataset, adapting even to noise and irrelevant details, thus losing its ability to generalize to new data. To mitigate this problem, techniques such as regularization or cross-validation are used, which help create more robust models that are less susceptible to errors. Unsupervised Learning Unsupervised Learning is distinguished by the fact that it does not require labeled data. Instead of receiving examples with predefined answers, the machine is left free to explore the data and find patterns or hidden relationships autonomously. This approach is particularly useful when labeled data is not available or when one wants to discover intrinsic structures in the data itself. A classic example of unsupervised learning is clustering, which involves dividing a dataset into groups of similar elements. Clustering is used in a wide range of applications, such as marketing, where it allows for the identification of customer groups with similar purchasing behaviors, enabling the development of targeted strategies for each group. Another example is image analysis, where clustering algorithms are used to compress images by grouping pixels with similar colors, thereby reducing the amount of information needed to represent the image. Among the most well-known clustering algorithms is K-Means, which divides the data into a predefined number of groups by trying to minimize the distance between points within each group and their "centroid." Another important algorithm is DBSCAN, which allows for the identification of clusters of arbitrary shapes and the detection of anomalies or outliers, that is, points that do not belong to any cluster. For example, this is very useful for detecting anomalous behaviors in financial transactions, such as potential fraud. Another important technique in unsupervised learning is dimensionality reduction, which involves reducing the number of variables (or "dimensions") in the dataset while maintaining as much relevant information as possible. This approach is useful for visualizing complex data or simplifying overly intricate models. For example, Principal Component Analysis (PCA) is a technique used to reduce the dimensionality of data, transforming them into a set of principal components that explain most of the variability present. This technique is used in applications ranging from data compression to visualization of complex datasets. A practical use of unsupervised learning is also in anomaly detection. This method allows for the identification of unusual behaviors in a dataset. For instance, in a network of sensors monitoring the temperature of an industrial plant, unsupervised learning can be used to identify anomalies, such as sudden temperature changes that could indicate a technical problem. Unsupervised learning is particularly useful for exploratory data analysis and for discovering hidden patterns that might not be immediately evident. However, because it lacks explicit guidance, the results of unsupervised learning must be interpreted with caution, and often require in-depth analysis by domain experts to be useful. Reinforcement Learning Reinforcement Learning is often described as the most similar to how humans learn. Unlike other types of learning, where the model is trained with labeled data or is left to find patterns in the data, reinforcement learning is based on interaction with an environment. The agent, or algorithm, performs actions and receives rewards or penalties based on the results obtained. The goal is to maximize the total reward in the long term, learning which actions lead to the best outcomes. An intuitive example is that of a robot learning to walk. Initially, the robot makes random movements; if a movement brings it closer to the goal (for example, staying balanced or moving forward in a straight line), it receives a reward. If it falls or moves away from the goal, it receives a penalty. Through this trial-and-error process, the robot gradually learns which sequence of movements is optimal for achieving its goal. One of the best-known examples of reinforcement learning is Google's DeepMind AlphaGo, a system that managed to defeat the best human players in the game of Go. This remarkable achievement was made possible by combining several artificial intelligence techniques, including supervised learning and reinforcement learning. AlphaGo initially analyzed thousands of games played by human experts to learn patterns and strategies, then refined its abilities by playing millions of games against itself. This combination of approaches allowed the system to develop advanced strategies, gradually adapting to complex situations. Go, with its extraordinary complexity and a few combinations that exceeds that of atoms in the universe, is a perfect example to show the effectiveness of these methods, as it is impossible to win by merely memorizing moves. Reinforcement learning is also applied in autonomous vehicles, where the agent must make real-time decisions, such as stopping at a red light, avoiding obstacles, or yielding to pedestrians. Before being tested on real roads, these vehicles are trained in simulated environments, where they can make mistakes without real consequences and learn to minimize risks. There are two main approaches to reinforcement learning: Model-Based and Model-Free. In the Model-Based approach, the agent builds an internal representation of the environment, similar to a map, which it uses to plan its actions. This method can be useful in stable and predictable environments, but becomes ineffective in complex and dynamic environments, where it is not possible to know every variable in advance. The Model-Free approach, on the other hand, is based on directly learning the best actions without attempting to build a complete representation of the environment. An example of this approach is the Q-learning algorithm, which allows the agent to learn the quality of actions in different situations through a trial-and-error process. The Deep Q-Network (DQN) is an advanced version of Q-learning that uses deep neural networks to tackle complex problems with very large action spaces. This type of algorithm has been used, for example, to develop artificial intelligences capable of playing classic video games like those for Atari, learning strategies that were not explicitly programmed but evolved through interaction with the environment. An intriguing aspect of reinforcement learning is its application in contexts where the environment is highly dynamic and decisions must be made in real-time. For example, in financial markets, reinforcement learning algorithms can be used to develop trading strategies, learning to buy and sell stocks in response to market changes to maximize profits. Reinforcement learning is also the foundation of many emerging technologies related to robotics and industrial automation. Robots learning to manipulate objects in complex environments, drones learning to fly while avoiding obstacles, and even autonomous vacuum cleaners optimizing their cleaning paths are all examples of how this technology can be applied to improve machine efficiency and autonomy. However, reinforcement learning is not without challenges. One of the main problems is the exploration-exploitation trade-off: the agent must balance exploring new actions to find better solutions with exploiting known actions to maximize reward. Another issue is the credit assignment problem, that is, the difficulty of determining which of the many actions taken led to the final reward. These aspects make reinforcement learning an extremely dynamic and evolving field, with many open challenges yet to be solved. Ensemble Methods Ensemble Methods represent a powerful and advanced approach within Machine Learning. The idea behind ensemble methods is to combine several learning models to obtain a more robust and accurate model compared to using a single algorithm. Each model within the ensemble contributes to improving the quality of predictions, correcting each other's errors, and reducing the probability of making significant mistakes. A common example of an ensemble method is the Random Forest, which is a collection of decision trees. In this approach, each tree is trained on a different subset of the available data, and the final prediction is made by combining the results of all the trees. The advantage of the Random Forest is that it reduces model variance, improving the ability to generalize to unseen data. Another widespread ensemble method is Bagging (Bootstrap Aggregating). In bagging, multiple models of the same type are generated by training them on different samples of the dataset, obtained through resampling techniques. The final prediction is then calculated by averaging the predictions (in the case of regression) or by a majority vote (in the case of classification). Bagging is particularly effective in reducing the risk of overfitting, especially for algorithms like decision trees that tend to overfit the training data. Boosting is another powerful ensemble method, but unlike bagging, models are trained sequentially so that each new model focuses on the errors made by previous models. In this way, boosting seeks to progressively improve prediction quality, reducing errors at each iteration. Among the most well-known boosting algorithms are AdaBoost, Gradient Boosting, and XGBoost, which are widely used in data science competitions for their ability to achieve extremely accurate predictions. Stacking is another ensemble method in which several base models (also called "base learners") are combined using a higher-level model, called a "meta-model." In practice, the base learners make their predictions on the data, and these predictions are then used as input to train the meta-model, which provides the final prediction. The advantage of stacking is that it allows the strengths of different algorithms to be exploited, obtaining a model that can better adapt to the complexities of the data. The effectiveness of ensemble methods derives from their ability to reduce both variance and bias in Machine Learning models. Variance is reduced thanks to the use of multiple models trained on different data samples, while bias is reduced thanks to the combination of different algorithms that, by working together, can cover each other's weaknesses. However, a potential disadvantage of ensemble methods is that they can be computationally expensive, requiring high computing power and longer training times. Ensemble methods are used in a wide range of applications, from image analysis to natural language processing to financial risk prediction. For example, in computer vision systems, an ensemble of models can be used to improve accuracy in object recognition, while in recommendation systems, such as those used by Netflix or Amazon, ensemble methods help provide more accurate personalized suggestions. Neural Networks and Deep Learning Neural networks are the heart of Deep Learning, a branch of Machine Learning that has gained popularity in recent years thanks to technological advancements and the increased availability of computational power. A neural network consists of layers of artificial "neurons" that work together to analyze and learn from data. This approach is particularly useful for image recognition, natural language processing, and many other complex fields. Neural networks are inspired by the structure of the human brain, in which numerous neurons are interconnected and communicate with each other. Similarly, in artificial neural networks, neurons are connected by weights, which represent the strength of the connection between two neurons. During network training, these weights are adjusted to improve the network's ability to make accurate predictions. Backpropagation, or error backpropagation, is a key method used to train neural networks. It is an algorithm that adjusts the weights of neurons so that the prediction error is minimized, updating each connection proportionally to the error made. This process is repeated over millions of examples until the network can make predictions with high accuracy. Convolutional Networks (CNN) Convolutional Neural Networks, or CNNs, are primarily used for image analysis. CNNs consist of several layers that analyze images by dividing them into small blocks and searching for features such as lines, edges, and textures. Each layer of the network can recognize increasingly complex features, progressing from basic elements like edges to recognizing complete structures like a face. Thanks to this structure, CNNs can recognize objects and patterns in images, making them ideal for applications like facial recognition, medical diagnostics, and handwritten character recognition. A practical example of CNN is image recognition on platforms like Google Photos or Facebook, where neural networks are used to automatically identify people and objects in photos. This process is made possible by the CNNs' ability to learn from visual features and generalize this knowledge to new images never seen before. Recurrent Networks (RNN) Recurrent Neural Networks, or RNNs, are ideal for handling sequential data, such as language and voice. Unlike CNNs, RNNs have a kind of "internal memory" that allows them to keep track of previous information within a sequence of data. This makes them particularly suitable for applications like automatic translation, speech recognition, and text generation. A variant of RNNs is LSTM (Long Short-Term Memory), which improves the ability of recurrent networks to remember long-term information, thus solving some of the typical problems of standard RNNs, such as difficulty in handling long-term dependencies. LSTMs are used, for instance, in voice assistants like Apple's Siri or Amazon's Alexa to understand the context of user requests and respond more accurately. RNNs also find application in text generation, as in language models that can complete sentences or even autonomously write short articles. A concrete example of using RNNs is the automatic generation of video subtitles, where the network must not only understand the language but also adapt to the rhythm and pauses of speech. Generative Adversarial Networks (GAN) Another neural network architecture that has gained great attention in recent years is Generative Adversarial Networks, or GANs. GANs consist of two neural networks competing against each other: a generative network, which tries to create fake data similar to real data, and a discriminative network, which tries to distinguish between real and fake data. This competition process improves both networks, leading to the generation of extremely realistic synthetic data. GANs are used for a variety of creative applications, such as generating images of human faces that never existed, creating digital artworks, and even improving the quality of blurred images. For example, the DeepArt project uses GANs to transform ordinary photos into works of art that imitate the style of famous artists like Van Gogh or Picasso. The Importance of Deep Learning Deep Learning represents a significant evolution compared to traditional neural networks, thanks to its ability to work with deep networks, that is, composed of many layers of neurons. This approach has led to extraordinary results in fields like computer vision and natural language processing, overcoming the limitations of traditional Machine Learning approaches. One of the main reasons for Deep Learning's success is the availability of large amounts of data (the so-called Big Data) and increasingly powerful hardware, such as GPUs (Graphics Processing Units), which allow very complex neural networks to be trained in reasonable times. Moreover, software libraries like TensorFlow, PyTorch, and Keras have made developing Deep Learning models more accessible even for those without specific training in computer engineering. Deep Learning has paved the way for innovations that only a few years ago seemed like science fiction, such as autonomous vehicles, automated medical diagnostics, and human-machine interfaces that understand natural language. However, it is important to emphasize that the use of these technologies must be accompanied by ethical reflection, as neural networks learn from the data they receive, and biased or partial data can lead to erroneous or discriminatory decisions. Conclusions Machine Learning represents a profound transformation in contemporary technological paradigms, but it is equally crucial to understand the strategic and cultural implications that derive from it. The apparent simplicity with which models learn from data masks a complex reality: every phase of the process, from data collection to algorithm selection, is intrinsically shaped by human choices. This underscores the need for a more critical and conscious approach by companies wanting to integrate these technologies. One of the most relevant aspects is the concept of responsibility in the design and implementation of Machine Learning models. While the dominant narrative focuses on technical potential, the role of the objectives and constraints imposed by developers is often overlooked. These apparently neutral algorithms can amplify pre-existing biases in the data, with real effects on decisions affecting people and organizations. Therefore, companies cannot afford to consider Machine Learning as a simple "magic box" to improve performance: they must take on the ethical and operational responsibility of how these models are developed and used. Another crucial point is the dynamism of Machine Learning, which sets it apart from traditional programming approaches. The ability of models to learn from data in real time and adapt to changes makes them powerful but also unpredictable tools. For companies, this implies the need for continuous monitoring and constant evaluation of model performance. In critical contexts, such as finance or healthcare, the risk of model drift (i.e., the degradation of their performance over time) can have devastating consequences. Investing in model monitoring infrastructures is not only a preventive measure but a strategy to maintain a competitive edge. Moreover, Machine Learning is redefining how companies perceive and exploit data. It is no longer just about collecting large amounts of information but extracting strategic value by identifying patterns that would otherwise remain hidden. This requires cross-disciplinary skills that combine technical knowledge with a deep understanding of the business environment. Companies that invest in staff training to understand the functioning and implications of Machine Learning, even at non-technical levels, are better positioned to exploit its potential. Another key element is the role of creativity in applying Machine Learning. While standard solutions can improve efficiency and accuracy, true innovation arises from the ability to imagine unconventional applications. Consider, for example, the use of GANs to create realistic synthetic content: if used with strategic vision, they can open new markets and redefine entire industries, such as fashion, design, or entertainment. However, without adequate governance, these technologies risk being used irresponsibly, undermining public trust. Finally, the convergence between Machine Learning, ethics, and sustainability will be crucial for the future of businesses. Consumers and business partners are increasingly sensitive to the social and environmental implications of technologies. Companies that can demonstrate transparency and commitment to mitigating the risks associated with Machine Learning, such as biases or ecological impacts resulting from intensive computational resource use, will not only protect their reputation but attract investments and retain customers. In summary, Machine Learning is not just a technical tool but a strategic lever that requires a systemic vision. Companies must go beyond initial enthusiasm and pragmatically address the challenges associated with its implementation.   Podcast: https://spotifycreators-web.app.link/e/yXeyYFg94Ob

  • AI in Italy: From Benefits for Large Companies to Challenges for SMEs

    In recent years, Artificial Intelligence (AI) has gained a prominent role in the Italian economic and social landscape. According to data provided by the Artificial Intelligence Observatory of the Politecnico di Milano, the AI market in Italy reached 760 million euros in 2023, with a 52% growth compared to the previous year. This figure highlights the acceleration of initiatives in this sector, particularly among large companies, which account for 90% of investments. However, the adoption of AI is still uneven, with small and medium-sized enterprises (SMEs) struggling to keep up, contributing only 18% of currently implemented AI projects. AI Adoption and Use in Italy: A Fragmented Picture One of the most significant aspects that emerges from the study is the marked disparity in AI adoption between different types of companies. Large companies are the ones investing the most and implementing AI solutions, while SMEs, due to economic and organizational constraints, are slower in their digitalization journey. Six out of ten large companies have already launched at least one AI project, compared to just 18% of SMEs. Generative AI, although representing only 5% of the market (38 million euros), is beginning to find significant applications, especially in areas such as data processing and predictive modeling. This disparity in adoption is also reflected in the strategies and projects undertaken by companies. The study shows that 22% of large companies already have a clear AI strategy, while an additional 13% are beginning to implement one. On the contrary, many SMEs are still in the exploratory phase or do not consider AI a strategic priority. Companies in the industry/manufacturing macro-sector are those most frequently activating AI strategies or projects, with 46% already active in this area, compared to 39% in other sectors. Another critical element is the available economic resources. Large companies have greater financial capacity, allowing them to allocate significant funds towards acquiring new technologies and developing AI solutions. As a result, 90% of total AI investments in Italy are made by large companies, leaving a reduced share for SMEs and Public Administration. Moreover, SMEs are often limited by a lack of internal expertise, which makes it challenging to adopt advanced technologies such as AI without significant external support. Geographic distribution plays an important role in the uneven adoption. Thirty-eight percent of the companies interviewed are based in the northwest of the country, while only 14% are located in the center and 15% in the south. This geographic gap further contributes to a non-uniform distribution of technological innovation and AI-related opportunities, with the more industrialized areas benefiting from greater resources and skills. The lack of training and specific skills represents another obstacle to the widespread adoption of AI. Forty-seven percent of Italian companies are investing in internal personnel training to overcome this barrier, but only 16% are actively hiring new specialized professionals. Companies in the industrial sector appear slightly ahead compared to other sectors in terms of acquiring new skills and technologies, with 74% of manufacturing companies considering it necessary to upgrade their capabilities to make the most of AI's potential. In conclusion, the picture that emerges is one of a two-speed adoption, where large companies manage to benefit more from the opportunities offered by AI, while SMEs continue to struggle with economic, organizational, and training barriers. To bridge this gap, structured support is needed, including economic incentives, training programs, and collaboration initiatives between large companies and SMEs. Only in this way can a more equitable and widespread adoption of AI technologies be ensured within the Italian business fabric. Main Areas of AI Application The applications of AI in Italian companies are diverse, with a particular emphasis on process automation and data analysis. According to the KPMG-IPSOS survey, 46% of companies are using AI to automate processes to improve efficiency and productivity, while 39% leverage data processing models to foster product innovation. Another 37% of the companies surveyed use AI for sales data analysis and to develop predictive models that support strategic planning activities. In addition to these areas, other interesting applications of AI are emerging, such as customer data analysis to create personalized marketing campaigns, an aspect mentioned by 26% of companies. These solutions make it possible to develop more effective and targeted marketing strategies, increasing conversion rates and improving return on investment. Moreover, 23% of companies have implemented chatbots that can interact with customers, answering questions and providing information in real time. This application not only improves customer service but also reduces the operational costs associated with managing support centers. Analyzing transaction patterns to identify suspicious activity and potential fraud represents another important area of application, chosen by 21% of companies. AI's data processing capabilities allow for the detection of anomalies and suspicious behaviors more quickly and accurately than traditional analysis methods, thereby contributing to corporate security and the prevention of financial fraud. Another sector in which AI is applied is systems for voice, image, and video recognition, adopted by 11% of companies to enhance security. These tools are used in areas such as access control, video surveillance, and monitoring of production activities, contributing to improved overall security and operational efficiency. AI technologies are seen to enhance human cognitive activities, with an impact that goes beyond simple automation. Indeed, AI is employed to support strategic decision-making (30%) and improve customer service (28%). The ability to process large amounts of data quickly and accurately allows managers to make more informed decisions, thereby improving the quality of business strategy and adaptation to market changes. These applications demonstrate that AI is not just a tool for improving operational efficiency but has the potential to transform how companies interact with customers, develop products, and manage their internal operations. Integrating AI into various corporate areas is enabling Italian companies to create new business models centered on innovation and personalized offerings. Challenges for AI Adoption Despite the enthusiasm surrounding AI adoption, there are numerous challenges that companies must face. One of the main challenges is cultural transformation, indicated as the greatest obstacle by 37% of the companies surveyed. In addition, the need to upgrade employee skills is a significant problem for 34% of companies, followed by the implementation of new production and operational processes (33%). Only 22% of companies perceive implementation costs as a crucial problem, suggesting that the main difficulties lie more in managing change than in mere financial aspects. The challenges related to AI introduction are not limited to the technological aspect but also involve the ability to manage cultural transition and organizational change. Finding the right combination of human capital and technological capital is identified by 27% of companies as a significant challenge. This balance is crucial for fully exploiting AI's potential without alienating workers. Additionally, compliance with regulatory and legislative implications is perceived as an obstacle by 13% of companies, highlighting the need to adhere to an ever-evolving legal framework that often imposes stringent constraints on AI use. An important aspect is the need for clear and structured governance for AI adoption. Indeed, 37% of companies believe that defined governance models are necessary to ensure that AI is developed and used responsibly and reliably. Internal staff training, indicated by 59% of companies, emerges as the most relevant factor for overcoming employee resistance and fostering AI acceptance. Only 19% of companies foresee significant difficulties in gaining employee acceptance, while 57% believe there will be no significant obstacles, suggesting a certain optimism regarding the ability to integrate AI without generating strong resistance. The issue of skills also plays a crucial role in managing challenges. Employee training and retraining are seen as indispensable tools for tackling change: 47% of companies are investing in staff training to develop AI-related skills, while only 16% are hiring new specialized figures. However, the standardization of skills, due to the adoption of generative AI technologies, could lead to a reduction in differences between high- and low-performing workers, making the workforce more homogeneous but less differentiated in distinctive abilities. In conclusion, the challenges for AI adoption are manifold and require an integrated approach that combines technological, training, and organizational aspects. Companies must not only invest in technological infrastructures but also develop a change management plan that involves staff and creates a corporate culture ready to embrace innovation. This path, although complex, is a necessity to remain competitive in an increasingly technology-driven economic environment. Benefits and Future Prospects The benefits of adopting artificial intelligence in Italian companies go beyond mere productivity gains and cost reductions. According to the study, three out of four companies believe that AI can significantly improve the internal economic situation of the company. This figure rises to 81% among companies that have already activated AI projects, demonstrating a high degree of confidence in the long-term benefits that these technologies can bring. The positive economic impact of AI is particularly felt in large companies, where 77% of respondents expect improvements, compared to 69% of SMEs. AI adoption is also profoundly influencing corporate leadership models. According to 95% of respondents, AI will allow managers to assume a more strategic role, freeing them from operational and routine tasks and allowing them to focus on decisions with a greater impact on the company. This change, which leads to a redistribution of responsibilities within the organization, can contribute to improving overall efficiency and making the company more agile and responsive to market dynamics. Another benefit concerns AI's ability to foster a more collaborative and innovation-centered work environment. AI technologies are indeed seen not just as automation tools but as "augmentation" tools, technologies that enhance human capabilities. This vision is particularly important in a Human Innovation perspective, where people remain at the center of the transformation process, and AI becomes a partner to enhance human contributions within the organization. In terms of innovation, only 13% of companies have reported AI's ability to innovate products and services as a main benefit, suggesting that the full potential of AI in this area is not yet fully exploited. However, 23% of companies indicated an improvement in acquiring and managing new customers as an important result of adopting AI solutions. This shows that AI can also play a significant role in business growth, not only by optimizing internal processes but also by directly contributing to improving market performance. Furthermore, AI is changing the competitive landscape, promoting the adoption of new, more scalable, and data-oriented business models. AI-driven companies tend to break down traditional silos, becoming more integrated and capable of continuously collecting, analyzing, and using data to improve decision-making processes and service quality. This approach not only improves internal efficiency but also enables companies to be more agile in adapting to market changes and to gain a sustainable competitive advantage. From a skills perspective, AI adoption requires a significant investment in employee training. However, it is not just about developing technical skills but also about promoting soft skills such as problem-solving and critical thinking, which are essential for fully exploiting AI's potential. The ability to adapt and understand the interaction between technology and human processes is crucial for long-term success. Companies are therefore promoting specific training programs to ensure that staff are prepared to manage these new technologies and integrate them effectively into business processes. Impact on Business Models AI adoption is also having a significant impact on business models. Sixty-four percent of the companies interviewed believe that AI will change their business model, with particularly relevant effects in production (indicated by 59% of respondents), sales (32%), and personnel organization (29%). This transformation will require a rethinking of business strategies and operating models, including greater collaboration between functions and the adoption of more agile ways of working open to innovation. According to the KPMG-IPSOS report, AI is becoming the core of companies' operating models, representing a true paradigm shift that changes the way of doing business. AI is no longer considered just a tool to improve efficiency or reduce costs but has become the universal engine that drives business transformation. This change implies a break from traditional silos and a reorganization towards greater scalability and flexibility. For example, AI-driven companies like MyBank, Amazon, and Zara have shown that integrating AI into operational processes not only improves service quality but also allows for the creation of a new value creation model, based on continuous learning from data collected in real-time. This transformation goes beyond simple technological application, as it redesigns how companies interact with markets and consumers. According to 95% of respondents, the introduction of AI will lead to a more strategic role for managers, freeing them from more operational tasks and allowing them to focus on creating new growth opportunities. AI indeed enables a better understanding of customer needs and supports the adoption of new business models oriented towards open innovation, in which collaboration with external partners and the collection of real-time insights become central to business success. Moreover, AI pushes companies to rethink their alliance ecosystem. The creation of strategic partnerships, even with companies from different sectors, represents one of the main opportunities for growth and differentiation from competitors. An AI-driven company can indeed offer more personalized products and services, increasing overall efficiency and leveraging an extended ecosystem of skills and resources. Conclusions The adoption of artificial intelligence represents a turning point for Italian companies, but only conscious leadership can ensure its full potential is harnessed. Strategic AI management requires an integrated vision that goes beyond mere technological fascination, shifting the focus from technology to the concrete goal of solving business problems. AI is not an end but a means to enhance organizations' decision-making and operational capabilities. However, many initiatives fail due to a disconnect between business objectives and technical design, often exacerbated by inadequate infrastructure and poor-quality data. For Italian SMEs, which struggle to keep up with large companies, AI integration must not be seen as a luxury but as a competitive necessity. This requires targeted public incentives and a collaborative culture between large companies and SMEs to share skills and resources. AI technology adoption can be transformative, but only if continuous training and the building of robust digital infrastructures are invested in. A critical area is data management. The quality and relevance of corporate data are not just technical issues but strategic decisions. Organizations must treat data as an asset, investing in data engineering and infrastructure capable of supporting scalable AI projects. Companies that do not adopt this vision risk losing competitiveness, remaining trapped in cycles of failure due to structural deficiencies. Corporate leadership must also address the cultural change necessary to integrate AI into decision-making processes. AI democratization requires inclusive governance that balances technological innovation and human capital. This means creating collaborative environments where technicians and executives work together to translate strategic needs into practical technical solutions. Only leadership capable of listening and learning can build trust in AI and harness its potential without falling into unrealistic expectations. Finally, it is crucial to shift the focus from immediate AI applications to its strategic role as a catalyst for new business models. AI offers the opportunity to redesign business processes for greater scalability, agility, and personalized offerings. This does not only imply adopting technology but building a new business ecosystem capable of generating value through continuous learning from data. Podcast: https://spotifycreators-web.app.link/e/RJW1VHHI3Ob Source:   https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html

  • AI in Italia, dai benefici per le grandi imprese alle sfide delle PMI

    Negli ultimi anni, l'intelligenza artificiale (AI) ha acquisito un ruolo di primo piano nel panorama economico e sociale italiano. Secondo i dati forniti dall'Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato dell'AI in Italia ha raggiunto i 760 milioni di euro nel 2023, con una crescita del 52% rispetto all'anno precedente. Questo dato evidenzia l'accelerazione delle iniziative in questo settore, in particolare tra le grandi aziende, che rappresentano il 90% degli investimenti. Tuttavia, l'adozione dell'AI è ancora disomogenea, con le piccole e medie imprese (PMI) che stentano a tenere il passo, contribuendo solo al 18% dei progetti di AI attualmente implementati. Adozione e utilizzo dell'AI in Italia: un quadro disomogeneo Uno degli aspetti più significativi che emerge dallo studio è la forte disomogeneità nell'adozione dell'AI tra le diverse tipologie di imprese. Le grandi aziende sono quelle che più investono e implementano soluzioni di AI, mentre le PMI, a causa di limitazioni economiche e organizzative, risultano più lente nel loro percorso di digitalizzazione. Sei grandi aziende su dieci hanno già avviato almeno un progetto di AI, contro solo il 18% delle PMI. La Generative AI, seppur rappresentando solo il 5% del mercato (38 milioni di euro), sta cominciando a trovare applicazioni significative, soprattutto in settori come l'elaborazione dati e la creazione di modelli predittivi. Questa disparità nell'adozione si riflette anche nelle strategie e nei progetti intrapresi dalle aziende. Dallo studio emerge che il 22% delle grandi aziende ha già una strategia chiara sull'AI, mentre un ulteriore 13% sta iniziando a implementarla. Al contrario, molte PMI rimangono ancora alla fase esplorativa o non considerano l'AI una priorità strategica. Le aziende del macrosettore industria/manifattura sono quelle che più frequentemente hanno attivato strategie o progetti di AI, con il 46% già attive in questo ambito, contro il 39% degli altri settori. Un altro elemento di criticità è rappresentato dalle risorse economiche disponibili. Le grandi aziende hanno maggiori capacità finanziarie, il che permette loro di allocare fondi significativi verso l'acquisizione di nuove tecnologie e lo sviluppo di soluzioni AI. Questo si traduce nel fatto che il 90% degli investimenti totali in AI in Italia è realizzato dalle grandi imprese, lasciando una quota ridotta alle PMI e alla Pubblica Amministrazione. Inoltre, le PMI sono spesso limitate da una mancanza di competenze interne, cosa che rende difficile l'adozione di tecnologie avanzate come l'AI senza un significativo supporto esterno. La distribuzione geografica gioca un ruolo importante nella disomogeneità dell'adozione. Il 38% delle aziende intervistate ha sede nel nord-ovest del Paese, mentre solo il 14% si trova al centro e il 15% al sud. Questo divario geografico contribuisce ulteriormente a una distribuzione non uniforme dell'innovazione tecnologica e delle opportunità legate all'AI, con le aree più industrializzate che beneficiano di maggiori risorse e competenze. La mancanza di formazione e competenze specifiche rappresenta un ulteriore ostacolo per l'adozione diffusa dell'AI. Il 47% delle aziende italiane sta investendo nella formazione del personale interno per superare questa barriera, ma solo il 16% sta attivamente assumendo nuove figure professionali specializzate. Le aziende del settore industriale appaiono leggermente più avanti rispetto agli altri settori in termini di acquisizione di nuove competenze e tecnologie, con il 74% delle aziende del comparto manifatturiero che ritiene necessario aggiornare le proprie capacità per sfruttare al meglio le potenzialità dell'AI. In conclusione, il quadro che emerge è quello di un'adozione a due velocità, in cui le grandi aziende riescono a beneficiare maggiormente delle opportunità offerte dall'AI, mentre le PMI continuano a lottare con barriere economiche, organizzative e formative. Per colmare questo divario, è necessario un supporto strutturato, che includa incentivi economici, programmi di formazione e iniziative di collaborazione tra grandi aziende e PMI. Solo in questo modo si potrà garantire un'adozione più equa e diffusa delle tecnologie AI nel tessuto imprenditoriale italiano. Le principali aree di applicazione dell'AI Le applicazioni dell'AI nelle aziende italiane sono diversificate, con un'enfasi particolare sull'automazione dei processi e sull'analisi dei dati. Secondo il sondaggio KPMG-IPSOS, il 46% delle aziende sta utilizzando l'AI per automatizzare i processi al fine di migliorare l'efficienza e la produttività, mentre il 39% sfrutta modelli di elaborazione dati per favorire l'innovazione di prodotto. Un altro 37% delle aziende intervistate utilizza l'AI per l'analisi dei dati di vendita e per sviluppare modelli predittivi utili a supportare le attività di pianificazione strategica. Oltre a questi ambiti, emergono altre applicazioni interessanti dell'AI, quali l'analisi dei dati dei clienti per creare campagne di marketing personalizzate, un aspetto citato dal 26% delle aziende. Queste soluzioni consentono di sviluppare strategie di marketing più efficaci e mirate, aumentando il tasso di conversione e migliorando il ritorno sugli investimenti. Inoltre, il 23% delle aziende ha implementato chatbot che possono interagire con i clienti, rispondendo alle domande e fornendo informazioni in tempo reale. Questa applicazione non solo migliora il servizio clienti, ma riduce anche i costi operativi legati alla gestione dei centri di supporto. L'analisi dei modelli di transazioni per identificare attività sospette e potenziali frodi rappresenta un'altra importante area di applicazione, scelta dal 21% delle aziende. Le capacità di elaborazione dei dati dell'AI permettono di rilevare anomalie e comportamenti sospetti con una velocità e una precisione superiori rispetto ai tradizionali metodi di analisi, contribuendo così alla sicurezza aziendale e alla prevenzione delle frodi finanziarie. Un altro settore in cui l'intelligenza artificiale viene applicata è quello dei sistemi per il riconoscimento vocale, delle immagini e dei video, adottati dall'11% delle aziende con l'obiettivo di potenziare la sicurezza. Questi strumenti trovano utilizzo in ambiti come il controllo degli accessi, la videosorveglianza e il monitoraggio delle attività produttive, contribuendo a migliorare sia la sicurezza generale sia l'efficienza operativa. Le tecnologie AI sono viste come un mezzo per potenziare le attività cognitive delle persone, con un impatto che va oltre la semplice automazione. Infatti, l'AI viene impiegata per supportare le decisioni strategiche (30%) e migliorare il servizio clienti (28%). La capacità di elaborare grandi quantità di dati in modo rapido e accurato consente ai manager di prendere decisioni più informate, migliorando così la qualità della strategia aziendale e l'adattamento ai cambiamenti del mercato. Queste applicazioni dimostrano che l'AI non è soltanto uno strumento per migliorare l'efficienza operativa, ma ha il potenziale di trasformare il modo in cui le aziende interagiscono con i clienti, sviluppano prodotti e gestiscono le proprie operazioni interne. In particolare, l'integrazione dell'AI nelle diverse aree aziendali sta permettendo alle aziende italiane di creare nuovi modelli di business, che mettono al centro l'innovazione e la personalizzazione dell'offerta. Le sfide per l'adozione dell'AI in Italia Nonostante l'entusiasmo che circonda l'adozione dell'AI, ci sono numerose sfide che le aziende devono affrontare. Una delle principali è la trasformazione culturale, indicata come il maggiore ostacolo dal 37% delle aziende intervistate. Inoltre, la necessità di aggiornare le competenze del personale è una problematica significativa per il 34% delle imprese, seguita dall'implementazione di nuovi processi produttivi e operativi (33%). Solo il 22% delle aziende percepisce i costi di implementazione come un problema cruciale, suggerendo che le difficoltà principali risiedono più nella gestione del cambiamento che nei meri aspetti finanziari. Le sfide legate all'introduzione dell'AI non si limitano solo all'aspetto tecnologico, ma coinvolgono anche la capacità di gestire la transizione culturale e il cambiamento organizzativo. Trovare la giusta combinazione tra capitale umano e capitale tecnologico è indicato dal 27% delle aziende come una sfida importante. Questo equilibrio risulta fondamentale per sfruttare appieno le potenzialità dell'AI senza alienare i lavoratori. In aggiunta, il rispetto delle implicazioni normative e regolamentari viene percepito come un ostacolo dal 13% delle imprese, indicando la necessità di conformarsi a un quadro giuridico in costante evoluzione, che spesso impone vincoli stringenti all'uso dell'AI. Un aspetto non trascurabile è la necessità di una governance chiara e strutturata per l'adozione dell'AI. Infatti, il 37% delle aziende ritiene che siano necessari modelli di governance definiti per garantire che l'AI venga sviluppata e utilizzata in modo responsabile e affidabile. La formazione interna del personale, indicata dal 59% delle aziende, emerge come il fattore più rilevante per superare la resistenza dei dipendenti e favorire l'accettazione dell'AI. Solo il 19% delle aziende prevede significative difficoltà nell'ottenere l'accettazione da parte dei dipendenti, mentre il 57% ritiene che non ci saranno ostacoli significativi, suggerendo un certo ottimismo riguardo alla capacità di integrare l'AI senza generare forte resistenza. Anche il tema delle competenze gioca un ruolo cruciale nella gestione delle sfide. La formazione e la riqualificazione dei dipendenti sono viste come strumenti indispensabili per affrontare il cambiamento: il 47% delle aziende sta investendo nella formazione del personale per sviluppare competenze in ambito AI, mentre solo il 16% sta assumendo nuove figure specializzate. Tuttavia, la standardizzazione delle competenze, dovuta all'adozione di tecnologie AI generative, potrebbe portare a una riduzione delle differenze tra lavoratori ad alta e bassa performance, rendendo la forza lavoro più omogenea ma meno differenziata nelle capacità distintive. In conclusione, le sfide per l'adozione dell'AI sono molteplici e richiedono un approccio integrato che combini aspetti tecnologici, formativi e organizzativi. Le aziende devono non solo investire nelle infrastrutture tecnologiche, ma anche sviluppare un piano di gestione del cambiamento che coinvolga il personale e crei una cultura aziendale pronta ad abbracciare l'innovazione. Questo percorso, per quanto complesso, rappresenta una necessità per rimanere competitivi in un contesto economico sempre più guidato dalla tecnologia. Benefici e prospettive future dell'AI in Italia I benefici dell'adozione dell'intelligenza artificiale nelle aziende italiane vanno oltre il mero incremento di produttività e riduzione dei costi di produzione. Secondo lo studio, tre aziende su quattro ritengono che l'AI possa migliorare significativamente la situazione economica interna dell'impresa. Questo dato si innalza all'81% tra le aziende che hanno già attivato progetti AI, dimostrando un elevato grado di fiducia nei vantaggi a lungo termine che queste tecnologie possono apportare. L'impatto economico positivo dell'AI è particolarmente sentito nelle grandi imprese, dove il 77% degli intervistati prevede miglioramenti, rispetto al 69% delle PMI. L'adozione dell'AI sta anche influenzando profondamente i modelli di leadership aziendale. Secondo il 95% degli intervistati, l'AI consentirà ai manager di assumere un ruolo più strategico, liberandoli da compiti operativi e routinari e permettendo loro di concentrarsi su decisioni di maggiore impatto per l'azienda. Questo cambiamento, che porta a una redistribuzione delle responsabilità all'interno dell'organizzazione, può contribuire a migliorare l'efficienza complessiva e a rendere l'azienda più agile e reattiva alle dinamiche di mercato. Un altro beneficio riguarda la capacità dell'AI di favorire un ambiente di lavoro più collaborativo e centrato sull'innovazione. Le tecnologie AI, infatti, sono viste non solo come strumenti di automazione, ma come strumenti di "augmentation", ovvero tecnologie che potenziano le capacità umane. Questa visione è particolarmente importante in un'ottica di Human Innovation, dove le persone rimangono al centro del processo di trasformazione e l'AI diventa un partner per migliorare il contributo umano all'interno dell'organizzazione. In termini di innovazione, solo il 13% delle aziende ha segnalato la capacità dell'AI di innovare prodotti e servizi come un beneficio principale, suggerendo che il pieno potenziale dell'AI in questo ambito non è ancora completamente sfruttato. Tuttavia, il 23% delle aziende ha indicato un miglioramento nella capacità di acquisire e gestire nuovi clienti come un importante risultato dell'adozione di soluzioni AI. Questo dimostra come l'AI possa anche giocare un ruolo significativo nella crescita del business, non solo ottimizzando processi interni, ma contribuendo direttamente al miglioramento delle performance di mercato. Inoltre, l'AI sta cambiando il panorama competitivo, favorendo l'adozione di nuovi modelli di business più scalabili e orientati ai dati. Le aziende AI-driven tendono a rompere i silos tradizionali, diventando più integrate e capaci di raccogliere, analizzare e utilizzare dati in maniera continuativa per migliorare i processi decisionali e la qualità dei servizi. Questo approccio non solo migliora l'efficienza interna, ma consente alle aziende di essere più agili nell'adattarsi ai cambiamenti del mercato e di ottenere un vantaggio competitivo sostenibile. Dal punto di vista delle competenze, l'adozione dell'AI richiede un notevole investimento nella formazione del personale. Tuttavia, non si tratta solo di sviluppare competenze tecniche, ma anche di promuovere soft skills come il problem solving e il pensiero critico, che sono essenziali per sfruttare appieno il potenziale dell'AI. La capacità di adattarsi e di comprendere l'interazione tra tecnologia e processi umani è fondamentale per il successo a lungo termine. Le aziende stanno quindi promuovendo programmi di formazione specifici per assicurarsi che il personale sia preparato a gestire queste nuove tecnologie e a integrarle efficacemente nei processi aziendali. Impatti dell'AI sul modello di business L'adozione dell'AI sta anche avendo un impatto significativo sui modelli di business. Il 64% delle aziende intervistate ritiene che l'AI cambierà il proprio modello di business, con effetti particolarmente rilevanti nell'area della produzione (indicata dal 59% degli intervistati), nelle vendite (32%) e nell'organizzazione del personale (29%). Questa trasformazione richiederà un ripensamento delle strategie aziendali e dei modelli operativi, includendo una maggiore collaborazione tra funzioni e l'adozione di modalità di lavoro più agili e aperte all'innovazione. Secondo il report KPMG-IPSOS, l'AI sta diventando il cuore dei modelli operativi delle aziende, rappresentando un vero e proprio cambio di paradigma che modifica il modo di fare business. L'AI non è più considerata solo uno strumento per migliorare l'efficienza o ridurre i costi, ma diventa il motore universale che guida la trasformazione aziendale. Questo cambiamento implica una rottura con i silos tradizionali e una riorganizzazione in ottica di maggiore scalabilità e flessibilità. Ad esempio, le aziende AI-driven come MyBank, Amazon, e Zara hanno dimostrato che l'integrazione dell'AI nei processi operativi non solo migliora la qualità dei servizi, ma consente anche di creare un nuovo modello di creazione di valore, basato su un apprendimento continuo grazie ai dati raccolti in tempo reale. Questa trasformazione va oltre la semplice applicazione tecnologica, poiché ridisegna il modo in cui le aziende interagiscono con i mercati e i consumatori. Secondo il 95% degli intervistati, l'introduzione dell'AI comporterà un ruolo più strategico per i manager, liberandoli dai compiti più operativi e permettendo loro di focalizzarsi sulla creazione di nuove opportunità di crescita. L'AI consente infatti una migliore comprensione dei bisogni dei clienti e favorisce l'adozione di nuovi modelli di business orientati all'open innovation, nei quali la collaborazione con partner esterni e la raccolta di insight in tempo reale diventa centrale per il successo aziendale. Inoltre, l'AI spinge le aziende a ripensare il proprio ecosistema di alleanze. La creazione di partnership strategiche, anche con aziende di settori diversi, rappresenta una delle principali opportunità di crescita e di differenziazione rispetto ai concorrenti. Un'azienda AI-driven può infatti offrire prodotti e servizi più personalizzati, incrementando l'efficienza complessiva e sfruttando un ecosistema esteso di competenze e risorse. Conclusioni L'adozione dell'intelligenza artificiale rappresenta una svolta per le aziende italiane, ma solo una leadership consapevole può garantire il pieno sfruttamento delle sue potenzialità.  La gestione strategica dell'AI richiede una visione integrata che superi la semplice fascinazione tecnologica , spostando l'attenzione dalla tecnologia all'obiettivo concreto di risolvere problemi di business. L'AI non è un fine, ma un mezzo per potenziare la capacità decisionale e operativa delle organizzazioni. Tuttavia, gran parte delle iniziative fallisce a causa di una disconnessione tra obiettivi aziendali e progettazione tecnica, spesso aggravata da infrastrutture inadeguate e dati di scarsa qualità. Per le PMI italiane, che faticano a tenere il passo rispetto alle grandi imprese,  l'integrazione dell'AI non deve essere percepita come un lusso, ma come una necessità competitiva . Questo richiede incentivi pubblici mirati e una cultura collaborativa tra grandi aziende e PMI per condividere competenze e risorse. L'adozione di tecnologie AI può essere trasformativa, ma solo se si investe in formazione continua e nella costruzione di infrastrutture digitali robuste. Un'area critica è rappresentata dalla gestione dei dati.  La qualità e la pertinenza dei dati aziendali non sono solo questioni tecniche, ma decisioni strategiche . Le organizzazioni devono trattare i dati come un asset, investendo in ingegneria dei dati e infrastrutture capaci di supportare progetti di AI scalabili. Le imprese che non adottano questa visione rischiano di perdere competitività, restando intrappolate in cicli di fallimenti dovuti a carenze strutturali. La leadership aziendale deve anche affrontare il cambiamento culturale necessario per integrare l'AI nei processi decisionali.  La democratizzazione dell'AI richiede una governance inclusiva, che bilanci innovazione tecnologica e capitale umano . Questo significa creare ambienti collaborativi dove tecnici e dirigenti lavorano insieme per tradurre le esigenze strategiche in soluzioni tecniche praticabili. Solo una leadership capace di ascoltare e imparare potrà costruire fiducia nell'AI e sfruttarne le potenzialità senza cadere in aspettative irrealistiche. Infine, è cruciale spostare il focus dalle applicazioni immediate dell'AI al suo ruolo strategico come catalizzatore di nuovi modelli di business.  L'AI offre l'opportunità di ridisegnare i processi aziendali in ottica di maggiore scalabilità, agilità e personalizzazione dell'offerta . Questo non implica solo l'adozione di una tecnologia, ma la costruzione di un nuovo ecosistema aziendale in grado di generare valore attraverso l'apprendimento continuo dai dati. Podcast: https://spotifycreators-web.app.link/e/sA1efb1H3Ob Fonte: https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html

  • Potenziale delle Blockchain Permissionless nei servizi finanziari

    Le blockchain permissionless rappresentano una prospettiva innovativa per migliorare l'infrastruttura finanziaria tradizionale. Questo articolo si basa su una ricerca condotta da Fabian Schär dell'Università di Basilea e preparata per la Commissione Europea, Direzione Generale per la Stabilità Finanziaria, Servizi Finanziari e Unione dei Mercati dei Capitali. La ricerca è stata completata nell'ottobre 2024, con il supporto di Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler e Dario Thürkauf, e ha coinvolto anche la collaborazione del Centro per le Politiche Orizzontali B4 per la Finanza Digitale. Questo articolo si concentra sulle caratteristiche fondamentali, sui vantaggi potenziali e sulle sfide che queste tecnologie possono portare al settore finanziario, esaminando in particolare come la loro neutralità, l'inclusività e la trasparenza possano favorire l'interoperabilità e la competizione nel mercato finanziario globale. Introduzione alla tecnologia Blockchain Le blockchain permissionless si basano su una rete di nodi distribuiti che operano senza la necessità di una autorità centrale per garantire la fiducia tra le parti. Questa struttura decentralizzata è essenziale per assicurare che chiunque possa partecipare alla rete senza restrizioni, consentendo una neutralità totale e garantendo un accesso trasparente. Nelle blockchain permissionless, ogni nodo è uguale, e non esistono intermediari che possano alterare o influenzare le transazioni senza il consenso di tutta la rete. Uno degli elementi centrali che definisce la blockchain permissionless è la capacità di transazione . Nella ricerca allegata, viene evidenziato come la capacità di elaborare transazioni nelle blockchain permissionless sia, al momento, limitata rispetto ai sistemi finanziari tradizionali. Le blockchain come Bitcoin ed Ethereum, ad esempio, possono gestire rispettivamente solo circa 7 e 30 transazioni al secondo, a fronte delle decine di migliaia di transazioni per secondo elaborate da reti centralizzate come Visa. Questo rappresenta una sfida importante, specialmente se le blockchain devono supportare volumi globali di attività finanziaria. Tuttavia, tecniche innovative come lo sharding  e i protocolli Layer 2  (ad esempio rollup e canali di stato) stanno cercando di migliorare la scalabilità senza compromettere la decentralizzazione della rete. La legittimità delle transazioni  è un altro aspetto fondamentale. Ogni transazione deve essere verificata crittograficamente per garantire la sicurezza e l'integrità della rete. L'uso di firme crittografiche assicura che solo il possessore di una specifica chiave privata possa autorizzare una transazione. Questa legittimità viene gestita tramite due principali modelli: il modello UTXO  (Unspent Transaction Output), utilizzato da Bitcoin, e il modello account-based , adottato da Ethereum. Nel modello UTXO, ogni transazione traccia gli output non spesi, creando una sorta di catena di valore che aumenta la sicurezza e la tracciabilità. Al contrario, nel modello account-based, ogni account ha un saldo associato, e la transazione riduce semplicemente il saldo del mittente e lo aumenta per il destinatario. Entrambi i modelli hanno vantaggi e svantaggi: il modello UTXO, ad esempio, offre una maggiore privacy, mentre il modello account-based risulta più intuitivo per chi ha familiarità con i sistemi finanziari tradizionali. Per mantenere la coerenza dello stato del registro, la blockchain utilizza meccanismi di consenso distribuito , come il Proof of Work (PoW)  e il Proof of Stake (PoS) . Il PoW, utilizzato da Bitcoin, garantisce la sicurezza della rete richiedendo ai nodi di risolvere complessi problemi matematici, con un elevato dispendio energetico. Il PoS, adottato da Ethereum con il passaggio a Ethereum 2.0, offre un'alternativa più sostenibile, basata sul possesso di token che vengono messi in staking per partecipare al processo di consenso. Entrambi i meccanismi sono progettati per garantire che la rete raggiunga un accordo comune, anche in presenza di attori malevoli, assicurando l'integrità e la sicurezza della blockchain. Un altro aspetto importante della blockchain permissionless è la programmabilità  grazie agli smart contract. Questi contratti permettono di automatizzare operazioni complesse come prestiti, assicurazioni e transazioni di derivati senza la necessità di intermediari. Tuttavia, la ricerca evidenzia che questi smart contract sono tanto sicuri quanto il codice che li definisce. Le vulnerabilità nel codice possono portare a problemi di sicurezza significativi, come è stato evidenziato da alcuni noti incidenti di hacking su protocolli DeFi (Decentralized Finance). Inoltre, la blockchain opera su un'infrastruttura di rete peer-to-peer (P2P) , dove tutti i nodi partecipano alla condivisione delle informazioni senza bisogno di un server centrale. Questo aumenta la resilienza della rete, poiché non esiste un singolo punto di fallimento che possa compromettere l'intero sistema. Ogni nodo mantiene una mempool , ovvero una coda di transazioni in attesa di essere incluse nella blockchain. Il processo di selezione delle transazioni dalla mempool è fondamentale per garantire l'efficienza e l'equità nella conferma delle operazioni. Infine, il concetto di consenso sulla sequenza delle transazioni  rappresenta un aspetto cruciale per il funzionamento della blockchain. La sequenza delle transazioni può influenzare l'esito delle stesse, specialmente in applicazioni DeFi, dove l'ordine delle operazioni può determinare la differenza tra guadagnare o perdere valore (fenomeno noto come Maximal Extractable Value - MEV ). Soluzioni per mitigare i rischi legati al MEV includono meccanismi di ordinamento agnostico rispetto al contenuto delle transazioni e l'adozione di protocolli come la proposer-builder separation (PBS) . Questi elementi costituiscono la base tecnologica delle blockchain permissionless e ne definiscono i vantaggi e le sfide rispetto ai sistemi finanziari tradizionali. L'obiettivo finale è quello di creare un'infrastruttura finanziaria più aperta, trasparente e inclusiva, ma per raggiungere questo traguardo è necessaria una continua innovazione sia tecnologica che regolamentare. Vantaggi e funzionalità delle Blockchain Permissionless Uno dei principali punti di forza delle blockchain permissionless è la loro programmabilità . Grazie ai contratti smart, è possibile automatizzare diverse operazioni finanziarie, come l'esecuzione di pagamenti e la gestione di prestiti. Tuttavia, la vera innovazione non è la semplice capacità di programmare processi, quanto piuttosto la capacità di farlo su una base neutrale e condivisa, senza la necessità di intermediari fidati. In questo modo, si eliminano potenziali punti di vulnerabilità e si riducono i costi associati a terzi. Un altro aspetto fondamentale della blockchain permissionless è la composability , che consente di creare nuovi servizi e prodotti finanziari sfruttando la capacità di combinare diversi protocolli e asset all'interno della stessa rete. Questo approccio permette la costruzione di soluzioni innovative, come l'integrazione di protocolli di prestito in mercati di derivati, aumentando così la flessibilità e la modularità dell'ecosistema finanziario. Secondo la ricerca, la composability è uno dei fattori principali che spinge verso la formazione di un livello base dominante, poiché consente di massimizzare gli effetti di rete e di creare un ecosistema paragonabile a quello di un'economia di piattaforma. La liquidità  è un ulteriore beneficio cruciale derivante dall'uso delle blockchain permissionless. Grazie alla possibilità di avere asset diversi e numerosi protocolli disponibili sulla stessa piattaforma, l'integrazione di liquidità da diverse fonti diventa più semplice e immediata. Questo vantaggio è particolarmente evidente nei decentralized exchanges (DEX) , dove asset tokenizzati possono essere scambiati senza necessità di un intermediario centralizzato, garantendo tempi di regolamento più rapidi e costi di transazione inferiori rispetto alle borse tradizionali. Un'altra caratteristica distintiva è l' atomicità delle transazioni. L'atomicità garantisce che tutte le operazioni di una transazione siano eseguite contemporaneamente, eliminando il rischio di fallimento parziale. Questa proprietà è particolarmente utile nel contesto di transazioni finanziarie complesse, come le operazioni di delivery versus payment (DvP) , in cui entrambe le controparti vogliono essere sicure che la consegna dell'asset e il pagamento avvengano simultaneamente. La blockchain permette l'esecuzione di queste transazioni in modo totalmente automatizzato e sicuro. Le blockchain permissionless migliorano anche la trasparenza e la neutralità  delle operazioni finanziarie. Poiché ogni transazione è registrata su un registro pubblico, diventa possibile verificare in modo indipendente la validità delle transazioni e monitorare i flussi di valore all'interno della rete. Questo livello di trasparenza è stato riconosciuto nella ricerca come un importante vantaggio per ridurre le asimmetrie informative e per garantire che nessun attore possa avere vantaggi ingiustificati a discapito degli altri partecipanti. Inoltre, la neutralità delle blockchain permissionless elimina la necessità di intermediari con il potere di discriminare l'accesso o di imporre regole arbitrarie, favorendo un'infrastruttura più equa e aperta. Infine, l'adozione delle blockchain permissionless può ridurre la dipendenza dalle infrastrutture centralizzate, mitigando così i rischi associati alla concentrazione del potere di mercato. Come evidenziato nella ricerca, le piattaforme centralizzate, se non regolamentate adeguatamente, possono esercitare un potere eccessivo, estrarre rendite economiche e creare problemi di lock-in per gli utenti. Le blockchain permissionless, invece, favoriscono la concorrenza  e l'innovazione, consentendo la nascita di nuovi attori che possono contribuire a migliorare l'offerta di servizi finanziari. Sfide: scalabilità, privacy e sequenziamento delle transazioni Nonostante i vantaggi, le blockchain permissionless presentano diverse sfide  che devono essere superate per poter essere utilizzate come base per i servizi finanziari tradizionali. La prima sfida è la scalabilità . Attualmente, la maggior parte delle blockchain ha difficoltà a gestire grandi volumi di transazioni. Aumentare la capacità di elaborazione senza sacrificare la decentralizzazione richiede soluzioni innovative, come l'implementazione di layer 2, sharding, e tecniche di ottimizzazione dell'efficienza. Secondo la ricerca, soluzioni come i rollup ottimistici e zk-rollup sono state proposte per migliorare significativamente la capacità di transazione, garantendo al contempo la sicurezza e la decentralizzazione. I zk-rollup , in particolare, utilizzano prove a conoscenza zero per garantire la validità delle transazioni senza la necessità di trasmettere ogni dettaglio, migliorando così sia la scalabilità sia la privacy. Inoltre, l'implementazione di canali di stato  e plasma chains  rappresentano strategie chiave per affrontare le problematiche di scalabilità. I canali di stato, come quelli utilizzati nel Lightning Network di Bitcoin, permettono agli utenti di effettuare transazioni al di fuori della blockchain principale, limitando l'uso della blockchain stessa solo per l'apertura e la chiusura del canale. Questo riduce notevolmente il carico di transazioni da processare sulla blockchain principale, migliorando la velocità di esecuzione e riducendo i costi di transazione. Un aspetto rilevante da considerare riguarda la tutela della privacy. Pur essendo la trasparenza delle blockchain fondamentale per assicurare la sicurezza delle transazioni, può rappresentare un ostacolo per gli utenti che richiedono un elevato grado di riservatezza, specialmente nel settore finanziario istituzionale. Secondo la ricerca, uno dei problemi principali è l'eccessiva trasparenza, che permette a chiunque di osservare e analizzare tutte le transazioni, compresi importi e controparti. Per risolvere questo problema, sono stati sviluppati vari protocolli di privacy-enhancing , come i zk-SNARKs  e le ring signatures . I zk-SNARKs, ad esempio, permettono di verificare una transazione senza rivelare dettagli specifici, mentre le firme ad anello offrono un livello di anonimato creando una sorta di "mischiamento" delle chiavi pubbliche, rendendo difficile risalire al mittente della transazione. Alcuni progetti stanno esplorando l'uso della crittografia completamente omomorfica (FHE)  per consentire il calcolo direttamente su dati criptati. Questo approccio potrebbe essere utilizzato per garantire la privacy degli utenti pur mantenendo la funzionalità di verifica e controllo necessaria per la conformità normativa. Un altro metodo in sviluppo è l'uso delle proposte a conoscenza zero avanzate , che permettono di dimostrare la validità delle transazioni mantenendo anonime sia le parti coinvolte sia i dettagli dell'operazione. Infine, il sequenziamento delle transazioni rappresenta una sfida importante. I nodi responsabili della conferma delle transazioni possono trarre vantaggio dall'ordine delle stesse, fenomeno noto come Maximal Extractable Value (MEV) . Secondo la ricerca, la MEV si manifesta quando i validatori manipolano l'ordine delle transazioni per estrarre valore aggiuntivo, spesso a scapito degli utenti. Per mitigare questo problema, sono stati proposti meccanismi come il proposer-builder separation (PBS) , in cui il compito di costruire i blocchi viene separato da quello di proporli, riducendo così le possibilità di manipolazione del sequenziamento. Inoltre, l'uso della timelock encryption  e della soglia di crittografia  permette di nascondere temporaneamente il contenuto delle transazioni durante la selezione, garantendo che il nodo validatore non possa influenzare l'ordine delle stesse in modo improprio. L'adozione di modelli come il PBS  potrebbe ridurre le economie di scala dei validatori più grandi, rendendo più equo il processo di estrazione del valore e supportando la decentralizzazione. Tuttavia, la complessità tecnica di questi meccanismi e la necessità di coordinamento tra nodi comportano ulteriori sfide operative e rischi di centralizzazione, soprattutto nel caso in cui una piccola minoranza di attori riesca a dominare il mercato dei builder di blocchi. Queste sfide, pur essendo significative, rappresentano anche opportunità per migliorare l'infrastruttura tecnologica e la sicurezza delle blockchain permissionless, rendendole sempre più adatte a supportare servizi finanziari complessi in un ambiente aperto e decentralizzato. Opportunità future Le blockchain permissionless offrono un'opportunità unica per creare un'infrastruttura finanziaria più aperta, trasparente e competitiva. Tuttavia, è necessario un approccio prudente e graduale per introdurre queste tecnologie nei contesti regolamentati, iniziando con sperimentazioni limitate che permettano di valutarne l'efficacia e la sicurezza. Ad esempio, l'emissione di titoli per piccole e medie imprese su una blockchain pubblica potrebbe rappresentare un primo passo concreto verso l'integrazione di questa tecnologia nei mercati finanziari tradizionali. Secondo la ricerca allegata, una delle principali opportunità per le blockchain permissionless risiede nella loro capacità di ridurre i costi di riconciliazione e regolamento . Nei sistemi finanziari tradizionali, le operazioni di regolamento possono essere lente e costose, richiedendo spesso numerosi passaggi tra diversi enti. La blockchain, con la sua capacità di garantire la finalità delle transazioni  in maniera automatica e verificabile, potrebbe abbattere queste barriere, riducendo non solo i costi ma anche i tempi di regolamento. La ricerca stima che l'uso delle blockchain potrebbe potenzialmente ridurre i costi operativi fino al 30% , migliorando l'efficienza complessiva del sistema. Inoltre, la blockchain potrebbe favorire l' integrazione di sistemi finanziari differenti , migliorando l'interoperabilità tra vari mercati e piattaforme. Attualmente, molti servizi finanziari operano in modo isolato, con scarsa interoperabilità tra diversi provider. L'integrazione su una blockchain pubblica potrebbe consentire la creazione di una rete globale che permetta la condivisione sicura e trasparente di informazioni finanziarie tra diverse istituzioni, favorendo una maggiore competizione e una riduzione dei costi per gli utenti finali. Secondo i dati contenuti nella ricerca, il miglioramento dell'interoperabilità potrebbe portare a un incremento del volume di transazioni transfrontaliere del 15-20%  entro il 2030. Un'altra opportunità significativa riguarda l'uso delle blockchain per la tokenizzazione degli asset tradizionali . Questo processo permette di rappresentare digitalmente asset come immobili, titoli azionari o obbligazioni su una blockchain, rendendo più semplice il loro trasferimento e aumentando la liquidità. La ricerca evidenzia come la tokenizzazione degli asset  possa creare nuove opportunità di finanziamento per le piccole e medie imprese (PMI), che potrebbero sfruttare mercati di capitale decentralizzati per ottenere finanziamenti con meno barriere rispetto ai canali tradizionali. Stime suggeriscono che il mercato della tokenizzazione potrebbe raggiungere un valore di 16 trilioni di dollari  entro il 2030, grazie alla maggiore accessibilità e alle ridotte barriere all'ingresso. In termini di inclusione finanziaria , le blockchain permissionless offrono un'opportunità senza precedenti per espandere l'accesso ai servizi finanziari, specialmente nelle regioni meno sviluppate. Poiché non richiedono intermediari tradizionali, possono consentire a milioni di persone non bancarizzate di partecipare a un sistema economico globale, fornendo accesso a prestiti, risparmi, assicurazioni e investimenti. Questo è particolarmente rilevante nei paesi in via di sviluppo, dove le barriere all'accesso ai servizi finanziari sono spesso insormontabili. Secondo la ricerca, le blockchain potrebbero contribuire a ridurre il numero di persone non bancarizzate di oltre 1,7 miliardi  entro il 2030, migliorando la qualità della vita e le opportunità economiche per vaste fasce della popolazione mondiale. Le blockchain permissionless, inoltre, possono supportare la creazione di nuovi modelli di governance decentralizzata . Questo tipo di governance, basato su regole predeterminate e trasparenti, permette una gestione più equa e partecipativa delle risorse, senza la necessità di un'autorità centrale. La decentralizzazione del processo decisionale potrebbe portare a una maggiore fiducia da parte degli utenti, specialmente in settori dove la fiducia verso le istituzioni tradizionali è bassa. La ricerca evidenzia che il 60% degli intervistati crede che l'adozione di sistemi di governance basati su blockchain potrebbe migliorare la trasparenza e ridurre la corruzione nelle istituzioni finanziarie. È fondamentale che i policy maker e gli operatori finanziari collaborino strettamente per esplorare le potenzialità delle blockchain pubbliche, senza pregiudizi ma con la consapevolezza delle sfide ancora da affrontare. Solo così si potrà capire se e come queste tecnologie possano contribuire a una finanza più efficiente, inclusiva e sicura. La collaborazione tra settore pubblico e privato sarà cruciale per sviluppare quadri normativi che possano accompagnare l'innovazione senza soffocarla, garantendo al contempo la sicurezza e la protezione degli utenti.   Conclusioni L'analisi sull'impatto delle blockchain permissionless nel settore finanziario offre una visione strategica che supera i consueti vantaggi tecnologici e operativi . La neutralità , l' inclusività  e la trasparenza di questa tecnologia rappresentano elementi fondamentali per una trasformazione profonda del sistema finanziario. Tuttavia, per comprendere appieno il potenziale strategico  delle blockchain permissionless, è essenziale considerare aspetti che vanno oltre la loro semplice implementazione tecnica. Questa innovazione si distingue per la capacità di ridefinire le dinamiche competitive  nel settore. Attualmente, le infrastrutture finanziarie  operano spesso con modelli di governance centralizzati , che tendono a consolidare posizioni dominanti  e a creare vincoli per gli utenti, noti come "costi di lock-in" . Al contrario, l'eliminazione della necessità di intermediari offerta dalle blockchain permissionless introduce un' infrastruttura aperta e condivisa , che stimola la competitività  e favorisce l' innovazione . Questo approccio si traduce in una riduzione delle barriere all'ingresso  per nuovi operatori e in una democratizzazione dell'accesso ai mercati finanziari  su scala globale. Un ulteriore elemento, sebbene meno esplorato, riguarda la possibilità di abilitare forme di governance più inclusive e innovative . Mentre i sistemi tradizionali si basano su decisioni prese in contesti chiusi , l'introduzione di meccanismi di governance decentralizzata  nelle blockchain pubbliche consente di coinvolgere una pluralità di attori. L'incremento della trasparenza  derivante da questo modello riduce il rischio di decisioni arbitrarie  o disallineate rispetto agli interessi di lungo termine dei diversi portatori di interesse . L'adozione di blockchain permissionless, dal punto di vista strategico, rappresenta un cambio paradigmatico  più che una semplice scelta tecnologica. La possibilità di creare modelli di business innovativi , basati sull' interoperabilità  e sulla "composability" , offre nuove prospettive. Con "composability"  si indica la capacità di combinare e integrare servizi e prodotti  in modi innovativi, dando vita a ecosistemi modulari e dinamici . Questa caratteristica rende le blockchain permissionless piattaforme abilitanti per un' economia della condivisione  e della conoscenza . Nonostante il loro potenziale, permangono sfide significative  legate alla scalabilità  e alla protezione della privacy . Soluzioni tecnologiche come i layer 2 , strutture aggiuntive costruite sopra la blockchain principale, o le prove a conoscenza zero , che consentono di dimostrare la validità di un'operazione senza rivelarne i dettagli, cercano di affrontare queste problematiche. Tuttavia, per un'adozione su larga scala sarà necessario bilanciare efficienza tecnologica , regolamentazione e fiducia degli utenti . La capacità di soddisfare requisiti rigorosi in termini di sicurezza , prestazioni  e conformità normativa sarà determinante, mantenendo al contempo i principi fondamentali di apertura e decentralizzazione . Un'ulteriore riflessione riguarda l' impatto culturale che questa tecnologia può avere sul settore finanziario. Non si tratta solo di implementare una nuova infrastruttura tecnologica, ma di ripensare i valori centrali  del sistema finanziario stesso, quali trasparenza , equità e inclusività . L'opportunità di ottimizzare i processi operativi e al contempo rafforzare la fiducia  e creare valore sostenibile nel lungo termine per tutti i soggetti coinvolti rappresenta un aspetto cruciale. In un contesto sempre più interconnesso, le blockchain permissionless  non rappresentano semplicemente un'opzione tra le tante, ma possono costituire la base per un sistema finanziario più resiliente  e democratico . Podcast: https://spotifycreators-web.app.link/e/jLAfRTRs3Ob Fonte: https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-

  • Potential of Permissionless Blockchains in Financial Services

    Permissionless blockchains represent an innovative perspective for enhancing the traditional financial infrastructure. This article is based on research conducted by Fabian Schär of the University of Basel and prepared for the European Commission, Directorate-General for Financial Stability, Financial Services and Capital Markets Union. The research was completed in October 2024, with the support of Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler, and Dario Thürkauf, and also involved collaboration with the Center for Horizontal Policies B4 for Digital Finance. This article focuses on the fundamental characteristics, potential advantages, and challenges that these technologies can bring to the financial sector, specifically examining how their neutrality, inclusiveness, and transparency can foster interoperability and competition in the global financial market. Introduction to Blockchain Technology Permissionless blockchains are based on a network of distributed nodes that operate without the need for a central authority to ensure trust between parties. This decentralized structure is essential for ensuring that anyone can participate in the network without restrictions, allowing complete neutrality and ensuring transparent access. In permissionless blockchains, every node is equal, and there are no intermediaries that can alter or influence transactions without the consent of the entire network. One of the central elements defining a permissionless blockchain is transaction capacity. The attached research highlights that the capacity to process transactions in permissionless blockchains is, at present, limited compared to traditional financial systems. Blockchains like Bitcoin and Ethereum, for instance, can handle only about 7 and 30 transactions per second, respectively, compared to the tens of thousands of transactions per second processed by centralized networks like Visa. This represents a significant challenge, especially if blockchains are to support global volumes of financial activity. However, innovative techniques such as sharding and Layer 2 protocols (e.g., rollups and state channels) are seeking to improve scalability without compromising network decentralization. Transaction legitimacy is another fundamental aspect. Every transaction must be cryptographically verified to ensure the network's security and integrity. The use of cryptographic signatures ensures that only the holder of a specific private key can authorize a transaction. This legitimacy is managed through two main models: the UTXO (Unspent Transaction Output) model, used by Bitcoin, and the account-based model, adopted by Ethereum. In the UTXO model, every transaction tracks unspent outputs, creating a sort of value chain that increases security and traceability. Conversely, in the account-based model, each account has an associated balance, and the transaction simply reduces the sender's balance and increases the recipient's. Both models have advantages and disadvantages: for example, the UTXO model offers greater privacy, while the account-based model is more intuitive for those familiar with traditional financial systems. To maintain the consistency of the ledger state, the blockchain uses distributed consensus mechanisms, such as Proof of Work (PoW) and Proof of Stake (PoS). PoW, used by Bitcoin, ensures network security by requiring nodes to solve complex mathematical problems, with high energy consumption. PoS, adopted by Ethereum with the transition to Ethereum 2.0, offers a more sustainable alternative, based on token ownership that is staked to participate in the consensus process. Both mechanisms are designed to ensure that the network reaches a common agreement, even in the presence of malicious actors, thus ensuring the integrity and security of the blockchain. Another important aspect of permissionless blockchain is programmability through smart contracts. These contracts allow for the automation of complex operations such as loans, insurance, and derivative transactions without the need for intermediaries. However, the research highlights that these smart contracts are only as secure as the code that defines them. Vulnerabilities in the code can lead to significant security issues, as evidenced by some notable hacking incidents in DeFi (Decentralized Finance) protocols. Furthermore, the blockchain operates on a peer-to-peer (P2P) network infrastructure, where all nodes participate in sharing information without the need for a central server. This increases the network's resilience, as there is no single point of failure that could compromise the entire system. Each node maintains a mempool, which is a queue of transactions waiting to be included in the blockchain. The process of selecting transactions from the mempool is essential to ensure efficiency and fairness in confirming operations. Finally, the concept of consensus on the sequence of transactions is crucial for the functioning of the blockchain. The sequence of transactions can influence their outcome, especially in DeFi applications, where the order of operations can determine the difference between gaining or losing value (a phenomenon known as Maximal Extractable Value - MEV). Solutions to mitigate risks related to MEV include mechanisms for content-agnostic transaction ordering and the adoption of protocols such as proposer-builder separation (PBS). These elements form the technological basis of permissionless blockchains and define their advantages and challenges compared to traditional financial systems. The ultimate goal is to create a more open, transparent, and inclusive financial infrastructure, but continuous innovation in both technology and regulation is necessary to achieve this. Advantages and Features of Permissionless Blockchains One of the main strengths of permissionless blockchains is their programmability. Thanks to smart contracts, it is possible to automate various financial operations, such as executing payments and managing loans. However, the true innovation is not just the ability to program processes but rather the ability to do so on a neutral, shared basis, without the need for trusted intermediaries. This way, potential points of vulnerability are eliminated, and the costs associated with third parties are reduced. Another fundamental aspect of permissionless blockchain is composability, which allows the creation of new financial services and products by leveraging the ability to combine different protocols and assets within the same network. This approach enables the construction of innovative solutions, such as the integration of lending protocols in derivative markets, thereby increasing the flexibility and modularity of the financial ecosystem. According to the research, composability is one of the main factors driving the formation of a dominant base layer, as it allows for the maximization of network effects and the creation of an ecosystem comparable to that of a platform economy. Liquidity is another crucial benefit derived from the use of permissionless blockchains. With the ability to have different assets and numerous protocols available on the same platform, integrating liquidity from different sources becomes simpler and more immediate. This advantage is particularly evident in decentralized exchanges (DEX), where tokenized assets can be exchanged without the need for a centralized intermediary, ensuring faster settlement times and lower transaction costs compared to traditional exchanges. Another distinguishing feature is the atomicity of transactions. Atomicity ensures that all operations in a transaction are executed simultaneously, eliminating the risk of partial failure. This property is particularly useful in the context of complex financial transactions, such as delivery versus payment (DvP) operations, where both parties want to be sure that asset delivery and payment occur simultaneously. Blockchain enables these transactions to be executed in a fully automated and secure manner. Permissionless blockchains also enhance the transparency and neutrality of financial operations. Since every transaction is recorded on a public ledger, it becomes possible to independently verify the validity of transactions and monitor value flows within the network. This level of transparency has been recognized in the research as an important advantage for reducing informational asymmetries and ensuring that no actor can have undue advantages over other participants. Furthermore, the neutrality of permissionless blockchains eliminates the need for intermediaries with the power to discriminate access or impose arbitrary rules, promoting a more equitable and open infrastructure. Finally, the adoption of permissionless blockchains can reduce dependency on centralized infrastructures, thus mitigating risks associated with market power concentration. As highlighted in the research, centralized platforms, if not adequately regulated, can exert excessive power, extract economic rents, and create lock-in problems for users. Permissionless blockchains, on the other hand, promote competition and innovation, allowing the emergence of new players that can help improve the offering of financial services. Challenges: Scalability, Privacy, and Transaction Sequencing Despite the advantages, permissionless blockchains present several challenges that need to be overcome to be used as the foundation for traditional financial services. The first challenge is scalability. Currently, most blockchains struggle to handle large volumes of transactions. Increasing processing capacity without sacrificing decentralization requires innovative solutions, such as implementing layer 2, sharding, and efficiency optimization techniques. According to the research, solutions like optimistic rollups and zk-rollups have been proposed to significantly improve transaction capacity while ensuring security and decentralization. Zk-rollups, in particular, use zero-knowledge proofs to ensure transaction validity without the need to transmit every detail, thus improving both scalability and privacy. Additionally, the implementation of state channels and plasma chains are key strategies for addressing scalability issues. State channels, like those used in Bitcoin's Lightning Network, allow users to make transactions off the main blockchain, limiting the blockchain's use to only the opening and closing of the channel. This significantly reduces the number of transactions that need to be processed on the main blockchain, improving execution speed and reducing transaction costs. A relevant aspect to consider concerns privacy protection. While blockchain transparency is essential to ensure transaction security, it can pose an obstacle for users who require a high degree of confidentiality, especially in the institutional financial sector. According to the research, one of the main problems is excessive transparency, which allows anyone to observe and analyze all transactions, including amounts and counterparties. To address this issue, various privacy-enhancing protocols, such as zk-SNARKs and ring signatures, have been developed. Zk-SNARKs, for example, allow verification of a transaction without revealing specific details, while ring signatures offer a level of anonymity by creating a sort of "mixing" of public keys, making it difficult to trace the transaction's sender. Some projects are exploring the use of fully homomorphic encryption (FHE) to enable computation directly on encrypted data. This approach could be used to ensure user privacy while maintaining the verification and control functionality necessary for regulatory compliance. Another method in development is the use of advanced zero-knowledge proofs, which allow demonstrating the validity of transactions while keeping both the parties involved and the details of the operation anonymous. Finally, transaction sequencing represents an important challenge. Nodes responsible for confirming transactions can benefit from the order of transactions, a phenomenon known as Maximal Extractable Value (MEV). According to the research, MEV occurs when validators manipulate the transaction order to extract additional value, often at the expense of users. To mitigate this problem, mechanisms such as proposer-builder separation (PBS) have been proposed, in which the task of building blocks is separated from that of proposing them, thereby reducing opportunities for manipulation of sequencing. Additionally, the use of timelock encryption and threshold encryption allows temporarily hiding transaction content during selection, ensuring that the validating node cannot improperly influence the order of transactions. Adopting models like PBS could reduce the economies of scale of larger validators, making the value extraction process fairer and supporting decentralization. However, the technical complexity of these mechanisms and the need for coordination among nodes pose additional operational challenges and centralization risks, especially if a small minority of actors manage to dominate the block builder market. These challenges, although significant, also represent opportunities to improve the technological infrastructure and security of permissionless blockchains, making them increasingly suitable to support complex financial services in an open and decentralized environment. Future Opportunities Permissionless blockchains offer a unique opportunity to create a more open, transparent, and competitive financial infrastructure. However, a prudent and gradual approach is needed to introduce these technologies in regulated environments, starting with limited experiments that allow evaluating their effectiveness and security. For example, issuing securities for small and medium-sized enterprises on a public blockchain could represent a concrete first step towards integrating this technology into traditional financial markets. According to the attached research, one of the main opportunities for permissionless blockchains lies in their ability to reduce reconciliation and settlement costs. In traditional financial systems, settlement operations can be slow and expensive, often requiring numerous steps between different entities. Blockchain, with its ability to guarantee transaction finality in an automatic and verifiable manner, could break down these barriers, reducing not only costs but also settlement times. The research estimates that the use of blockchains could potentially reduce operational costs by up to 30%, improving the system's overall efficiency. Moreover, blockchain could facilitate the integration of different financial systems, enhancing interoperability between various markets and platforms. Currently, many financial services operate in isolation, with little interoperability between different providers. Integration on a public blockchain could enable the creation of a global network that allows the secure and transparent sharing of financial information between different institutions, fostering greater competition and reducing costs for end-users. According to the research data, improving interoperability could lead to a 15-20% increase in cross-border transaction volumes by 2030. Another significant opportunity concerns the use of blockchains for the tokenization of traditional assets. This process allows representing assets such as real estate, equity, or bonds digitally on a blockchain, making their transfer easier and increasing liquidity. The research highlights how asset tokenization could create new financing opportunities for small and medium-sized enterprises (SMEs), which could leverage decentralized capital markets to obtain funding with fewer barriers than traditional channels. Estimates suggest that the tokenization market could reach a value of 16 trillion dollars by 2030, thanks to greater accessibility and reduced entry barriers. In terms of financial inclusion, permissionless blockchains offer an unprecedented opportunity to expand access to financial services, especially in less developed regions. Since they do not require traditional intermediaries, they can enable millions of unbanked people to participate in a global economic system, providing access to loans, savings, insurance, and investments. This is particularly relevant in developing countries, where barriers to accessing financial services are often insurmountable. According to the research, blockchains could help reduce the number of unbanked individuals by over 1.7 billion by 2030, improving quality of life and economic opportunities for large segments of the world population. Permissionless blockchains can also support the creation of new models of decentralized governance. This type of governance, based on predetermined and transparent rules, allows for more equitable and participatory resource management without the need for a central authority. Decentralizing the decision-making process could lead to greater trust from users, especially in sectors where trust in traditional institutions is low. The research highlights that 60% of respondents believe that adopting blockchain-based governance systems could improve transparency and reduce corruption in financial institutions. It is essential that policymakers and financial operators work closely together to explore the potential of public blockchains, without prejudice but with awareness of the challenges that still need to be addressed. Only in this way will it be possible to understand whether and how these technologies can contribute to more efficient, inclusive, and secure finance. Collaboration between the public and private sectors will be crucial to developing regulatory frameworks that can accompany innovation without stifling it, while ensuring user safety and protection. Conclusions The analysis of the impact of permissionless blockchains on the financial sector offers a strategic vision that goes beyond the usual technological and operational advantages. The neutrality, inclusiveness, and transparency of this technology are fundamental elements for a profound transformation of the financial system. However, to fully understand the strategic potential of permissionless blockchains, it is essential to consider aspects that go beyond their simple technical implementation. This innovation stands out for its ability to redefine competitive dynamics in the sector. Currently, financial infrastructures often operate with centralized governance models that tend to consolidate dominant positions and create lock-in costs for users. In contrast, the elimination of the need for intermediaries offered by permissionless blockchains introduces an open and shared infrastructure that stimulates competitiveness and promotes innovation. This approach results in reduced entry barriers for new operators and democratizes access to financial markets on a global scale. Another element, although less explored, concerns the possibility of enabling more inclusive and innovative forms of governance. While traditional systems rely on decisions made in closed environments, the introduction of decentralized governance mechanisms in public blockchains allows for the involvement of a plurality of actors. The increased transparency derived from this model reduces the risk of arbitrary decisions or those misaligned with the long-term interests of various stakeholders. The adoption of permissionless blockchains, from a strategic perspective, represents a paradigm shift rather than just a technological choice. The possibility of creating innovative business models, based on interoperability and composability, offers new perspectives. Composability refers to the ability to combine and integrate services and products in innovative ways, giving rise to modular and dynamic ecosystems. This characteristic makes permissionless blockchains enabling platforms for a sharing and knowledge economy. Despite their potential, significant challenges remain concerning scalability and privacy protection. Technological solutions such as layer 2, additional structures built on top of the main blockchain, or zero-knowledge proofs, which allow proving the validity of an operation without revealing its details, seek to address these issues. However, large-scale adoption will require balancing technological efficiency, regulation, and user trust. The ability to meet stringent requirements in terms of security, performance, and regulatory compliance will be decisive, while maintaining the fundamental principles of openness and decentralization. An additional reflection concerns the cultural impact that this technology can have on the financial sector. It is not just about implementing new technological infrastructure but rethinking the core values of the financial system itself, such as transparency, equity, and inclusiveness. The opportunity to optimize operational processes while strengthening trust and creating long-term sustainable value for all stakeholders is a crucial aspect. In an increasingly interconnected world, permissionless blockchains do not simply represent an option among many but can form the basis for a more resilient and democratic financial system. Podcast: https://spotifycreators-web.app.link/e/SAUZTzms3Ob Source:   https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-en

bottom of page