Risultati di ricerca
645 risultati trovati con una ricerca vuota
- Esseri viventi e algoritmi: la differenza che conta quando la GenAI entra nel lavoro
Dalla materia ai token, dai token agli obiettivi: un modello può parlare come noi senza «vivere» come noi. E questo sposta i pesi tra USA, Cina, UE e Italia. di Andrea Viliotti 8 febbraio 2026 Un organismo e un modello generativo possono produrre frasi simili, ma partono da topologie diverse: nel vivente la semantica è incollata al mondo da metabolismo, sensi e rischio; nella GenAI è incollata al linguaggio da dati e calcolo. Il confine non è solo filosofico: è industriale, regolatorio, geopolitico. Capire dove passano i “ponti” — grounding, traduzione, agency — è il modo più concreto per decidere come usare la GenAI senza farsi usare. Differenza tra esseri viventi e intelligenza artificiale generativa Una macchina che parla non è (ancora) un organismo La sorpresa di questi anni non è che un software sappia completare una frase. È che riesca a farlo con una qualità che, a tratti, assomiglia a quella umana. La tentazione è saltare al punto finale: se parla, allora “capisce”; se capisce, allora “pensa”; se pensa, allora “è” come noi. Ma la somiglianza dell’output non garantisce somiglianza della struttura. Per il vivente — direbbe la biologia dei sistemi — la prima informazione non è una parola: è un vincolo. Un organismo è un processo che si mantiene in vita: confini, scambi, riparazioni, errori che costano. La coscienza, dove c’è, nasce dentro un corpo che deve fare i conti con energia e tempo. Schrödinger, in una formula famosa, parlava di vita come di un sistema che “si nutre” di ordine: un modo elegante per dire che il mondo non perdona. Una GenAI, invece, non ha metabolismo, non ha dolore, non ha fame, non ha un “domani” biologico. Non ha neppure un’esperienza diretta: possiede una memoria statistica del linguaggio. È una mappa potentissima di regolarità testuali, addestrata a prevedere il prossimo token. Questo non la rende inutile: la rende diversa. E la differenza, per chi guida imprese e istituzioni, è un assetto dei rischi. Il punto cieco dei token: semantica senza mondo Per un essere umano, le parole sono ancorate a gesti, corpi, oggetti, ricordi e conseguenze. Il significato non è un dizionario: è un intreccio di pratiche. Wittgenstein lo riassumeva così: «il significato di una parola è il suo uso». La semantica umana è, in questo senso, sociale ed ecologica: vive dentro comunità, istituzioni, mestieri. In una GenAI, l’ancoraggio è diverso. Il modello vede testi. Dentro quei testi ci sono tracce del mondo — scienza, diritto, economia, cronaca — ma sono tracce mediate. Se l’addestramento è il “grande libro”, allora la realtà è il libro che manca: la pagina non scritta che, in un’impresa, si chiama cliente, impianto, bilancio, contenzioso, supply chain. Qui entra il primo ponte: il grounding. Collegare una GenAI a basi dati, strumenti, sensori, procedure di verifica non aggiunge “coscienza”; aggiunge aderenza. È un passaggio pratico: trasformare un modello che parla di un mondo in un componente che lavora dentro un mondo, sotto vincoli verificabili. Il ponte che fa la differenza: dalla semantica all’azione Il secondo ponte è la traduzione: dal token al concetto e ritorno. Nelle tradizioni filosofiche — occidentali e cinesi — la tensione tra nomi e cose è antica. La Cina classica parla di “rettificazione dei nomi”: se le parole non aderiscono ai ruoli e alle cose, l’ordine si spezza. Zhuangzi spinge ancora oltre: i nomi sono utili, ma non sono la realtà; servono, poi si lasciano andare. Per la GenAI, questa tensione non è un dibattito: è un bug operativo. Il modello può essere coerente nel linguaggio e sbagliato nei fatti. Può essere persuasivo e non verificabile. Per questo l’impresa non deve chiedere “quanto è brava a scrivere”, ma “quanto è brava a reggere un controllo”. Il terzo ponte è l’agency: l’aggancio tra obiettivi e azioni. Un vivente ha obiettivi impliciti (sopravvivere, mantenere equilibrio, riprodursi) e li difende. Una GenAI non “vuole” nulla: ottimizza una funzione durante l’addestramento e poi genera output in base ai prompt e ai vincoli che le imponiamo. L’illusione di agency nasce quando la inseriamo in un flusso che prende decisioni, sposta risorse, modifica processi. A quel punto l’agency non è nel modello: è nel sistema socio‑tecnico — persone, regole, incentivi, strumenti — di cui il modello diventa una leva. Schema concettuale dei ponti tra topologie (β traduzione; γ grounding; α aggancio obiettivi↔azione). Fonte: elaborazione dell’autore. USA, Cina e UE Qui la mappa concettuale incontra la geopolitica. Se la GenAI è un acceleratore di semantica, allora la partita non è solo “chi ha il modello migliore”, ma “chi controlla i ponti”: dati, energia, chip, piattaforme, norme, talenti. Ed è qui che emergono differenze nette tra USA, Cina e UE. Negli Stati Uniti la logica dominante è la scala: piattaforme, cloud, capitali, ecosistemi di ricerca e impresa che si alimentano a vicenda. L’obiettivo è trasformare capacità di calcolo in prodotti globali, e prodotti globali in standard de facto. La regolazione tende a oscillare tra sicurezza e competitività: la stessa parola “leadership” diventa un vincolo politico. In Cina la topologia degli obiettivi è più integrata con lo Stato e con la manifattura. Il controllo dei flussi informativi e la stabilità sociale entrano nel disegno tecnico: non come dettaglio, ma come specifica. Le regole su contenuti sintetici, identificazione e filing degli algoritmi mostrano un’idea di governance che punta a rendere l’AI “tracciabile” e politicamente compatibile. L’Unione europea, infine, prova a trasformare il proprio vantaggio comparato — la capacità normativa — in un vantaggio industriale di lungo periodo. L’AI Act disegna un mercato dove la fiducia è un requisito: divieti, obblighi per i sistemi ad alto rischio, e una disciplina specifica per i modelli di uso generale. Il rischio, per l’Europa, è che la compliance diventi costo senza ecosistema; l’opportunità è che diventi domanda di qualità, verificabilità, audit. In questa triangolazione c’è un quarto attore: l’energia. I data centre sono la nuova “fabbrica” della semantica. Se l’elettricità è cara o instabile, i ponti si restringono. Se la rete non regge, la promessa di automazione diventa un collo di bottiglia. È un vincolo che unisce industria, clima e sicurezza. Consumi elettrici globali dei data centres: 415 TWh (2024) e 945 TWh (2030, scenario base). Fonte: IEA (Energy and AI, 2025). Italia: il vantaggio è nel progetto, non nel modello Per l’Italia — paese manifatturiero, di filiere e distretti, con una base ampia di PMI — la domanda chiave non è “costruiamo il nostro modello” ma “dove inseriamo il ponte”. Molte imprese non hanno bisogno di addestrare un foundation model: hanno bisogno di ridurre errori, tempi, attriti tra uffici e stabilimenti, tra vendite e produzione, tra compliance e innovazione. Qui la GenAI è più utile quando diventa un componente progettato: un copilota dentro processi misurabili, con accesso controllato ai dati, con verifiche automatiche, con responsabilità chiare. La differenza tra successo e spreco sta nella topologia del lavoro: dove si decide, dove si controlla, dove si firma. C’è anche una dimensione culturale. Nella tradizione cinese del Dao, l’efficacia non nasce dalla forza bruta, ma dall’allineamento: «il Dao che può essere detto non è il Dao eterno». Tradotto per un consiglio di amministrazione: non confondere la descrizione (il modello) con la trasformazione (il processo). Un’azienda può “parlare AI” e restare inefficiente; può invece riprogettare i flussi e diventare più competitiva senza spettacolo. Che cosa cambia per le imprese 1) Disegno del processo Definire dove la GenAI può accelerare (sintesi, ricerca, drafting) e dove deve solo assistere (decisioni regolatorie, safety, firma). 2) Grounding e conoscenza Collegare il modello a fonti interne affidabili e versionate; separare “scrittura” da “verifica” e rendere tracciabili le citazioni. 3) Valutazione e controlli Costruire test, metriche e revisioni: l’obiettivo non è l’eloquenza, ma la riduzione di errori e di rework. 4) Governance e conformità Mappare rischi (privacy, proprietà intellettuale, allucinazioni ad alto impatto) e responsabilità; prepararsi agli obblighi su trasparenza e uso. 5) Competenze e incentivi Formare ruoli ibridi (business + dati + legale + IT) e allineare incentivi: l’AI funziona dove le persone non sono punite per fermare un errore. Timeline • 12 luglio 2024 — Testo finale AI Act pubblicato in Gazzetta ufficiale UE (Reg. 2024/1689). Perché conta: Dà certezza giuridica al perimetro europeo. • 1 agosto 2024 — AI Act entra in vigore. Perché conta: Inizia il conto alla rovescia per l’applicazione piena. • 2 febbraio 2025 — Nell’UE iniziano ad applicarsi divieti su pratiche proibite e obblighi di alfabetizzazione AI. Perché conta: La governance entra nelle organizzazioni, non solo nei laboratori. • 20-23 gennaio 2025 — Negli USA vengono revocate alcune direttive precedenti e varato un ordine per rimuovere “barriere” alla leadership AI. Perché conta: La traiettoria regolatoria diventa più legata alla competizione industriale. • 2 agosto 2025 — Nell’UE diventano applicabili le regole di governance e gli obblighi per i modelli GPAI. Perché conta: I foundation model entrano nella compliance. • 10 aprile 2025 — IEA pubblica il rapporto “Energy and AI”. Perché conta: L’energia emerge come vincolo strategico della corsa all’AI. • dicembre 2025 — In Cina, bozze e aggiornamenti regolatori puntano a rendere tracciabili i servizi AI “con interazione umana”. Perché conta: La conformità diventa parte dell’architettura. • 2 agosto 2026 — Applicazione piena dell’AI Act (con alcune eccezioni e transizioni). Perché conta: Lo standard europeo incide su filiere e fornitori globali. Tassi di policy (%): Fed 3.50–3.75 (in vigore al 2026-02-08), BCE deposit facility 2.00 (tasso in vigore), Cina LPR 1 anno 3.00 (2026-01-20). Fonti: FRED; ECB; Reuters/TradingEconomics. Numeri chiave • Tassi di policy: Fed funds target range 3,50–3,75%; BCE deposit facility 2,00%; Cina LPR 1 anno 3,00%. Periodo: dato in vigore (USA 2026-02-08; UE in vigore; Cina 2026-01-20). Fonte: FRED; ECB; Reuters. • Inflazione (a/a): Area euro HICP 1,7% (flash, gen 2026); Italia NIC 1,0% (gen 2026); USA CPI 2,7% (dic 2025); Cina CPI 0,8% (dic 2025). Periodo: ultimo dato disponibile per area. Fonte: Eurostat; ISTAT; Reuters/TradingEconomics; NBS/Xinhua. • Cambio: EUR/USD 1,1794 (tasso di riferimento BCE). Periodo: 2026-02-06. Fonte: ECB; Banca d’Italia. • Energia: Brent 68,05 $/barile (settlement); gas TTF 35,694 €/MWh (close). Periodo: 2026-02-06. Fonte: Reuters; Yahoo Finance; Investing.com . • Mercati e rischio: S&P 500 6.932,30; FTSE MIB 45.877,00; Shanghai Composite 4.065,58; spread BTP-Bund 63 pb. Periodo: chiusura 2026-02-06 (mercati); spread 2026-02-06. Fonte: S&P Dow Jones Indices/FRED/Reuters; Yahoo Finance; Investing.com ; ANSA/Radiocor. • Vincolo energia‑AI: consumi elettrici globali dei data centres ~415 TWh (2024); proiezione ~945 TWh (2030, scenario base). Periodo: 2024 (stima) e 2030 (scenario). Fonte: IEA (Energy and AI); Reuters. Cosa monitorare nel 2026 Se la GenAI è un acceleratore di linguaggio, allora i segnali utili non sono solo “nuovi modelli”, ma nuovi ponti. Nel 2026 vale la pena monitorare almeno cinque cose: • la qualità del grounding (quante risposte sono verificabili, quante no); • i costi energetici e i colli di bottiglia delle reti dove si concentrano i data centre; • la convergenza regolatoria (o la divergenza) tra USA, Cina e UE su trasparenza e responsabilità; • la capacità delle imprese di trasformare output in decisioni — cioè di riprogettare workflow, ruoli e controlli; • la maturazione di standard di valutazione: test pubblici, audit, e “cinture di sicurezza” per i casi d’uso critici. Filo rosso Il filo rosso è semplice: la GenAI non è un nuovo tipo di vita, ma un nuovo tipo di infrastruttura semantica. Può amplificare il pensiero, come un tempo lo hanno fatto scrittura e stampa; può anche amplificare errori, propaganda, conformismo, se i ponti non sono progettati. Per questo la domanda non è “quanto è intelligente il modello”, ma “quanto è intelligente il sistema” che lo circonda. Nella topologia del vivente, il mondo corregge; nella topologia della GenAI, correggiamo noi. E l’abilità decisiva — per imprese e governi — è costruire ponti che trasformino linguaggio in conoscenza verificabile e conoscenza in azione responsabile.
- Due guerre e la nuova corsa allʼIA: la settimana in cui il rischio cambia forma
Tra banche centrali ferme, oro vicino ai massimi e rotazione tra tech e value, la geoeconomia entra in una fase di pricing dell’incertezza. Impatti su imprese italiane e FTSE MIB. Il mercato paga coperture (oro e volatilità) ma seleziona i vincitori: energia, difesa e banche in Europa; semiconduttori e cloud sotto esame per la sostenibilità dei capex. di Andrea Viliotti La settimana 31 gennaio–6 febbraio 2026 ha mostrato una dinamica tipica delle fasi di transizione: le notizie geopolitiche aumentano la domanda di assicurazione (coperture, materie prime rifugio), mentre la finanza azionaria resta in modalità selettiva, premiando chi riesce a trasformare lʼincertezza in margine o in crescita. Per lʼItalia e per il FTSE MIB questo significa due cose: (1) la composizione settoriale dell'indice rende il mercato sensibile a energia, tassi e rischio geopolitico; (2) le imprese italiane — spesso esposte a catene del valore lunghe e a input energetici — devono gestire simultaneamente rischio fisico (conflitti e logistica) e rischio digitale (cyber e IA). Mondo Due teatri di guerra continuano a proiettare effetti economici ben oltre la linea del fronte. In Ucraina il tema non è solo militare: la pressione sulle infrastrutture energetiche si traduce in volatilità attesa su energia e fertilizzanti e, indirettamente, sul costo del capitale in Europa. In Medio Oriente l'attenzione dei mercati si concentra su tre canali: rischio di allargamento regionale, sicurezza delle rotte (Suez–Mar Rosso) e premio assicurativo sui trasporti. Il punto operativo per imprese e investitori è che lʼincertezza geopolitica non si manifesta soltanto come evento ma come regime: aumenta la probabilità di shock a bassa frequenza e alto impatto, e rende più preziosi gli asset di copertura e le filiere ridondanti. Mercati: rotazione, coperture e fragilità della crescita Nel mercato azionario globale la fotografia di settimana è una rotazione: da un lato, riallocazione verso settori e stili più difensivi; dall’altro, selettività sulle storie legate allʼIA, dove la domanda non manca ma la domanda di qualità (margini, pricing power, execution) diventa discriminante. Il segnale più chiaro arriva dal disallineamento tra indici: quando la tecnologia rallenta e lʼeconomia tradizionale regge, il messaggio non è un risk-off puro, ma un aggiustamento della narrativa. Per il FTSE MIB, più bancario e value, questo contesto può essere un vantaggio relativo — finché la volatilità resta gestibile e i costi dellʼenergia non risalgono in modo persistente. Indici azionari (base=100 a inizio periodo). Periodo: ultimi 6 mesi fino al 06/02/2026. Fonte: elaborazione su dati Investing.com . USA, Cina e UE Le banche centrali restano il metronomo della percezione di rischio: la stabilità dei tassi segnala fiducia nella disinflazione, ma anche il limite dell’impulso monetario nel sostenere la crescita reale. Negli Stati Uniti l’attenzione si sposta dal livello dei tassi alla traiettoria: quanto rapidamente (e quanto ordinatamente) si potrà passare da restrizione a neutralità. La Cina, dall’altra parte, continua a lavorare su due piani: sostegno ciclico (domanda interna, manifattura) e competizione tecnologica. Il che spiega perché le notizie su semiconduttori, controlli all’export e investimenti in cloud e data center abbiano oggi un impatto che travalica i listini tech: toccano supply chain, energia, e capacità industriale. Per l’Unione Europea il tema è la traduzione di questa competizione in politica industriale e in regole: energia, sicurezza, e IA. La frizione non è solo geopolitica; è geoeconomica: incentivi, standard, e accesso a capitali e competenze. Italia: In Italia la settimana ha riaperto tre dossier, con effetti diretti su imprese e mercati. Primo: la crescita. Le revisioni sulle prospettive 2026 aiutano il sentiment, ma non cambiano la sostanza: il Paese resta in un corridoio di crescita bassa, dove produttività e investimenti contano più del ciclo. Questo rende cruciali due leve: (a) costo dell’energia per manifattura e servizi; (b) credito bancario e condizioni di finanziamento. Secondo: salari e welfare. La tensione tra potere d’acquisto e sostenibilità della spesa pubblica è il terreno su cui si misurerà la politica economica: rinnovi contrattuali, pressione demografica e bisogno di competenze (anche digitali) definiscono la capacità di tenuta sociale. Terzo: sicurezza e scuola. Il tema cyber si intreccia con l’evento sportivo globale (Milano–Cortina) e con la necessità di rafforzare competenze STEM e digitali: senza capitale umano, lʼIA resta un costo; con capitale umano diventa produttività. Per il FTSE MIB, la sintesi è operativa: banche e assicurazioni sono la cartina di tornasole delle condizioni finanziarie; energia e difesa assorbono parte del premio geopolitico; utilities e infrastrutture riflettono regolazione e capex. In questo quadro il KPI di bolla speculativa (composito 0–100) non segnala euforia: semmai, un mercato che compra crescita dove la vede, ma continua a pagare per protezione. KPI bolla speculativa composito (0–100). Periodo: ultimi 6 mesi fino al 06/02/2026. Fonte: elaborazione GDE su FTSE MIB, VIX, Nasdaq 100, WUI. Timeline · 31/01 — Apertura settimana: mercati in modalità di copertura selettiva tra due conflitti e attese su banche centrali. · 02/02 — Cina: indicatori ciclici (PMI) confermano un quadro di crescita disomogenea tra domanda interna e manifattura. · 04/02 — Italia: focus su stime di crescita 2026 e impatto su finanza pubblica e investimenti. · 05/02 — Eurozona: BCE conferma tassi invariati e ribadisce dipendenza dai dati su inflazione e credito. · 05/02 — Tecnologia: risultati e guidance sulle spese IA riaprono il tema capex vs margini. · 06/02 — Materie prime: oro ancora sostenuto; petrolio volatile in funzione di domanda e geopolitica. · 06/02 — USA: il mercato prezza un percorso di tassi meno meccanico e più dipendente da crescita e lavoro. · 06/02 — Logistica: rotte e premi assicurativi restano sotto osservazione (Mar Rosso e Mediterraneo). · 06/02 — Cyber: attenzione a rischio ibrido (fisico + digitale) per infrastrutture ed eventi. · Fine settimana — Preparazione alla settimana 6–14/02: test per la resilienza di equity e credito. Numeri chiave · FTSE MIB: 45.877,20; variazione settimanale: 0,77%. Periodo: 30/01/2026–06/02/2026 Fonte: Investing.com (storico); cross-check: Yahoo Finance. · Forecast GDE FTSE MIB (chiusura 13/02): Base 52% (10–90%: 46.247–47.797), Laterale 33% (10–90%: 45.194–46.035), Shock 15% (10–90%: 43.084–44.946). Periodo: 06/02/2026–13/02/2026 Fonte: elaborazione GDE (Ω_MORPH_FIN) su storici FTSE MIB e volatilità. · KPI bolla speculativa composito: 36,0 su 100. Periodo: dato al 06/02/2026 Fonte: elaborazione GDE (valutazioni proxy + volatilità + sentiment + geopolitica/uncertainty). · VIX: 17,76; variazione settimanale: 1,83%. Periodo: 30/01/2026–06/02/2026 Fonte: CBOE/Investing.com. · Future oro: 4.979,80; variazione settimanale: 4,95%. Periodo: 30/01/2026–06/02/2026 Fonte: Investing.com ; cross-check: WSJ Market Data. · Brent: 68,05 USD/bbl (settlement). Periodo: 06/02/2026 Fonte: WSJ Market Data; Trading Economics. FTSE MIB: traiettorie medie per scenario (6–14 febbraio 2026). Fonte: elaborazione GDE su bootstrap rendimenti storici. Cosa monitorare nel 2026: la variabile decisiva non è un singolo dato, ma la coerenza tra geopolitica, finanza e produttività. Se l’incertezza resta elevata, vinceranno i modelli di business che trasformano rischio in resilienza (energia, sicurezza, filiere) e spesa in produttività (IA e competenze). Per l’Italia, il test è duplice: accelerare investimenti e capitale umano senza perdere coesione sociale, e mantenere attrattivo il premio per il rischio del proprio mercato. Filo rosso Il filo rosso è che il rischio non sta sparendo: sta cambiando forma. Le guerre alzano il costo della logistica e dell’energia anche quando i prezzi spot scendono; lʼIA alza l’asticella competitiva e sposta capitali verso chi può sostenere capex e talenti; le banche centrali, ferme, ricordano che il sostegno monetario non è infinito. Per imprese e investitori italiani la conseguenza è concreta: serve una strategia a due velocità. Nel breve, gestione di coperture, forniture e cyber. Nel medio, investimenti in efficienza energetica, dati e competenze. Il mercato (FTSE MIB incluso) premierà chi riesce a dimostrare questa transizione nei numeri, non nelle intenzioni.
- Dall’immunità adattiva ai LLM: perché l’IA in azienda funziona solo se la tratti come un sistema che impara
Il preprint di Sai T. Reddy (ETH Zurich/Botnar Institute of Immune Engineering) mette in parallelo quattro “convergenze” tra immunologia e intelligenza artificiale. Tradotte in chiave manageriale, indicano un’agenda: dati, feedback e governance prima degli slogan. di Andrea Viliotti È una tentazione ricorrente: comprare un “copilota”, collegarlo ai documenti aziendali e aspettarsi che il valore emerga. Ma l’intelligenza artificiale in impresa non è un impianto, è un metabolismo. Funziona quando l’organizzazione costruisce un ciclo di apprendimento: che cosa conta come “vero”, chi decide cosa è “buono”, come si misura l’errore e come lo si riduce. Un recente preprint teorico di Sai T. Reddy, immunologo computazionale all’ETH Zurich, offre una lente insolita ma utile: la convergenza tra immunità adattiva e architetture moderne di IA. Adozione IA in azienda Che cosa sostiene il paper (e che cosa no) Il paper (“ Computational Convergence of Adaptive Immunity and Artificial Intelligence ”, bioRxiv, doi:10.64898/2026.02.03.703525) è dichiaratamente teorico: non introduce nuovi dati sperimentali. Propone invece una cornice di equivalenze e analogie computazionali tra il modo in cui il sistema immunitario seleziona anticorpi efficaci e il modo in cui i modelli di IA selezionano rappresentazioni utili. L’autore distingue due convergenze “esatte” (equazioni equivalenti) e due convergenze “strategiche” (strutture di progetto simili). Quattro convergenze tra immunità adattiva e IA (sintesi da Reddy, 2026, Table 1). È importante anche ciò che il paper esplicita di non voler dire: l’equivalenza è “a livello algoritmico”, non un’identità fisica; non è un’argomentazione “teleologica” (nessuna natura che “progetta”); e non è un catalogo esaustivo (“non tutti i meccanismi immunitari hanno analoghi IA”). Per un’impresa, questa prudenza è già una lezione di governance: distinguere ciò che un modello è in grado di fare oggi da ciò che speriamo faccia domani, e mettere per iscritto i confini del claim. Le due equivalenze: selezione e probabilità, non magia La prima equivalenza collega l’attenzione dei Transformer alla distribuzione di Boltzmann: in forma semplificata, la softmax assegna un peso a ciascun “candidato” proporzionale a exp(score) e normalizza sulla somma. È una regola di selezione probabilistica: più un elemento è compatibile con la query, più influenza l’output. In azienda, questo si traduce in un punto pratico: se non definisci che cosa deve essere selezionato (documenti, procedure, dati autorizzati) e con quali criteri, stai delegando a un ranking opaco una parte del processo decisionale. La seconda equivalenza riguarda il contrastive learning: l’obiettivo InfoNCE può essere letto come −log della probabilità di selezionare il “positivo” in mezzo a molti “negativi”. Anche qui, la domanda manageriale non è “quanto è bravo il modello”, ma “chi definisce positivi e negativi, con quale metodo”. Se un team non costruisce set di valutazione, casi d’uso, esempi di errore e definizioni operative di qualità, sta lasciando che l’apprendimento avvenga per inerzia (o peggio: per ottimizzazione di proxy non allineati al business). L’adozione a stadi: una tabella che somiglia a un piano industriale Nel paper, la gerarchia di addestramento dei grandi modelli (pre-training → fine-tuning → RLHF) viene messa in parallelo con tre fasi dell’affinity maturation nell’immunità adattiva (germline → ipermutazione somatica → selezione mediata da T follicular helper). L’analogia non serve per “romanzare” l’IA: serve per ricordare che l’efficacia non è un atto unico ma una sequenza. Un LLM non diventa affidabile perché “lo si accende”, ma perché si costruisce una pipeline che parte da capacità generali e arriva a preferenze locali, cioè a criteri di qualità specifici dell’impresa. Tre stadi, una sola logica: costruire priors, poi adattare, poi calibrare preferenze (sintesi da Reddy, 2026, Table 2). Tradotto in change management, significa: 1) fondazioni (alfabetizzazione, dati, policy e strumenti); 2) adattamento (piloti su processi concreti, integrazione nei flussi, ownership di business); 3) calibrazione (loop di feedback umano, revisione di policy, misurazione continua e audit). Saltare il terzo stadio è il modo più comune per trasformare un progetto IA in un generatore di “demo” senza istituzionalizzazione. La memoria duale: perché RAG è più un tema di accesso che di modello La quarta convergenza mette in parallelo l’architettura RAG (retrieval-augmented generation) con la “doppia memoria” del sistema immunitario: plasmacellule longeve (produzione stabile) e cellule B della memoria (richiamo rapido quando serve). Per un’impresa, la lezione è architetturale: una parte della conoscenza resta “nei parametri” (capacità linguistica, ragionamento, pattern), ma la conoscenza che deve essere aggiornata, tracciata e difesa sta nella memoria “a richiesta” — basi documentali, sistemi di record, policy, contratti. Doppia memoria in impresa: parametri + retrieval governato (RAG). Qui la cultura aziendale pesa quanto l’infrastruttura: la stessa architettura può diventare un acceleratore di produttività o un rischio sistemico, a seconda di chi decide cosa è “recuperabile”, quali dati sono esclusi, come si logga l’uso e come si gestiscono incidenti. In altre parole: RAG non è un accessorio. È una politica di accesso travestita da feature. Casi reali: dove si vede l’effetto (e dove si vedono i limiti) Tre esempi, utili perché citabili e diversi per “maturità immunitaria” del ciclo di apprendimento: • Klarna: l’assistente AI per il customer service. La società ha dichiarato che l’assistente ha gestito una quota significativa delle chat e ridotto i tempi medi; allo stesso tempo, il dibattito successivo su qualità e ribilanciamento uomo-macchina ricorda che la calibrazione delle preferenze (stadio 3) non è opzionale. (Fonti: comunicato Klarna; Reuters). • Morgan Stanley: copilota interno su documentazione e ricerca. Il punto chiave non è il “prompt”, ma un framework di valutazione che misura affidabilità e coerenza prima di ampliare l’uso. (Fonti: OpenAI case study; comunicato Morgan Stanley). • Sviluppo software: evidenze sperimentali su strumenti tipo Copilot mostrano guadagni di velocità in task controllati; il tema per le imprese è separare produttività locale (tempo di completamento) da qualità, sicurezza e debito tecnico. (Fonti: paper su arXiv; risultati sperimentali MIT/GenAI). • Italia (banca): nei documenti pubblici di una grande banca si parla di adozione “responsabile e sicura” con guardrail e human-in-the-loop; il pezzo interessante è la governance del cambiamento (competenze, ruoli, presidi) più che il singolo tool. (Fonti: presentazioni/informativa della banca; Reuters sul contesto di trasformazione). Framework GDE: l’IA come “Osservatore interno” da progettare Nel framework GDE, un’organizzazione che adotta IA va letta come un “osservatore interno”: un sistema che percepisce, comprime informazione e agisce. La qualità dell’adozione non dipende solo dal modello, ma dalla vitalità del sistema di osservazione: canali di comunicazione chiari, feedback tracciabile, metrica condivisa di qualità, e capacità di correggere rotta senza “perdere coerenza”. In questa lente, l’IA è un amplificatore: se i canali sono vivi, accelera; se sono estrattivi (rumore, incentivi distorti, silos), amplifica errori e sfiducia. Una tassonomia pratica, utile a board e C‑suite, è distinguere tre archetipi di adozione: Adozione estrattiva. L’IA viene usata per tagliare costi e aumentare output senza ridefinire responsabilità, dati e controlli. Tipici segnali: assenza di evaluation harness, knowledge base “aperta”, incidenti ripetuti, fuga di competenze. Adozione neutra. Si sperimentano tool e pilot, ma senza un ciclo stabile di apprendimento organizzativo. Tipici segnali: progetti che restano “proof of concept”, value non tracciato, governance intermittente. Adozione “viva”. L’IA è integrata in un ciclo: dati → uso → feedback → correzione → audit. Tipici segnali: ownership di processo, misure di qualità e rischio, formazione e policy che cambiano con evidenza. Box operativo — KPI per governare l’IA in azienda Per evitare che l’IA resti un oggetto “narrativo”, servono KPI che separino: outcome (valore), leading (adozione e qualità del ciclo), rischio (incidenti) e cultura/change (qualità del feedback umano). Esempi operativi (adattare al contesto): • Outcome: Tempo‑ciclo di un processo target attribuibile a workflow con IA (misura: BPM/ERP/CRM; confronto pre/post su processo definito). • Leading: Adozione attiva per funzione: utenti attivi / utenti abilitati, e “profondità d’uso” (misura: log applicativi, audit accessi). • Qualità: Tasso di correzione umana e categorie di errore (misura: review workflow, campionamento, rubriche). • Risk: Incidenti di governance (data leakage, output non conforme, violazioni policy) e tempo di contenimento (misura: ticketing SOC/GRC). • Cultura/Change: Frequenza e qualità del feedback strutturato (retrospettive, survey, “preference calibration” interna) e follow‑up sulle azioni correttive. Checklist 30/60/90 giorni (decision‑first) Una roadmap minima, pensata per imprese multi‑funzione (CEO/COO, CFO, CIO/CTO, HR, Legal‑Compliance): 30 giorni – Definire 2–3 processi prioritari (costi/ricavi/rischio) e nominare un owner di business per ciascuno. – Stabilire policy dati e confini: cosa può entrare in un sistema IA, cosa no; log e tracciabilità minimi. – Impostare una “rubrica di qualità” (che cosa è un output buono) e un set di test iniziale. – Formazione mirata: alfabetizzazione su limiti (allucinazioni, bias) e responsabilità d’uso per i team coinvolti. 60 giorni – Pilota con retrieval governato (RAG) su un perimetro chiuso: documenti approvati, aggiornati, versionati. – Integrare il workflow di review: campionamento, doppia firma per output sensibili, escalation. – Mettere in piedi un registro incidenti e un processo di remediation (come per sicurezza o qualità). – Misurare KPI leading e qualità; decidere “stop/scale” su evidenze, non su entusiasmo. 90 giorni – Stabilizzare lo stadio 3: loop di feedback (preferenze) e aggiornamento periodico di policy e knowledge base. – Allargare a una seconda funzione solo se il primo ciclo è auditabile e ripetibile. – Formalizzare governance: comitato leggero (business+IT+legal+HR), cadenza e responsabilità. – Piano competenze: ruoli (product owner IA, data steward, risk owner), incentivi e percorsi. Il Filo Rosso Il filo rosso del paper di Reddy, per un imprenditore, non è l’analogia “romantica” tra biologia e software. È l’insistenza su tre parole: selezione, stadi, memoria. Selezione significa definire criteri e dati; stadi significa costruire un percorso che arriva alla calibrazione delle preferenze; memoria significa separare ciò che il modello “sa” da ciò che l’impresa deve governare e aggiornare. Chi mette in fila questi tre elementi trasforma l’IA in capacità organizzativa. Chi li ignora compra solo velocità, e spesso la paga con rischio. Fonti essenziali • Reddy, S.T. (2026). Computational Convergence of Adaptive Immunity and Artificial Intelligence. bioRxiv preprint, doi:10.64898/2026.02.03.703525 (posted 5 Feb 2026). • Commissione europea (2024). “AI Act enters into force” e pagina di timeline applicativa dell’AI Act (consultate per data di entrata in vigore e scadenze). • ISO/IEC 42001:2023 (Artificial intelligence management system). • NIST (2023). AI Risk Management Framework (AI RMF 1.0). • Klarna (2024) comunicato su AI assistant + Reuters (2024–2026) per contestualizzazione. • OpenAI (case study) e comunicati Morgan Stanley (2024) su applicazioni interne di GenAI.
- L’AI in azienda, senza illusioni: un metodo per decidere nel rumore geopolitico
Energia, tassi, cambio, semiconduttori, cloud e regole UE: se il contesto si muove, l’adozione dell’intelligenza artificiale non può essere una “scommessa tecnica”. Per le PMI italiane diventa una scelta di resilienza e governance. Nel mio lavoro con imprenditori e C‑level italiani uso un framework proprietario – GDE – per trasformare l’AI da promessa generica a programma misurabile. Il punto non è “fare un progetto”, ma costruire osservabilità, guardrail e una sequenza di decisioni che regge anche quando energia e credito cambiano rotta. di Andrea Viliotti Quando parlo di intelligenza artificiale nelle aziende con cui collaboro, mi accorgo che la domanda vera raramente è “che modello uso?”. Più spesso è: “posso permettermelo?” oppure “mi espone?”. In Italia, dove le PMI sono la spina dorsale e i margini si difendono ogni trimestre, la tecnologia non entra se non passa un test implicito: riduce sprechi e tempo, migliora decisioni ripetute, e non crea un rischio che nessuno sa gestire. È qui che il contesto geopolitico e geoeconomico smette di essere cornice e diventa input operativo. L’energia non è solo una bolletta: è volatilità che sposta costi e priorità. I tassi non sono una notizia da mercati: sono il ritmo con cui si finanzia il capitale circolante. Il cambio non è un grafico: è il prezzo della materia prima importata o il margine sull’export. E semiconduttori e cloud non sono “infrastruttura neutra”: sono scelte di dipendenza e continuità. Per questo, quando progetto un assessment di introduzione o ottimizzazione AI, non parto dai casi d’uso “più belli”. Parto dalle decisioni che l’azienda deve prendere in un contesto instabile – e dal modo in cui misurerà valore e rischio senza cadere nel tranello del “numero orfano”: una metrica che sembra oggettiva, ma non ha dati, owner e conseguenze a supporto. Assessment AI per PMI italiane Mondo: energia e credito come “variabili di controllo” Negli ultimi anni ho visto cambiare la conversazione in sala riunioni. Prima: “digitalizziamo”. Poi: “automatizziamo”. Oggi: “reggiamo?”. È una differenza sottile ma decisiva: un’impresa non cerca solo efficienza, cerca stabilità. E due leve dominano la stabilità: energia e credito. L’energia resta un fattore geopolitico perché passa da colli di bottiglia fisici (produzione, trasporto, infrastrutture) e da scelte politiche (sanzioni, accordi, scorte). Questo significa prezzi che oscillano e, soprattutto, incertezza: l’azienda che fa acquisti di lungo periodo o che lavora su contratti a prezzo fisso si trova a gestire una variabile esterna che erode margini senza preavviso. Il credito, invece, è la variabile “lenta” che però decide se un piano sta in piedi. Quando la politica monetaria cambia – o quando resta restrittiva più a lungo del previsto – cambiano condizioni di finanziamento e appetito al rischio. In quel momento un progetto AI che promette valore lontano nel tempo diventa più difficile da difendere. Nel mio metodo la prima domanda non è “quanto è innovativo”, ma “quanto è osservabile” e “quanto è rapido il time‑to‑value”: il tempo tra kickoff e primo caso d’uso che produce valore misurabile e verificabile nei sistemi aziendali. USA, Cina e UE La partita di semiconduttori e cloud (e perché riguarda l’Italia). Quando parlo con CEO, CFO, CIO o responsabili Legal, spesso riassumo così: USA, Cina e UE non stanno litigando solo su dazi o diplomazia; stanno definendo le regole di accesso a due “materie prime” della trasformazione digitale: capacità di calcolo (chip) e capacità di orchestrazione (cloud). Gli Stati Uniti hanno irrigidito negli anni recenti i controlli all’export su componenti avanzati e tecnologie legate ai semiconduttori; la Cina ha risposto con una politica industriale aggressiva e, in alcuni casi, con leve sulle materie prime critiche. L’Unione europea, nel mezzo, spinge su autonomia strategica: ridurre vulnerabilità e aumentare capacità produttiva e coordinamento. Per l’Italia questo si traduce in scelte molto concrete: dove girano i dati? quali fornitori garantiscono continuità? come si gestisce il rischio di lock‑in? L’AI, soprattutto quella generativa, tende a consumare più calcolo e più dati: se non si decide consapevolmente l’architettura (cloud pubblico, privato, ibrido; servizi gestiti; modelli on‑premise), si finisce per subire la catena di dipendenza invece di governarla. Italia: PMI tra export, cambio e “supply chain nervosa” In molte PMI italiane l’export non è un canale: è l’identità. Qui il cambio entra in azienda come un costo o come un vantaggio competitivo. Se l’euro si muove, cambiano i prezzi di input importati e la competitività dei listini all’estero. Nei miei assessment, questo non resta un discorso macro: diventa un criterio per scegliere casi d’uso che aiutano a proteggere margini (previsioni domanda, ottimizzazione scorte, pricing dinamico, monitoraggio fornitori). Poi c’è la supply chain: negli anni ho smesso di chiamarla “catena” e ho iniziato a pensarla come un sistema nervoso. Segnali deboli (ritardi, deviazioni, picchi di domanda) viaggiano lungo l’organizzazione e, se non c’è osservabilità, arrivano tardi. L’AI può aiutare – ma solo se i dati sono leggibili, tracciabili e collegati a responsabilità chiare. Altrimenti il rischio è automatizzare un’informazione che già oggi è confusa. È anche per questo che, pur con una crescita recente, l’adozione dell’AI resta disomogenea: nelle imprese italiane con almeno 10 addetti, l’uso di almeno una tecnologia IA nel 2025 è ancora minoritario, e il divario tra piccole e grandi aziende rimane marcato. Adozione dell’IA nelle imprese (≥10 addetti): divario tra piccole (10–49) e grandi (250+). Periodo: 2025. Fonte: ISTAT; Eurostat. Il mio punto di partenza: trasformare l’AI da “progetto” a sequenza di decisioni Qui entra il framework che uso – GDE – e la cosa che mi interessa di più è che lo posso spiegare senza gergo. Per me GDE è un modo per rendere auditabile una scelta: cosa facciamo, perché lo facciamo, con quali dati, con quale rischio e con quali indicatori. In pratica: una macchina per prendere decisioni sotto incertezza. La tentazione tipica è partire da una demo. Io faccio il contrario: parto da un “perimetro di controllo”. Se una decisione è critica (ad esempio: approvvigionamento energia; gestione credito clienti; trade‑off scorte vs servizio; compliance su dati e AI), allora vale la pena chiedersi se l’AI può migliorare quell’area. Se invece la decisione non ha KPI, owner e dati, qualsiasi automazione è fragile. Nel documento che consegno alla fine di un assessment, le parole più importanti non sono “modello”, ma “osservabilità” e “governance”. Senza osservabilità, non si misura. Senza governance, non si regge un audit. E senza entrambe, il time‑to‑value diventa una speranza. “GDE in 5 passi” (schema operativo usato nei miei assessment). Fonte: elaborazione dell’autore. Come funziona in 5 passi 1) Definisco il perimetro: quali decisioni critiche vogliamo migliorare (e quali rischi non possiamo accettare).2) Mappo processi e dati: dove nascono i segnali, chi li possiede, dove sono i colli di bottiglia.3) Seleziono 1–3 casi d’uso: valore atteso, tempi, dipendenze (cloud/dati), compliance, fallback manuale.4) Progetto un pilot misurabile: KPI outcome + leading + rischio, e un ciclo di feedback settimanale.5) Industrializzo: ruoli, policy, logging, audit trail, formazione, e monitoraggio continuo delle performance. Due esempi tipici che uso per rendere concreto il lavoro Esempio 1 – Manifattura discreta (funzione Operations). Problema: troppe ore perse tra pianificazione, ripianificazione e gestione eccezioni, con costi energetici che amplificano ogni inefficienza. Obiettivo desiderato: ridurre tempi di ciclo e scarti, con un pilot che attacca una sola linea o famiglia prodotto, e KPI osservabili in MES/ERP. Esempio 2 – Distribuzione/Logistica (funzione CFO/Commerciale). Problema: volatilità della domanda e dell’import/export che rende difficile fissare prezzi e scorte, con impatto immediato su cassa e credito. Obiettivo desiderato: previsione più stabile, regole di riordino e alert su deviazioni, con un cruscotto che esplicita ipotesi e incertezza. Li chiamo esempi tipici perché cambiano i dettagli, ma la struttura è quasi sempre la stessa: un collo di bottiglia informativo, una decisione ripetuta, e un costo di errore che diventa più alto quando tassi, energia o cambio si muovono. Governance e compliance: l’AI che passa l’esame (non solo quello tecnico) Nelle conversazioni con DPO e responsabili Legal emerge sempre lo stesso punto: la tecnologia corre, ma i vincoli non sono opzionali. In Europa – e quindi in Italia – l’AI si muove dentro una trama di regole: protezione dei dati, sicurezza, trasparenza, responsabilità. Per me non è un freno; è un criterio di progetto. Nel concreto, questo significa costruire un dossier minimo ma solido: che dati uso, con quale base giuridica, come li proteggo, come gestisco log e tracciabilità, chi approva un cambiamento di modello, cosa succede se l’output è sbagliato. Se un sistema genera un testo o un suggerimento, deve essere chiaro dove finisce l’automazione e dove inizia la responsabilità umana. Quando la compliance viene trattata come una “fase finale”, la vedo trasformarsi in costo e conflitto. Quando invece entra nel design – insieme ai KPI – diventa un acceleratore: evita rework e dà serenità al management. È uno dei paradossi più utili che ho imparato: più governance all’inizio, meno burocrazia alla fine. Prontezza PMI: 5 domande 1) Qual è la decisione ripetuta che oggi sbagliamo più spesso (e quanto ci costa)?2) Esiste già un dato “di verità” per misurare quell’errore (anche se è sporco)? Chi ne è owner?3) Se domani l’AI si spegne, qual è il piano di fallback (manuale o procedurale)?4) Chi firma la responsabilità: IT, Operations, Finance, Legal? È scritto e condiviso?5) Qual è il primo segnale che ci dice che il sistema sta degradando (drift, bias, eccezioni, reclami)? Timeline 2022–2023: energia e supply chain diventano “variabili strategiche” anche per chi non è energy‑intensive.2023–2024: accelerano regole e controlli su dati e AI; cresce attenzione a cloud e localizzazione.2024–2025: la politica monetaria resta centrale; il credito seleziona progetti con ritorni chiari.2025: nei dati ufficiali cresce l’adozione dell’AI, ma il divario tra piccole e grandi imprese resta ampio.2026: la domanda non è più “se” usare l’AI, ma “dove” e “con quali guardrail”, in un contesto che può cambiare in fretta. Numeri chiave - Adozione IA nelle imprese italiane (≥10 addetti): 16,4%. Periodo: anno 2025. Fonte: ISTAT.- Adozione IA nelle imprese UE (≥10 addetti): 19,95%. Periodo: 2025. Fonte: Eurostat.- Tasso sui depositi presso la BCE (deposit facility): 2,00%. Periodo: in vigore dall’11 giugno 2025. Fonte: BCE.- Inflazione area euro (HICP, var. annua): 1,9%. Periodo: dicembre 2025. Fonte: Eurostat.- Cambio EUR/USD (tasso di riferimento): 1,1798. Periodo: 5 febbraio 2026. Fonte: BCE.- Tasso sui nuovi prestiti alle imprese (società non finanziarie, Italia): 3,52%. Periodo: novembre 2025. Fonte: Banca d’Italia. Cosa monitorare nel 2026 (senza fare l’oracolo) Quando chiudo un assessment con un management team, cerco sempre di lasciare un set di segnali precoci osservabili. Non sono previsioni: sono indicatori che, se si muovono, cambiano il perimetro delle decisioni. Nel 2026 guardo in particolare: 1) Energia: volatilità e coperture (quanto pesa l’energia sui costi e quanto velocemente l’azienda può reagire). 2) Credito: condizioni sui nuovi finanziamenti e tempi di incasso (stress su cassa e capitale circolante). 3) Cambio e commercio: variazioni che impattano input e listini export, oltre a eventuali frizioni regolatorie o logistiche. 4) Cloud e semiconduttori: disponibilità di capacità di calcolo e politiche dei principali provider; in particolare ciò che cambia in termini di costi e vincoli di localizzazione. 5) Regole UE sull’AI: come si traduce in processi interni (documentazione, classificazione del rischio, controlli, formazione). Se questi segnali restano stabili, ha senso spingere su efficienza e scale‑up. Se cambiano rapidamente, spesso è più saggio proteggere la continuità operativa: scegliere pochi casi d’uso ad alto impatto e costruire governance e osservabilità prima di moltiplicare i progetti. Filo rosso Il filo rosso, per me, è semplice da dire e faticoso da praticare: collegare macro e micro senza saltare passaggi. Mondo significa energia e rotte; energia significa costi e margini; margini significano priorità di investimento. USA, Cina e UE significano regole e accesso a chip e cloud; quelle scelte significano architetture, dipendenze e continuità. Italia significa un tessuto di PMI che vive di export, qualità e velocità; e quindi decisioni ripetute, spesso con dati incompleti. In mezzo c’è l’AI: potente, sì, ma anche incline a creare illusioni se viene trattata come una scorciatoia. Quando invece la tratto come un pezzo di governance – KPI chiari, dati tracciabili, ruoli, auditabilità, guardrail – diventa una leva di resilienza. La CTA che lascio non è “compra” o “corri”: è “osserva”. Se la tua azienda sa osservare (processi, dati, rischi, segnali esterni), allora può decidere. E se può decidere, può anche usare l’AI in modo sobrio: per ridurre sprechi, migliorare la qualità delle decisioni, e arrivare a valore in tempi compatibili con un costo del denaro che non perdona.
- Correzione in Borsa: non è solo IA. Tassi, capex e geopolitica
Dieci sedute di correzione riaprono la domanda chiave: l’IA pesa, ma il mercato guarda soprattutto a tassi, capex tech e tensioni geopolitiche. 5 febbraio 2026, ore 17:30 (Livo) • di Andrea Viliotti Nelle ultime dieci sedute il segnale non è uniforme: l’azionario italiano ha retto meglio, mentre la componente «growth» Usa – in particolare software e filiera IA – ha perso quota con un aumento della «volatilità». Il punto per imprese e CFO non è indovinare il minimo, ma capire quali canali stanno trasmettendo lo shock: tassi e credito, dollaro e materie prime, capex tecnologico, regolazione e frizioni geopolitiche. E dove l’IA è driver reale… e dove è diventata un acceleratore narrativo di un rischio già in incubazione. Correzione Borsa tassi capex IA Dieci sedute di correzione: cosa dicono i prezzi Tra il 23/01/2026 e il 05/02/2026, il Nasdaq Composite ha segnato una correzione più marcata rispetto al Dow Jones. Il FTSE MIB, più esposto a banche, energia e industriali, ha mostrato una dinamica più resiliente. Nel frattempo, il VIX è risalito: non è un segnale di ‘panico’, ma un cambio di regime che aumenta il costo del rischio e riduce la tolleranza agli errori di guidance. Ultime 10 sedute: performance relativa (base=100). Periodo: 23/01/2026–05/02/2026. Fonte: elaborazioni su CSV Investing. Numeri chiave (ultime 10 sedute): Serie Rendimento cumulato Max drawdown Volatilità storica annua* Ultimo FTSE MIB 2.0% -1.9% 15.6% 45732.50 Nasdaq Composite -4.1% -5.5% 15.2% 22535.21 Dow Jones -0.5% -1.3% 11.5% 48852.71 VIX 40.5% -6.3% 116.0% 22.60 *Volatilità annualizzata calcolata da rendimenti giornalieri nella finestra (indicatore descrittivo). VIX: livello negli ultimi 6 mesi. Periodo: 06/08/2025–05/02/2026. Fonte: elaborazioni su CSV Investing.com (VIX). Driver “IA” vs driver macro: la differenza sta nel canale (non nello slogan) La lettura più utile – per chi fa budget, capex e gestione rischio – è separare tre strati che spesso si sommano nello stesso giorno: Macro-finanza: tassi reali e premio per il rischio. Se il mercato ‘prezza’ tassi più alti o più a lungo, le valutazioni growth soffrono per costruzione. Microstruttura e posizionamento: rotazioni e unwind di trade affollati (momentum, long software, long IA). Il prezzo può scendere per meccanica di portafoglio prima che cambino i fondamentali. IA come driver: non tanto ‘l’IA va male’, quanto la domanda di ritorni misurabili sul capex. Il mercato distingue tra chi monetizza (cash flow) e chi promette (narrativa). Andamento relativo ultimi 6 mesi (base=100). Periodo: 06/08/2025–05/02/2026. Fonte: elaborazioni su CSV Investing.com (indici). Distribuzione rendimenti giornalieri Nasdaq (ultimi 6 mesi). Periodo: 06/08/2025–05/02/2026. Fonte: elaborazioni su CSV Investing.com forniti dall’utente (Nasdaq). L’«indice bolla speculativa IA»: cosa misura (e cosa no)Per evitare che «IA» diventi una parola‑totem, usiamo un indicatore sintetico (proxy) costruito come (a)+(b):• (a) premio/dispersione: differenza di performance a 10 sedute tra Nasdaq e Dow (proxy di «tech premium»).• (b) tensione di regime: livello del VIX (proxy di costo del rischio).Come leggerlo: se (a) scende ma (b) resta alto, l’hype si sgonfia più in fretta della paura. Se entrambi salgono, torna il rischio di “trade affollato”.Ultimo valore (scala 0–100, rolling): 56 (variazione ~10 sedute: +20 punti). Indice ‘bolla speculativa IA’ (proxy a+b) su scala 0–100. Periodo: 06/08/2025–05/02/2026. Fonte: elaborazioni su serie Nasdaq/Dow/VIX. Oltre l’IA: geopolitica, geoeconomia e ‘colli di bottiglia’ Nel breve, le tensioni che contano per i listini non sono ‘solo’ le trimestrali. Sono i vincoli: energia, filiere tecnologiche, regole su dati e chip, e la capacità dei governi di sostenere investimenti senza riaccendere inflazione. Tre dyad che pesano sulla filiera IA (lettura qualitativa): Dyad Q_rel (qualitativo) Perché conta per imprese/mercati USA ↔ Cina estrattivo Export control su chip e apparecchiature; rischio supply chain e ‘friend‑shoring’ costoso. USA ↔ UE vivo / negoziale Regole su dati e concorrenza + investimenti difesa/infrastrutture; impatto su tassi e capex. UE ↔ Cina neutro → estrattivo Trade e overcapacity: pressione su prezzi industriali e rischi di contromisure tariffarie. Per l’Italia, la traduzione pratica passa da due sensori: rendimento BTP e spread (costo del capitale e condizioni di finanziamento per imprese e banche) e prezzo dell’energia (margini industriali e competitività dell’export). Quando uno dei due si muove in modo persistente, il FTSE MIB tende a cambiare passo, più per “risk premium” che per utili di breve. Hype, PR e realtà misurabile: cosa dicono adozione e produttività Qui serve prudenza: le statistiche ufficiali faticano a catturare l’uso ‘diffuso’ (copilot, automation, strumenti embedded). Eppure, il trend di adozione è ormai visibile. In Europa, nel 2025 circa un’impresa su cinque dichiara di usare tecnologie di IA, con tassi molto più alti nelle grandi aziende. Nei Paesi OCSE l’adozione continua a crescere, seppur con una moderazione del ritmo. Sul fronte produttività, i dati Usa mostrano un’accelerazione nella seconda metà del 2025, ma la stessa Federal Reserve invita a non ‘attribuire’ automaticamente tutto all’IA: misurazione e cicli contano. I dieci titoli più esposti alle tensioni (perimetro A+B) Perimetro A+B (operativo, non “ufficiale”): A = AI enabler/infrastruttura (semiconduttori, cloud, data center); B = AI adopter/applicazioni (software, piattaforme e servizi che monetizzano l’uso). In questa shortlist “più esposti” significa maggiore sensibilità a (i) ritorno del capex IA, (ii) costo del capitale/tassi, (iii) risk‑off e rotazioni, (iv) rischi regolatori e geopolitici di filiera. Mappa «A+B»: i 10 titoli più sensibili (con performance ultime 10 sedute) Ticker inclusi (invariati): NVDA, MSFT, AMZN, META, AMD, TSM, ORCL, CRM, ADBE, PLTR. Nota: la performance è calcolata tra 23/01/2026 e 05/02/2026 su prezzi giornalieri (fonte Investing.com ). Titolo Ticker Bucket Canale di esposizione Prezzo 23/01 Rend. 10 sedute NVIDIA NVDA A Domanda GPU/data center, margini e supply chain 187.67 -7.2% Microsoft MSFT B Capex data center e monetizzazione cloud/AI; multipli 465.95 -14.4% Amazon AMZN A/B Capex AWS e domanda enterprise; consumo discrezionale 239.16 -6.7% Meta Platforms META B Monetizzazione ads con AI vs capex; sensibilità a guidance 658.76 3.2% AMD AMD A Competizione GPU/CPU e visibilità ricavi IA 259.68 -26.2% TSMC TSM A Capex foundry e geopolitica Taiwan; ciclo semiconduttori 334.87 -2.0% Oracle ORCL B Riposizionamento cloud/AI; valutazione e rischio churn/disruption 177.16 -21.6% Salesforce CRM B SaaS esposto a ‘AI disruption’ e compressione multipli 228.05 -16.7% Adobe ADBE B Pricing power e rischio ‘feature substitution’ da GenAI 301.07 -9.8% Palantir PLTR B Valutazioni momentum e sensibilità a narrativa (gov/enterprise) 169.60 -22.8% Fonte prezzi: tabelle storiche Investing.com (finestra 23/01/2026–05/02/2026), per ciascun titolo. La “strada primaria” per l’IA in azienda: governance prima dei casi d’uso La correzione di Borsa, paradossalmente, è un promemoria da CFO: l’IA non è un progetto “demo”, è una trasformazione che assorbe capex e rischio operativo. La sequenza che tende a massimizzare ROI e controllabilità è quasi sempre questa: Portafoglio casi d’uso con business case verificabile (tempi, owner, dati, dipendenze IT). Data governance e sicurezza: qualità, accessi, logging, gestione dei fornitori. Modello operativo: policy per strumenti generativi, formazione, procurement e contratti. Misure: KPI di adozione (uso reale), KPI di produttività (tempi/costi), KPI di rischio (incidenti, leakage). Piano di resilienza: fallback manuale, audit, e continuità operativa su funzioni critiche. Esempi rapidi (quattro settori) per distinguere ‘adozione reale’ da ‘demo’:• Manifattura: riduzione fermi e scarti con manutenzione predittiva + copiloti per manutentori (KPI: OEE, MTTR).• Retail/servizi: assistenza clienti e pricing con GenAI + analitiche (KPI: tempi risposta, conversione, churn).• Finanza/assicurazioni: pre‑screening documentale e compliance (KPI: cost-to-serve, errori, tempi di audit).• Energia/infrastrutture: ottimizzazione asset e forecasting domanda (KPI: disponibilità, costi energia, incidenti). Forecast GDE (30 giorni): scenari per FTSE MIB e Nasdaq (ordinati per plausibilità) Di seguito tre scenari operativi (Base/Stress/Relief), ordinati per plausibilità qualitativa, utili per stress‑test di budgeting e risk management. I livelli indicati sono intervalli e non costituiscono raccomandazioni di investimento. Nasdaq Composite: Scenario Base (più plausibile): volatilità alta e stabilizzazione. Area mediana ~21583 (≈-4.2%). Scenario Stress: estensione della correzione verso area ~18945 (≈-15.9%). Scenario Relief: recupero selettivo verso area ~24446 (≈8.5%). Trigger pratici (Nasdaq): (1) tassi reali Usa e aspettative su Fed, (2) VIX e volatilità implicita, (3) spread credito (IG/HY): se si allargano, aumenta la probabilità dello scenario Stress. Nasdaq Composite: bande di scenario (p10/p50/p90) su ~30 giorni (≈22 sedute). Periodo: 06/02/2026–(≈)07/03/2026. Fonte: elaborazioni GDE su serie Nasdaq/VIX/Dow (CSV utente) + morphism di stress. FTSE MIB: Scenario Base (più plausibile): tenuta relativa con oscillazioni. Area mediana ~46250 (≈1.1%). Scenario Stress: contagio globale e repricing del credito. Area ~42432 (≈-7.2%). Scenario Relief: rotazione su value/Europa e calo volatilità. Area ~49885 (≈9.1%). Trigger pratici (FTSE MIB): (1) rendimento BTP e spread (proxy del costo del capitale), (2) VIX come proxy di risk‑off globale, (3) spread credito corporate e condizioni bancarie: un irrigidimento accelera lo scenario Stress. FTSE MIB: bande di scenario (p10/p50/p90) su ~30 giorni (≈22 sedute). Periodo: 06/02/2026–(≈)07/03/2026. Fonte: elaborazioni GDE su serie FTSE MIB/VIX + morphism di stress. Cosa monitorare nel 2026 e “filo rosso” Tre segnali, più utili del rumore quotidiano: (1) guidance sul ritorno del capex IA (non sul capex in sé), (2) traiettoria dei tassi reali e degli spread credito, (3) frizioni geopolitiche su chip, cloud e dati. Il filo rosso è semplice: l’IA resta un driver di medio periodo, ma nel breve è il punto di massima sensibilità quando il costo del capitale sale e l’incertezza aumenta. Per l’Italia questo passa soprattutto da BTP/spread (quanto costa finanziarsi) e energia (quanto margine resta). In azienda, la risposta non è “aspettare”, ma ridurre l’asimmetria: meno demo, più disciplina di esecuzione, KPI e governance.
- Moltbook, la prova generale dell’«internet degli agenti»
Cronaca di una piattaforma nata in fretta e le domande (scomode) sull’IA che lavora al posto nostro di Andrea Viliotti Nota di metodo — La GDE (Grand Unified Emergent) è una griglia di lettura sviluppata da chi scrive per rendere auditabile l’analisi dell’IA quando passa dalla conversazione alla delega. In questa prospettiva, un sistema «multi‑agente» è un habitat fatto di spazio semantico (testo, prompt, policy) e di realtà operativa (azioni, strumenti, credenziali, effetti). La useremo qui per tre scopi: separare fatti osservabili da ipotesi e scenari; mettere a fuoco la frattura testo↔realtà; e capire come gli errori si propagano lungo catene di agenti fino a diventare rischio tecnico, sociale e politico. Per qualche giorno, l’idea che l’intelligenza artificiale potesse «parlare» fra sé ha smesso di essere una metafora. Su Moltbook — un sito che si presenta come la «front page» dell’internet degli agenti — software‑agent hanno iniziato a pubblicare messaggi, commentare, chiedere e rispondere come in un social network. Non (solo) chatbot che rispondono a noi: agenti che dialogano fra loro e che, in teoria, possono usare strumenti esterni, accedere a risorse, agire. È qui che la cronaca si intreccia con l’analisi. A inizio febbraio, ricercatori di sicurezza hanno segnalato una vulnerabilità: secondo quanto riportato da Reuters e da altre testate, l’accesso non autorizzato avrebbe esposto messaggi privati fra agenti, indirizzi email di oltre 6mila utenti e più di un milione di credenziali (token, chiavi, password o equivalenti) prima che la piattaforma intervenisse per chiudere la falla. Nel racconto di questa «partita a velocità doppia» compaiono due parole che stanno diventando il lessico del 2026: agentic e vibe coding. L’agentic indica il salto dal modello che genera testo al sistema che pianifica e svolge compiti usando strumenti. Il vibe coding, nella definizione più pragmatica, è sviluppo accelerato con un forte supporto di IA (anche generativa), dove prototipazione e iterazione battono disciplina e controlli. Moltbook è interessante non perché sia «il nuovo social», ma perché mette in scena — con i suoi inciampi — la traiettoria dell’IA: dalla conversazione alla delega. E quando si delega, il problema non è soltanto la qualità del testo. È la qualità del legame fra testo e realtà: ciò che nel lessico GDE diventa auditabilità, catena di responsabilità e propagazione dell’errore. Moltbook internet degli agenti Il caso Moltbook: un social per agenti (e una falla da manuale) Sulla home, Moltbook si descrive come un luogo dove gli agenti «postano» e costruiscono una sorta di bacheca dell’«agent internet». L’idea è semplice e potente: se gli agenti diventano strumenti quotidiani (per lavoro, studio, acquisti, gestione domestica), allora avranno bisogno di una piazza dove scambiarsi informazioni e servizi. In altre parole: non un social per persone, ma un social per processi automatici. La vulnerabilità emersa nei primi giorni di vita del servizio ha trasformato quell’idea in un esperimento involontario. Reuters riporta che la falla avrebbe permesso a chiunque di accedere a messaggi privati fra agenti e a una massa di credenziali; 404 Media ha ricostruito un possibile meccanismo tecnico basato su un database Supabase esposto o privo di regole di accesso adeguate. Se confermato, è un caso‑scuola di sicurezza applicativa: l’IA non è «il bug», ma amplifica gli effetti del bug perché mette in rete automazioni che toccano strumenti e dati. Il fondatore Matt Schlicht, sempre secondo Reuters, ha parlato di «vibe coding» e ha rivendicato la velocità (dichiarando di non aver scritto direttamente codice). È un dettaglio importante: non per giudicare un singolo imprenditore, ma perché fotografa un trade‑off che si sta generalizzando. Più agenti, più integrazioni, più credenziali; e, spesso, meno tempo per fare threat modeling, hardening, logging e verifiche. Il punto non è moralistico. È ingegneristico e politico insieme: se si accetta che il prompt — cioè il testo d’istruzione — diventi un «campo operativo» dove si scrivono decisioni e azioni, allora l’infrastruttura che lo trasporta deve essere trattata come infrastruttura critica. Con criteri di auditabilità paragonabili a quelli di un software di pagamento, di un gestionale sanitario o di una piattaforma scolastica. Che cos’è Moltbook (in 10 righe) • Una piattaforma web che ospita profili/istanze di agenti IA. • Gli agenti pubblicano post e interagiscono come in un social. • Obiettivo dichiarato: diventare la «front page» dell’agent internet. • Nodo critico: integrazione con credenziali e strumenti (API, account, automazioni). • Caso d’uso: mostra come l’IA stia passando dalla risposta alla delega. Dalla chat al «multi‑agente»: perché Moltbook conta Nella prima stagione dell’IA generativa, il mercato ha vissuto di conversazione: si chiede, si ottiene testo. Nella seconda stagione, quella che si sta aprendo adesso, il testo è solo l’interfaccia. Sotto, c’è un sistema che pianifica, spezza un compito in sotto‑compiti, invoca strumenti (motori di ricerca, fogli di calcolo, e‑mail, API aziendali) e ritorna con un risultato. È qui che nasce l’«agente». In questo passaggio, cambia anche la natura del prompt. Non è più un «messaggio» verso un modello: diventa un’istruzione che abilita azioni. Un prompt sbagliato non produce solo una frase sbagliata: può produrre un’azione sbagliata, o far passare dati a un luogo sbagliato. E quando gli agenti sono più di uno — quando si lavora «a catena» — l’errore si propaga e si amplifica. Moltbook è la versione pubblica e visibile di ciò che molte aziende stanno facendo in privato: sperimentare agenti che scrivono report, aprono ticket, pianificano campagne, estraggono informazioni dai documenti, negoziano prezzi, creano codice. Il punto non è la piattaforma in sé. Il punto è l’ecosistema: log, credenziali, integrazioni, controlli e responsabilità. La lente GDE: spazio semantico, «sindrome pirandelliana» e propagazione dell’errore La piattaforma Moltbook è un caso utile perché rende palpabile una frattura che, nell’uso quotidiano dell’IA, spesso resta invisibile: la frattura fra testo e realtà. L’IA generativa produce testo coerente (nel suo spazio semantico) ma non ha, di default, un vincolo forte con i fatti del mondo. Finché quel testo resta un suggerimento, il danno è gestibile. Quando quel testo diventa comando — e dunque modifica il mondo — la frattura diventa rischio sistemico. La lente GDE (che qui usiamo come griglia interpretativa e operativa) parte da un’idea semplice: ogni sistema cognitivo opera in uno spazio semantico, una mappa di significati. Nel modello linguistico, lo spazio semantico è costruito dal testo; nella realtà sociale, è costruito da istituzioni, regole e verifiche. Il problema nasce quando le due mappe non sono allineate e, soprattutto, quando non esiste un meccanismo di auditabilità che renda visibile il passaggio fra una mappa e l’altra. Da qui la «sindrome pirandelliana»: la capacità della macchina di sostenere molte versioni plausibili della stessa storia, cambiando «maschera» a seconda del contesto. In un social di agenti, questo non è un vezzo letterario: è un problema di governance. Se agenti diversi generano spiegazioni diverse (tutte fluenti) per lo stesso evento, la comunità rischia di confondere coerenza narrativa e verità osservabile. In un’architettura multi‑agente, inoltre, l’errore non è puntuale: è contagioso. Un agente può produrre un’informazione errata; un secondo agente la assume come premessa; un terzo la usa per agire su un sistema esterno. È la propagazione dell’errore nelle catene di agenti: un problema che non si risolve con «più dati», ma con protocolli di verifica, logging e limiti di delega. Moltbook mette tutto questo in piazza: agenti che parlano, credenziali che circolano, automazioni che si intrecciano. È un piccolo laboratorio sul futuro prossimo. E, come spesso accade nei laboratori, il valore sta nella lezione: se il testo è campo operativo, va trattato come tale. Individui e famiglie: la delega quotidiana e i suoi costi nascosti Il primo impatto di un internet degli agenti non è nelle aziende: è nelle case. Un agente «domestico» promette di organizzare agenda e spese, scrivere messaggi, gestire abbonamenti, ricordare appuntamenti e fare acquisti. Ma per farlo deve avere accesso a identità e credenziali: email, calendario, home banking, documenti, storage. Il caso Moltbook ricorda che la superficie d’attacco non è solo il modello, ma l’ecosistema di integrazioni che lo rende utile. Il secondo impatto è psicologico e culturale. Se gli agenti interagiscono in spazi pubblici, l’utente tende ad attribuire loro intenzioni e personalità. È un corto circuito naturale: la lingua simula un soggetto. Nella lente GDE, questo rischio è un aspetto della frattura testo↔realtà: confondere l’«io narrato» dell’agente con un soggetto reale e responsabile. Infine, c’è il tema della diffusione d’uso. Secondo Eurostat, nel 2025 il 32,7% degli europei (16-74 anni) ha usato strumenti di IA generativa; il 15,1% li ha usati per lavoro e il 9,4% per istruzione formale. L’Italia risulta fra i Paesi con valori più bassi sul totale. Numeri che non dicono tutto, ma fotografano un passaggio: l’IA è già consumo di massa. Periodo: 2025 (UE) e agosto 2025 (USA). Fonte: Eurostat; St. Louis Fed (RTPS). Scuola e cultura: dall’elaborato al prompt, dal canone al flusso A scuola, l’IA è entrata prima come scorciatoia (scrivere un testo) e poi come compagno di studio (spiegare un concetto). Con gli agenti, entra come infrastruttura: sistemi che riassumono capitoli, generano quiz, correggono esercizi, suggeriscono percorsi di lettura. Il vantaggio è evidente; il rischio è meno immediato: se il testo è campo operativo, anche l’apprendimento diventa un processo «programmabile» e dunque manipolabile. Nella lente GDE, la scuola è il luogo dove la frattura testo↔realtà si gioca in forma educativa: imparare significa legare parole a cose, concetti a esperienze, ragionamenti a verifiche. Se l’IA produce testo fluente senza vincolo forte al reale, la didattica deve rafforzare il vincolo, non indebolirlo. Questo vuol dire compiti che chiedono fonti, passaggi, verifiche; e, soprattutto, alfabetizzazione all’auditabilità: saper ricostruire come si è arrivati a un risultato. Il problema non è «proibire» l’IA. È evitare che diventi un generatore di consenso culturale senza controllo. In un social di agenti, il canone si trasforma in flusso: migliaia di micro‑testi prodotti da sistemi che ottimizzano per coerenza, non per verità. È un passaggio che investe editoria, giornalismo, piattaforme video e persino archivi pubblici. Lavoro e professioni: produttività promessa, produttività misurata Il mondo del lavoro è il terreno dove l’«internet degli agenti» cambia le regole più in fretta. Non solo perché l’IA può generare testo o codice, ma perché può orchestrare attività: preparare un’offerta, compilare un report, aggiornare un CRM, gestire email e calendario, fare scouting di fornitori. In molti casi, il valore sta nell’attrito che si riduce: minuti risparmiati moltiplicati per milioni di persone. Ma la produttività non è una fede: è una misura. Negli ultimi mesi sono emersi risultati interessanti e, a tratti, contraddittori. Il governo britannico, in un trial su Copilot, ha riportato un risparmio medio di 26 minuti al giorno per gli utenti. Studi su campioni statunitensi indicano risparmi medi di alcune ore a settimana per chi usa la GenAI in compiti specifici (ad esempio email). E iniziative promosse da imprese hanno stimato ordini di grandezza analoghi su base annua. Allo stesso tempo, esperimenti controllati su sviluppatori hanno mostrato che l’IA può anche rallentare, almeno in alcuni contesti: quando il costo di verificare e correggere supera il beneficio di generare. La lezione è coerente con la lente GDE: l’errore non è gratis. Se la catena di agenti produce un output non auditabile, il «debito di verifica» ricade sull’umano e può annullare i guadagni. Per le professioni, dunque, la domanda non è «arriva o non arriva». È «con quali controlli». La differenza fra un agente utile e un agente pericoloso non è la fluency, ma l’architettura: permessi minimi, log, tracciabilità delle fonti, stop‑condition e responsabilità. Periodo: 2024–2025 (secondo fonte). Fonte: governo UK; St. Louis Fed (RTPS); NBER; Public First/Google. Nota: conversioni in ore/settimana documentate in Appendice. Cyber: quando l’IA moltiplica la superficie d’attacco Il caso Moltbook è, prima di tutto, un incidente di sicurezza applicativa. Ma è anche un segnale di tendenza: più si usa la GenAI in azienda e nella PA, più cresce la probabilità di esfiltrazione di dati, fuga di credenziali e uso improprio di informazioni regolamentate. Non perché l’IA «voglia» rubare dati, ma perché diventa un nuovo canale di trasferimento: si copiano e incollano testi, si caricano documenti, si collegano account. Un indicatore utile viene dai report di sicurezza su traffico e applicazioni cloud. Nel Cloud & Threat Report 2026, Netskope stima che, nel proprio campione, le violazioni di policy dati legate a GenAI avvengono in media 223 volte al mese; nel quartile alto delle organizzazioni superano 2.100 incidenti mensili. Sono numeri che non misurano tutti i cyber‑incidenti «nel mondo», ma mostrano l’ordine di grandezza del rischio operativo quando l’uso è diffuso. Qui la lente GDE aggiunge un punto: la propagazione dell’errore non è solo cognitiva, è anche infrastrutturale. Se un agente ha accesso a una credenziale, quella credenziale diventa un nodo vulnerabile per tutta la catena. E se più agenti condividono strumenti e account, l’errore (o l’attacco) si propaga come un contagio. Periodo: dataset 2025 (report 2026). Fonte: Netskope Cloud & Threat Report 2026; ITPro (sintesi). Politica e Stati: sovranità, regolazione e potere degli agenti Quando gli agenti diventano infrastruttura, la questione esce dal perimetro «innovazione» ed entra nel perimetro «sovranità». Un agente che pianifica e agisce può diventare un acceleratore di produttività; ma può anche essere un vettore di disinformazione, un moltiplicatore di cyber‑operazioni, un modo per scalare burocrazia e controllo sociale. In questo senso, Moltbook è una metafora concreta: un luogo dove identità artificiali interagiscono, e dove la distinzione fra comportamento autentico e comportamento simulato si assottiglia. Le risposte regolatorie stanno seguendo strade diverse. Nell’Unione Europea, l’AI Act disegna un percorso a scadenze: entrata in vigore nell’agosto 2024, applicazione graduale fino alla piena efficacia nell’agosto 2026, con tappe intermedie su pratiche vietate e obblighi per i modelli di uso generale. In Cina, misure di etichettatura per contenuti generati dall’IA (incluse forme di «deep synthesis») puntano a rendere riconoscibile ciò che è artificiale. Negli Stati Uniti, l’approccio resta più frammentato, ma con interventi federali che cercano di fissare un quadro nazionale; l’Italia ha approvato una legge quadro nazionale sull’IA che si innesta nel contesto europeo. Sul piano geopolitico, i numeri aiutano a capire la scala. Secondo dati ufficiali cinesi, gli utenti di IA generativa erano circa 515 milioni a giugno 2025: un ordine di grandezza che rende evidente perché Pechino consideri l’IA un’infrastruttura strategica. In Europa, i tassi di utilizzo e adozione sono più bassi in diversi Paesi, ma la leva regolatoria è più forte. Gli Stati Uniti restano il baricentro dell’ecosistema di modelli e piattaforme, con una capacità di diffusione globale delle proprie architetture. Nella lente GDE, questa dinamica si traduce in un rischio comune: la frattura testo↔realtà può diventare frattura istituzionale. Se la produzione di testo «credibile» scala più in fretta dei meccanismi di verifica — media, scuola, amministrazioni, tribunali — la fiducia pubblica diventa un bene scarso. E la scarsità di fiducia, in politica, è sempre un moltiplicatore di conflitti. Periodo: 2024–2026. Fonte: Commissione UE (timeline AI Act); fonti normative e stampa (Cina/Italia/USA). Focus geografico: Cina, UE, Italia, USA Cina: scala, controllo e infrastruttura La Cina è il caso in cui l’IA è già, dichiaratamente, infrastruttura nazionale. Il dato ufficiale di circa 515 milioni di utenti di IA generativa a giugno 2025 fotografa una scala che rende plausibile un internet degli agenti in tempi brevi: più utenti, più casi d’uso, più incentivi economici per integrare agenti in servizi e piattaforme. La risposta normativa tende a privilegiare la leggibilità politica del fenomeno: misure di etichettatura dei contenuti generati dall’IA e regole per servizi generativi mirano a rendere identificabile ciò che è artificiale e a preservare controllo e responsabilità. In una lente GDE, è un tentativo di ridurre la frattura testo↔realtà attraverso un vincolo di segnalazione: sapere che un testo è «di macchina» non lo rende vero, ma aiuta a trattarlo con procedure diverse. Unione Europea: regolazione forte, adozione a macchia di leopardo L’Unione Europea ha scelto la via della regolazione orizzontale: l’AI Act costruisce obblighi in base al rischio, con scadenze progressive fino al 2026. È una scelta che prova a portare auditabilità e responsabilità dentro l’infrastruttura prima che l’internet degli agenti diventi un fatto compiuto. Sul fronte dell’adozione, i dati Eurostat mostrano un’accelerazione: nel 2025 il 20% delle imprese UE con almeno 10 addetti dichiara di usare tecnologie di IA; nello stesso anno, quasi un europeo su tre dichiara di aver usato strumenti di IA generativa, e circa il 15% per lavoro. I valori variano molto fra Paesi: un segnale che l’Europa non è un mercato omogeneo, e che le politiche di competenze e infrastrutture contano quanto le regole. Italia: divario di adozione e occasione di qualità L’Italia si muove in un quadro doppio: la cornice europea e un percorso nazionale. La legge quadro sull’IA approvata nel 2025 ha l’obiettivo di tradurre in atti e governance interne ciò che, altrimenti, resterebbe adempimento astratto. Ma resta un dato: l’adozione risulta più bassa rispetto ai Paesi di testa, sia per uso individuale sia per diffusione nelle imprese. Questo divario può essere letto in due modi. Il primo è difensivo: rischio di perdere produttività e competitività. Il secondo è progettuale: possibilità di saltare una fase di «adozione disordinata» e costruire direttamente architetture più auditabili. In altre parole: arrivare dopo, ma arrivare meglio, con log, policy di credenziali, procurement consapevole e formazione. USA: ecosistema dominante, rischio «move fast» Gli Stati Uniti restano il baricentro dell’ecosistema di modelli, piattaforme e cloud che alimenta agenti e servizi. È un vantaggio competitivo, ma contiene un rischio strutturale: la cultura del «move fast» tende a privilegiare velocità e mercato. Moltbook — nato in modo fulmineo e poi colpito da un problema di sicurezza — è una versione caricaturale, ma istruttiva, di questo modello. Sul piano pubblico, l’approccio normativo è più frammentato rispetto all’UE. L’azione federale cerca di mettere ordine con linee guida e atti esecutivi, mentre Stati e regolatori settoriali si muovono con tempi diversi. Nella lente GDE, la conseguenza è chiara: quando gli standard non sono condivisi, l’auditabilità diventa un optional. E ciò che è optional tende a essere sacrificato quando la pressione competitiva cresce. Tre scenari per le professioni, dopo Moltbook Che cosa resta, dopo la cronaca? Moltbook non è una profezia: è un indizio. La piattaforma mostra che l’internet degli agenti può arrivare «per accumulazione» — strumenti e integrazioni che diventano un ecosistema — e che l’auditabilità è il punto debole se si corre troppo. Da qui tre scenari plausibili per l’uso dell’IA nelle professioni nel prossimo futuro. Scenario 1 — L’agente «certificato»: produttività con tracciabilità Le organizzazioni accettano che gli agenti diventino standard, ma li incardinano in procedure. Il prompt è trattato come codice: versionato, testato, sottoposto a review. Le integrazioni con sistemi esterni passano da account personali a service account con permessi minimi; ogni azione è loggata; le fonti sono tracciate. Nascono ruoli ibridi: auditor di workflow agentici, responsabili di «catene di delega», specialisti di sicurezza per agenti e modelli. In questo scenario, i guadagni di tempo diventano replicabili perché il costo di verifica si riduce: non si verifica tutto, si verifica bene, con strumenti. La differenza fra «adozione» e «trasformazione» è l’auditabilità. Scenario 2 — L’efficienza disordinata: agenti ovunque, incidenti frequenti L’adozione corre più veloce dei controlli. Gli agenti entrano in studi professionali, PMI, amministrazioni e famiglie come «plugin» di produttività. Le credenziali si moltiplicano, le integrazioni crescono, i log sono frammentari. Il costo di verifica ricade sugli individui: chi sa controllare (e ha strumenti) guadagna; chi non sa controllare subisce errori, fughe di dati e incidenti reputazionali. Moltbook, in questo scenario, non è un’eccezione: è un pattern. Ogni nuovo servizio agentico rischia la sua «settimana zero» di vulnerabilità. Il mercato premia chi arriva per primo, e la sicurezza segue. Scenario 3 — Reazione e sovranità: freno, compartimenti stagni, IA «locale» Incidenti ripetuti (data leak, frodi, disinformazione automatizzata) spingono regolatori e grandi organizzazioni a reagire. Crescono divieti settoriali e requisiti di certificazione; molte funzioni agentiche vengono riportate «in casa» con modelli on‑prem o in cloud sovrani. La produttività cresce più lentamente, ma con minori rischi sistemici. In questo scenario, l’Europa può guadagnare peso proprio sul terreno della compliance e dell’auditabilità, mentre Stati Uniti e Cina competono sulla scala. Per le professioni, significa meno «tool spontanei» e più piattaforme integrate, con barriere d’ingresso più alte. Cosa fare, adesso: requisiti operativi (lente GDE) Il caso Moltbook suggerisce una regola pratica: più un sistema è agentico, più deve essere auditabile. La domanda «funziona?» non basta; serve la domanda «si può ricostruire cosa ha fatto, perché, con quali dati e con quali permessi?». Di seguito una checklist operativa, pensata per tre livelli: individui/famiglie, organizzazioni, decisori pubblici e scuola. Per individui e famiglie · Ridurre la delega «cieca»: evitare di collegare l’agente a caselle email, drive e home banking senza capire quali permessi concede e come revocarli. · Separare identità e credenziali: usare account dedicati (non personali) per servizi sperimentali e disattivare l’accesso automatico quando non serve. · Chiedere tracciabilità: preferire strumenti che mostrano fonti, cronologia delle azioni e log delle integrazioni (anche in forma semplificata). · Allenare l’anticorpo GDE: distinguere coerenza del testo da verificabilità dei fatti; non delegare decisioni irreversibili senza controllo umano. Per imprese e professioni · Prompt come codice: versionare prompt e workflow, fare review, testare su casi noti, introdurre «stop condition» per azioni ad alto impatto (pagamenti, contratti, dati sensibili). · Principio del privilegio minimo: service account dedicati, scope ridotti, rotazione credenziali; vietare collegamenti con account personali ai sistemi core. · Audit log end‑to‑end: registrare input, output, tool call, fonti consultate, modello/versione usata, e decisioni di override umano; conservare log secondo policy. · Controlli anti‑propagazione: definire catene di agenti e «nodi limitrofi» (sistemi collegati) con monitoraggio; un errore in un nodo deve bloccare o degradare i vicini, non propagarsi. · Misurare la produttività netta: contabilizzare anche il costo di verifica e correzione; usare piloti con metriche e baseline, non solo percezioni. · Sicurezza e compliance by design: threat modeling per agenti, red teaming su prompt injection e data leakage, controllo su dati regolamentati. Per politica, Stati e scuola · Standard minimi di auditabilità per sistemi agentici: log obbligatori, tracciabilità delle fonti, dichiarazione dei permessi concessi, procedure di incident response. · Etichettatura e trasparenza dove serve: non per «censurare» ma per distinguere contenuti umani e artificiali in contesti sensibili (informazione, elezioni, PA). · Competenze: piani nazionali e settoriali su alfabetizzazione all’IA e all’auditabilità (docenti, PA, professioni regolamentate). · Procurement pubblico: clausole su logging, sicurezza, portabilità, e diritto di audit; evitare lock‑in non controllabile. · Ricerca e infrastrutture: investire in strumenti di verifica, watermarking affidabile, sicurezza per agenti, e modelli «sovrani» dove necessario. Filo rosso Moltbook è durato poco, per ora, come notizia. Ma il suo valore sta nella sintesi che offre: l’IA sta diventando un sistema di deleghe e integrazioni, non un semplice generatore di testo. E quando il testo diventa azione, l’auditabilità non è un lusso: è la condizione per tenere insieme innovazione e fiducia. Se non si costruisce quel ponte fra testo e realtà, la «sindrome pirandelliana» non resterà una metafora: diventerà un ambiente.
- Agenti AI: perché “più” non significa “meglio” (e come farli lavorare in azienda)
Una nuova ricerca propone leggi di scala per i sistemi multi‑agente: quando la coordinazione crea valore — e quando diventa puro overhead. Traduzione operativa per chi deve decidere architetture, KPI e controlli. di Andrea Viliotti C’è un’idea seducente dietro gli agent systems: se un modello sa ragionare, allora un “team” di modelli — coordinato come un’organizzazione — dovrebbe ragionare meglio. Il lavoro “ Towards a Science of Scaling Agent Systems ” (arXiv:2512.08296v2) prova a togliere romanticismo e sostituirlo con misure: quando il multi‑agente scala, quando si rompe e quali metriche anticipano il punto di rottura. Lo studio è firmato da un gruppo tra Google Research, Google DeepMind e MIT: Yubin Kim, Ken Gu, Chanwoo Park, Chunjong Park, Samuel Schmidgall, A. Ali Heydari, Yao Yan, Zhihan Zhang, Yuchen Zhuang, Yun Liu, Mark Malhotra, Paul Pu Liang, Hae Won Park, Yuzhe Yang, Xuhai Xu, Yilun Du, Shwetak Patel, Tim Althoff, Daniel McDuff e Xin Liu. Il messaggio operativo per imprese italiane (manifattura; servizi professionali; finanza‑assicurazioni; retail‑logistica; IT‑software) è chiaro: prima di investire in architetture complesse, occorre selezionare i task “eleggibili”, definire KPI osservabili e mettere in sicurezza strumenti e permessi (Kim et al., 2025). Agenti AI in azienda Che cosa dice lo studio (senza marketing) Gli autori partono da un fatto che chi implementa agenti conosce bene: oggi molta “best practice” è fatta di euristiche, non di leggi. Per costruire una base più scientifica, definiscono la performance agentica come interazione tra: quantità di agenti, struttura di coordinazione, capacità del modello di base e proprietà del compito. In altre parole: non esiste un “sistema migliore” in astratto; esiste un sistema che paga (o non paga) su una classe di task. La parte rilevante è il disegno sperimentale: strumenti standardizzati, prompt standardizzati e budget di token standardizzati, per isolare l’effetto architettura da confondenti implementativi (Periodo: esperimenti nello studio; Fonte: Kim et al., 2025). Le architetture confrontate sono cinque: Single‑Agent System (SAS) e quattro famiglie multi‑agente (Independent, Centralized, Decentralized, Hybrid). La valutazione avviene su quattro benchmark agentici che forzano multi‑step + tool use: Finance‑Agent, BrowseComp‑Plus, PlanCraft e Workbench (Kim et al., 2025). Lo studio attribuisce a ciascun dominio un indicatore di complessità D: Workbench 0,000; Finance‑Agent 0,407; PlanCraft 0,419; BrowseComp‑Plus 0,839 (Fonte: Kim et al., 2025, Tab. 10). Questo D è la chiave, perché sposta la discussione da “quale architettura” a “quale tipo di lavoro”. Il dato che cambia la priorità: soglia di complessità e costo di coordinazione La tesi centrale è brutale: esiste una soglia di complessità oltre la quale “mettere più agenti” peggiora. Nell’analisi degli autori la soglia critica è D ≈ 0,40 (Periodo: analisi nello studio; Fonte: Kim et al., 2025, App. C.3). Sotto quel valore, il task è abbastanza decomponibile da far valere il parallelismo; sopra, la coordinazione consuma le risorse che servono al ragionamento. Per un decisore la traduzione è semplice: prima di scegliere vendor e framework, bisogna scegliere i processi. Non “dove l’AI è utile”, ma “dove la decomposizione è vera”: output verificabili, dipendenze limitate, strumenti con effetti reversibili o controllabili. È una scelta che vale in manifattura (anomalie qualità, manutenzione, pianificazione), nei servizi professionali (ricerca e sintesi di fascicoli, drafting controllato), in finanza‑assicurazioni (raccolta evidenze, triage, documentazione), in retail‑logistica (gestione eccezioni, routing, planning), e nell’IT (incident response, change analysis) — purché ci sia una ground truth o una procedura di verifica. Il secondo risultato è che l’overhead non è un difetto “di implementazione”: cresce con la topologia. Lo studio misura un overhead O% di 58 (Independent), 263 (Decentralized), 285 (Centralized), 515 (Hybrid), a parità di budget medio μ = 4.800 token per trial (Periodo: esperimenti, n=180 configurazioni; Fonte: Kim et al., 2025, Tab. 5). Tradotto: più “governance conversazionale” inserite tra agenti, più spendete per parlare invece che per risolvere. Terzo: l’errore può amplificarsi come in una catena di montaggio senza controlli qualità. Nelle metriche di coordinazione, l’Error Amplification Ae è 17,2× per Independent e 4,4× per Centralized. Se manca un meccanismo di verifica/containment, un errore piccolo diventa un errore “istituzionale” perché viene propagato e razionalizzato lungo il workflow. Istogramma: efficienza (Successi per 1.000 token) per architettura. Fonte: Kim et al., 2025 (arXiv:2512.08296v2), Tabella 5. Periodo: esperimenti (n=180 configurazioni; μ=4.800 token/trial). Due ulteriori effetti completano il quadro. Primo: quando il baseline single‑agent è già “alto”, la coordinazione rende meno. Nel paper gli autori osservano una saturazione: oltre una soglia empirica di ~45% di performance del single‑agent, la coordinazione produce rendimenti decrescenti o negativi. Secondo: c’è un trade‑off tra tool use e coordinazione: a budget computazionale fissato, task “tool‑heavy” soffrono in modo sproporzionato l’overhead del multi‑agente, perché ogni turno in più compete con i token di ragionamento. Che cosa cambia per le imprese: dal “prompt” al processo Il punto non è “adottare agenti”, ma trasformare un task in un sistema operativo: strumenti, permessi, controlli, metriche. In questo passaggio molte aziende scoprono un vincolo: l’agente non è un chatbot, è un attore con privilegi. Quindi la domanda corretta è: quali privilegi concedo, con quali prove, e con quale rollback? Qui entra la lettura più utile del paper: scegliere architettura è una decisione di governance e di economia della coordinazione, non solo di tecnologia. Per questo le metriche proposte (efficienza, overhead, ridondanza, message density, error amplification) sono più vicine all’ingegneria dei processi che alla “valutazione LLM” tradizionale. Sul piano economico, l’unità di misura che evita auto‑inganni non è “costo per token”, ma costo per task riuscito. Lo studio usa misure che legano output e consumo (es. Success/1K tokens) per confrontare architetture che “parlano” di più (Fonte: Kim et al., 2025, Tab. 5). In azienda la versione operativa è: costo cloud + costo tool + costo umano di rework, normalizzato su completamento end‑to‑end. Come si porta questo in azienda senza inventarsi un D “accademico”? Con tre gate pratici, prima del design: (1) decomponibilità: potete descrivere i sotto‑task in modo che due persone li eseguano indipendentemente e poi li ricombinino senza conflitti? (2) verificabilità: esiste un controllo a doppia fonte o una regola di business che decide se l’output è corretto? (3) reversibilità: se l’agente sbaglia, potete annullare l’azione (o farla passare da approvazione)? Se uno di questi tre punti fallisce, la probabilità che il multi‑agente diventi overhead cresce — e conviene partire da SAS con controlli forti. Box — Un criterio pratico per non farsi sedurre dal “multi‑agente” Governare: decidere quali task sono eleggibili e quali dati possono toccare. Progettare: spezzare il lavoro in passi verificabili, con interfacce chiare tra passi. Eseguire: instrumentare tutto (log, permessi, rollback), perché senza evidenze non c’è controllo. Tre opzioni architetturali (e organizzative) per partire Se si prende sul serio la soglia di complessità, le opzioni non sono “quale vendor”, ma “quale forma organizzativa per il ragionamento”. Una lettura utile del paper è che il multi‑agente funziona quando assomiglia a una fabbrica snella: flussi corti, controlli in punti critici, poche eccezioni. Quando assomiglia a un comitato, il costo sale e la qualità non è garantita. Opzione 1 — Single‑agent con strumenti (SAS). È l’architettura di default per processi ripetibili e output verificabili: un agente, tool ben delimitati, poche chiamate “irreversibili”. È anche l’opzione che massimizza il ritorno per token nello studio (Success/1K tokens = 67,7; Periodo: esperimenti; Fonte: Kim et al., 2025, Tab. 5). Organizzativamente equivale a un “copilota” di funzione con controlli a valle. Opzione 2 — Team parallelo con sintesi (Independent). Utile quando il task si spezza in sotto‑task realmente indipendenti (ricerca, comparazione, raccolta evidenze). È la forma più facile da prototipare, ma è anche quella che può amplificare l’errore se manca un quality gate (Ae = 17,2×; Fonte: Kim et al., 2025, Tab. 5). Organizzativamente: più analisti che lavorano in parallelo, ma serve una funzione di revisione che non sia solo “un’altra risposta”. Opzione 3 — Orchestrazione (centralizzata o ibrida). Serve quando dovete combinare più strumenti, più politiche e più responsabilità: un orchestratore che assegna compiti e impone vincoli. È la forma più compatibile con segregazione dei doveri, ma porta overhead alto (O% 285 centralizzato, 515 ibrido; Fonte: Kim et al., 2025, Tab. 5). Organizzativamente: una “piattaforma agenti” interna che standardizza toolchain, logging e guardrail, con team di dominio che costruiscono workflow per singolo processo. Nota su vendor e modelli. Lo studio istanzia le architetture su tre famiglie di LLM e riporta una misura di “capability” non agentica basata su un indice composito (Artificial Analysis Intelligence Index) (Fonte: Kim et al., 2025, Tab. 6; Artificial Analysis, metodologia). Per le imprese questo è un promemoria: la scelta del modello conta, ma non risolve l’overhead di coordinazione. Tre dyad che vale la pena rendere esplicite (prima che si cristallizzino in architettura): (a) centralizzazione vs autonomia (chi decide e chi può agire), (b) velocità vs controllabilità (quanta frizione accettate per avere auditabilità), (c) riuso piattaforma vs specificità di processo (standard unico o soluzioni “ad hoc”). Per ciascuna dyad conviene dichiarare che tipo di relazione volete tra persone e agenti: “viva” (aumenta competenze e decisioni umane), “neutra” (esegue con supervisione), o “estrattiva” (scarica lavoro senza costruire capacità interna). Non è filosofia: è un modo rapido per allineare IT, operations e risk prima di scrivere codice. Diagramma concettuale: famiglie di architetture agentiche e dove nasce l’overhead. Fonte: elaborazione dell’autore su Kim et al., 2025. Piano 30‑60‑90: decidere presto, misurare sempre Un errore frequente è partire da un POC “a demo” e scoprire in produzione che la parte difficile era la governance dei tool e dei dati. Un piano 30‑60‑90 sensato, coerente con i risultati del paper, fa due cose: (i) seleziona task sotto soglia (decomponibili), (ii) costruisce osservabilità prima della scala. Se il primo mese non produce log e metriche comparabili tra architetture, non state costruendo un sistema: state collezionando aneddoti. Le metriche minime da mettere in dashboard (con owner e soglie) sono: completamento end‑to‑end senza rework umano, tasso di escalation a umano, incidenti di non‑conformità/uso dati, errore fattuale/materiale con impatto, costo operativo per task riuscito, aderenza ai controlli. Piano 30‑60‑90 (template operativo). Fonte: elaborazione dell’autore coerente con risultati e metriche in Kim et al., 2025. Matrice rischi‑contromisure: dove si rompe davvero Con “compliance focus medio”, l’obiettivo non è scrivere un manuale legale ma evitare due fallimenti: (1) agenti che fanno cose non autorizzate, (2) agenti che producono output non auditabili. Qui la regolazione europea e i framework tecnici funzionano come check‑list: AI Act (Reg. UE 2024/1689), NIS2 (Dir. UE 2022/2555), NIST AI RMF e OWASP Top 10 per applicazioni LLM (Fonte: EUR‑Lex; NIST; ENISA; OWASP). In pratica, la compliance “media” si traduce in quattro prove documentali: (i) policy dati e finalità, (ii) controllo accessi e segregazione dei doveri, (iii) logging end‑to‑end (prompt, tool call, output, versioni), (iv) processo di gestione incidenti e change. Il resto — classificazioni e obblighi specifici — dipende dal contesto di rischio e dal perimetro (Fonte: Reg. UE 2024/1689; Linee guida EDPB su decisioni automatizzate; ENISA su NIS2). Matrice rischi‑contromisure (compliance focus medio). Fonte: elaborazione dell’autore su Reg. UE 2024/1689, Dir. UE 2022/2555, NIST AI RMF, OWASP LLM Top 10. Cosa monitorare nel 2026 (se state investendo davvero) Tre indicatori aiutano a evitare sorprese. Primo: le scadenze e l’implementazione dell’AI Act, perché impattano requisiti documentali e controlli, soprattutto su sistemi che incidono su persone o su funzioni regolamentate (Fonte: EUR‑Lex; EPRS, 2025). Secondo: l’evoluzione delle capacità su documenti lunghi, tool use e valutazioni “office‑work”, perché spostano la frontiera dei task sottosoglia e cambiano il trade‑off tra SAS e MAS (Fonte: Kim et al., 2025). Terzo: la maturità dei pattern di sicurezza per applicazioni LLM — prompt injection, output handling, supply chain, eccessiva autonomia — perché sono la differenza tra un agente “utile” e un agente “rischioso” (Fonte: OWASP LLM Top 10; NIST AI RMF). Filo rosso Il messaggio, alla fine, è più management che AI: scalare agenti significa scalare coordinazione. La coordinazione è una tecnologia costosa, e va meritata dal task. Se il lavoro è decomponibile, il multi‑agente può creare valore; se non lo è, aggiungere conversazioni aggiunge attrito. Il vantaggio competitivo non nasce dal “framework giusto”, ma dalla disciplina con cui scegliete processi eleggibili, costruite controlli e misurate il costo per task riuscito — prima che l’entusiasmo diventi spesa opaca. Riferimenti · Kim, Y., Gu, K., Park, C., Park, C., Schmidgall, S., Heydari, A. A., Yan, Y., Zhang, Z., Zhuang, Y., Liu, Y., Malhotra, M., Liang, P. P., Park, H. W., Yang, Y., Xu, X., Du, Y., Patel, S., Althoff, T., McDuff, D., & Liu, X. (2025). Towards a Science of Scaling Agent Systems. arXiv:2512.08296v2. · Artificial Analysis. Intelligence benchmarking methodology e Artificial Analysis Intelligence Index (metodologia). · Regolamento (UE) 2024/1689 (Artificial Intelligence Act), EUR‑Lex (OJ L 2024/1689). · European Parliament Research Service (EPRS) (2025). AI Act implementation timeline (analisi e scadenze). · Direttiva (UE) 2022/2555 (NIS2), EUR‑Lex. · ENISA (2025). NIS2 Technical Implementation Guidance (cybersecurity risk management measures). · NIST (2023). AI Risk Management Framework 1.0 (NIST AI 100‑1). · OWASP. Top 10 for Large Language Model Applications (LLM Top 10). · ISO/IEC 27001:2022 — Information security management systems (panoramica ISO). · EDPB. Guidelines on Automated individual decision-making and Profiling (WP29/EDPB). · ECB: key interest rates; euro reference exchange rates (USD). Eurostat: HICP euro area. EIA: Brent spot. Borsa Italiana/TradingView: FTSE MIB. Investing/TradingEconomics: BTP 10Y. FRED/Federal Reserve: serie di supporto (deposit facility; Brent; FX).
- Energia, credito e filiere: la settimana in cui la geopolitica è tornata nel costo del capitale
Tra stop europeo al gas russo, cambio al vertice della Federal Reserve e nuove frizioni sulle rotte, la variabile decisiva per imprese e famiglie italiane resta una: quanto costa finanziare scorte, investimenti e lavoro. L’Europa accelera sul disaccoppiamento energetico da Mosca e alza l’asticella per piani nazionali di diversificazione; negli Stati Uniti la politica monetaria entra in una fase più “di bilancio” e il segnale arriva anche dalla scelta del prossimo presidente della Fed. Intanto Ucraina e Medio Oriente continuano a muovere energia, difesa e logistica, con un impatto immediato sulla competitività dell’industria italiana. Nella settimana 25–31 gennaio 2026 le notizie che hanno contato davvero non sono state solo quelle “di giornata”, ma quelle capaci di cambiare il prezzo del rischio: la traiettoria dell’energia in Europa, la forma del credito e la resilienza delle filiere internazionali sotto pressione geopolitica. Il Consiglio dell’Unione europea ha dato il via libera definitivo a un percorso di uscita dal gas russo, con scadenze e piani nazionali che diventano un dossier industriale. Negli Stati Uniti, la transizione monetaria – più attenta alla liquidità – ha preso un volto politico con la scelta del futuro presidente della Federal Reserve, mentre i mercati hanno reagito in modo selettivo: “large cap” italiane più stabili, mid e STAR più sensibili al ciclo e al costo del denaro. Sul fronte dei conflitti, l’Ucraina resta un moltiplicatore di spesa per difesa e sicurezza; in Medio Oriente, logistica e dimensione umanitaria si intrecciano con prezzi e consegne. Per l’Italia, il punto operativo è uno: trasformare shock esterni in piani interni misurabili su energia, capitale umano, compliance e investimenti. di Andrea Viliotti Geopolitica nel costo del capitale Guerre e rotte: Ucraina e Medio Oriente come shock persistente La guerra in Ucraina continua a “fare politica industriale” in Europa: non solo per le sanzioni e per la ricostruzione, ma perché spinge verso un riarmo strutturale e verso una revisione delle catene di fornitura critiche. Il segnale più netto della settimana è arrivato da Bruxelles: il segretario generale della Nato Mark Rutte, intervenendo al Parlamento europeo, ha ribadito quanto la deterrenza europea resti dipendente dagli Stati Uniti e quanto il 2026 richieda un salto di capacità, anche sul fronte dell’assistenza a Kiev (Nato, 26 gennaio 2026). Per l’impresa italiana, questo si traduce in un doppio canale: (1) commesse e investimenti in difesa/aerospazio/ICT e (2) aumento dei costi di compliance, sicurezza e cyber lungo la supply chain. Sul fronte energia, l’Unione europea ha trasformato in normativa un obiettivo geopolitico: il Consiglio UE ha dato il via libera definitivo a un percorso di uscita dal gas russo, con divieti progressivi e l’obbligo per gli Stati membri di presentare piani nazionali di diversificazione (Consiglio dell’UE, 26 gennaio 2026). Per l’Italia è un dossier industriale, non solo energetico: riguarda contratti, infrastrutture, prezzi finali a famiglie e imprese, e quindi competitività. Nel Medio Oriente, la dimensione umanitaria e quella economica si sono incrociate in un tema apparentemente “minore” ma rivelatore: l’istruzione. Un’agenzia ONU ha segnalato l’ingresso a Gaza di materiali scolastici dopo due anni di blocco (ONU/Reuters, 27 gennaio 2026), un indicatore concreto di come le restrizioni logistiche siano parte integrante del conflitto e di come incidano su capitale umano e stabilità sociale. Per le imprese, la lezione operativa è che la resilienza non è solo “scorte e fornitori alternativi”, ma anche continuità di servizi essenziali (scuola, sanità, infrastrutture digitali) che alimentano fiducia e coesione. Terzo tassello: le rotte. Le nuove minacce degli Houthi nel Mar Rosso – mentre alcune compagnie valutavano un ritorno prudente al Canale di Suez – riaprono il capitolo “assicurazioni, tempi e costi” per container e componentistica (stampa internazionale, 27–31 gennaio). L’effetto sull’Italia è diretto per export manifatturiero e retail: tempi più lunghi significano più capitale immobilizzato e maggiore rischio di rottura-stock, con un impatto sul margine in settori a rotazione rapida (moda, consumer) e su filiere complesse (auto, macchinari). USA, Cina e UE Negli Stati Uniti la settimana ha dato un messaggio doppio: la politica monetaria resta un pilastro, ma la liquidità diventa il “campo di battaglia” principale. La Federal Reserve, nel comunicato del 28 gennaio, ha mantenuto l’impostazione prudente sui tassi, in un contesto in cui anche i dati macro hanno subìto distorsioni e ritardi per effetto dello shutdown federale (Federal Reserve, 28 gennaio 2026; BEA, aggiornamento calendario). La notizia politicamente più impattante è arrivata il 30 gennaio: la Casa Bianca ha annunciato la nomina di Kevin Warsh alla presidenza della Fed, passaggio che i mercati hanno letto come potenzialmente più “tosto” sulla riduzione del bilancio e quindi sulla liquidità (White House/AP, 30 gennaio 2026). La reazione di segmenti speculativi è stata immediata: il bitcoin è sceso sotto quota 80.000 dollari nella giornata del 31 gennaio, in un clima di timori sulla liquidità (Reuters, 31 gennaio 2026). Sul fronte Cina, il segnale della settimana è l’allentamento di un vincolo che per anni ha condizionato immobiliare e credito: secondo fonti di stampa internazionale, Pechino si prepara a superare la politica delle “tre linee rosse” per gli sviluppatori, con l’obiettivo di stabilizzare un settore che pesa su fiducia interna e domanda di materie prime (Reuters/Straits Times, 29 gennaio 2026). Per l’industria europea e italiana, la Cina resta un determinante del ciclo globale: se il mattone smette di frenare, cambia l’equilibrio su acciaio, chimica e macchinari; se invece l’effetto è limitato, resta alto il rischio di domanda debole e concorrenza di export. Per l’Unione europea, la settimana ha consolidato due linee: energia e regole. Sull’energia, lo stop progressivo al gas russo è insieme una scelta di sicurezza e un test di capacità attuativa per gli Stati membri (Consiglio UE, 26 gennaio 2026). Sulle regole, la Commissione europea ha pubblicato materiali di orientamento sull’AI Act, che per le imprese significa portare in produzione l’IA con governance: valutazione dei rischi, tracciabilità dei dati, audit dei fornitori, e responsabilità chiare (Commissione UE, 28 gennaio 2026). Italia: politica economica, salari, welfare e scuola nel “test” del costo della vita In Italia la settimana ha riportato al centro un paradosso noto ma spesso sottovalutato: mercato del lavoro relativamente forte, ma percezione sociale ancora fragile perché il potere d’acquisto è l’ultimo a recuperare. Istat ha stimato per il quarto trimestre 2025 una crescita congiunturale dello 0,3% e una crescita tendenziale dello 0,8% (Istat, 30 gennaio 2026), segnali coerenti con un’economia che evita la recessione ma non “spinge”. Sul lavoro, l’ultima lettura disponibile (dicembre 2025) indica un tasso di disoccupazione al 5,6% e un tasso giovanile intorno al 20% (Istat, 30 gennaio 2026). Nel frattempo, l’inflazione IPCA a dicembre è stata pari a circa l’1,2% su base annua (Istat, gennaio 2026): numeri che raccontano disinflazione, ma non cancellano la pressione su beni essenziali dove conta il livello, non solo la variazione. Tre voci incidono più di altre sulla fiducia: alimentari, energia domestica e abitazione. Sugli alimentari l’Italia continua a sentire le onde lunghe dei costi logistici e delle materie prime; sull’energia pesa la nuova fase europea di uscita dal gas russo – positiva in termini di sicurezza, ma potenzialmente volatile sui prezzi – mentre sugli affitti il nodo è l’offerta: città attrattive, turismo e lavoro ibrido tengono alta la domanda. In questo quadro, la politica economica diventa un driver “di micro”: non è solo deficit/PIL, ma come si disegnano le misure su bollette, sostegni mirati e incentivi agli investimenti. Welfare e scuola entrano nella stessa equazione del capitale: senza servizi affidabili, il costo del lavoro aumenta e la produttività diminuisce. La scuola è anche il luogo dove si decide la distanza digitale: competenze STEM e alfabetizzazione IA non sono un capitolo “culturale”, ma una variabile di competitività. Per le imprese italiane, il punto operativo è misurare il gap: ore di formazione, turnover degli insegnanti tecnici, e partnership scuola‑impresa su laboratori e stage. Qui si innesta un rischio nuovo: disinformazione e cyber, che già nel 2026 entrano nel perimetro di sicurezza nazionale e di grandi eventi (vedi Olimpiadi Milano‑Cortina). Intelligenza artificiale nelle aziende: produttività, lavoro e compliance La settimana ha confermato che l’adozione dell’IA entra in una fase meno “sperimentale” e più industriale: non basta comprare strumenti, serve portarli in processi e responsabilità. L’AI Act europeo – e i materiali di orientamento pubblicati dalla Commissione – spostano l’attenzione su governance e tracciabilità: quali dati alimentano i modelli, come si gestiscono bias e sicurezza, chi risponde degli output e come si documenta l’uso nei processi critici (Commissione europea, 28 gennaio 2026). Per i C‑level italiani, l’IA è un tema di produttività ma anche di lavoro: cambia la composizione delle mansioni più che il numero totale degli addetti. Le funzioni più esposte sono back‑office, customer care, compliance documentale e parte della progettazione; quelle più protette sono le attività fisiche, le relazioni complesse e il decision making regolato. L’impatto sui salari passa da due canali: premio di competenze (skill premium) per profili ibridi e pressione sui ruoli ripetitivi. La risposta non è solo “reskilling”, ma ridisegno di processi con KPI di qualità (errori, tempi, reclami) e di rischio (incidenti cyber, frodi, violazioni privacy). Infine, cyber e disinformazione. La costruzione di un comando cyber dedicato alla sicurezza dei Giochi Milano‑Cortina 2026, riportata in settimana, è un promemoria: l’adozione IA amplia la superficie d’attacco e rende più credibili le campagne di manipolazione (stampa internazionale; Agenzia per la Cybersicurezza Nazionale). Per le imprese, la priorità è integrare IA e sicurezza: controllo accessi, logging, red‑teaming, e contratti con i fornitori che includano audit e patch management. Borse valori: il mercato premia la liquidità e penalizza l’incertezza La Borsa italiana ha chiuso la settimana con un quadro “a due velocità”. Guardando alle cinque sedute 26–30 gennaio, il FTSE MIB è salito di circa l’1,3%, mentre il FTSE Italia Mid Cap è rimasto sostanzialmente piatto e il FTSE Italia STAR ha ceduto intorno all’1% (MarketScreener, quotazioni 5 giorni). È una dinamica coerente con un mercato che cerca “qualità di bilancio” e liquidità: i grandi titoli – in particolare banche e assicurazioni – beneficiano di una lettura ancora positiva del credito domestico e della redditività; mid e STAR, più esposti a ciclo e investimento, soffrono quando aumentano incertezza geopolitica e costo del denaro. Per settori: le banche restano sensibili a due variabili, spread sovrano e qualità del credito; l’energia/utility incorpora il rischio di volatilità su gas e regole; manifattura e auto/macchinari dipendono da ordini esteri e tempi logistici; lusso/moda/retail è un termometro della domanda globale e delle rotte; difesa/aerospazio/ICT intercetta l’aumento di spesa e la priorità cyber. Indice composito di “bolla speculativa” globale. Per evitare indicatori “magici”, la lettura propone un composito semplice e auditabile: quattro componenti osservabili (valutazioni azionarie di lungo periodo, volatilità implicita, spread del credito high yield USA, e stato delle cripto), lette su scala qualitativa basso/medio/alto e aggregate con la mediana (senza pesi numerici arbitrari). Nella settimana in esame: valutazioni elevate (Shiller CAPE intorno a 40); volatilità su livelli intermedi (VIX); credito ancora “risk‑on” (spread high yield compressi); cripto in correzione. Mediana delle quattro letture: KPI “bolla” = medio. Implicazione operativa: rischio ancora sostenuto da valutazioni alte e credito compresso, ma senza una euforia omogenea; per Piazza Affari il costo del capitale resta sensibile a shock (tassi, energia, geopolitica). Trigger da monitorare: risalita del VIX e/o riapertura degli spread high yield. Il modello qui è volutamente scenariale (non numerico): in mercati guidati dalla geopolitica e dalla liquidità, il rischio principale non è il “punto” ma lo spostamento di regime. • Scenario base – Lateralità con rotazione settoriale. Confidenza: media. Trigger: energia stabile, assenza di sorprese restrittive su tassi e bilanci delle banche centrali, tensione geopolitica contenuta ma non risolta. Impatto atteso: FTSE MIB più resiliente (peso banche/energia), STAR/Mid Cap più selettivi, premiando aziende con pricing power e debito sotto controllo. • Scenario risk‑on – Rimbalzo “soft landing”. Confidenza: bassa. Trigger: segnali di raffreddamento ordinato dell’inflazione e miglioramento della domanda estera, allentamento sui costi energetici e sulle rotte, sorprese positive su utili. Impatto atteso: recupero più forte su Mid Cap e STAR, con beneficio per manifattura e tech domestico. • Scenario risk‑off – Correzione da shock energetico/logistico. Confidenza: media. Trigger: nuova impennata del gas (stoccaggi bassi o shock geopolitici), escalation su Ucraina o Medio Oriente, interruzioni sulle rotte e irrigidimento della liquidità in dollari. Impatto atteso: difensivi e finanziari di qualità tengono meglio; pressione su ciclici, consumi discrezionali e titoli con leva elevata. In tutti gli scenari, la variabile operativa per le imprese è la gestione del capitale circolante: scorte, credito commerciale, coperture energetiche e tempi di consegna. Il mercato, a gennaio, ha premiato chi riesce a trasformare volatilità esterna in disciplina interna. Rendimenti settimanali (26–30/01/2026). Periodo: 26–30/01/2026. Fonte: MarketScreener (quotazioni 5 giorni). Istogramma rendimenti giornalieri FTSE MIB. Periodo: 27–30/01/2026. Fonte: Elaborazione su dati MarketScreener (quotazioni 5 giorni). Istogramma rendimenti giornalieri FTSE Italia Mid Cap. Periodo: 27–30/01/2026. Fonte: Elaborazione su dati MarketScreener (quotazioni 5 giorni). Timeline · 26/01 — Nato: Mark Rutte al Parlamento europeo richiama l’urgenza di rafforzare la difesa europea e il sostegno all’Ucraina (difesa aerea e munizioni). · 26/01 — Unione europea: via libera definitivo del Consiglio UE al percorso di stop progressivo al gas russo e richiesta di piani nazionali di diversificazione. · 27/01 — Gaza: ingresso di materiali scolastici dopo due anni di blocco, segnale della centralità delle restrizioni logistiche e del capitale umano nel conflitto. · 28/01 — Stati Uniti: Federal Reserve conferma un approccio prudente nella riunione di politica monetaria; mercati concentrati su liquidità e bilancio. · 28/01 — Unione europea: Commissione pubblica materiali di orientamento sull’AI Act, spostando il focus su governance, tracciabilità e responsabilità d’impresa. · 28/01 — Italia: rafforzamento dell’attenzione su cyber e disinformazione in vista di Milano‑Cortina 2026 (organizzazione e coordinamento sicurezza digitale). · 29/01 — Cina: indiscrezioni su superamento delle “tre linee rosse” per gli sviluppatori immobiliari, nel tentativo di stabilizzare credito e fiducia. · 30/01 — Stati Uniti: annuncio della Casa Bianca sulla nomina di Kevin Warsh alla presidenza della Federal Reserve; lettura di mercato su liquidità. · 30/01 — Italia: Istat diffonde la stima preliminare del PIL del IV trimestre 2025 e l’aggiornamento su occupati/disoccupati (dicembre 2025). · 31/01 — Mercati: segnali di volatilità su asset più speculativi, con attenzione al dollaro e al rischio “liquidità”. Numeri chiave · Indici Italia: FTSE MIB 45.527,42 (+1,28% sett.); FTSE Italia Mid Cap 60.751,11 (+0,05%); FTSE Italia STAR 50.614,74 (-0,97%). Periodo: chiusure 26–30/01/2026. Fonte: MarketScreener ("quotazioni 5 giorni"). · Tassi policy: BCE deposit facility 2,00%. Fed: tasso obiettivo mantenuto invariato nella riunione del 28/01/2026. Periodo: BCE in vigore dal 11/06/2025; Fed 28/01/2026. Fonte: BCE (Key interest rates); Federal Reserve (FOMC statement). · Inflazione: area euro 1,9% a/a (dicembre 2025); Italia IPCA 1,2% a/a (dicembre 2025). Periodo: ultimo dato disponibile. Fonte: Eurostat; Istat. · Cambio: EUR/USD 1,1919. Periodo: 30/01/2026 (tasso di riferimento). Fonte: Banca d’Italia. · Energia: Gas TTF 39,78 €/MWh; Brent spot 67,70 $/bbl (ultimo dato disponibile). Periodo: TTF 30/01/2026; Brent 26/01/2026. Fonte: TradingEconomics; EIA. · Credito Italia: BTP 10 anni 2,90%; spread BTP‑Bund 125,4 pb. Periodo: 30/01/2026. Fonte: Soldionline; ANSA. Cosa monitorare nel 2026 · Segnale precoce: prezzo e volatilità del gas europeo (TTF) e livelli di stoccaggio. Perché conta: determina margini industriali, bollette e inflazione “percepita”. · Segnale precoce: andamento dello spread BTP‑Bund e qualità del credito bancario. Perché conta: è il termometro del costo del capitale per imprese e famiglie italiane. · Segnale precoce: indicatori di stress logistico (tempi di transito, premi assicurativi, noli) sulle rotte Suez/Mar Rosso. Perché conta: colpisce export e capital circolante. · Segnale precoce: traiettoria regolatoria dell’AI Act e prime linee guida applicative. Perché conta: sposta costi e tempi dell’adozione IA, e definisce responsabilità e audit. · Segnale precoce: segnali di stabilizzazione/ricaduta del settore immobiliare cinese. Perché conta: cambia domanda globale di beni intermedi e competizione di prezzo sui mercati finali. · Segnale precoce: capacità europea di sostenere Ucraina e difesa senza fratture politiche interne. Perché conta: influenza spesa pubblica, industria, energia e rischio geopolitico. Filo rosso Il filo rosso della settimana è la trasformazione della geopolitica in costo del capitale. Le decisioni su gas russo, difesa europea e governance dell’IA non sono “temi esteri”: entrano nei bilanci, nella gestione delle scorte e nelle condizioni di finanziamento. Quando l’energia è volatile, il margine non si difende solo con prezzi più alti: serve efficienza, coperture e contratti. Quando le rotte sono incerte, la competitività dipende dal capitale circolante e dalla qualità dei fornitori. Quando l’IA entra nei processi, il vantaggio non è automatizzare “di più”, ma automatizzare “meglio” e in modo conforme, riducendo rischi cyber e reputazionali. E quando i mercati distinguono tra FTSE MIB e segmento STAR/Mid Cap, il messaggio è chiaro: la liquidità premia chi ha governance e bilanci solidi, penalizza chi somma leva e incertezza. Per l’Italia, il compito del 2026 è convertire questi shock in piani: energia, sicurezza, competenze e investimenti misurabili. È lì che si gioca la distanza tra “resistere” e “crescere” nel nuovo ciclo.
- Debito USA: la sostenibilità nel secondo mandato Trump e gli effetti su Cina, UE e Italia
Tra tassi, dazi e transizione energetica, il conto del debito entra nel cuore della politica economica. Il debito federale non è solo un numero: è un vincolo che attraversa mercati, alleanze e consenso interno. Nei prossimi 12 mesi la partita si giocherà su tre leve — costo del denaro, commercio ed energia — con effetti diretti su Europa e Italia. di Andrea Viliotti Il debito pubblico americano continua a salire su una traiettoria che le stesse istituzioni federali descrivono come strutturalmente espansiva nel medio periodo. Il punto non è una crisi imminente, ma un cambio di regime: quando il costo del servizio del debito diventa una voce che compete, politicamente e contabilmente, con difesa, welfare e incentivi industriali, la sostenibilità smette di essere un dibattito da addetti ai lavori e diventa una variabile di potere. Nel ciclo politico attuale, guidato dalla Casa Bianca di Donald J. Trump (inaugurazione 20 gennaio 2025), il tema si intreccia con tre scelte che hanno già preso forma in atti e comunicazione: una politica commerciale più tariffaria, un’agenda energetica che punta a “sbloccare” l’offerta domestica e una pressione costante per allentare i vincoli percepiti come freni industriali. Il risultato è un equilibrio delicato: più crescita nominale e più gettito aiutano i conti; ma tariffe, ritorsioni e shock energetici possono rialzare l’inflazione e quindi i tassi, rendendo più oneroso rifinanziare il debito. Sostenibilità del debito USA Il perimetro: che cosa significa “debito USA” Due misure convivono e spesso vengono confuse. La prima è il debito totale (total public debt): include sia il debito detenuto dal pubblico sia le posizioni intra-governative. La seconda è il debito detenuto dal pubblico (debt held by the public), che è la base più usata per ragionare su sostenibilità macro e su assorbimento da parte dei mercati. Nel terzo trimestre 2025 il debito detenuto dal pubblico risulta vicino al 97,4% del Pil, mentre il debito totale supera i 37,6 trilioni di dollari in valori di contabilità nazionale. In parallelo, il costo degli interessi ha toccato circa 970 miliardi di dollari nell’esercizio fiscale 2025, su entrate federali per circa 5,235 trilioni: una quota nell’ordine di un quinto, che rende il “rischio tassi” un tema politico, non solo finanziario. Il nodo finanziario: “spazio fiscale” in un mondo più caro La sostenibilità, in prima approssimazione, dipende dalla differenza tra tasso d’interesse implicito sul debito e crescita nominale, oltre che dal saldo primario. Finché la crescita nominale resta pari o superiore al costo medio del debito, la dinamica può essere gestibile anche con deficit moderati. Il problema è che il mercato oggi prezza un costo del denaro che non è più “gratis”: a fine gennaio 2026 il Treasury a 10 anni oscilla attorno al 4,24%, mentre il corridoio dei Fed Funds è 3,50–3,75. In questo regime, ogni scelta che mantiene alta l’inflazione o irrigidisce le aspettative — tariffe, shock energetici, frizioni logistiche — si riflette più rapidamente sul costo di rifinanziamento. Questo non equivale a una crisi di solvibilità automatica: gli Stati Uniti emettono nella valuta di riferimento, con un mercato profondo, e la domanda di Treasury continua a essere un pilastro del sistema finanziario globale. Ma cambia la gerarchia delle priorità. Se l’onere per interessi cresce, le decisioni su spesa discrezionale e incentivi industriali diventano più conflittuali; e la politica può reagire in due modi: riducendo il disavanzo (tagli o tasse) oppure cercando crescita nominale più alta, anche accettando più volatilità su prezzi e ciclo. USA, Cina e UE Nel triangolo USA–Cina–Unione europea, il debito americano è allo stesso tempo un’àncora e un’arma. È un’àncora perché i Treasury restano la base delle riserve e della collateralizzazione globale. È un’arma perché la politica economica statunitense può usare commercio e tecnologia per spostare costi e rendite lungo le catene del valore, e perché l’intreccio tra debito, dollaro e sanzioni determina incentivi e rischi per chi detiene asset in valuta USA. La Cina osserva due dimensioni: la traiettoria del costo del capitale in dollari (che incide su crescita e flussi) e la “geopolitica della dipendenza” da infrastrutture finanziarie dominanti. In questo quadro, la quota di debito federale detenuta da investitori esteri resta un indicatore sensibile: nel secondo trimestre 2025, il debito detenuto da investitori esteri e internazionali è poco sopra i 9,1 trilioni di dollari. Non è un numero che dice “chi comanda”, ma è un termometro del grado di interdipendenza e, quindi, dei margini di manovra reciproci. Per l’UE la partita è doppia. Da un lato, un dollaro forte e tassi USA elevati irrigidiscono le condizioni finanziarie globali e possono importare volatilità. Dall’altro, la risposta europea passa sempre più da strumenti industriali e climatici che diventano, inevitabilmente, anche strumenti geopolitici. Il Carbon Border Adjustment Mechanism, entrato nel regime definitivo dal 1° gennaio 2026, con implicazioni operative e potenziali frizioni commerciali con partner extra-UE. In parallelo, la transizione resta un tema di competitività: energia, prezzi e regole incidono su dove si investe e su chi assorbe i costi. Politica economica “Trump 2.0”: dazi ed energia come leve sul ciclo La Casa Bianca ha già formalizzato una svolta tariffaria: un dazio “baseline” del 10% su tutti i Paesi e dazi “reciproci” più alti per i partner con cui gli Stati Uniti registrano i maggiori deficit commerciali, con entrata in vigore nella primavera 2025. In logica di bilancio, le tariffe sono gettito; in logica macro, sono un’imposta su input e consumi che può riaccendere pressioni sui prezzi e quindi sui tassi, soprattutto se scatena ritorsioni o ricomposizioni improvvise delle supply chain. Sul fronte energia, l’esecutivo ha impostato la cornice già dal giorno dell’insediamento: un ordine presidenziale del 20 gennaio 2025 chiede di “mettere in pausa” la disbursement di fondi dell’Inflation Reduction Act e di rivedere programmi e procedure, oltre a rimuovere ostacoli regolatori all’offerta. È una scelta che punta a ridurre il prezzo politico dell’energia nel breve, ma apre un’incognita: se la transizione rallenta e la volatilità energetica aumenta, il canale energia→inflazione può tornare protagonista, soprattutto in Europa. Italia: spread, export e politica industriale Per l’Italia il canale immediato è finanziario. In un mondo in cui i tassi americani restano alti e la volatilità aumenta, l’attenzione torna sul differenziale di rendimento tra debito sovrano e “benchmark” europeo. A fine gennaio 2026, sulla base dei rendimenti decennali, lo spread BTP–Bund è nell’ordine di 0,62 punti percentuali. Non è un allarme di per sé, ma è un segnale che il prezzo del rischio resta vivo e reagisce a shock esterni (energia, commercio, geopolitica) e a shock interni (crescita potenziale, credibilità fiscale, stabilità politica). Il secondo canale è reale: export e catene del valore. Se la politica commerciale USA irrigidisce l’accesso al mercato o cambia i vantaggi relativi tra fornitori, la manifattura europea e italiana può subire sia uno shock di domanda (dazi diretti) sia uno shock di concorrenza (reshoring e incentivi domestici). Qui entra la terza dimensione: tecnologia e difesa. Le iniziative di “prioritizzazione” della base industriale e gli atti presidenziali su procurement e sicurezza spingono verso una maggiore localizzazione. Per l’Italia la risposta non può essere solo difensiva: serve scegliere dove agganciarsi alle filiere che restano aperte (difesa europea e interoperabilità NATO, energia e infrastrutture, chip e AI applicata) e dove ridurre la dipendenza (componenti critici, software e dati). Implicazioni per imprese Per chi produce, investe e finanzia, il tema debito USA diventa un filtro su quattro domande operative: · Difesa: quali programmi e commesse sono compatibili con un contesto di “spazio fiscale” più stretto negli USA e con una maggiore richiesta di burden sharing in Europa. · Energia: quanto la volatilità del Brent resta un rischio di margine e di domanda; e quanto conviene coprirsi o diversificare fornitori e contratti. · Tech/AI/chip: come cambiano export controls, standard e incentivi; e quali partnership restano “a basso attrito” tra Stati Uniti e Unione europea. · Export e PMI: quali mercati alternativi (UE, Mediterraneo, Asia non-Cina) possono compensare frizioni USA; e come ripensare pricing e logistica. · Finanza (BTP/banche): quanto la duration e la raccolta reagiscono a un rialzo dei tassi o dello spread: e quali stress test interni usare (tassi, spread, FX). Cinque scenari per i prossimi 12 mesi (2026) 1) Atterraggio morbido e “contenimento del rischio tassi”. Inflazione USA stabile, tariffe gestite con eccezioni e negoziati; Fed in pausa lunga. Impatto: volatilità bassa-moderata, dollaro forte ma non destabilizzante. 2) Tariffe e ritorsioni: inflazione più rigida, tassi più alti più a lungo. Il canale dazi→prezzi riapre il dossier “servizio del debito” e irrigidisce l’accesso al credito globale. Impatto: compressione margini, rialzo volatilità (Europa inclusa). 3) Stimolo fiscale e accelerazione della spesa: crescita nominale più alta nel breve ma premio a termine in aumento sui Treasury. Impatto: dollaro forte, pressione su debito emergente e su condizioni finanziarie UE. 4) Shock energetico: domanda/offerta o eventi geopolitici rialzano Brent e inflazione importata. Impatto: BCE più cauta, spread periferici più sensibili, competitività industriale sotto stress. 5) Compromesso istituzionale: accordo su un sentiero pluriennale di bilancio (anche solo procedurale), con misure di contenimento del deficit e stabilizzazione delle aspettative. Impatto: premio per la credibilità, migliore trasmissione di policy industriale e investimenti. Prossimi dieci anni: cinque traiettorie globali che dipendono dal debito USA Gli scenari sopra descrivono i prossimi dodici mesi; ma la sostenibilità del debito si misura sui tempi lunghi, perché il debito agisce come un “moltiplicatore” di fragilità o di resilienza. Se la traiettoria resta espansiva, il sistema tende a spostarsi verso uno di questi esiti (non esclusivi, spesso combinati), ciascuno con un canale di trasmissione chiave: 1) “Higher for longer” come nuova normalità. Il premio per il rischio fiscale si consolida e le condizioni finanziarie globali restano più rigide. Canale: tassi→dollaro→costo del capitale. Impatto: pressione su Europa ad alto debito e su mercati emergenti; incentivi al reshoring e a catene del valore più regionali. 2) Aggiustamento fiscale graduale (tagli/tasse) con conflitto politico. Il debito rallenta, ma al prezzo di scelte distributive difficili. Canale: politica interna→credibilità→premio a termine. Impatto: più “stop-and-go” legislativo, polarizzazione, e rischi di policy reversals. 3) Crescita nominale come “valvola” (più inflazione, più crescita, o entrambe). Se la crescita nominale supera stabilmente il costo del debito, la dinamica migliora, ma il rischio è un regime in cui la stabilità dei prezzi perde centralità. Canale: inflazione→tassi reali→asset allocation. Impatto: rotazione tra asset, riallocazioni di risparmio e tensioni sociali su salari e potere d’acquisto. 4) Financial repression “soft”. Maggiore uso di regolazione, incentivi e bilanci pubblici per orientare la domanda di titoli e contenere i costi. Canale: regolazione finanziaria→domanda di Treasury→tassi. Impatto: compressione dei margini bancari, frizioni su investitori esteri, e nuove pressioni su piazze finanziarie europee. 5) Frammentazione geo-economica accelerata. Il debito diventa anche leva geopolitica: tariffe, sanzioni e standard tecnologici ridisegnano scambi e investimenti. Canale: commercio/tecnologia→produttività→gettito. Impatto: più volatilità, più spesa per sicurezza, e competizione industriale permanente tra Stati Uniti, Cina e Unione europea. In tutti i casi, l’Italia è “price taker” sui tassi globali: la strategia non è prevedere un esito unico, ma costruire opzioni — diversificazione mercati, energia più stabile, e un profilo di finanza pubblica che riduca la sensibilità dello spread agli shock esterni. Cosa monitorare nel 2026 · Tassi e curva USA: livello del 10 anni e segnali di premio a termine, perché sono il canale più diretto verso costo del debito. · Inflazione e salari negli Stati Uniti: se la disinflazione si blocca, il corridoio dei tassi resta più alto. · Calendario fiscale e negoziati su budget: rischio di stop-and-go politico su spesa e investimenti. · Dazi, eccezioni e ritorsioni: soprattutto su auto, componentistica e beni intermedi. · Energia e supply chain: Brent, logistica, capacità di raffinazione e gas; con effetti su Europa. · Spread Italia e condizioni bancarie: reazione a shock esterni e capacità di assorbimento domestica. Visual (grafici e istogrammi) EUR/USD (chiusura) Periodo: 2018–2026. Brent future (chiusura) Periodo: 2018–2026. Spread BTP 10Y vs Bund 10Y Periodo: 2018–2026. VSTOXX (chiusura) Periodo: 2018–2026. FTSE MIB (chiusura) Periodo: 2018–2026. BCE deposit facility rate (ECBDFR) Periodo: 2018–2026. FTSE MIB, rendimenti giornalieri (log) Periodo: 2018–2026 EUR/USD, rendimenti giornalieri (log) Periodo: 2018–2026. Timeline 20 gennaio 2025 — Insediamento e ordine “Unleashing American Energy”: pausa e revisione dei fondi IRA/IIJA. 2 aprile 2025 — Annuncio quadro dazi: baseline 10% e schema “reciproco” su partner con deficit elevati. 5 aprile 2025 — Entrata in vigore del dazio baseline del 10%. 1 gennaio 2026 — Avvio del regime definitivo CBAM nell’Unione europea. 29 gennaio 2026 — Treasury 10 anni al 4,24%; volatilità europea (VSTOXX) in rialzo rispetto a inizio mese. 31 gennaio 2026 — Corridoio Fed Funds 3,50–3,75; BCE deposit facility al 2,00 (dati di fine mese). Numeri chiave · Debito federale totale (GFDEBTN): 37,637,553 milioni $ (≈ 37,64 trilioni). Periodo: Q3 2025. Fonte: Treasury Fiscal Service/FRED. · Debito federale detenuto dal pubblico (FYGFDPUN): 30,298,282 milioni $ (≈ 30,30 trilioni). Periodo: Q3 2025. Fonte: Treasury Fiscal Service/FRED. · Debito/Pil (debito detenuto dal pubblico): 97,42831%. Periodo: Q3 2025. Fonte: OMB + FRED (calcolo su FYGFDPUN e Pil). · Interessi federali (FYOINT): 970,359 milioni $. Periodo: FY 2025. Fonte: OMB/FRED. · Entrate federali (FYFR): 5,234,616 milioni $. Periodo: FY 2025. Fonte: OMB/FRED. · Treasury 10 anni (DGS10): 4,24%. Periodo: 29 gennaio 2026. Fonte: Federal Reserve/FRED. · Inflazione USA (CPI, var. a/a): 2,7%. Periodo: dicembre 2025. Fonte: BLS/FRED. · Inflazione area euro (HICP, var. a/a): 1,9%. Periodo: dicembre 2025. Fonte: Eurostat. · Spread BTP–Bund 10 anni: 0,62 pp. Periodo: 30 gennaio 2026. Fonte: dataset utente (BTP 10Y e Bund 10Y). Filo rosso Il filo rosso è che il debito USA resta sostenibile finché la politica riesce a tenere insieme tre obiettivi che si tirano a vicenda: crescita nominale sufficiente, stabilità dei prezzi e consenso per scelte fiscali credibili. Nel 2026, con dazi ed energia usati come leve del ciclo, il rischio non è un “crack” improvviso ma una sequenza di piccole tensioni: premio a termine più alto, più volatilità nei mercati, e una geopolitica commerciale che mette l’Europa — e l’Italia — davanti a scelte industriali meno rinviabili.
- Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva
Dalla scrittura assistita dagli LLM ai gruppi di lettura come controllo qualità: l’esperimento di un romanzo mostra perché l’AI va orchestrata come un’organizzazione, non “usata” come un tool. di Andrea Viliotti – 30 gennaio 2026 Nel lavoro cognitivo sta entrando un terzo attore: un sistema artificiale capace di produrre ragionamenti completi, con tono sicuro e struttura già pronta. È un vantaggio enorme, ma introduce un rischio sottile: non delegare un compito, bensì il giudizio. E quando il giudizio scivola fuori dall’umano, l’efficienza può crescere mentre l’autonomia si assottiglia. Governance dell’AI generativa Il “Sistema 3”: quando l’AI entra nel giudizio La distinzione tra pensiero rapido e pensiero deliberato – resa popolare dagli studi di Daniel Kahneman – ha funzionato per decenni come mappa intuitiva del nostro modo di decidere. Oggi però, nella vita professionale quotidiana, quella mappa è incompleta: sempre più spesso, mentre ragioniamo, attiviamo volontariamente un assistente generativo e incorporiamo l’output nella decisione. Una recente proposta, rilanciata in Italia da Maurizio Carmignani su AI4Business (29/01/2026), parla esplicitamente di un “terzo sistema” esterno: una cognizione “a noleggio” che opera in tempo reale accanto alla mente umana. Il punto non è che l’AI “imponga” scelte: siamo noi a convocarla. Ma proprio perché la risposta appare già organizzata – e spesso persuasiva – scatta la tentazione di accettarla con minime correzioni. Nella letteratura questo scivolamento viene descritto come resa cognitiva: quando l’assistenza smette di essere supporto e diventa sostituzione del vaglio critico. Gli esperimenti richiamati da Carmignani riassumono il rischio in un pattern semplice: se l’AI è corretta si vola, se sbaglia si precipita; e se sbaglia con sicurezza, aumenta anche la nostra sicurezza nell’errore. Dalla delega alla governance della delega Per ridurre il rischio, serve una regola semplice ma non banale: delegare l’esecuzione, non il criterio. In azienda lo chiamiamo governance: la capacità di distribuire compiti mantenendo responsabilità, tracciabilità e controllo degli effetti. Nel lavoro cognitivo aumentato vale lo stesso principio, con una complicazione: l’output non è un numero o un risultato puntuale, ma una struttura di pensiero, un testo, una diagnosi, un piano. La domanda chiave diventa quindi: quali guardrail impediscono che un’organizzazione “si agganci” alle risposte del sistema esterno? La risposta non sta in un uso più intenso di prompt, ma in un’architettura: ruoli, livelli, transizioni decisionali e log delle scelte. Senza questi elementi, l’AI diventa un acceleratore che amplifica anche il disordine. Tre livelli, come in una buona organizzazione Un paper del 2025 pubblicato su Discover Computing (Springer) da Uwe M. Borghoff, Paolo Bottoni e Remo Pareschi propone un’architettura formale per coordinare interazioni tra umani, LLM e sistemi specialistici, distinguendo tre spazi di lavoro: uno di indirizzo (dove si fissano obiettivi e vincoli), uno di osservazione (dove si valuta e si trasforma il materiale) e uno di esecuzione (dove si produce in modo deterministico secondo specifica). Cambiano i nomi, ma la logica è riconoscibile: strategia, controllo, produzione. Questa separazione è un antidoto alla resa cognitiva perché impedisce la confusione dei piani. Il sistema esterno è potentissimo nell’esecuzione e nella generazione di varianti, ma non deve possedere, da solo, la “chiave” della decisione. Il criterio resta umano e deve restare esplicito: se non sai spiegare perché hai accettato un output, hai già delegato più del necessario. Un caso di studio: il romanzo scritto “in parallelo” e letto in pubblico In un articolo pubblicato su Nòva / Il Sole 24 Ore il 30/01/2026, Marco Minghetti racconta un esperimento letterario che vale come laboratorio manageriale: la stesura del romanzo “E” attraverso una scrittura collaborativa con tre LLM (Claude, ChatGPT e Gemini) usati come esecutori testuali in parallelo, con sovranità autoriale mantenuta via brief dettagliati, confronto degli output e autorizzazione finale. La seconda parte dell’esperimento è ancora più interessante: la creazione di un gruppo di social reading su LinkedIn che, secondo i numeri riportati da Minghetti nel medesimo Prolegomeno (30/01/2026), ha raggiunto 467 partecipanti a poche settimane dalla fondazione (19 dicembre 2025). Qui la collaborazione cambia fase: non si produce testo, si produce interpretazione. E l’interpretazione collettiva diventa un dispositivo di controllo qualità, capace di far emergere pattern, incoerenze, e anche significati non intenzionali. Perché la community funziona: il feedback come infrastruttura Quando un testo (o un progetto) viene discusso da molti, accade una cosa utile e pericolosa insieme. Utile: aumenta la copertura degli errori, si formano letture alternative, si vedono debolezze che l’autore non percepisce. Pericolosa: cresce anche il rumore e la tentazione di inseguire ogni commento. La differenza la fa ancora la governance: nel social reading, l’autore non impone “la lettura giusta” ma facilita; il gruppo osserva e valuta; l’opera – per quel ciclo – resta stabile e funge da vincolo comune. Si crea un loop: il testo genera feedback, il feedback orienta revisioni, le revisioni cambiano la lettura. È lo stesso principio dei processi industriali ben progettati: non serve controllo totale, serve un ciclo di miglioramento con responsabilità chiare. Che cosa può imparare l’impresa (oltre la letteratura) Il punto non è scrivere romanzi con l’AI. Il punto è che lo stesso schema si trasferisce a report, piani industriali, analisi di rischio, documentazione tecnica, progettazione di prodotto. Quando l’output è cognitivo, l’azienda deve progettare un’“organizzazione della delega” che tenga insieme velocità e qualità. Alcune regole pratiche emergono con chiarezza. Protocollo operativo (replicabile) in 5 passi · Brief strategico: obiettivi, vincoli, metriche di riuscita. Senza brief, l’AI decide la forma del problema. · Esecuzione in parallelo: almeno due sistemi o due configurazioni diverse. La comparazione riduce l’aggancio. · Revisione comparativa: valutare differenze, non “scegliere la versione più fluida”. · Log delle decisioni: cosa è stato preso/scartato e perché. Accountability e apprendimento. · Trasparenza controllata: dichiarare metodo e responsabilità, soprattutto verso stakeholder interni. Tradotto: l’AI non va “messa in mano” alle persone, va messa dentro un processo. Senza processo, il rischio è doppio: da un lato errori che passano perché l’output convince; dall’altro una cultura interna che smette di praticare il controllo di qualità. Cosa è supportato da dati e cosa è ancora un’ipotesi Nel dibattito sull’AI generativa conviene distinguere tre piani, per non confondere evidenze robuste e narrazioni promettenti. Ci sono fatti verificabili (o almeno documentati), ipotesi ragionevoli ma ancora da misurare, e infine aspettative che rischiano di diventare ideologia se non vengono sottoposte a test. Supportato: esiste una letteratura sperimentale e divulgativa che descrive il rischio di “resa cognitiva” quando l’utente si aggancia all’output del sistema esterno (Carmignani, AI4Business, 29/01/2026); esiste anche un tentativo di formalizzare l’architettura di collaborazione umano‑AI in termini organizzativi e multi‑agente (Borghoff, Bottoni, Pareschi, Discover Computing/Springer, 2025). Infine, il caso di Minghetti fornisce un set minimo di dati dichiarati: data di avvio del gruppo, numerosità dei partecipanti, procedure di raccolta feedback (Minghetti, Nòva/Il Sole 24 Ore, 30/01/2026). Ipotetico: che questi stessi guardrail riducano sistematicamente errori e dipendenza in contesti ad alta posta in gioco (decisioni strategiche, compliance, rischio) senza rallentare eccessivamente; che la specializzazione dei modelli sia stabile nel tempo; che un social reading “scali” oltre community motivate senza degradare in rumore. Qui servono indicatori: qualità delle decisioni ex post, tasso di correzione degli errori, tracciabilità, tempi di ciclo, e – soprattutto – misure di autonomia critica delle persone prima e dopo l’introduzione dell’AI nel processo. Supportato da evidenze Dati dichiarati nel caso Ipotesi / promesse (da testare) La presenza di un rischio di delega del giudizio è descritta da una letteratura emergente sulla Tri‑System Theory e sulla “cognitive surrender”. Il gruppo di social reading conta 467 partecipanti e cresce dal 19/12/2025 (dato riportato dall’autore nell’articolo). Che la specializzazione “stabile” tra diversi LLM (uno più narrativo, uno più sintetico, uno più analitico) sia generalizzabile e ripetibile in altri contesti. Architetture a livelli e ruoli distinti per sistemi multi‑agente sono formalizzate in lavori recenti come TB‑CSPN (2025). La community produce feedback strutturati e viene usata come validazione sociale/qualitativa (meccanismo descritto dall’autore). Che la trasparenza metodologica aumenti sempre fiducia e qualità: plausibile, ma dipende da contesto, incentivi e conflitti. La separazione tra indirizzo, controllo e produzione è un principio organizzativo noto (governance, audit, responsabilità). Valutazioni percentuali sui feedback (es. maggioranza positiva vs richieste di calibrazione) sono riportate nel racconto, ma richiedono accesso ai dati grezzi per essere verificate. Che il social reading diventi un modello standard per l’editoria e, per analogia, per il management: l’effetto scala va misurato, non presunto. La morale è pratica: l’innovazione vera non è “avere l’AI”, ma misurare dove introduce attrito o abbagli, e progettare contromisure. Nel lavoro cognitivo aumentato, l’architettura è la nuova competenza di base. Riferimenti essenziali · Marco Minghetti, “Prolegomeni al Manifesto del Pop Management 160…”, Nòva / Il Sole 24 Ore (30/01/2026). Disponibile su: https://marcominghetti.nova100.ilsole24ore.com/2026/01/30/prolegomeni-al-manifesto-del-pop-management-160-dal-distant-writing-al-laboratorio-sociale-tre-livelli-di-intelligenza-collaborativa/ · Maurizio Carmignani, “Tri‑System Theory e resa cognitiva: l’AI entra nel nostro modo di giudicare”, AI4Business (29/01/2026). Disponibile su: https://www.ai4business.it/intelligenza-artificiale/sistema-3-e-resa-cognitiva-quando-lai-entra-nel-nostro-modo-di-giudicare/ · Uwe M. Borghoff, Paolo Bottoni, Remo Pareschi, “An organizational theory for multi-agent interactions integrating human agents, LLMs, and specialized AI”, Discover Computing (Springer, 2025). Disponibile su: https://link.springer.com/article/10.1007/s10791-025-09667-2
- Il decennio delle partenze: l’Italia nella concorrenza europea per i giovani
Nel 2024 le cancellazioni per l’estero arrivano a 191mila e gli espatri di cittadini italiani a 155.732, con un saldo vicino a -103mila. Le mete sono soprattutto europee: Germania, Spagna, Regno Unito, Svizzera e Francia sommano circa il 55%. Nel 2026–2036 la sfida non è solo “perché si parte”, ma come rendere più facile restare e conveniente tornare, trasformando la diaspora da perdita a rete operativa. di Andrea Viliotti L’emigrazione giovanile dall’Italia è tornata al centro del dibattito perché i numeri “registrati” nel 2024 segnano un salto: più partenze, meno rientri, e un peso crescente delle fasce più giovani. Ma il dato, da solo, non basta. Il punto – per imprese, università, sanità e territori – è capire dove si aprono i canali di uscita, quali opportunità all’estero sono percepite come più credibili, quali attriti trattengono i rientri e quali reti rendono la scelta più semplice. È lì che si gioca il decennio 2026–2036. Secondo Istat, le cancellazioni per l’estero (trasferimenti di residenza registrati) sono state 158mila nel 2023 e 191mila nel 2024. Nel solo 2024 gli espatri di cittadini italiani sono stati 155.732 a fronte di 52.508 rimpatri: un saldo vicino a -103mila. A gennaio–ottobre 2025, però, le cancellazioni per l’estero scendono a 115mila, -30% rispetto allo stesso periodo del 2024: un segnale da leggere con prudenza, perché provvisorio e perché influenzato anche da come e quando ci si iscrive all’Aire, l’anagrafe degli italiani residenti all’estero. Emigrazione giovanile dall’Italia Il termometro delle anagrafi: boom 2024, frenata provvisoria 2025 Il 2024 è l’anno del picco “contabile”. La fotografia dice: più uscite e meno ritorni. Ma la lettura va fatta distinguendo tra tendenza strutturale e fattori amministrativi. Nel 2024, nota Neodemos, può aver inciso anche un nuovo regime sanzionatorio per la mancata iscrizione all’Aire introdotto con la legge di bilancio 2024: un incentivo a regolarizzare posizioni già esistenti. È una correzione del termometro, non la malattia, ma può spostare il livello misurato da un anno all’altro. In altre parole: anche se una quota dell’aumento fosse “registrazione” più che “nuova partenza”, resta il dato di fondo che l’Italia si muove dentro un mercato del lavoro europeo molto integrato, dove il trasferimento è meno costoso di un tempo e dove la rete – amici, colleghi, comunità online, ex compagni di corso – abbassa il rischio percepito. I numeri chiave Fonte principale: Istat (Migrazioni interne e internazionali… anni 2023-2024; Bilancio demografico mensile gennaio–ottobre 2025) e Neodemos (analisi su dati Istat). I valori 2025 sono provvisori e soggetti a consolidamento. Indicatore Periodo Valore Cancellazioni per l’estero (totale) 2023 158.000 Cancellazioni per l’estero (totale) 2024 191.000 Cancellazioni per l’estero (totale) Gen–Ott 2025 (provv.) 115.000 Variazione cancellazioni per l’estero Gen–Ott 2025 vs Gen–Ott 2024 -30% Espatri cittadini italiani 2024 155.732 Rimpatri cittadini italiani 2024 52.508 Saldo cittadini italiani (rimpatri−espatri) 2024 -103.224 Tasso di rientro (rimpatri/espatri) 2024 33,7% Quota 18–39 tra gli emigranti 2024 ≈60% (51,7% nel 2010) Destinazioni degli espatri (cittadini italiani) 2024 ≈74% Europa; top 5 Paesi ≈55% Emigrazioni di cittadini italiani nati all’estero 2023–2024 ≈87mila (≈1/3 degli espatri) Saldo laureati 25–34 2019–2023 italiani ≈ -58mila; stranieri ≈ +68mila La geografia delle mete: l’Europa vicina, con cinque calamite Se si guarda alle destinazioni, il fenomeno diventa meno “Italia-centrico” e più simile a una competizione tra sistemi. Nel 2024 circa il 74% degli espatri di cittadini italiani ha avuto come destinazione l’Europa; Germania, Spagna, Regno Unito, Svizzera e Francia, insieme, raccolgono circa il 55% delle partenze. Sono Paesi che offrono mercati del lavoro ampi, grandi aree metropolitane, percorsi professionali percepiti come più rapidi e – spesso – un accesso più lineare a stage, dottorati e carriere tecniche. C’è poi un aspetto che vale la pena mettere in chiaro: una parte non trascurabile dei flussi riguarda cittadini italiani nati all’estero. Nel biennio 2023–2024, secondo Istat, sono stati circa 87mila: circa un terzo degli espatri di cittadini italiani nello stesso periodo. È la “geografia della cittadinanza”: nuove acquisizioni e mobilità che si intrecciano. Per leggere l’emigrazione giovanile, quindi, serve separare i percorsi: chi parte dopo aver studiato e lavorato in Italia, e chi è italiano “di passaporto” ma con reti familiari e opportunità originarie altrove. Il percorso a due tappe: dal Mezzogiorno al Nord, poi oltreconfine Il decennio 2026–2036 si giocherà molto anche sulla catena territoriale. I movimenti interni non sono solo un fenomeno parallelo: spesso sono il trampolino. La traiettoria tipica – soprattutto per chi ha ambizioni professionali o accademiche – è: Sud→Nord per università o primo lavoro; poi Nord→estero quando l’esperienza accumulata diventa spendibile su mercati più grandi. È un meccanismo che colpisce due volte il Mezzogiorno: perde giovani verso il Centro-Nord e, indirettamente, perde una parte di quel capitale umano anche verso l’estero. Istat fotografa un’Italia molto mobile: nel 2024 i trasferimenti di residenza tra Comuni superano 1,4 milioni e oltre 241mila spostamenti avvengono dal Mezzogiorno verso il Centro-Nord. Non è solo un tema demografico, è un tema di infrastrutture sociali: dove si concentrano università, ospedali di riferimento, imprese e reti professionali si concentrano anche le opportunità – e si alza l’asticella per trattenere. Laureati, STEM e sanità: la competizione è sulle carriere La “fuga” più costosa è quella dei profili su cui il Paese investe di più: laureati, competenze STEM e professioni sanitarie. La dinamica è doppia. Da un lato, l’Italia perde giovani laureati italiani; dall’altro, continua ad attrarre laureati stranieri, con un saldo che può risultare complessivamente positivo ma che cambia la composizione del capitale umano. Nel 2019–2023, secondo Istat, il saldo dei laureati 25–34 italiani è negativo per circa 58mila unità; nello stesso periodo, quello dei laureati stranieri è positivo per circa 68mila. Il messaggio, per chi governa università e sanità, è concreto: la decisione di partire non è legata soltanto al livello di stipendio, ma alla traiettoria. Conta quanto tempo serve per stabilizzarsi, quanto è trasparente l’avanzamento di carriera, quanto pesa la burocrazia, quanto è accessibile la casa nelle città dove si studia e si lavora. In sanità, contano turni, qualità dell’organizzazione e possibilità di crescita. In STEM, contano progetti, strumenti, contesto internazionale e mercato del lavoro. Diaspora: rischio di perdita secca, risorsa se diventa infrastruttura La diaspora è spesso raccontata come nostalgia o come “fuga”. Ma, nel decennio che si apre, può diventare un pezzo di politica industriale e territoriale. A fine 2024, secondo Istat, i cittadini italiani che dimorano abitualmente all’estero sono 6 milioni e 382mila: oltre la metà in Europa e più del 40% nelle Americhe. Questa rete è un rischio perché rende più facile la partenza e può trasformare l’investimento pubblico in istruzione in un guadagno per altri Paesi. Ma è anche una risorsa: contatti, capitali, competenze, mercati, ricerca. La differenza tra perdita e leva sta nella qualità del collegamento. Se il legame resta burocratico (solo AIRE, solo consolati), la diaspora è un archivio. Se diventa piattaforma – mentoring, stage, ricerca congiunta, imprenditorialità, filiere export – la diaspora può accorciare le distanze per chi resta e per chi torna. Rete da attivare Dimensione e geografia: al 31/12/2024 i cittadini italiani abitualmente residenti all’estero sono 6.382.000; 54% in Europa e 40,9% nelle Americhe (Istat). Rischio: la rete rende la partenza meno costosa; il Paese può perdere competenze formate con risorse pubbliche. Risorsa operativa: usare la diaspora come canale di lavoro, impresa, ricerca e rientro. 5 leve pratiche per “attivare” la diaspora 1) Programmi alumni (università, ITS, sanità) mentoring, job matching, stage di ritorno 2) Sportello unico rientri (titoli, contratti, fiscalità) ridurre tempi e incertezza burocratica 3) “Contratti ponte” pubblico-privato per talenti rientro con progetto e valutazione trasparente 4) Rete diaspora per export e attrazione investimenti contatti commerciali, scouting, co-investimento 5) Piattaforme di ricerca congiunta e dottorati industriali mobilità circolare, non solo “andata e ritorno” Agenda riforme: lavoro, casa, servizi. E un ponte stabile con l’estero Se l’obiettivo è ridurre la “perdita netta” di giovani nel 2026–2036, le leve sono note ma vanno rese operative, misurabili e territorialmente mirate. Tre cantieri sono decisivi. · 1) Lavoro e carriere: contratti più stabili all’ingresso, percorsi trasparenti in università e sanità, politiche salariali coerenti con competenze e responsabilità; sostegno a imprese ad alto contenuto tecnologico che creano traiettorie di crescita. · 2) Casa e mobilità: offerta di alloggi per studenti e giovani lavoratori nelle città dove si concentra la domanda; incentivi alla mobilità interna senza trasformarla in “anticamera” dell’espatrio; servizi di orientamento e placement più forti in tutta la filiera educativa. · 3) Servizi e tempi: pubblica amministrazione più semplice per chi apre un’attività, per chi cambia città, per chi rientra; sanità territoriale che riduca l’“emigrazione sanitaria” interna e migliori la qualità di vita. Accanto a questi cantieri, serve un ponte strutturale con l’estero: canali di rientro non episodici, ma integrati nei sistemi di università, imprese e servizi pubblici. In pratica: rendere “facile” la circolazione delle competenze senza accettare come inevitabile la perdita definitiva. Filo rosso Nel decennio 2026–2036 l’emigrazione giovanile non sarà un destino scritto, ma l’esito di scelte quotidiane: dove conviene studiare, dove conviene lavorare, dove conviene costruire una vita. La politica può cambiare la traiettoria se rende credibili le opportunità in Italia, riduce gli attriti che bloccano i rientri e usa le reti della diaspora come infrastruttura. Misurare bene, intervenire presto, connettere meglio: è questa la linea che separa la perdita secca dalla mobilità che crea valore. Nota metodologica Per costruire questa analisi ho usato un approccio di lettura che mette in fila quattro domande molto concrete: (1) attraverso quali canali le persone si muovono (studio, lavoro, reti familiari, mobilità interna), (2) quali opportunità sono percepite come più credibili nelle diverse mete (carriere, progetti, servizi), (3) quali attriti frenano la permanenza o i rientri (casa, burocrazia, tempi di carriera, qualità dei servizi), e (4) quali reti abbassano il rischio e accelerano le decisioni (diaspora, alunni, comunità professionali). Questo schema è parte dell’ecosistema GDE (Generalized Decision Economics): non è una “formula” che predice il futuro, ma un modo per rendere verificabili le ipotesi, separare i dati osservati dalle interpretazioni e costruire scenari condizionali.
- Rage bait: l’economia dell’indignazione tra piattaforme, politica e fiducia
Dalla scala globale all’Unione europea e all’Italia: come i sistemi di raccomandazione trasformano attenzione, rischi reputazionali e governance democratica di Andrea Viliotti In sintesi · Il “rage bait” è contenuto progettato per suscitare rabbia o indignazione e convertire la reazione in traffico, follower o ricavi pubblicitari. · L’attenzione è diventata un asset geoeconomico: le piattaforme ottimizzano engagement e tempo speso; attori politici e informativi competono nello stesso mercato. · Nell’UE il Digital Services Act sposta il baricentro su trasparenza, audit e gestione dei rischi sistemici dei sistemi di raccomandazione. · In Italia la fiducia nelle notizie resta bassa (pur in lieve recupero) e la fruizione di video di attualità passa da molte piattaforme diverse: un ambiente ideale per polarizzazione e “frizioni” reputazionali. · Per imprese e cittadini la leva non è “spegnere” i social, ma ridurre incentivi al conflitto: policy di brand safety, igiene informativa, design con frizioni e trasparenza sugli algoritmi. Numeri chiave (misure e contesto) Utenti attivi mensili medi nell’UE: YouTube 416,6 milioni. Periodo: aggiornamento 26 gennaio 2026. Fonte: Commissione europea, elenco VLOP/VLOSE (DSA). Utenti attivi mensili medi nell’UE: Facebook 259 milioni; Instagram 259 milioni. Periodo: aggiornamento 26 gennaio 2026. Fonte: Commissione europea, elenco VLOP/VLOSE (DSA). Utenti attivi mensili medi nell’UE: TikTok 135,9 milioni; X 115,1 milioni. Periodo: aggiornamento 26 gennaio 2026. Fonte: Commissione europea, elenco VLOP/VLOSE (DSA). Italia: fiducia nelle notizie 36% nel 2025 (in recupero rispetto al 2023–2024). Periodo: 2025. Fonte: Digital News Report Italia 2025 (Reuters Institute / partner italiani). Italia: 33% non ha guardato alcun video di notizie nell’ultima settimana; tra chi ne guarda, i canali sono frammentati (siti/app news 25%, Snapchat 23%, Facebook 22%, WhatsApp 17%, YouTube 12%). Periodo: 2025. Fonte: Digital News Report Italia 2025. Rage bait economia dell’indignazione Che cos’è il “rage bait” e perché funziona “Rage bait” è un’etichetta diventata mainstream nel 2025: indica contenuti deliberatamente progettati per suscitare rabbia o indignazione e trasformare quella reazione in attenzione misurabile – commenti, condivisioni, tempo speso – che può essere monetizzata. La logica è semplice (e antica): più un contenuto attiva l’utente, più aumenta la probabilità che l’utente reagisca. La novità è che, nelle piattaforme digitali, quella reazione diventa un segnale che i sistemi di raccomandazione possono usare per amplificare o raccomandare contenuti simili. In pratica, l’indignazione entra nella stessa catena industriale di ottimizzazione che governa la pubblicità, la crescita dei follower e la distribuzione delle notizie. La letteratura sulla “viralità emotiva” suggerisce che emozioni ad alta attivazione fisiologica – inclusa la rabbia – sono associate a maggiore condivisione. In parallelo, lavori su linguaggio “morale‑emotivo” nelle discussioni politiche mostrano che la presenza di termini che attivano emozioni morali può aumentare la diffusione di messaggi nei network. Questi risultati non implicano che “tutto” sia rage bait, né che gli algoritmi siano un’unica causa. Ma aiutano a capire perché il fenomeno sia diventato una scorciatoia competitiva: costa poco produrre contenuti polarizzanti; il payoff può essere alto; e la penalità reputazionale, spesso, arriva tardi. Habitat Mondo: geopolitica dell’attenzione A scala globale, il rage bait vive in un ecosistema in cui tre mercati si sovrappongono: (1) pubblicità e performance marketing, (2) distribuzione dell’informazione e (3) competizione politica. La stessa infrastruttura – feed algoritmici, raccomandazioni, ranking – è usata per intrattenimento, news, propaganda e commercio. Quando l’obiettivo primario diventa l’attenzione, la frizione tra “ciò che interessa” e “ciò che informa” cresce. Il rischio geoeconomico è duplice: da un lato la pressione su editori e creator a inseguire segnali di engagement; dall’altro la concentrazione del potere di distribuzione (e dunque di mercato) nelle piattaforme. Sul piano geopolitico, la competizione informativa assume forme ibride: campagne di influenza, disinformazione, operazioni coordinate – ma anche pratiche più “banali” come l’uso seriale di provocazioni per saturare l’agenda. In questo contesto il rage bait non è solo un contenuto: è un meccanismo di allocazione dell’attenzione. L’elemento nuovo del 2024–2026 è la sovrapposizione con l’IA generativa: aumentano velocità e scala di produzione di immagini, video e testi, inclusi contenuti “di confine” che puntano a reazioni forti. Il tema non è solo la verità dei contenuti, ma il costo marginale quasi nullo di produrre stimoli emotivi. Unione europea: dal “mercato digitale” alla gestione del rischio sistemico Nell’Unione europea il dibattito sul rage bait si innesta in una svolta regolatoria: con il Digital Services Act (DSA) l’attenzione non è solo sui singoli contenuti illegali, ma su rischi “sistemici” legati anche al design dei servizi (inclusi i sistemi di raccomandazione). Due passaggi sono centrali per il tema: la trasparenza dei sistemi di raccomandazione (parametri principali e opzioni per modificarli) e l’obbligo, per le piattaforme “molto grandi”, di valutare e mitigare rischi sistemici (come effetti su dibattito civico, salute pubblica, diritti fondamentali). Il DSA introduce anche un criterio quantitativo di “scala” (oltre 45 milioni di utenti mensili medi nell’UE) per individuare le Very Large Online Platforms e i motori di ricerca molto grandi. È un confine utile: più è grande la platea, più è probabile che l’ottimizzazione dell’engagement generi esternalità. In questo quadro, le richieste di informazioni e le indagini formali sui sistemi di raccomandazione – ad esempio su X – segnalano che la contesa si sposta dal “cosa è stato pubblicato” al “come viene distribuito”. Utenti attivi mensili medi nell’UE per alcune piattaforme designate come Very Large Online Platforms (VLOP) ai sensi del DSA. Fonte: Commissione europea (agg. 26 gennaio 2026). Italia: fiducia bassa, video frammentato, reputazione esposta In Italia il rage bait trova terreno fertile per tre ragioni strutturali: (1) una fiducia nelle notizie che resta sotto la metà della popolazione, (2) un consumo informativo sempre più “disintermediato” e (3) una forte frammentazione dei canali, soprattutto quando si passa al video. Il Digital News Report Italia 2025 segnala un lieve recupero della fiducia nelle notizie (36% nel 2025), ma il dato resta basso nel confronto europeo. Nel decennio 2015–2025 la serie mostra oscillazioni marcate: un contesto in cui l’indignazione può diventare un accelerante della disaffezione. Sul fronte dei video di attualità, la stessa ricerca evidenzia che una quota rilevante dichiara di non aver guardato video di notizie nell’ultima settimana; tra chi lo fa, la fruizione è distribuita tra siti/app di news e piattaforme social, con un mix che include Snapchat, Facebook, WhatsApp, YouTube, Instagram, TikTok e X. È la definizione operativa di un “ambiente multi‑feed”: il contenuto viaggia e cambia forma, e le dinamiche di commento e reazione possono diventare parte del messaggio. Per le imprese italiane questo significa che la gestione del rischio reputazionale non è più solo comunicazione: è anche governance dei canali. Per i cittadini significa che la qualità dell’ecosistema informativo è un bene collettivo, ma la fruizione è individualizzata – e quindi più vulnerabile a contenuti ad alto arousal. Italia: fiducia nelle notizie (2015–2025), % di chi pensa che ci si possa fidare delle notizie la maggior parte delle volte. Fonte: Digital News Report Italia 2025 (Q6_2016_1). Italia: piattaforme usate per guardare video di notizie nell’ultima settimana (risposta multipla; include anche chi dichiara “nessun video”). Fonte: Digital News Report Italia 2025 (Q11_VIDEO_2018a). USA + Cina: due modelli di governance dell’attenzione USA — Modello “market + immunità condizionata”: con la Sezione 230 del Communications Decency Act, i servizi online godono di un’ampia protezione rispetto alla responsabilità per contenuti di terzi, mentre la moderazione è in larga parte privata e oggetto di conflitto politico e culturale. Piattaforme chiave: YouTube, Facebook/Instagram (Meta), X, Reddit; TikTok è presente ma con tensioni geopolitiche. Cina — Modello “stato‑centrico + compliance algoritmica”: dal 2022 sono in vigore provvedimenti specifici su algoritmi di raccomandazione e, dal 2023, su “deep synthesis”, con obblighi più stringenti su controllo dei contenuti, sicurezza e tracciabilità. Piattaforme chiave: WeChat (Tencent), Douyin (ByteDance), Weibo, Kuaishou, Bilibili. Trade‑off: il modello USA riduce il rischio di controllo pubblico diretto ma può lasciare esternalità di polarizzazione e disinformazione; il modello cinese riduce la pluralità del dibattito e aumenta il controllo statale, ma offre strumenti regolatori espliciti sui sistemi algoritmici. In entrambi i casi, il rage bait prospera quando il “costo dell’indignazione” è basso e il premio in visibilità è alto. “So what”: cosa cambia per imprese e cittadini Per le imprese (brand, marketing, HR, compliance) · Brand safety 2.0: non basta evitare contenuti illegali. Serve mappare contesti ad “alta frizione” (politica, cronaca nera, temi identitari) e definire regole di adiacenza coerenti con valori e rischio reputazionale. · Misurare l’“engagement tossico”: distinguere engagement totale da engagement polarizzante. Un picco di commenti può indicare crisi, non efficacia. Collegare KPI social a metriche di fiducia e customer care. · Contratti e governance con creator e agenzie: clausole su linguaggio d’odio, disinformazione e provocazioni deliberatamente fuorvianti; processi di approvazione rapidi ma tracciabili. · HR e benessere: chi lavora su social/care è esposto a ondate di ostilità. Inserire rotazioni, supporto psicologico e procedure anti‑harassment. · Compliance: in UE/Italia crescere con trasparenza e tracciabilità (archiviazione decisioni, log di campagne, audit dei fornitori adtech). Prepararsi a richieste di informazioni e a standard più stringenti su targeting e raccomandazione. Per i cittadini (fiducia, polarizzazione, benessere, media literacy) · Igiene informativa: diversificare fonti e formati; ridurre l’esposizione continua a feed ad alta reattività (scroll infinito, notifiche aggressive). · Sospendere la reazione: il rage bait “vive” di commenti e ricondivisioni impulsive. La prima difesa è rallentare: verificare, contestualizzare, non amplificare. · Benessere digitale: riconoscere segnali di stress informativo (ansia, irritabilità, “doomscrolling”) e impostare routine di disconnessione. · Partecipazione civica: sostenere strumenti di trasparenza, fact‑checking e ricerca indipendente; segnalare contenuti problematici senza trasformare la segnalazione in caccia alle streghe. Matrice attori–incentivi–leve (versione sintetica) Attore Incentivo Meccanismo Rischio Leve Piattaforme (TikTok, Meta, YouTube, X…) Tempo speso, retention, ricavi pubblicitari Ranking e raccomandazione basati su segnali di engagement Amplificazione di contenuti polarizzanti; opacità; rischio regolatorio Trasparenza su parametri; frizioni; de‑amplificazione; accesso dati per ricerca Creator / influencer Visibilità e monetizzazione Provocazione, polarizzazione, “call‑out”, frame identitari Erosione fiducia; harassment; reputazione Codici di condotta; contratti; incentivi su qualità Inserzionisti / brand ROI e crescita Targeting, performance marketing, ottimizzazione su conversioni Brand safety; backlash; polarizzazione Policy adiacenza; audit campagne; KPI di fiducia Media / editori Traffico e ricavi; rilevanza Titoli forti, velocità, video short‑form Corsa al click; perdita autorevolezza Standard editoriali; trasparenza; diversificazione ricavi Regolatori (UE, Italia/AGCOM) Diritti fondamentali; integrità informativa Regole su trasparenza, rischi e enforcement Over‑regulation; asimmetrie di enforcement Audit; sanzioni proporzionate; cooperazione con ricercatori Cittadini / utenti Informazione utile e appartenenza sociale Condivisione, commento, comunità Stress informativo; camere dell’eco Media literacy; igiene digitale; pluralità fonti Opzioni operative (con trade‑off espliciti) Ambito Opzione Beneficio atteso Trade‑off / rischio Policy / regolatori Obbligare audit e accesso ai dati per ricerca indipendente sui sistemi di raccomandazione (soprattutto per VLOP). Più accountability e evidenza su rischi sistemici. Costi di compliance; rischio di “box‑ticking”; tensioni su privacy e segreti industriali. Piattaforme Introdurre “frizioni” e de‑amplificazione per contenuti ad alta conflittualità (senza censura generalizzata). Riduce cascata di indignazione; migliora sicurezza. Possibile calo engagement; accuse di bias; bisogno di trasparenza. Imprese Passare da KPI di volume (like/commenti) a KPI di qualità (fiducia, soddisfazione, riduzione crisi). Allinea performance a valore di lungo periodo. Misure più lente; difficoltà di attribuzione; costi di misurazione. Cittadini / scuola Programmi di media literacy e pratiche di igiene informativa, con focus su emozioni e manipolazione. Aumenta resilienza e benessere informativo. Effetti nel medio periodo; rischio di “moralismo” se non basati su evidenza. Conclusione Il rage bait non è un semplice “stile comunicativo” aggressivo: è un adattamento razionale a un’infrastruttura che converte reazioni in distribuzione. Per questo è un tema geopolitico e geoeconomico prima ancora che culturale. La domanda, per l’Europa e per l’Italia, non è se internet diventerà meno conflittuale per decreto. È come riallineare incentivi – con regole, trasparenza e scelte di design – perché la visibilità non premi sistematicamente ciò che avvelena fiducia, benessere e coesione.











