L’AI in azienda, senza illusioni: un metodo per decidere nel rumore geopolitico
- Andrea Viliotti

- 6 feb
- Tempo di lettura: 8 min
Energia, tassi, cambio, semiconduttori, cloud e regole UE: se il contesto si muove, l’adozione dell’intelligenza artificiale non può essere una “scommessa tecnica”. Per le PMI italiane diventa una scelta di resilienza e governance.
Nel mio lavoro con imprenditori e C‑level italiani uso un framework proprietario – GDE – per trasformare l’AI da promessa generica a programma misurabile. Il punto non è “fare un progetto”, ma costruire osservabilità, guardrail e una sequenza di decisioni che regge anche quando energia e credito cambiano rotta.
Quando parlo di intelligenza artificiale nelle aziende con cui collaboro, mi accorgo che la domanda vera raramente è “che modello uso?”. Più spesso è: “posso permettermelo?” oppure “mi espone?”. In Italia, dove le PMI sono la spina dorsale e i margini si difendono ogni trimestre, la tecnologia non entra se non passa un test implicito: riduce sprechi e tempo, migliora decisioni ripetute, e non crea un rischio che nessuno sa gestire.
È qui che il contesto geopolitico e geoeconomico smette di essere cornice e diventa input operativo. L’energia non è solo una bolletta: è volatilità che sposta costi e priorità. I tassi non sono una notizia da mercati: sono il ritmo con cui si finanzia il capitale circolante. Il cambio non è un grafico: è il prezzo della materia prima importata o il margine sull’export. E semiconduttori e cloud non sono “infrastruttura neutra”: sono scelte di dipendenza e continuità.
Per questo, quando progetto un assessment di introduzione o ottimizzazione AI, non parto dai casi d’uso “più belli”. Parto dalle decisioni che l’azienda deve prendere in un contesto instabile – e dal modo in cui misurerà valore e rischio senza cadere nel tranello del “numero orfano”: una metrica che sembra oggettiva, ma non ha dati, owner e conseguenze a supporto.

Mondo: energia e credito come “variabili di controllo”
Negli ultimi anni ho visto cambiare la conversazione in sala riunioni. Prima: “digitalizziamo”. Poi: “automatizziamo”. Oggi: “reggiamo?”. È una differenza sottile ma decisiva: un’impresa non cerca solo efficienza, cerca stabilità. E due leve dominano la stabilità: energia e credito.
L’energia resta un fattore geopolitico perché passa da colli di bottiglia fisici (produzione, trasporto, infrastrutture) e da scelte politiche (sanzioni, accordi, scorte). Questo significa prezzi che oscillano e, soprattutto, incertezza: l’azienda che fa acquisti di lungo periodo o che lavora su contratti a prezzo fisso si trova a gestire una variabile esterna che erode margini senza preavviso.
Il credito, invece, è la variabile “lenta” che però decide se un piano sta in piedi. Quando la politica monetaria cambia – o quando resta restrittiva più a lungo del previsto – cambiano condizioni di finanziamento e appetito al rischio. In quel momento un progetto AI che promette valore lontano nel tempo diventa più difficile da difendere. Nel mio metodo la prima domanda non è “quanto è innovativo”, ma “quanto è osservabile” e “quanto è rapido il time‑to‑value”: il tempo tra kickoff e primo caso d’uso che produce valore misurabile e verificabile nei sistemi aziendali.
USA, Cina e UE
La partita di semiconduttori e cloud (e perché riguarda l’Italia).
Quando parlo con CEO, CFO, CIO o responsabili Legal, spesso riassumo così: USA, Cina e UE non stanno litigando solo su dazi o diplomazia; stanno definendo le regole di accesso a due “materie prime” della trasformazione digitale: capacità di calcolo (chip) e capacità di orchestrazione (cloud).
Gli Stati Uniti hanno irrigidito negli anni recenti i controlli all’export su componenti avanzati e tecnologie legate ai semiconduttori; la Cina ha risposto con una politica industriale aggressiva e, in alcuni casi, con leve sulle materie prime critiche. L’Unione europea, nel mezzo, spinge su autonomia strategica: ridurre vulnerabilità e aumentare capacità produttiva e coordinamento.
Per l’Italia questo si traduce in scelte molto concrete: dove girano i dati? quali fornitori garantiscono continuità? come si gestisce il rischio di lock‑in? L’AI, soprattutto quella generativa, tende a consumare più calcolo e più dati: se non si decide consapevolmente l’architettura (cloud pubblico, privato, ibrido; servizi gestiti; modelli on‑premise), si finisce per subire la catena di dipendenza invece di governarla.
Italia: PMI tra export, cambio e “supply chain nervosa”
In molte PMI italiane l’export non è un canale: è l’identità. Qui il cambio entra in azienda come un costo o come un vantaggio competitivo. Se l’euro si muove, cambiano i prezzi di input importati e la competitività dei listini all’estero. Nei miei assessment, questo non resta un discorso macro: diventa un criterio per scegliere casi d’uso che aiutano a proteggere margini (previsioni domanda, ottimizzazione scorte, pricing dinamico, monitoraggio fornitori).
Poi c’è la supply chain: negli anni ho smesso di chiamarla “catena” e ho iniziato a pensarla come un sistema nervoso. Segnali deboli (ritardi, deviazioni, picchi di domanda) viaggiano lungo l’organizzazione e, se non c’è osservabilità, arrivano tardi. L’AI può aiutare – ma solo se i dati sono leggibili, tracciabili e collegati a responsabilità chiare. Altrimenti il rischio è automatizzare un’informazione che già oggi è confusa.
È anche per questo che, pur con una crescita recente, l’adozione dell’AI resta disomogenea: nelle imprese italiane con almeno 10 addetti, l’uso di almeno una tecnologia IA nel 2025 è ancora minoritario, e il divario tra piccole e grandi aziende rimane marcato.

Il mio punto di partenza: trasformare l’AI da “progetto” a sequenza di decisioni
Qui entra il framework che uso – GDE – e la cosa che mi interessa di più è che lo posso spiegare senza gergo. Per me GDE è un modo per rendere auditabile una scelta: cosa facciamo, perché lo facciamo, con quali dati, con quale rischio e con quali indicatori. In pratica: una macchina per prendere decisioni sotto incertezza.
La tentazione tipica è partire da una demo. Io faccio il contrario: parto da un “perimetro di controllo”. Se una decisione è critica (ad esempio: approvvigionamento energia; gestione credito clienti; trade‑off scorte vs servizio; compliance su dati e AI), allora vale la pena chiedersi se l’AI può migliorare quell’area. Se invece la decisione non ha KPI, owner e dati, qualsiasi automazione è fragile.
Nel documento che consegno alla fine di un assessment, le parole più importanti non sono “modello”, ma “osservabilità” e “governance”. Senza osservabilità, non si misura. Senza governance, non si regge un audit. E senza entrambe, il time‑to‑value diventa una speranza.

Come funziona in 5 passi
1) Definisco il perimetro: quali decisioni critiche vogliamo migliorare (e quali rischi non possiamo accettare).2) Mappo processi e dati: dove nascono i segnali, chi li possiede, dove sono i colli di bottiglia.3) Seleziono 1–3 casi d’uso: valore atteso, tempi, dipendenze (cloud/dati), compliance, fallback manuale.4) Progetto un pilot misurabile: KPI outcome + leading + rischio, e un ciclo di feedback settimanale.5) Industrializzo: ruoli, policy, logging, audit trail, formazione, e monitoraggio continuo delle performance. |
Due esempi tipici che uso per rendere concreto il lavoro
Esempio 1 – Manifattura discreta (funzione Operations). Problema: troppe ore perse tra pianificazione, ripianificazione e gestione eccezioni, con costi energetici che amplificano ogni inefficienza. Obiettivo desiderato: ridurre tempi di ciclo e scarti, con un pilot che attacca una sola linea o famiglia prodotto, e KPI osservabili in MES/ERP.
Esempio 2 – Distribuzione/Logistica (funzione CFO/Commerciale). Problema: volatilità della domanda e dell’import/export che rende difficile fissare prezzi e scorte, con impatto immediato su cassa e credito. Obiettivo desiderato: previsione più stabile, regole di riordino e alert su deviazioni, con un cruscotto che esplicita ipotesi e incertezza.
Li chiamo esempi tipici perché cambiano i dettagli, ma la struttura è quasi sempre la stessa: un collo di bottiglia informativo, una decisione ripetuta, e un costo di errore che diventa più alto quando tassi, energia o cambio si muovono.
Governance e compliance: l’AI che passa l’esame (non solo quello tecnico)
Nelle conversazioni con DPO e responsabili Legal emerge sempre lo stesso punto: la tecnologia corre, ma i vincoli non sono opzionali. In Europa – e quindi in Italia – l’AI si muove dentro una trama di regole: protezione dei dati, sicurezza, trasparenza, responsabilità. Per me non è un freno; è un criterio di progetto.
Nel concreto, questo significa costruire un dossier minimo ma solido: che dati uso, con quale base giuridica, come li proteggo, come gestisco log e tracciabilità, chi approva un cambiamento di modello, cosa succede se l’output è sbagliato. Se un sistema genera un testo o un suggerimento, deve essere chiaro dove finisce l’automazione e dove inizia la responsabilità umana.
Quando la compliance viene trattata come una “fase finale”, la vedo trasformarsi in costo e conflitto. Quando invece entra nel design – insieme ai KPI – diventa un acceleratore: evita rework e dà serenità al management. È uno dei paradossi più utili che ho imparato: più governance all’inizio, meno burocrazia alla fine.
Prontezza PMI: 5 domande
1) Qual è la decisione ripetuta che oggi sbagliamo più spesso (e quanto ci costa)?2) Esiste già un dato “di verità” per misurare quell’errore (anche se è sporco)? Chi ne è owner?3) Se domani l’AI si spegne, qual è il piano di fallback (manuale o procedurale)?4) Chi firma la responsabilità: IT, Operations, Finance, Legal? È scritto e condiviso?5) Qual è il primo segnale che ci dice che il sistema sta degradando (drift, bias, eccezioni, reclami)? |
Timeline
2022–2023: energia e supply chain diventano “variabili strategiche” anche per chi non è energy‑intensive.2023–2024: accelerano regole e controlli su dati e AI; cresce attenzione a cloud e localizzazione.2024–2025: la politica monetaria resta centrale; il credito seleziona progetti con ritorni chiari.2025: nei dati ufficiali cresce l’adozione dell’AI, ma il divario tra piccole e grandi imprese resta ampio.2026: la domanda non è più “se” usare l’AI, ma “dove” e “con quali guardrail”, in un contesto che può cambiare in fretta. |
Numeri chiave
- Adozione IA nelle imprese italiane (≥10 addetti): 16,4%. Periodo: anno 2025. Fonte: ISTAT.- Adozione IA nelle imprese UE (≥10 addetti): 19,95%. Periodo: 2025. Fonte: Eurostat.- Tasso sui depositi presso la BCE (deposit facility): 2,00%. Periodo: in vigore dall’11 giugno 2025. Fonte: BCE.- Inflazione area euro (HICP, var. annua): 1,9%. Periodo: dicembre 2025. Fonte: Eurostat.- Cambio EUR/USD (tasso di riferimento): 1,1798. Periodo: 5 febbraio 2026. Fonte: BCE.- Tasso sui nuovi prestiti alle imprese (società non finanziarie, Italia): 3,52%. Periodo: novembre 2025. Fonte: Banca d’Italia. |
Cosa monitorare nel 2026 (senza fare l’oracolo)
Quando chiudo un assessment con un management team, cerco sempre di lasciare un set di segnali precoci osservabili. Non sono previsioni: sono indicatori che, se si muovono, cambiano il perimetro delle decisioni. Nel 2026 guardo in particolare:
1) Energia: volatilità e coperture (quanto pesa l’energia sui costi e quanto velocemente l’azienda può reagire).
2) Credito: condizioni sui nuovi finanziamenti e tempi di incasso (stress su cassa e capitale circolante).
3) Cambio e commercio: variazioni che impattano input e listini export, oltre a eventuali frizioni regolatorie o logistiche.
4) Cloud e semiconduttori: disponibilità di capacità di calcolo e politiche dei principali provider; in particolare ciò che cambia in termini di costi e vincoli di localizzazione.
5) Regole UE sull’AI: come si traduce in processi interni (documentazione, classificazione del rischio, controlli, formazione).
Se questi segnali restano stabili, ha senso spingere su efficienza e scale‑up. Se cambiano rapidamente, spesso è più saggio proteggere la continuità operativa: scegliere pochi casi d’uso ad alto impatto e costruire governance e osservabilità prima di moltiplicare i progetti.
Filo rosso
Il filo rosso, per me, è semplice da dire e faticoso da praticare: collegare macro e micro senza saltare passaggi. Mondo significa energia e rotte; energia significa costi e margini; margini significano priorità di investimento. USA, Cina e UE significano regole e accesso a chip e cloud; quelle scelte significano architetture, dipendenze e continuità. Italia significa un tessuto di PMI che vive di export, qualità e velocità; e quindi decisioni ripetute, spesso con dati incompleti. In mezzo c’è l’AI: potente, sì, ma anche incline a creare illusioni se viene trattata come una scorciatoia.
Quando invece la tratto come un pezzo di governance – KPI chiari, dati tracciabili, ruoli, auditabilità, guardrail – diventa una leva di resilienza. La CTA che lascio non è “compra” o “corri”: è “osserva”. Se la tua azienda sa osservare (processi, dati, rischi, segnali esterni), allora può decidere. E se può decidere, può anche usare l’AI in modo sobrio: per ridurre sprechi, migliorare la qualità delle decisioni, e arrivare a valore in tempi compatibili con un costo del denaro che non perdona.






Commenti