top of page

L’AI in azienda, senza illusioni: un metodo per decidere nel rumore geopolitico

Energia, tassi, cambio, semiconduttori, cloud e regole UE: se il contesto si muove, l’adozione dell’intelligenza artificiale non può essere una “scommessa tecnica”. Per le PMI italiane diventa una scelta di resilienza e governance.


Nel mio lavoro con imprenditori e C‑level italiani uso un framework proprietario – GDE – per trasformare l’AI da promessa generica a programma misurabile. Il punto non è “fare un progetto”, ma costruire osservabilità, guardrail e una sequenza di decisioni che regge anche quando energia e credito cambiano rotta.


Quando parlo di intelligenza artificiale nelle aziende con cui collaboro, mi accorgo che la domanda vera raramente è “che modello uso?”. Più spesso è: “posso permettermelo?” oppure “mi espone?”. In Italia, dove le PMI sono la spina dorsale e i margini si difendono ogni trimestre, la tecnologia non entra se non passa un test implicito: riduce sprechi e tempo, migliora decisioni ripetute, e non crea un rischio che nessuno sa gestire.

È qui che il contesto geopolitico e geoeconomico smette di essere cornice e diventa input operativo. L’energia non è solo una bolletta: è volatilità che sposta costi e priorità. I tassi non sono una notizia da mercati: sono il ritmo con cui si finanzia il capitale circolante. Il cambio non è un grafico: è il prezzo della materia prima importata o il margine sull’export. E semiconduttori e cloud non sono “infrastruttura neutra”: sono scelte di dipendenza e continuità.


Per questo, quando progetto un assessment di introduzione o ottimizzazione AI, non parto dai casi d’uso “più belli”. Parto dalle decisioni che l’azienda deve prendere in un contesto instabile – e dal modo in cui misurerà valore e rischio senza cadere nel tranello del “numero orfano”: una metrica che sembra oggettiva, ma non ha dati, owner e conseguenze a supporto.


Assessment AI per PMI italiane
Assessment AI per PMI italiane

Mondo: energia e credito come “variabili di controllo”

Negli ultimi anni ho visto cambiare la conversazione in sala riunioni. Prima: “digitalizziamo”. Poi: “automatizziamo”. Oggi: “reggiamo?”. È una differenza sottile ma decisiva: un’impresa non cerca solo efficienza, cerca stabilità. E due leve dominano la stabilità: energia e credito.

L’energia resta un fattore geopolitico perché passa da colli di bottiglia fisici (produzione, trasporto, infrastrutture) e da scelte politiche (sanzioni, accordi, scorte). Questo significa prezzi che oscillano e, soprattutto, incertezza: l’azienda che fa acquisti di lungo periodo o che lavora su contratti a prezzo fisso si trova a gestire una variabile esterna che erode margini senza preavviso.


Il credito, invece, è la variabile “lenta” che però decide se un piano sta in piedi. Quando la politica monetaria cambia – o quando resta restrittiva più a lungo del previsto – cambiano condizioni di finanziamento e appetito al rischio. In quel momento un progetto AI che promette valore lontano nel tempo diventa più difficile da difendere. Nel mio metodo la prima domanda non è “quanto è innovativo”, ma “quanto è osservabile” e “quanto è rapido il time‑to‑value”: il tempo tra kickoff e primo caso d’uso che produce valore misurabile e verificabile nei sistemi aziendali.


USA, Cina e UE

La partita di semiconduttori e cloud (e perché riguarda l’Italia).

Quando parlo con CEO, CFO, CIO o responsabili Legal, spesso riassumo così: USA, Cina e UE non stanno litigando solo su dazi o diplomazia; stanno definendo le regole di accesso a due “materie prime” della trasformazione digitale: capacità di calcolo (chip) e capacità di orchestrazione (cloud).


Gli Stati Uniti hanno irrigidito negli anni recenti i controlli all’export su componenti avanzati e tecnologie legate ai semiconduttori; la Cina ha risposto con una politica industriale aggressiva e, in alcuni casi, con leve sulle materie prime critiche. L’Unione europea, nel mezzo, spinge su autonomia strategica: ridurre vulnerabilità e aumentare capacità produttiva e coordinamento.


Per l’Italia questo si traduce in scelte molto concrete: dove girano i dati? quali fornitori garantiscono continuità? come si gestisce il rischio di lock‑in? L’AI, soprattutto quella generativa, tende a consumare più calcolo e più dati: se non si decide consapevolmente l’architettura (cloud pubblico, privato, ibrido; servizi gestiti; modelli on‑premise), si finisce per subire la catena di dipendenza invece di governarla.


Italia: PMI tra export, cambio e “supply chain nervosa”

In molte PMI italiane l’export non è un canale: è l’identità. Qui il cambio entra in azienda come un costo o come un vantaggio competitivo. Se l’euro si muove, cambiano i prezzi di input importati e la competitività dei listini all’estero. Nei miei assessment, questo non resta un discorso macro: diventa un criterio per scegliere casi d’uso che aiutano a proteggere margini (previsioni domanda, ottimizzazione scorte, pricing dinamico, monitoraggio fornitori).


Poi c’è la supply chain: negli anni ho smesso di chiamarla “catena” e ho iniziato a pensarla come un sistema nervoso. Segnali deboli (ritardi, deviazioni, picchi di domanda) viaggiano lungo l’organizzazione e, se non c’è osservabilità, arrivano tardi. L’AI può aiutare – ma solo se i dati sono leggibili, tracciabili e collegati a responsabilità chiare. Altrimenti il rischio è automatizzare un’informazione che già oggi è confusa.


È anche per questo che, pur con una crescita recente, l’adozione dell’AI resta disomogenea: nelle imprese italiane con almeno 10 addetti, l’uso di almeno una tecnologia IA nel 2025 è ancora minoritario, e il divario tra piccole e grandi aziende rimane marcato.


Adozione dell’IA nelle imprese (≥10 addetti): divario tra piccole (10–49) e grandi (250+). Periodo: 2025. Fonte: ISTAT; Eurostat.
Adozione dell’IA nelle imprese (≥10 addetti): divario tra piccole (10–49) e grandi (250+). Periodo: 2025. Fonte: ISTAT; Eurostat.

Il mio punto di partenza: trasformare l’AI da “progetto” a sequenza di decisioni

Qui entra il framework che uso – GDE – e la cosa che mi interessa di più è che lo posso spiegare senza gergo. Per me GDE è un modo per rendere auditabile una scelta: cosa facciamo, perché lo facciamo, con quali dati, con quale rischio e con quali indicatori. In pratica: una macchina per prendere decisioni sotto incertezza.


La tentazione tipica è partire da una demo. Io faccio il contrario: parto da un “perimetro di controllo”. Se una decisione è critica (ad esempio: approvvigionamento energia; gestione credito clienti; trade‑off scorte vs servizio; compliance su dati e AI), allora vale la pena chiedersi se l’AI può migliorare quell’area. Se invece la decisione non ha KPI, owner e dati, qualsiasi automazione è fragile.


Nel documento che consegno alla fine di un assessment, le parole più importanti non sono “modello”, ma “osservabilità” e “governance”. Senza osservabilità, non si misura. Senza governance, non si regge un audit. E senza entrambe, il time‑to‑value diventa una speranza.


“GDE in 5 passi” (schema operativo usato nei miei assessment). Fonte: elaborazione dell’autore.
“GDE in 5 passi” (schema operativo usato nei miei assessment). Fonte: elaborazione dell’autore.

Come funziona in 5 passi

1) Definisco il perimetro: quali decisioni critiche vogliamo migliorare (e quali rischi non possiamo accettare).2) Mappo processi e dati: dove nascono i segnali, chi li possiede, dove sono i colli di bottiglia.3) Seleziono 1–3 casi d’uso: valore atteso, tempi, dipendenze (cloud/dati), compliance, fallback manuale.4) Progetto un pilot misurabile: KPI outcome + leading + rischio, e un ciclo di feedback settimanale.5) Industrializzo: ruoli, policy, logging, audit trail, formazione, e monitoraggio continuo delle performance.

Due esempi tipici che uso per rendere concreto il lavoro

Esempio 1 – Manifattura discreta (funzione Operations). Problema: troppe ore perse tra pianificazione, ripianificazione e gestione eccezioni, con costi energetici che amplificano ogni inefficienza. Obiettivo desiderato: ridurre tempi di ciclo e scarti, con un pilot che attacca una sola linea o famiglia prodotto, e KPI osservabili in MES/ERP.


Esempio 2 – Distribuzione/Logistica (funzione CFO/Commerciale). Problema: volatilità della domanda e dell’import/export che rende difficile fissare prezzi e scorte, con impatto immediato su cassa e credito. Obiettivo desiderato: previsione più stabile, regole di riordino e alert su deviazioni, con un cruscotto che esplicita ipotesi e incertezza.


Li chiamo esempi tipici perché cambiano i dettagli, ma la struttura è quasi sempre la stessa: un collo di bottiglia informativo, una decisione ripetuta, e un costo di errore che diventa più alto quando tassi, energia o cambio si muovono.


Governance e compliance: l’AI che passa l’esame (non solo quello tecnico)

Nelle conversazioni con DPO e responsabili Legal emerge sempre lo stesso punto: la tecnologia corre, ma i vincoli non sono opzionali. In Europa – e quindi in Italia – l’AI si muove dentro una trama di regole: protezione dei dati, sicurezza, trasparenza, responsabilità. Per me non è un freno; è un criterio di progetto.


Nel concreto, questo significa costruire un dossier minimo ma solido: che dati uso, con quale base giuridica, come li proteggo, come gestisco log e tracciabilità, chi approva un cambiamento di modello, cosa succede se l’output è sbagliato. Se un sistema genera un testo o un suggerimento, deve essere chiaro dove finisce l’automazione e dove inizia la responsabilità umana.


Quando la compliance viene trattata come una “fase finale”, la vedo trasformarsi in costo e conflitto. Quando invece entra nel design – insieme ai KPI – diventa un acceleratore: evita rework e dà serenità al management. È uno dei paradossi più utili che ho imparato: più governance all’inizio, meno burocrazia alla fine.


Prontezza PMI: 5 domande

1) Qual è la decisione ripetuta che oggi sbagliamo più spesso (e quanto ci costa)?2) Esiste già un dato “di verità” per misurare quell’errore (anche se è sporco)? Chi ne è owner?3) Se domani l’AI si spegne, qual è il piano di fallback (manuale o procedurale)?4) Chi firma la responsabilità: IT, Operations, Finance, Legal? È scritto e condiviso?5) Qual è il primo segnale che ci dice che il sistema sta degradando (drift, bias, eccezioni, reclami)?

Timeline

2022–2023: energia e supply chain diventano “variabili strategiche” anche per chi non è energy‑intensive.2023–2024: accelerano regole e controlli su dati e AI; cresce attenzione a cloud e localizzazione.2024–2025: la politica monetaria resta centrale; il credito seleziona progetti con ritorni chiari.2025: nei dati ufficiali cresce l’adozione dell’AI, ma il divario tra piccole e grandi imprese resta ampio.2026: la domanda non è più “se” usare l’AI, ma “dove” e “con quali guardrail”, in un contesto che può cambiare in fretta.

Numeri chiave

- Adozione IA nelle imprese italiane (≥10 addetti): 16,4%. Periodo: anno 2025. Fonte: ISTAT.- Adozione IA nelle imprese UE (≥10 addetti): 19,95%. Periodo: 2025. Fonte: Eurostat.- Tasso sui depositi presso la BCE (deposit facility): 2,00%. Periodo: in vigore dall’11 giugno 2025. Fonte: BCE.- Inflazione area euro (HICP, var. annua): 1,9%. Periodo: dicembre 2025. Fonte: Eurostat.- Cambio EUR/USD (tasso di riferimento): 1,1798. Periodo: 5 febbraio 2026. Fonte: BCE.- Tasso sui nuovi prestiti alle imprese (società non finanziarie, Italia): 3,52%. Periodo: novembre 2025. Fonte: Banca d’Italia.

Cosa monitorare nel 2026 (senza fare l’oracolo)

Quando chiudo un assessment con un management team, cerco sempre di lasciare un set di segnali precoci osservabili. Non sono previsioni: sono indicatori che, se si muovono, cambiano il perimetro delle decisioni. Nel 2026 guardo in particolare:

1) Energia: volatilità e coperture (quanto pesa l’energia sui costi e quanto velocemente l’azienda può reagire).

2) Credito: condizioni sui nuovi finanziamenti e tempi di incasso (stress su cassa e capitale circolante).

3) Cambio e commercio: variazioni che impattano input e listini export, oltre a eventuali frizioni regolatorie o logistiche.

4) Cloud e semiconduttori: disponibilità di capacità di calcolo e politiche dei principali provider; in particolare ciò che cambia in termini di costi e vincoli di localizzazione.

5) Regole UE sull’AI: come si traduce in processi interni (documentazione, classificazione del rischio, controlli, formazione).


Se questi segnali restano stabili, ha senso spingere su efficienza e scale‑up. Se cambiano rapidamente, spesso è più saggio proteggere la continuità operativa: scegliere pochi casi d’uso ad alto impatto e costruire governance e osservabilità prima di moltiplicare i progetti.


Filo rosso

Il filo rosso, per me, è semplice da dire e faticoso da praticare: collegare macro e micro senza saltare passaggi. Mondo significa energia e rotte; energia significa costi e margini; margini significano priorità di investimento. USA, Cina e UE significano regole e accesso a chip e cloud; quelle scelte significano architetture, dipendenze e continuità. Italia significa un tessuto di PMI che vive di export, qualità e velocità; e quindi decisioni ripetute, spesso con dati incompleti. In mezzo c’è l’AI: potente, sì, ma anche incline a creare illusioni se viene trattata come una scorciatoia.


Quando invece la tratto come un pezzo di governance – KPI chiari, dati tracciabili, ruoli, auditabilità, guardrail – diventa una leva di resilienza. La CTA che lascio non è “compra” o “corri”: è “osserva”. Se la tua azienda sa osservare (processi, dati, rischi, segnali esterni), allora può decidere. E se può decidere, può anche usare l’AI in modo sobrio: per ridurre sprechi, migliorare la qualità delle decisioni, e arrivare a valore in tempi compatibili con un costo del denaro che non perdona.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page