top of page

L’intelligenza artificiale in azienda: una guida in sette fasi per non perdere il controllo

In Italia l’adozione dell’IA è raddoppiata in un anno, ma l’83% delle imprese resta fermo. Il vero collo di bottiglia non è la tecnologia: è la capacità di governarla.


Dalla scelta dei casi d’uso alla governance continua: una roadmap pragmatica per imprenditori, dirigenti e PA. Con i dati Istat 2025, il quadro della L. 132/2025 e i guardrail che servono a ogni fase.

di Andrea Viliotti - Framework GDE


Se l’adozione dell’IA generativa fosse un viaggio, il rischio non sarebbe perdersi nei boschi: sarebbe prendere la strada sbagliata con una mappa incompleta e arrivare in un luogo che non si può governare. In questo articolo provo a fare da guida — con discrezione — lungo una roadmap pragmatica: sette fasi, sette inciampi tipici, sette gate decisionali. Un’idea attraversa tutto il percorso: senza osservabilità (umana e tecnica) e senza un audit trail end-to-end, la GenAI resta una promessa che non regge la prima ispezione, né la prima crisi.


Intelligenza artificiale in azienda
Intelligenza artificiale in azienda

I numeri di partenza aiutano a capire l’urgenza. Nel 2025 il 16,4% delle imprese italiane con almeno dieci addetti utilizza almeno una tecnologia di IA — il doppio rispetto al 2024 (dati Istat, dicembre 2025). Il mercato italiano dell’IA ha raggiunto 1,8 miliardi di euro, in crescita del 50% sull’anno precedente, secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano. Eppure, l’83,6% delle aziende non ha ancora adottato alcuna soluzione. E quasi sei su dieci di quelle che l’hanno valutata vi hanno rinunciato per mancanza di competenze, non di budget. Il punto non è «se usare» la GenAI, ma come introdurla senza trasformarla in una zona grigia: un insieme di prompt, contratti e dipendenze che nessuno controlla davvero.

Adozione dell’IA nelle imprese italiane per dimensione (2023–2025). Fonte: Istat, Imprese e ICT 2025.
Adozione dell’IA nelle imprese italiane per dimensione (2023–2025). Fonte: Istat, Imprese e ICT 2025.

Perché «fase per fase»

Nella GenAI l’errore non è solo tecnico: è di confine. Un modello può essere ottimo, ma usato nel processo sbagliato, con i dati sbagliati, sotto un contratto sbagliato, senza log. Il risultato: valore effimero e rischio persistente. Per i decisori italiani — impresa e PA — la sfida è doppia: velocità competitiva e responsabilità, oggi più esigente, su privacy, sicurezza, procurement e conformità.


Prima tappa: definire il perimetro prima di correre

Partiamo dal primo inciampo, quello che sembra il più banale e si rivela il più costoso. La fase zero — mandato, perimetro, guardrail — è quella dove si decide cosa toccare, cosa no, con quali «linee rosse» (dati sensibili, decisioni automatizzate, proprietà intellettuale). Senza queste scelte esplicite, si finisce nel fenomeno della «shadow AI»: strumenti usati dai team senza tracciamento, fuori dai controlli IT e senza gestione dei dati. L’84% delle grandi aziende italiane ha già acquistato licenze di IA generativa, secondo l’Osservatorio Polimi. Ma avere una licenza non significa avere il controllo.


Un esempio trasversale: un team prova un assistente per riassumere verbali. Senza regole, finisce per caricare documenti non classificati su strumenti esterni. Il valore arriva in 48 ore; il rischio resta per anni. Il guardrail minimo è uno: logging e audit trail dalla prima demo, anche se «minimo». In parallelo servono ruoli chiari: sponsor, product owner, risk owner, security owner, legal/DPO. È meno faticoso di quanto sembri, e molto meno costoso del rework che arriva senza.


La fase 1 — scelta dei casi d’uso — è il secondo tornante dove le organizzazioni inciampano. Il pattern è classico: lista infinita di idee, selezione per chi «urla di più», assenza di metriche verificabili. Nella PA, si aggiunge un paradosso di procurement: si compra prima la piattaforma e poi si cerca l’uso. Il mio consiglio operativo è selezionare tre-cinque casi d’uso con criteri espliciti (impatto, fattibilità dati, rischio, osservabilità) e scrivere subito un «test di fallimento»: quali comportamenti rendono il caso d’uso non accettabile.


Il collo di bottiglia: dati, conoscenza e la tentazione del «data lake perfetto»

Arriviamo alla fase dove, nella mia esperienza, si blocca la maggior parte dei progetti. La fase 2 — dati e conoscenza — rivela la distanza tra l’entusiasmo per lo strumento e la realtà dei sistemi informativi aziendali. Dati sparsi, duplicati, senza responsabilità (data owner) e senza classificazione. Conoscenza custodita in PDF e caselle di posta: recupero non affidabile, rischio di allucinazioni e citazioni errate. Segreti industriali mischiati a informazioni pubbliche, senza separazione.


Il principio che suggerisco è la pulizia pragmatica: non un «data lake perfetto», ma qualità sufficiente per i casi d’uso scelti. Per le architetture RAG e di knowledge management: versionare le fonti, indicizzare con lineage, rendere citabili i riferimenti (pagina, documento, data). Se la base documentale non è curata, l’assistente risponde con versioni vecchie delle procedure: si accelerano errori operativi, non si eliminano.


Stack, vendor e il rischio lock-in: dove nasce la dipendenza

La scelta dello stack tecnologico (fase 3) è il punto in cui il lock-in diventa strutturale. Vedo spesso scelte prese «a pacchetto» — cloud, LLM, tool, system integrator in un unico contratto — che creano dipendenze critiche scoperte mesi dopo: log non esportabili, dati usati per il training del fornitore, data residency non conforme alla L. 132/2025.


La legge italiana sull’IA, entrata in vigore il 10 ottobre 2025, impone alle PA che utilizzano piattaforme di e-procurement di privilegiare fornitori che garantiscano la localizzazione dei dati strategici in data center situati in Italia. Per le imprese private, il principio resta lo stesso: separare le componenti (infrastruttura, modello, gateway, monitoring, knowledge) e chiedersi sempre: se domani cambio modello o fornitore, cosa posso portarmi via senza ricostruire tutto? Prompt, dataset, valutazioni, policy, log: se una di queste voci è «non esportabile», il lock-in è già iniziato.


Dal pilota alla scala: dove si rompe il meccanismo

Il pilota (fase 4) e lo scale-up (fase 5) sono le tappe dove accompagno i clienti con più cautela, perché è qui che la complessità esplode. Un pilota «vetrina», senza dati reali e senza utenti reali, fallisce sistematicamente quando entra nel processo. Servono campioni realistici, set di test, red teaming leggero, registrazione degli errori. La sicurezza — prompt injection, data leakage — resta sottovalutata anche nelle aziende più strutturate.


In scala emergono eccezioni che il pilota non intercetta: documenti scansionati male dall’IA, edge case nei processi, l’integrazione con identità, permessi, CRM ed ERP. Secondo Istat, le grandi imprese hanno un’adozione superiore al 53%, ma il divario con le PMI si è ampliato a 37 punti percentuali. Per le grandi, il rischio è che l’IA entri in produzione prima che l’organizzazione sappia gestirla. Per le PMI, che nel 58% dei casi rinunciano per carenza di competenze, il rischio simmetrico è non partire affatto. La mia raccomandazione: industrializzare con CI/CD per prompt e policy, versioning e change management; e gestire i costi come «consumo» (usage), non come licenza.

Heatmap dei rischi per fase e dimensione di rischio. Scala 0–3 (esercizio illustrativo). Elaborazione dell’autore.
Heatmap dei rischi per fase e dimensione di rischio. Scala 0–3 (esercizio illustrativo). Elaborazione dell’autore.

Run e audit continuo: il paradosso dell’osservabilità

La fase 6 è quella che molte organizzazioni non raggiungono mai in modo strutturato, ma è la più importante per chi vuole che l’IA resti infrastruttura e non diventi un punto cieco. Il modello cambia (o il contesto cambia): il drift di qualità e di rischio è fisiologico. Audit e ispezioni chiedono evidenze: log, decisioni, responsabilità, controlli. Un incidente piccolo diventa grande se non si sa spiegare «cosa è successo».


C’è un punto che illustro sempre ai board e ai C-level perché è contro-intuitivo. Quando si introduce logging, monitoring e audit trail, l’osservabilità cresce: è normale che gli incidenti osservati non scendano subito, anzi possano aumentare. Non significa che va peggio; significa che si vede di più. Il progresso vero è la riduzione della tensione strutturale, non il silenzio nei report. Lo stress test didattico nella Figura 3 illustra questa dinamica: il rischio latente scende progressivamente fase dopo fase (da 0,72 a 0,46), l’osservabilità sale (da 0,42 a 0,75), il rischio osservato resta stabile. È il segnale che l’organizzazione sta guadagnando il controllo.


Stress test didattico: rischio latente, osservabilità e rischio osservato per fase. Simulazione planning-only (n=20.000). Elaborazione dell’autore su framework GDE.
Stress test didattico: rischio latente, osservabilità e rischio osservato per fase. Simulazione planning-only (n=20.000). Elaborazione dell’autore su framework GDE.

Il nodo normativo: la doppia corsia che imprese e PA devono navigare

Non posso guidarvi in questo percorso senza affrontare il quadro normativo, perché è il terreno su cui ogni scelta tecnologica poggia. Con la L. 132/2025, l’Italia è il primo Paese UE a dotarsi di un quadro nazionale sull’IA allineato all’AI Act europeo. La governance si regge su AgID (accreditamento e promozione) e ACN (vigilanza e cybersicurezza), con un programma di investimenti da un miliardo di euro per startup e PMI.


Ma il quadro non è completo. Entro ottobre 2026 il Governo dovrà adottare i decreti attuativi che definiscono poteri sanzionatori, uso dei dati per l’addestramento e rimedi civilistici. Nel frattempo, diverse disposizioni dell’AI Act sono già operative e altre lo diventeranno nel corso del 2026, creando una doppia corsia normativa. Il principio pratico che suggerisco è risk-based: classificare i casi d’uso, applicare controlli proporzionati e mantenere evidenze riutilizzabili per audit interni ed esterni. Per il procurement pubblico, l’attenzione si concentra su trasparenza della catena di fornitura, requisiti di logging, portabilità e continuità operativa.


Filo rosso

Il filo rosso che ho cercato di tessere lungo queste sette tappe è uno: l’IA generativa in azienda è un acceleratore, ma solo se è anche un sistema controllabile. Le scorciatoie — pilota senza dati veri, stack scelto prima dei casi d’uso, log attaccati dopo — non fanno risparmiare tempo: spostano il costo nel futuro, quando l’organizzazione è già dipendente.

Per le imprese italiane che raddoppiano l’adozione anno dopo anno, la sfida non è più tecnologica: è organizzativa e normativa. La L. 132/2025 e l’AI Act fissano il perimetro. I decreti attuativi in arrivo entro ottobre 2026 definiranno i dettagli. Ma il compito del management — e, nella PA, del responsabile del procedimento — non cambia: far sì che ogni fase produca un artefatto verificabile. Decisioni, ruoli, dati, policy, log. Il viaggio è lungo, e il terreno cambia; ma chi parte con la mappa giusta, e la aggiorna strada facendo, arriva. Chi parte senza, costruisce debito. Questo articolo ha voluto essere quella mappa.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page