L’IA entra in azienda anche dal basso
- Andrea Viliotti

- 15 gen
- Tempo di lettura: 7 min
Uno studio su quasi 10.000 lavoratori tedeschi fotografa la doppia diffusione dell’IA: informale e formale
Quando l’adozione parte dai singoli, il vero vantaggio competitivo non è “avere un chatbot”, ma trasformare l’uso diffuso in processi, competenze e governance. I dati dalla Germania mostrano che l’IA è già ovunque, ma spesso resta superficiale: l’integrazione e la produttività emergono soprattutto quando l’impresa formalizza, forma e integra – accettando anche nuovi trade‑off su controllo e fiducia.

Cosa dice lo studio tedesco
Il paper “Low Barriers, High Stakes” di Schlenker e co‑autori usa la survey rappresentativa DiWaBe 2.0 (luglio–dicembre 2024) collegata a dati amministrativi, per misurare come l’IA si diffonde nel lavoro attraverso due canali: adozione informale (uso auto‑iniziato) e adozione formale (strumenti introdotti dal datore di lavoro).
Il risultato chiave è controintuitivo solo in apparenza: l’uso dell’IA è già molto diffuso tra i lavoratori, ma non è automaticamente “incorporato” nei processi. L’adozione dal basso accelera ampiezza e sperimentazione; l’introduzione formale non aumenta molto il numero di utenti, ma aumenta profondità, formazione e (percepita) produttività.
Tre numeri che contano per chi decide:
· Circa due terzi dei lavoratori dichiarano di usare strumenti di IA sul lavoro (almeno occasionalmente).
· Solo una minoranza li usa frequentemente: l’adozione è ampia, l’integrazione è più rara.
· Tra chi usa IA, solo circa un terzo indica che il principale strumento è stato introdotto formalmente dall’impresa
Germania → Italia: quali implicazioni (con prudenza)
I risultati empirici sono su lavoratori in Germania. Trasferirli all’Italia richiede cautela: struttura produttiva, regole interne, cultura organizzativa e livelli di digitalizzazione non sono identici. Detto questo, il meccanismo osservato – “doppio canale” di diffusione – è plausibile anche nelle imprese italiane per una ragione semplice: i tool di IA generativa hanno barriere di ingresso molto basse.
Per i settori più esposti (manifattura e operations, servizi professionali, IT e cybersecurity, HR e recruiting, pubblica amministrazione), il tema non è solo “adottare l’IA”, ma governare un’adozione che spesso è già iniziata nelle singole postazioni di lavoro. In assenza di regole e integrazione, l’azienda accumula sperimentazione senza capitalizzarla; nel peggiore dei casi, accumula rischio.
La domanda manageriale diventa quindi: come trasformare l’uso informale in una piattaforma aziendale – dati, processi, competenze – senza spegnere l’iniziativa e senza perdere controllo su sicurezza, IP e compliance?
Informale vs formale: cosa cambia nel concreto
Lo studio non giudica “buono” o “cattivo” un canale rispetto all’altro: mostra che generano effetti diversi. L’informalità porta velocità e ampiezza; la formalità porta profondità e complementarità (formazione, integrazione nei task, infrastrutture).
Quando l’IA è introdotta formalmente dall’impresa, i lavoratori mostrano (in media) più formazione e più benefici percepiti sulla produttività, ma anche maggiore esposizione a forme di supervisione algoritmica (allocazione compiti, gestione tempi, valutazione performance).
Due dettagli operativi utili per HR, IT e Operations:
· Il profilo applicativo cambia: gli strumenti “testuali” (generazione/riassunto) sono diffusi in entrambi i canali, mentre applicazioni più “costose” o che richiedono workflow (diagnostica/analitica, cobot, immagini) sono più frequenti quando c’è introduzione formale.
· Le differenze su training e supervisione sembrano in parte “tra imprese” (strategie di implementazione), mentre la maggiore intensità d’uso e alcune applicazioni avanzate restano più alte anche “dentro la stessa impresa” tra lavoratori che differiscono per canale di adozione.
Italia in numeri (adozione e competenze)
Italia in numeri — cosa guardare prima di scrivere una policy IA · Imprese (≥10 addetti) che usano almeno una tecnologia di IA: 8,2% nel 2024 (era 5,0% nel 2023). · Grandi imprese (≥250 addetti) che usano IA: circa un terzo (32,5% nel 2024). · Gap dimensionale su competenze ICT: nelle indagini ICT emerge una distanza marcata tra PMI e grandi imprese su presenza di specialisti e capacità di formazione. · Contesto UE: la media Ue27 di imprese (≥10 addetti) che usano IA è 13,5% nel 2024; l’Italia è sotto la media. · Competenze digitali di base nella popolazione: 45,8% (dato Italia, Digital Decade 2024). Fonti: ISTAT (Imprese e ICT – anno 2024, pubblicato 17/01/2025); Eurostat (contesto UE); Commissione UE (Digital Decade Country Report Italy 2024). |
Questi indicatori non sono “la verità” sull’uso dell’IA in azienda: misurano pezzi diversi (impresa vs persona, adozione strutturata vs sperimentazione). Ma aiutano a capire perché l’adozione può apparire bassa nei dati d’impresa e, al tempo stesso, essere già visibile nelle pratiche quotidiane.
Standard e riferimenti per una policy IA aziendale
Standard & compliance — il minimo sindacale per passare da “tool” a “sistema” · ISO/IEC 42001 (AI Management System): struttura di governo per ruoli, processi, controlli e miglioramento continuo. · NIST AI RMF 1.0: mappa rischi → misure su governance, dati, trasparenza, robustezza, monitoraggio. · OECD AI Principles: accountability, sicurezza, equità, trasparenza (utile per principi e comunicazione interna). · EU AI Act (Reg. UE 2024/1689): calendario di applicazione progressivo; per molte imprese conviene usare il 2025–2026 per mappare casi d’uso e requisiti. Fonti: ISO; NIST; OECD; EUR‑Lex (Regolamento UE 2024/1689, art. 113). |
Messaggio pratico: non serve partire da un documento di 60 pagine. Serve invece una policy “vivente” che definisca cosa è consentito, con quali dati, con quali tool, con quali controlli, e come si misura l’impatto.
Produttività: perché non basta “usare un chatbot”
Il paper aiuta a leggere un fenomeno che molte aziende stanno vivendo: l’IA generativa si diffonde velocemente perché costa poco, ma i benefici restano disomogenei. La differenza tra “adozione” e “produttività” passa da tre complementi manageriali.
1. Processi: integrare l’IA nel flusso di lavoro (input dati, controlli, output riutilizzabili) invece di lasciarla come attività “extra” del singolo.
2. Competenze: formazione mirata su compiti e rischi (prompting non basta; servono competenze su dati, qualità, verifica, sicurezza).
3. Misurazione: passare da percezioni a metriche (tempo ciclo, errori, qualità, soddisfazione cliente interno/esterno) con baseline e monitoraggio.
Esempio rapido (servizi professionali): se l’IA accelera la produzione di una bozza, ma aumenta il tempo di revisione o il rischio di errori, l’effetto netto può essere nullo. Serve un disegno di processo: dove l’IA produce valore, dove è vietata, e dove deve essere sempre verificata da un umano.
Rischi e governance: lo “shadow AI” non è un dettaglio
L’adozione informale è spesso invisibile nei cruscotti aziendali ma visibile nei log: email, documenti, prompt copiati in tool esterni, dati caricati su piattaforme non autorizzate. Il rischio non è solo cyber: è anche reputazionale, legale e organizzativo.
Lo studio tedesco segnala un trade‑off tipico dell’adozione formale: più integrazione e formazione, ma anche più supervisione algoritmica. In Italia, questo si intreccia con un contesto regolatorio più stringente (privacy, IP, e il quadro UE sull’IA) e con rapporti industriali spesso sensibili sui temi di controllo.
Risk radar e segnali precoci da monitorare
Risk radar (4 aree) · Shadow AI e fuga dati: dove finiscono prompt, allegati, output; rischio di exposure di dati personali e segreti industriali. · Divario competenze: chi usa l’IA impara più velocemente; senza training l’asimmetria cresce (e diventa rischio HR). · Algorithmic management: strumenti usati per allocare compiti/tempi/performance possono deteriorare fiducia e clima se non governati. · Produttività percepita ≠ produttività misurata: senza metriche, l’IA resta “sensazione” e non investimento. Segnali precoci (early signals) · Policy IA pubblicata e compresa (non solo “intranet”). · Tasso di training completato per ruoli e processi chiave. · Numero di casi d’uso integrati nei processi (con owner e KPI). · Incidenti/near-miss di compliance e data leakage tracciati e chiusi. · Feedback strutturato dei lavoratori sugli strumenti (utilità, attriti, timori). |
Governance prima dei tool
Governance prima dei tool: trasformare l’adozione informale in piattaforma · Stabilisci un “perimetro sicuro”: tool autorizzati, dati ammessi, livelli di confidenzialità, log e retention. · Centralizza i casi d’uso: backlog unico con priorità business (HR, IT, operations, customer). · Definisci ownership: CIO/IT per architettura e security; HR per competenze e change; Legal/Compliance per rischi e policy. · Crea un ciclo di vita: pilot → standard → scalabilità; stop se non regge su qualità/sicurezza. · Misura: tempi, errori, qualità, soddisfazione; aggiorna policy e training in base agli incidenti reali. |
Azioni pratiche per il management
Obiettivo: spostare l’IA da “uso spontaneo” a “capacità aziendale”. Sotto, una checklist rapida per CEO e C‑level e un piano 30/60/90 giorni.
Checklist — 10 domande che il CEO dovrebbe farsi
1. Sappiamo dove l’IA è già usata oggi (per funzione e processo) oppure stiamo indovinando?
2. Quali dati possono uscire dall’azienda e quali no? È chiaro a tutti (non solo a IT)?
3. Abbiamo un set di tool autorizzati e un’alternativa “sicura” per i team che oggi usano tool esterni?
4. Chi è accountable per la policy IA (una persona, non un comitato)?
5. Quali 5 casi d’uso hanno il miglior rapporto impatto/tempo di implementazione nei prossimi 90 giorni?
6. Come misureremo la produttività (tempo, qualità, errori) con una baseline credibile?
7. Quale training è obbligatorio per ruoli chiave (HR, procurement, customer, operations)?
8. Come gestiamo IP e contenuti generati (copyright, riservatezza, tracciabilità)?
9. Come gestiamo bias e qualità degli output (human‑in‑the‑loop, verifiche, audit)?
10. Come evitiamo che l’IA diventi percepita come “sorveglianza” e deteriori fiducia e clima?
Piano 30/60/90 giorni
Orizzonte | Policy & compliance | Dati & sicurezza | Processi & use case | Persone & change | |
30 giorni | Bozza policy IA + regole su tool/dati; owner nominato. | Inventario dati sensibili; linee guida su prompt e allegati; canale segnalazioni shadow AI. | Selezione 3–5 casi d’uso; criteri di qualità; pilota controllato. | Training base per funzioni esposte; comunicazione interna “cosa si può fare”. | |
60 giorni | Allineamento con framework (ISO/NIST) e requisiti UE; procedure di approvazione casi d’uso. | Controlli su accessi/log; classificazione dati; template DPIA/privacy dove serve. | Integrazione minima nei workflow (ticketing, HR, operations); libreria prompt/standard. | Formazione avanzata per ruoli chiave; community di pratica e ambassador. | |
90 giorni | Policy versione 1.0 in esercizio; audit leggero su compliance e incidenti; aggiornamenti. | Valutazione fornitori e contratti; guardrail su output e riuso; playbook incident response. | Scalare i casi d’uso che reggono su qualità/tempo; stop a quelli che non reggono. | Misurazione con KPI operativi; survey interna su utilità e rischi; aggiustamenti. |
Diffusione “skill‑biased”: chi aumenta l’uso dell’IA
Un messaggio cruciale per imprenditori e C‑level è che la diffusione dell’IA non è neutrale: tende a seguire competenze, complessità del lavoro e propensione a sperimentare. Questo crea un rischio di polarizzazione interna se l’azienda non interviene con formazione e redesign dei processi.
Per il management italiano, la traduzione operativa è semplice: se l’IA resta “facoltativa”, la useranno di più e meglio le persone già avvantaggiate. Se invece l’azienda costruisce percorsi, tool e processi, può trasformare l’IA in una leva di upskilling e non in un moltiplicatore di disuguaglianze.
Cosa monitorare nei prossimi trimestri
La lezione della Germania non è “copiare un modello”, ma capire il meccanismo: l’IA entra comunque. La differenza la fa la capacità dell’impresa di trasformare la diffusione in produttività misurabile, mantenendo fiducia e controllo.
Se nei prossimi mesi vedete crescere policy, training e casi d’uso integrati nei processi – e, in parallelo, un calo degli incidenti di shadow AI – allora l’adozione sta passando da epidemia a infrastruttura.






Commenti