top of page

L’IA entra in azienda anche dal basso

Uno studio su quasi 10.000 lavoratori tedeschi fotografa la doppia diffusione dell’IA: informale e formale


Quando l’adozione parte dai singoli, il vero vantaggio competitivo non è “avere un chatbot”, ma trasformare l’uso diffuso in processi, competenze e governance. I dati dalla Germania mostrano che l’IA è già ovunque, ma spesso resta superficiale: l’integrazione e la produttività emergono soprattutto quando l’impresa formalizza, forma e integra – accettando anche nuovi trade‑off su controllo e fiducia.


IA in azienda: adozione informale vs formale
IA in azienda: adozione informale vs formale

Cosa dice lo studio tedesco

Il paper “Low Barriers, High Stakes” di Schlenker e co‑autori usa la survey rappresentativa DiWaBe 2.0 (luglio–dicembre 2024) collegata a dati amministrativi, per misurare come l’IA si diffonde nel lavoro attraverso due canali: adozione informale (uso auto‑iniziato) e adozione formale (strumenti introdotti dal datore di lavoro).


Il risultato chiave è controintuitivo solo in apparenza: l’uso dell’IA è già molto diffuso tra i lavoratori, ma non è automaticamente “incorporato” nei processi. L’adozione dal basso accelera ampiezza e sperimentazione; l’introduzione formale non aumenta molto il numero di utenti, ma aumenta profondità, formazione e (percepita) produttività.


Tre numeri che contano per chi decide:

·        Circa due terzi dei lavoratori dichiarano di usare strumenti di IA sul lavoro (almeno occasionalmente).

·        Solo una minoranza li usa frequentemente: l’adozione è ampia, l’integrazione è più rara.

·        Tra chi usa IA, solo circa un terzo indica che il principale strumento è stato introdotto formalmente dall’impresa

 

Germania → Italia: quali implicazioni (con prudenza)

I risultati empirici sono su lavoratori in Germania. Trasferirli all’Italia richiede cautela: struttura produttiva, regole interne, cultura organizzativa e livelli di digitalizzazione non sono identici. Detto questo, il meccanismo osservato – “doppio canale” di diffusione – è plausibile anche nelle imprese italiane per una ragione semplice: i tool di IA generativa hanno barriere di ingresso molto basse.

Per i settori più esposti (manifattura e operations, servizi professionali, IT e cybersecurity, HR e recruiting, pubblica amministrazione), il tema non è solo “adottare l’IA”, ma governare un’adozione che spesso è già iniziata nelle singole postazioni di lavoro. In assenza di regole e integrazione, l’azienda accumula sperimentazione senza capitalizzarla; nel peggiore dei casi, accumula rischio.

La domanda manageriale diventa quindi: come trasformare l’uso informale in una piattaforma aziendale – dati, processi, competenze – senza spegnere l’iniziativa e senza perdere controllo su sicurezza, IP e compliance?


Informale vs formale: cosa cambia nel concreto

Lo studio non giudica “buono” o “cattivo” un canale rispetto all’altro: mostra che generano effetti diversi. L’informalità porta velocità e ampiezza; la formalità porta profondità e complementarità (formazione, integrazione nei task, infrastrutture).

Quando l’IA è introdotta formalmente dall’impresa, i lavoratori mostrano (in media) più formazione e più benefici percepiti sulla produttività, ma anche maggiore esposizione a forme di supervisione algoritmica (allocazione compiti, gestione tempi, valutazione performance).


Due dettagli operativi utili per HR, IT e Operations:

·        Il profilo applicativo cambia: gli strumenti “testuali” (generazione/riassunto) sono diffusi in entrambi i canali, mentre applicazioni più “costose” o che richiedono workflow (diagnostica/analitica, cobot, immagini) sono più frequenti quando c’è introduzione formale.

·        Le differenze su training e supervisione sembrano in parte “tra imprese” (strategie di implementazione), mentre la maggiore intensità d’uso e alcune applicazioni avanzate restano più alte anche “dentro la stessa impresa” tra lavoratori che differiscono per canale di adozione.

 

Italia in numeri (adozione e competenze)

Italia in numeri — cosa guardare prima di scrivere una policy IA

·        Imprese (≥10 addetti) che usano almeno una tecnologia di IA: 8,2% nel 2024 (era 5,0% nel 2023).

·        Grandi imprese (≥250 addetti) che usano IA: circa un terzo (32,5% nel 2024).

·        Gap dimensionale su competenze ICT: nelle indagini ICT emerge una distanza marcata tra PMI e grandi imprese su presenza di specialisti e capacità di formazione.

·        Contesto UE: la media Ue27 di imprese (≥10 addetti) che usano IA è 13,5% nel 2024; l’Italia è sotto la media.

·        Competenze digitali di base nella popolazione: 45,8% (dato Italia, Digital Decade 2024).

Fonti: ISTAT (Imprese e ICT – anno 2024, pubblicato 17/01/2025); Eurostat (contesto UE); Commissione UE (Digital Decade Country Report Italy 2024).

Questi indicatori non sono “la verità” sull’uso dell’IA in azienda: misurano pezzi diversi (impresa vs persona, adozione strutturata vs sperimentazione). Ma aiutano a capire perché l’adozione può apparire bassa nei dati d’impresa e, al tempo stesso, essere già visibile nelle pratiche quotidiane.

 

Standard e riferimenti per una policy IA aziendale

Standard & compliance — il minimo sindacale per passare da “tool” a “sistema”

·        ISO/IEC 42001 (AI Management System): struttura di governo per ruoli, processi, controlli e miglioramento continuo.

·        NIST AI RMF 1.0: mappa rischi → misure su governance, dati, trasparenza, robustezza, monitoraggio.

·        OECD AI Principles: accountability, sicurezza, equità, trasparenza (utile per principi e comunicazione interna).

·        EU AI Act (Reg. UE 2024/1689): calendario di applicazione progressivo; per molte imprese conviene usare il 2025–2026 per mappare casi d’uso e requisiti.

Fonti: ISO; NIST; OECD; EUR‑Lex (Regolamento UE 2024/1689, art. 113).

Messaggio pratico: non serve partire da un documento di 60 pagine. Serve invece una policy “vivente” che definisca cosa è consentito, con quali dati, con quali tool, con quali controlli, e come si misura l’impatto.

 

Produttività: perché non basta “usare un chatbot”

Il paper aiuta a leggere un fenomeno che molte aziende stanno vivendo: l’IA generativa si diffonde velocemente perché costa poco, ma i benefici restano disomogenei. La differenza tra “adozione” e “produttività” passa da tre complementi manageriali.

1. Processi: integrare l’IA nel flusso di lavoro (input dati, controlli, output riutilizzabili) invece di lasciarla come attività “extra” del singolo.

2. Competenze: formazione mirata su compiti e rischi (prompting non basta; servono competenze su dati, qualità, verifica, sicurezza).

3. Misurazione: passare da percezioni a metriche (tempo ciclo, errori, qualità, soddisfazione cliente interno/esterno) con baseline e monitoraggio.

Esempio rapido (servizi professionali): se l’IA accelera la produzione di una bozza, ma aumenta il tempo di revisione o il rischio di errori, l’effetto netto può essere nullo. Serve un disegno di processo: dove l’IA produce valore, dove è vietata, e dove deve essere sempre verificata da un umano.

 

Rischi e governance: lo “shadow AI” non è un dettaglio

L’adozione informale è spesso invisibile nei cruscotti aziendali ma visibile nei log: email, documenti, prompt copiati in tool esterni, dati caricati su piattaforme non autorizzate. Il rischio non è solo cyber: è anche reputazionale, legale e organizzativo.

Lo studio tedesco segnala un trade‑off tipico dell’adozione formale: più integrazione e formazione, ma anche più supervisione algoritmica. In Italia, questo si intreccia con un contesto regolatorio più stringente (privacy, IP, e il quadro UE sull’IA) e con rapporti industriali spesso sensibili sui temi di controllo.

 

Risk radar e segnali precoci da monitorare

Risk radar (4 aree)

·        Shadow AI e fuga dati: dove finiscono prompt, allegati, output; rischio di exposure di dati personali e segreti industriali.

·        Divario competenze: chi usa l’IA impara più velocemente; senza training l’asimmetria cresce (e diventa rischio HR).

·        Algorithmic management: strumenti usati per allocare compiti/tempi/performance possono deteriorare fiducia e clima se non governati.

·        Produttività percepita ≠ produttività misurata: senza metriche, l’IA resta “sensazione” e non investimento.

Segnali precoci (early signals)

·        Policy IA pubblicata e compresa (non solo “intranet”).

·        Tasso di training completato per ruoli e processi chiave.

·        Numero di casi d’uso integrati nei processi (con owner e KPI).

·        Incidenti/near-miss di compliance e data leakage tracciati e chiusi.

·        Feedback strutturato dei lavoratori sugli strumenti (utilità, attriti, timori).

 

Governance prima dei tool

Governance prima dei tool: trasformare l’adozione informale in piattaforma

·        Stabilisci un “perimetro sicuro”: tool autorizzati, dati ammessi, livelli di confidenzialità, log e retention.

·        Centralizza i casi d’uso: backlog unico con priorità business (HR, IT, operations, customer).

·        Definisci ownership: CIO/IT per architettura e security; HR per competenze e change; Legal/Compliance per rischi e policy.

·        Crea un ciclo di vita: pilot → standard → scalabilità; stop se non regge su qualità/sicurezza.

·        Misura: tempi, errori, qualità, soddisfazione; aggiorna policy e training in base agli incidenti reali.

 

Azioni pratiche per il management

Obiettivo: spostare l’IA da “uso spontaneo” a “capacità aziendale”. Sotto, una checklist rapida per CEO e C‑level e un piano 30/60/90 giorni.


Checklist — 10 domande che il CEO dovrebbe farsi

1.      Sappiamo dove l’IA è già usata oggi (per funzione e processo) oppure stiamo indovinando?

2.      Quali dati possono uscire dall’azienda e quali no? È chiaro a tutti (non solo a IT)?

3.      Abbiamo un set di tool autorizzati e un’alternativa “sicura” per i team che oggi usano tool esterni?

4.      Chi è accountable per la policy IA (una persona, non un comitato)?

5.      Quali 5 casi d’uso hanno il miglior rapporto impatto/tempo di implementazione nei prossimi 90 giorni?

6.      Come misureremo la produttività (tempo, qualità, errori) con una baseline credibile?

7.      Quale training è obbligatorio per ruoli chiave (HR, procurement, customer, operations)?

8.      Come gestiamo IP e contenuti generati (copyright, riservatezza, tracciabilità)?

9.      Come gestiamo bias e qualità degli output (human‑in‑the‑loop, verifiche, audit)?

10.   Come evitiamo che l’IA diventi percepita come “sorveglianza” e deteriori fiducia e clima?


Piano 30/60/90 giorni

Orizzonte

Policy & compliance

Dati & sicurezza

Processi & use case

Persone & change


30 giorni

Bozza policy IA + regole su tool/dati; owner nominato.

Inventario dati sensibili; linee guida su prompt e allegati; canale segnalazioni shadow AI.

Selezione 3–5 casi d’uso; criteri di qualità; pilota controllato.

Training base per funzioni esposte; comunicazione interna “cosa si può fare”.


60 giorni

Allineamento con framework (ISO/NIST) e requisiti UE; procedure di approvazione casi d’uso.

Controlli su accessi/log; classificazione dati; template DPIA/privacy dove serve.

Integrazione minima nei workflow (ticketing, HR, operations); libreria prompt/standard.

Formazione avanzata per ruoli chiave; community di pratica e ambassador.


90 giorni

Policy versione 1.0 in esercizio; audit leggero su compliance e incidenti; aggiornamenti.

Valutazione fornitori e contratti; guardrail su output e riuso; playbook incident response.

Scalare i casi d’uso che reggono su qualità/tempo; stop a quelli che non reggono.

Misurazione con KPI operativi; survey interna su utilità e rischi; aggiustamenti.


 

Diffusione “skill‑biased”: chi aumenta l’uso dell’IA

Un messaggio cruciale per imprenditori e C‑level è che la diffusione dell’IA non è neutrale: tende a seguire competenze, complessità del lavoro e propensione a sperimentare. Questo crea un rischio di polarizzazione interna se l’azienda non interviene con formazione e redesign dei processi.


Per il management italiano, la traduzione operativa è semplice: se l’IA resta “facoltativa”, la useranno di più e meglio le persone già avvantaggiate. Se invece l’azienda costruisce percorsi, tool e processi, può trasformare l’IA in una leva di upskilling e non in un moltiplicatore di disuguaglianze.


Cosa monitorare nei prossimi trimestri

La lezione della Germania non è “copiare un modello”, ma capire il meccanismo: l’IA entra comunque. La differenza la fa la capacità dell’impresa di trasformare la diffusione in produttività misurabile, mantenendo fiducia e controllo.

Se nei prossimi mesi vedete crescere policy, training e casi d’uso integrati nei processi – e, in parallelo, un calo degli incidenti di shadow AI – allora l’adozione sta passando da epidemia a infrastruttura.



Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page