Esseri viventi e algoritmi: la differenza che conta quando la GenAI entra nel lavoro
- Andrea Viliotti

- 4 giorni fa
- Tempo di lettura: 8 min
Dalla materia ai token, dai token agli obiettivi: un modello può parlare come noi senza «vivere» come noi. E questo sposta i pesi tra USA, Cina, UE e Italia.
8 febbraio 2026
Un organismo e un modello generativo possono produrre frasi simili, ma partono da topologie diverse: nel vivente la semantica è incollata al mondo da metabolismo, sensi e rischio; nella GenAI è incollata al linguaggio da dati e calcolo. Il confine non è solo filosofico: è industriale, regolatorio, geopolitico. Capire dove passano i “ponti” — grounding, traduzione, agency — è il modo più concreto per decidere come usare la GenAI senza farsi usare.

Una macchina che parla non è (ancora) un organismo
La sorpresa di questi anni non è che un software sappia completare una frase. È che riesca a farlo con una qualità che, a tratti, assomiglia a quella umana. La tentazione è saltare al punto finale: se parla, allora “capisce”; se capisce, allora “pensa”; se pensa, allora “è” come noi. Ma la somiglianza dell’output non garantisce somiglianza della struttura.
Per il vivente — direbbe la biologia dei sistemi — la prima informazione non è una parola: è un vincolo. Un organismo è un processo che si mantiene in vita: confini, scambi, riparazioni, errori che costano. La coscienza, dove c’è, nasce dentro un corpo che deve fare i conti con energia e tempo. Schrödinger, in una formula famosa, parlava di vita come di un sistema che “si nutre” di ordine: un modo elegante per dire che il mondo non perdona.
Una GenAI, invece, non ha metabolismo, non ha dolore, non ha fame, non ha un “domani” biologico. Non ha neppure un’esperienza diretta: possiede una memoria statistica del linguaggio. È una mappa potentissima di regolarità testuali, addestrata a prevedere il prossimo token. Questo non la rende inutile: la rende diversa. E la differenza, per chi guida imprese e istituzioni, è un assetto dei rischi.
Il punto cieco dei token: semantica senza mondo
Per un essere umano, le parole sono ancorate a gesti, corpi, oggetti, ricordi e conseguenze. Il significato non è un dizionario: è un intreccio di pratiche. Wittgenstein lo riassumeva così: «il significato di una parola è il suo uso». La semantica umana è, in questo senso, sociale ed ecologica: vive dentro comunità, istituzioni, mestieri.
In una GenAI, l’ancoraggio è diverso. Il modello vede testi. Dentro quei testi ci sono tracce del mondo — scienza, diritto, economia, cronaca — ma sono tracce mediate. Se l’addestramento è il “grande libro”, allora la realtà è il libro che manca: la pagina non scritta che, in un’impresa, si chiama cliente, impianto, bilancio, contenzioso, supply chain.
Qui entra il primo ponte: il grounding. Collegare una GenAI a basi dati, strumenti, sensori, procedure di verifica non aggiunge “coscienza”; aggiunge aderenza. È un passaggio pratico: trasformare un modello che parla di un mondo in un componente che lavora dentro un mondo, sotto vincoli verificabili.
Il ponte che fa la differenza: dalla semantica all’azione
Il secondo ponte è la traduzione: dal token al concetto e ritorno. Nelle tradizioni filosofiche — occidentali e cinesi — la tensione tra nomi e cose è antica. La Cina classica parla di “rettificazione dei nomi”: se le parole non aderiscono ai ruoli e alle cose, l’ordine si spezza. Zhuangzi spinge ancora oltre: i nomi sono utili, ma non sono la realtà; servono, poi si lasciano andare.
Per la GenAI, questa tensione non è un dibattito: è un bug operativo. Il modello può essere coerente nel linguaggio e sbagliato nei fatti. Può essere persuasivo e non verificabile. Per questo l’impresa non deve chiedere “quanto è brava a scrivere”, ma “quanto è brava a reggere un controllo”.
Il terzo ponte è l’agency: l’aggancio tra obiettivi e azioni. Un vivente ha obiettivi impliciti (sopravvivere, mantenere equilibrio, riprodursi) e li difende. Una GenAI non “vuole” nulla: ottimizza una funzione durante l’addestramento e poi genera output in base ai prompt e ai vincoli che le imponiamo. L’illusione di agency nasce quando la inseriamo in un flusso che prende decisioni, sposta risorse, modifica processi. A quel punto l’agency non è nel modello: è nel sistema socio‑tecnico — persone, regole, incentivi, strumenti — di cui il modello diventa una leva.

USA, Cina e UE
Qui la mappa concettuale incontra la geopolitica. Se la GenAI è un acceleratore di semantica, allora la partita non è solo “chi ha il modello migliore”, ma “chi controlla i ponti”: dati, energia, chip, piattaforme, norme, talenti. Ed è qui che emergono differenze nette tra USA, Cina e UE.
Negli Stati Uniti la logica dominante è la scala: piattaforme, cloud, capitali, ecosistemi di ricerca e impresa che si alimentano a vicenda. L’obiettivo è trasformare capacità di calcolo in prodotti globali, e prodotti globali in standard de facto. La regolazione tende a oscillare tra sicurezza e competitività: la stessa parola “leadership” diventa un vincolo politico.
In Cina la topologia degli obiettivi è più integrata con lo Stato e con la manifattura. Il controllo dei flussi informativi e la stabilità sociale entrano nel disegno tecnico: non come dettaglio, ma come specifica. Le regole su contenuti sintetici, identificazione e filing degli algoritmi mostrano un’idea di governance che punta a rendere l’AI “tracciabile” e politicamente compatibile.
L’Unione europea, infine, prova a trasformare il proprio vantaggio comparato — la capacità normativa — in un vantaggio industriale di lungo periodo. L’AI Act disegna un mercato dove la fiducia è un requisito: divieti, obblighi per i sistemi ad alto rischio, e una disciplina specifica per i modelli di uso generale. Il rischio, per l’Europa, è che la compliance diventi costo senza ecosistema; l’opportunità è che diventi domanda di qualità, verificabilità, audit.
In questa triangolazione c’è un quarto attore: l’energia. I data centre sono la nuova “fabbrica” della semantica. Se l’elettricità è cara o instabile, i ponti si restringono. Se la rete non regge, la promessa di automazione diventa un collo di bottiglia. È un vincolo che unisce industria, clima e sicurezza.

Italia: il vantaggio è nel progetto, non nel modello
Per l’Italia — paese manifatturiero, di filiere e distretti, con una base ampia di PMI — la domanda chiave non è “costruiamo il nostro modello” ma “dove inseriamo il ponte”. Molte imprese non hanno bisogno di addestrare un foundation model: hanno bisogno di ridurre errori, tempi, attriti tra uffici e stabilimenti, tra vendite e produzione, tra compliance e innovazione.
Qui la GenAI è più utile quando diventa un componente progettato: un copilota dentro processi misurabili, con accesso controllato ai dati, con verifiche automatiche, con responsabilità chiare. La differenza tra successo e spreco sta nella topologia del lavoro: dove si decide, dove si controlla, dove si firma.
C’è anche una dimensione culturale. Nella tradizione cinese del Dao, l’efficacia non nasce dalla forza bruta, ma dall’allineamento: «il Dao che può essere detto non è il Dao eterno». Tradotto per un consiglio di amministrazione: non confondere la descrizione (il modello) con la trasformazione (il processo). Un’azienda può “parlare AI” e restare inefficiente; può invece riprogettare i flussi e diventare più competitiva senza spettacolo.
Che cosa cambia per le imprese 1) Disegno del processo Definire dove la GenAI può accelerare (sintesi, ricerca, drafting) e dove deve solo assistere (decisioni regolatorie, safety, firma). 2) Grounding e conoscenza Collegare il modello a fonti interne affidabili e versionate; separare “scrittura” da “verifica” e rendere tracciabili le citazioni. 3) Valutazione e controlli Costruire test, metriche e revisioni: l’obiettivo non è l’eloquenza, ma la riduzione di errori e di rework. 4) Governance e conformità Mappare rischi (privacy, proprietà intellettuale, allucinazioni ad alto impatto) e responsabilità; prepararsi agli obblighi su trasparenza e uso. 5) Competenze e incentivi Formare ruoli ibridi (business + dati + legale + IT) e allineare incentivi: l’AI funziona dove le persone non sono punite per fermare un errore. |
Timeline • 12 luglio 2024 — Testo finale AI Act pubblicato in Gazzetta ufficiale UE (Reg. 2024/1689). Perché conta: Dà certezza giuridica al perimetro europeo. • 1 agosto 2024 — AI Act entra in vigore. Perché conta: Inizia il conto alla rovescia per l’applicazione piena. • 2 febbraio 2025 — Nell’UE iniziano ad applicarsi divieti su pratiche proibite e obblighi di alfabetizzazione AI. Perché conta: La governance entra nelle organizzazioni, non solo nei laboratori. • 20-23 gennaio 2025 — Negli USA vengono revocate alcune direttive precedenti e varato un ordine per rimuovere “barriere” alla leadership AI. Perché conta: La traiettoria regolatoria diventa più legata alla competizione industriale. • 2 agosto 2025 — Nell’UE diventano applicabili le regole di governance e gli obblighi per i modelli GPAI. Perché conta: I foundation model entrano nella compliance. • 10 aprile 2025 — IEA pubblica il rapporto “Energy and AI”. Perché conta: L’energia emerge come vincolo strategico della corsa all’AI. • dicembre 2025 — In Cina, bozze e aggiornamenti regolatori puntano a rendere tracciabili i servizi AI “con interazione umana”. Perché conta: La conformità diventa parte dell’architettura. • 2 agosto 2026 — Applicazione piena dell’AI Act (con alcune eccezioni e transizioni). Perché conta: Lo standard europeo incide su filiere e fornitori globali. |

Numeri chiave • Tassi di policy: Fed funds target range 3,50–3,75%; BCE deposit facility 2,00%; Cina LPR 1 anno 3,00%. Periodo: dato in vigore (USA 2026-02-08; UE in vigore; Cina 2026-01-20). Fonte: FRED; ECB; Reuters. • Inflazione (a/a): Area euro HICP 1,7% (flash, gen 2026); Italia NIC 1,0% (gen 2026); USA CPI 2,7% (dic 2025); Cina CPI 0,8% (dic 2025). Periodo: ultimo dato disponibile per area. Fonte: Eurostat; ISTAT; Reuters/TradingEconomics; NBS/Xinhua. • Cambio: EUR/USD 1,1794 (tasso di riferimento BCE). Periodo: 2026-02-06. Fonte: ECB; Banca d’Italia. • Energia: Brent 68,05 $/barile (settlement); gas TTF 35,694 €/MWh (close). Periodo: 2026-02-06. Fonte: Reuters; Yahoo Finance; Investing.com. • Mercati e rischio: S&P 500 6.932,30; FTSE MIB 45.877,00; Shanghai Composite 4.065,58; spread BTP-Bund 63 pb. Periodo: chiusura 2026-02-06 (mercati); spread 2026-02-06. Fonte: S&P Dow Jones Indices/FRED/Reuters; Yahoo Finance; Investing.com; ANSA/Radiocor. • Vincolo energia‑AI: consumi elettrici globali dei data centres ~415 TWh (2024); proiezione ~945 TWh (2030, scenario base). Periodo: 2024 (stima) e 2030 (scenario). Fonte: IEA (Energy and AI); Reuters. |
Cosa monitorare nel 2026
Se la GenAI è un acceleratore di linguaggio, allora i segnali utili non sono solo “nuovi modelli”, ma nuovi ponti. Nel 2026 vale la pena monitorare almeno cinque cose:
• la qualità del grounding (quante risposte sono verificabili, quante no);
• i costi energetici e i colli di bottiglia delle reti dove si concentrano i data centre;
• la convergenza regolatoria (o la divergenza) tra USA, Cina e UE su trasparenza e responsabilità;
• la capacità delle imprese di trasformare output in decisioni — cioè di riprogettare workflow, ruoli e controlli;
• la maturazione di standard di valutazione: test pubblici, audit, e “cinture di sicurezza” per i casi d’uso critici.
Filo rosso
Il filo rosso è semplice: la GenAI non è un nuovo tipo di vita, ma un nuovo tipo di infrastruttura semantica. Può amplificare il pensiero, come un tempo lo hanno fatto scrittura e stampa; può anche amplificare errori, propaganda, conformismo, se i ponti non sono progettati.
Per questo la domanda non è “quanto è intelligente il modello”, ma “quanto è intelligente il sistema” che lo circonda. Nella topologia del vivente, il mondo corregge; nella topologia della GenAI, correggiamo noi. E l’abilità decisiva — per imprese e governi — è costruire ponti che trasformino linguaggio in conoscenza verificabile e conoscenza in azione responsabile.






Commenti