top of page

Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva

Dalla scrittura assistita dagli LLM ai gruppi di lettura come controllo qualità: l’esperimento di un romanzo mostra perché l’AI va orchestrata come un’organizzazione, non “usata” come un tool.

di Andrea Viliotti – 30 gennaio 2026


Nel lavoro cognitivo sta entrando un terzo attore: un sistema artificiale capace di produrre ragionamenti completi, con tono sicuro e struttura già pronta. È un vantaggio enorme, ma introduce un rischio sottile: non delegare un compito, bensì il giudizio. E quando il giudizio scivola fuori dall’umano, l’efficienza può crescere mentre l’autonomia si assottiglia.


Governance dell’AI generativa
Governance dell’AI generativa

Il “Sistema 3”: quando l’AI entra nel giudizio

La distinzione tra pensiero rapido e pensiero deliberato – resa popolare dagli studi di Daniel Kahneman – ha funzionato per decenni come mappa intuitiva del nostro modo di decidere. Oggi però, nella vita professionale quotidiana, quella mappa è incompleta: sempre più spesso, mentre ragioniamo, attiviamo volontariamente un assistente generativo e incorporiamo l’output nella decisione. Una recente proposta, rilanciata in Italia da Maurizio Carmignani su AI4Business (29/01/2026), parla esplicitamente di un “terzo sistema” esterno: una cognizione “a noleggio” che opera in tempo reale accanto alla mente umana.


Il punto non è che l’AI “imponga” scelte: siamo noi a convocarla. Ma proprio perché la risposta appare già organizzata – e spesso persuasiva – scatta la tentazione di accettarla con minime correzioni. Nella letteratura questo scivolamento viene descritto come resa cognitiva: quando l’assistenza smette di essere supporto e diventa sostituzione del vaglio critico. Gli esperimenti richiamati da Carmignani riassumono il rischio in un pattern semplice: se l’AI è corretta si vola, se sbaglia si precipita; e se sbaglia con sicurezza, aumenta anche la nostra sicurezza nell’errore.


Dalla delega alla governance della delega

Per ridurre il rischio, serve una regola semplice ma non banale: delegare l’esecuzione, non il criterio. In azienda lo chiamiamo governance: la capacità di distribuire compiti mantenendo responsabilità, tracciabilità e controllo degli effetti. Nel lavoro cognitivo aumentato vale lo stesso principio, con una complicazione: l’output non è un numero o un risultato puntuale, ma una struttura di pensiero, un testo, una diagnosi, un piano.


La domanda chiave diventa quindi: quali guardrail impediscono che un’organizzazione “si agganci” alle risposte del sistema esterno? La risposta non sta in un uso più intenso di prompt, ma in un’architettura: ruoli, livelli, transizioni decisionali e log delle scelte. Senza questi elementi, l’AI diventa un acceleratore che amplifica anche il disordine.


Tre livelli, come in una buona organizzazione

Un paper del 2025 pubblicato su Discover Computing (Springer) da Uwe M. Borghoff, Paolo Bottoni e Remo Pareschi propone un’architettura formale per coordinare interazioni tra umani, LLM e sistemi specialistici, distinguendo tre spazi di lavoro: uno di indirizzo (dove si fissano obiettivi e vincoli), uno di osservazione (dove si valuta e si trasforma il materiale) e uno di esecuzione (dove si produce in modo deterministico secondo specifica). Cambiano i nomi, ma la logica è riconoscibile: strategia, controllo, produzione.


Questa separazione è un antidoto alla resa cognitiva perché impedisce la confusione dei piani. Il sistema esterno è potentissimo nell’esecuzione e nella generazione di varianti, ma non deve possedere, da solo, la “chiave” della decisione. Il criterio resta umano e deve restare esplicito: se non sai spiegare perché hai accettato un output, hai già delegato più del necessario.


Un caso di studio: il romanzo scritto “in parallelo” e letto in pubblico

In un articolo pubblicato su Nòva / Il Sole 24 Ore il 30/01/2026, Marco Minghetti racconta un esperimento letterario che vale come laboratorio manageriale: la stesura del romanzo “E” attraverso una scrittura collaborativa con tre LLM (Claude, ChatGPT e Gemini) usati come esecutori testuali in parallelo, con sovranità autoriale mantenuta via brief dettagliati, confronto degli output e autorizzazione finale.


La seconda parte dell’esperimento è ancora più interessante: la creazione di un gruppo di social reading su LinkedIn che, secondo i numeri riportati da Minghetti nel medesimo Prolegomeno (30/01/2026), ha raggiunto 467 partecipanti a poche settimane dalla fondazione (19 dicembre 2025). Qui la collaborazione cambia fase: non si produce testo, si produce interpretazione. E l’interpretazione collettiva diventa un dispositivo di controllo qualità, capace di far emergere pattern, incoerenze, e anche significati non intenzionali.


Perché la community funziona: il feedback come infrastruttura

Quando un testo (o un progetto) viene discusso da molti, accade una cosa utile e pericolosa insieme. Utile: aumenta la copertura degli errori, si formano letture alternative, si vedono debolezze che l’autore non percepisce. Pericolosa: cresce anche il rumore e la tentazione di inseguire ogni commento.


La differenza la fa ancora la governance: nel social reading, l’autore non impone “la lettura giusta” ma facilita; il gruppo osserva e valuta; l’opera – per quel ciclo – resta stabile e funge da vincolo comune. Si crea un loop: il testo genera feedback, il feedback orienta revisioni, le revisioni cambiano la lettura. È lo stesso principio dei processi industriali ben progettati: non serve controllo totale, serve un ciclo di miglioramento con responsabilità chiare.


Che cosa può imparare l’impresa (oltre la letteratura)

Il punto non è scrivere romanzi con l’AI. Il punto è che lo stesso schema si trasferisce a report, piani industriali, analisi di rischio, documentazione tecnica, progettazione di prodotto. Quando l’output è cognitivo, l’azienda deve progettare un’“organizzazione della delega” che tenga insieme velocità e qualità. Alcune regole pratiche emergono con chiarezza.

Protocollo operativo (replicabile) in 5 passi

·        Brief strategico: obiettivi, vincoli, metriche di riuscita. Senza brief, l’AI decide la forma del problema.

·        Esecuzione in parallelo: almeno due sistemi o due configurazioni diverse. La comparazione riduce l’aggancio.

·        Revisione comparativa: valutare differenze, non “scegliere la versione più fluida”.

·        Log delle decisioni: cosa è stato preso/scartato e perché. Accountability e apprendimento.

·        Trasparenza controllata: dichiarare metodo e responsabilità, soprattutto verso stakeholder interni.

Tradotto: l’AI non va “messa in mano” alle persone, va messa dentro un processo. Senza processo, il rischio è doppio: da un lato errori che passano perché l’output convince; dall’altro una cultura interna che smette di praticare il controllo di qualità.


Cosa è supportato da dati e cosa è ancora un’ipotesi

Nel dibattito sull’AI generativa conviene distinguere tre piani, per non confondere evidenze robuste e narrazioni promettenti. Ci sono fatti verificabili (o almeno documentati), ipotesi ragionevoli ma ancora da misurare, e infine aspettative che rischiano di diventare ideologia se non vengono sottoposte a test.


Supportato: esiste una letteratura sperimentale e divulgativa che descrive il rischio di “resa cognitiva” quando l’utente si aggancia all’output del sistema esterno (Carmignani, AI4Business, 29/01/2026); esiste anche un tentativo di formalizzare l’architettura di collaborazione umano‑AI in termini organizzativi e multi‑agente (Borghoff, Bottoni, Pareschi, Discover Computing/Springer, 2025). Infine, il caso di Minghetti fornisce un set minimo di dati dichiarati: data di avvio del gruppo, numerosità dei partecipanti, procedure di raccolta feedback (Minghetti, Nòva/Il Sole 24 Ore, 30/01/2026).


Ipotetico: che questi stessi guardrail riducano sistematicamente errori e dipendenza in contesti ad alta posta in gioco (decisioni strategiche, compliance, rischio) senza rallentare eccessivamente; che la specializzazione dei modelli sia stabile nel tempo; che un social reading “scali” oltre community motivate senza degradare in rumore. Qui servono indicatori: qualità delle decisioni ex post, tasso di correzione degli errori, tracciabilità, tempi di ciclo, e – soprattutto – misure di autonomia critica delle persone prima e dopo l’introduzione dell’AI nel processo.

Supportato da evidenze

Dati dichiarati nel caso

Ipotesi / promesse (da testare)

La presenza di un rischio di delega del giudizio è descritta da una letteratura emergente sulla Tri‑System Theory e sulla “cognitive surrender”.

Il gruppo di social reading conta 467 partecipanti e cresce dal 19/12/2025 (dato riportato dall’autore nell’articolo).

Che la specializzazione “stabile” tra diversi LLM (uno più narrativo, uno più sintetico, uno più analitico) sia generalizzabile e ripetibile in altri contesti.

Architetture a livelli e ruoli distinti per sistemi multi‑agente sono formalizzate in lavori recenti come TB‑CSPN (2025).

La community produce feedback strutturati e viene usata come validazione sociale/qualitativa (meccanismo descritto dall’autore).

Che la trasparenza metodologica aumenti sempre fiducia e qualità: plausibile, ma dipende da contesto, incentivi e conflitti.

La separazione tra indirizzo, controllo e produzione è un principio organizzativo noto (governance, audit, responsabilità).

Valutazioni percentuali sui feedback (es. maggioranza positiva vs richieste di calibrazione) sono riportate nel racconto, ma richiedono accesso ai dati grezzi per essere verificate.

Che il social reading diventi un modello standard per l’editoria e, per analogia, per il management: l’effetto scala va misurato, non presunto.

La morale è pratica: l’innovazione vera non è “avere l’AI”, ma misurare dove introduce attrito o abbagli, e progettare contromisure. Nel lavoro cognitivo aumentato, l’architettura è la nuova competenza di base.


Riferimenti essenziali

·        Marco Minghetti, “Prolegomeni al Manifesto del Pop Management 160…”, Nòva / Il Sole 24 Ore (30/01/2026). Disponibile su: https://marcominghetti.nova100.ilsole24ore.com/2026/01/30/prolegomeni-al-manifesto-del-pop-management-160-dal-distant-writing-al-laboratorio-sociale-tre-livelli-di-intelligenza-collaborativa/

·        Maurizio Carmignani, “Tri‑System Theory e resa cognitiva: l’AI entra nel nostro modo di giudicare”, AI4Business (29/01/2026). Disponibile su: https://www.ai4business.it/intelligenza-artificiale/sistema-3-e-resa-cognitiva-quando-lai-entra-nel-nostro-modo-di-giudicare/

·        Uwe M. Borghoff, Paolo Bottoni, Remo Pareschi, “An organizational theory for multi-agent interactions integrating human agents, LLMs, and specialized AI”, Discover Computing (Springer, 2025). Disponibile su: https://link.springer.com/article/10.1007/s10791-025-09667-2


Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page