Governance IA generativa: perché non basta governare i modelli
- Andrea Viliotti

- 2 giorni fa
- Tempo di lettura: 16 min
Questo articolo mette in dialogo il Prolegomeno di Marco Minghetti a François Rastier con due precedenti paper di Andrea Viliotti depositati su Zenodo — Diritti cognitivi come diritti di habitat nell’era dell’IA e L’economia del giudizio nelle società mediate dall’IA — per mostrare che la vera posta in gioco è la qualità pubblica delle condizioni che rendono possibile interpretare, verificare, contestare e ricordare.
Nota autoriale, disclosure di posizione e stato del deliverable Andrea Viliotti è coautore del presente articolo ed è anche autore dei due paper Zenodo qui ripresi e rielaborati; il testo non va quindi letto come commento esterno a quei lavori, ma come loro sviluppo editoriale in dialogo con il Prolegomeno di Marco Minghetti. «Framework GDE» designa il quadro di ricerca e il lessico euristico cui il testo si collega; non indica un coautore fisico distinto. |
Il problema dell’IA generativa non comincia con l’errore e non finisce con il prompt. Comincia prima, nella razionalità che il sistema rende normale, e continua dopo, nel modo in cui redistribuisce tempo, attenzione, provenienza, memoria e capacità di contestare. È il cuore dell’introduzione con cui Marco Minghetti presenta François Rastier: il punto non è soltanto che la macchina scrive, ma quale stile cognitivo incorpora, quale conformismo rende efficiente, quale criterio sposta fuori campo.[1]
Questo articolo mette in dialogo quella diagnosi con due precedenti paper di Andrea Viliotti depositati su Zenodo — Diritti cognitivi come diritti di habitat nell’era dell’IA e L’economia del giudizio nelle società mediate dall’IA: diritti cognitivi come diritti di habitat tra autorità interpretativa, costi della verifica e istituzioni del giudizio — e li rielabora in forma di saggio policy-oriented. Così il problema cambia scala. Non siamo più davanti solo a un problema di workflow editoriale o di qualità dell’output. Siamo davanti a un problema di giudizio pubblico: quali condizioni istituzionali rendono ancora possibile capire, verificare, dissentire e ricordare quando la sintesi automatica diventa interfaccia generale dell’esperienza cognitiva. [2]
Tesi del pezzo La governance dell’IA generativa deve spostarsi dal solo controllo del modello alle condizioni istituzionali che rendono possibile giudizio, provenienza, verifica, ricorso e memoria pubblica. |

Dal conformismo compositivo al problema istituzionale
La forza del Prolegomeno di Minghetti sta nel non liquidare Rastier come semplice moralista anti-tecnologico. Ne prende sul serio la diagnosi: la generazione combinatoria tende alla ripetizione, alla chimera ben confezionata, alla vacuità industrializzata. L’IA generativa, letta da Rastier, non produce solo testi; produce soprattutto una forma di normalizzazione, un abbassamento della differenza, una predisposizione al “medio” che può diventare facilmente lingua dell’organizzazione.
Minghetti, però, compie uno scarto decisivo. Se il rischio è il conformismo compositivo, la risposta non può ridursi né all’entusiasmo ingenuo né al moratorium assoluto. Deve diventare governo del criterio. Il prompt smette di essere una semplice istruzione tecnica e diventa mandato; il Supervisor non è il guardiano esterno del testo, ma il presidio del criterio che decide perimetro, libertà e soglia di autorizzazione. Da qui la formula sintetica del framework TB-CSPN: delegare l’esecuzione, non il criterio.[1]
Questo passaggio è più importante di quanto sembri. Nel lessico proposto da Minghetti, ogni modello porta con sé un default cognitive mode: una propria economia del giudizio, un rapporto specifico con il conflitto, con l’incompiuto, con la chiusura troppo liscia. Governare davvero un sistema generativo significa allora spostarsi verso un designed cognitive mode: non cancellare l’indole dei modelli, ma piegarla dentro vincoli espliciti, pratiche di confronto, protocolli di variazione, momenti di autorizzazione. In questa ottica, lo human as a source non è un residuo romantico; è l’elemento che impedisce al loop AI-su-AI di restare formalmente corretto e cognitivamente svuotato.
C’è inoltre un elemento che nel Prolegomeno merita di essere esteso oltre il mondo della scrittura: la verifica non può essere lasciata all’eroismo del singolo Supervisor. Minghetti insiste sul social reading e sulla peer review degli output come pratiche di sovranità cognitiva collettiva. Questo dettaglio è decisivo perché rompe la favola dell’utilizzatore onnisciente. Anche quando il criterio è formalmente presidiato, ogni osservatore conserva un punto cieco sulla propria impronta. Una governance robusta ha quindi bisogno di controllo reciproco, di variazione forzata, di confronto tra mediazioni diverse. In piccolo è una regola di metodo; in grande diventa una regola istituzionale.
Eppure, il laboratorio di scrittura, da solo, non basta. Un protocollo editoriale può ridurre il rischio in un flusso di lavoro specifico; non dice ancora come si governa, a scala sociale, un ambiente in cui motori di ricerca, sistemi di raccomandazione, chatbot, registri pubblici, scuole, archivi, biblioteche e musei contribuiscono insieme a definire che cosa diventa visibile, che cosa resta memorizzato, che cosa appare contestabile. È qui che la diagnosi di Minghetti e Rastier incontra una questione più ampia: la governance degli stili cognitivi è il sintomo visibile di un problema più profondo, che riguarda l’ecologia pubblica del giudicare.

Come leggere la figura: Il diagramma mostra che il criterio non si esaurisce nel prompt: se la verifica resta downstream, l’efficienza locale può crescere mentre la qualità del giudizio peggiora.
Dall’accesso al giudizio
Nel paper Diritti cognitivi come diritti di habitat nell’era dell’IA, si propone un cambio di lessico che conviene prendere alla lettera. I diritti cognitivi, lì, non vengono trattati come una categoria di diritto positivo già chiusa. Sono un quadro interpretativo e politico-istituzionale, utile per nominare un fascio di garanzie che oggi resta disperso tra istruzione, informazione, trasparenza algoritmica, accesso alla cultura, tutela dei minori, pluralismo mediatico e responsabilità pubblica.[2]
Il punto è semplice e insieme radicale: l’accesso non basta più. Una collettività può avere accesso a una massa crescente di contenuti e, nello stesso tempo, perdere le condizioni che rendono possibile il giudizio. Può essere connessa e insieme impoverita; esposta a risposte rapide e insieme meno capace di distinguere prova, opinione, probabilità, propaganda, sintesi utile e scorciatoia pericolosa. Per questa ragione il problema decisivo non è aggiungere un “nuovo diritto” al catalogo, ma ricomporre un’unità di problema: che cosa tiene insieme formazione, interpretazione, memoria condivisa e partecipazione informata nell’era delle mediazioni automatiche.
Da qui l’idea di habitat cognitivo. Scuole, archivi, biblioteche, musei, territori, famiglie, associazioni, enti locali e mediatori algoritmici non sono domini indipendenti che si sommano a posteriori. Formano un unico ambiente di co-produzione del giudizio. La scuola non serve soltanto a trasferire competenze; fornisce metodo. La biblioteca non offre solo accesso; costruisce comparazione. L’archivio non conserva soltanto documenti; custodisce prova, contesto, filiera. Il museo non espone soltanto oggetti; media interpretazioni pubbliche. Il territorio non è un contorno amministrativo; è la scala in cui queste istituzioni si coordinano o si disallineano.
Se si accetta questa prospettiva, l’IA generativa non può più essere valutata solo come tecnologia di produttività. Va osservata come forza che entra dentro l’habitat: accelera la risposta, comprime i tempi di lettura, riorganizza la visibilità, esternalizza costi di verifica, ricombina filiere documentali, modifica le aspettative di competenza. Il suo impatto, dunque, non si misura solo sulla bontà dell’output ma sulla qualità dell’ambiente cognitivo che lascia dietro di sé. Una governance degna del nome deve chiedersi non soltanto se un sistema “funziona”, ma se l’habitat in cui funziona resta pluralistico, contestabile e pubblicamente intelligibile.

Come leggere la figura: La figura va letta come una mappa di co-dipendenze: se si indeboliscono scuole, archivi, biblioteche, musei o presìdi territoriali, anche la mediazione algoritmica diventa meno contestabile.
L’economia del giudizio
Nel paper L’economia del giudizio nelle società mediate dall’IA questo ragionamento viene portato un passo oltre. L’economia del giudizio non è una metafora ampia per dire che “serve più prudenza”. È il nome di un meccanismo preciso: la redistribuzione dell’autorità interpretativa e dei costi sociali della verifica tra piattaforme, mediatori algoritmici e infrastrutture pubbliche del giudizio.[3]
Qui il salto rispetto ai lessici più noti è netto. L’economia dell’attenzione dice qualcosa di vero, ma si ferma alla cattura della salienza. L’epistemic welfare mette al centro le capacità dell’agency epistemica, ma tende a descrivere condizioni generali. La contestabilità pubblica coglie un presidio essenziale, ma non esaurisce il problema. L’economia del giudizio chiede invece di seguire l’intera catena: chi seleziona che cosa arriva al giudizio, chi rende ricostruibile la provenienza, chi dispone delle competenze per verificare, quali sedi permettono correzione e ricorso, quanto pluralismo istituzionale resta disponibile per non dipendere da una sola classe di mediatori.
Per rendere osservabile questo meccanismo, il testo distingue tre layer. Nel primo, allocativo, tempo e visibilità decidono che cosa diventa abbastanza saliente da chiedere interpretazione. Nel secondo, di tracciabilità epistemica, provenienza e capability stabiliscono se ciò che vediamo è ricostruibile, collocabile, verificabile. Nel terzo, di correzione istituzionale, contestabilità e pluralismo determinano se l’autorità interpretativa può essere appellata, distribuita o riequilibrata. Non si tratta di una checklist moralistica e neppure di un indice già validato. Si tratta di un dispositivo diagnostico: una grammatica minima per leggere come il giudizio venga spostato, compresso o reso più fragile.
È anche per questo che il problema della governance non coincide con quello della compliance minima. Un sistema può essere formalmente lecito, produrre output utili e restare comunque povero sul piano del giudizio se comprime il tempo di interpretazione, opacizza la provenienza, scarica la verifica sugli ultimi anelli della catena e riduce il numero dei presìdi capaci di correggerlo. La domanda corretta non è solo “che cosa sa fare il modello?”, ma “quale configurazione di interfacce, documenti, professionalità, archivi e procedure rende questa capacità compatibile con un uso pubblico non regressivo?”.
La conseguenza politica è immediata. Una regolazione che si limiti al modello lascia scoperta la parte più rilevante del campo. Bisogna guardare anche alle interfacce, agli standard documentali, ai registri, ai contact point, ai protocolli di appello, alla formazione di chi usa gli strumenti, alla posizione delle istituzioni della memoria, alle dipendenze infrastrutturali che possono concentrare in pochi stack una quota eccessiva di autorità interpretativa. In altre parole: il problema non è solo che i modelli rispondono. Il problema è che, rispondendo, ridisegnano le condizioni sociali del capire.
Tabella 1 — Un innesco esterno, due lavori d’autore, un unico problema.
Innesco / lavoro | Nucleo concettuale | Che cosa aggiunge | Domanda di governance |
Marco Minghetti, introduzione a François Rastier | Stili cognitivi, distant writing, Supervisor, rischio di conformismo compositivo | Mostra che il problema dell’IA generativa non è solo l’output, ma il criterio che lo governa | Chi decide il criterio e con quali pratiche di verifica esterna? |
Andrea Viliotti – Framework GDE,Diritti cognitivi… (Zenodo) | Scuole, archivi, biblioteche, musei, territori e mediatori digitali come unico habitat cognitivo | Sposta la questione dall’accesso alle condizioni sociali del giudizio | Quali istituzioni tengono insieme memoria, literacy, interpretazione e partecipazione? |
Andrea Viliotti,L’economia del giudizio… (Zenodo) | Redistribuzione di autorità interpretativa e costi della verifica lungo tre layer e sei assi | Offre una grammatica diagnostica per leggere allocazione, provenienza e correzione | Dove si vede la filiera, chi verifica, chi corregge, quanto pluralismo resta? |
Come leggere la matrice: le tre fonti operano su piani diversi, ma convergono sulla stessa domanda: come evitare che l’efficienza sintetica eroda le condizioni pubbliche del giudizio.
Il mini-case che rende visibile il problema
Per questo il mini-case di ChatAmsterdam è istruttivo. Non perché offra una soluzione compiuta, e neppure perché consenta una validazione causale piena, ma perché rende osservabile nello stesso oggetto ciò che spesso nei dibattiti resta separato: AI literacy, documentazione pubblica, intervento umano, assessment etico, dipendenza infrastrutturale.[4]
Il caso, infatti, mostra contemporaneamente avanzamenti e limiti. Sul piano allocativo promette efficienza: trovare informazioni, riassumere documenti, aiutare la scrittura, analizzare dati. Ma proprio la promessa di velocità rende più chiaro il punto politico. Ogni minuto risparmiato in output può diventare un costo di verifica spostato a valle su funzionari, professionisti, cittadini o istituzioni terze. L’efficienza non elimina la verifica; decide soltanto chi la paga.
Sul piano della tracciabilità epistemica, ChatAmsterdam rende visibili alcuni elementi cruciali. Il registro pubblico dichiara finalità, status, impact assessments, provider e modello; precisa l’uso di GPT4o attraverso Microsoft Azure; esplicita l’assenza di fine-tuning su dati interni. Ma la source registration rinvia a un repository interno accessibile solo ai dipendenti del Comune. La provenienza documentale, dunque, è descritta ma non interamente verificabile dall’esterno. È una pubblicità utile, ma parziale.
Sul piano della correzione istituzionale, il caso mostra la stessa ambivalenza. Human intervention, DPIA ed Ethical Guide sono segnali importanti: istituzionalizzano cautele, rendono meno opaco il processo, iscrivono il sistema dentro un lifecycle approach che prevede audit, governance, archiving e procedure di obiezione. E tuttavia la dipendenza da uno stack infrastrutturale ben identificato resta alta. Non basta avere un registro per dire che il problema del pluralismo sia risolto.[5]
Questa è la lezione che interessa davvero le amministrazioni pubbliche europee e italiane. Un registro pubblico degli algoritmi è necessario; da solo non basta. La trasparenza deve agganciarsi a filiere documentali leggibili, controparti istituzionali accessibili, obblighi di literacy, continuità dell’archivio, capacità di challenge e pluralità dei presìdi. Altrimenti la pubblicità diventa descrizione senza verifica, e la governance resta una bella superficie documentale sopra una infrastruttura poco contestabile.
Che cosa significa governare davvero
Se si mette in dialogo il Prolegomeno di Minghetti con — Diritti cognitivi come diritti di habitat nell’era dell’IA e L’economia del giudizio nelle società mediate dall’IA — la policy cambia fuoco.
Anzitutto, la governance dell’IA generativa non può essere ridotta a prompt engineering organizzato. Il prompt come mandato è un inizio, non un approdo. Serve una governance documentale: provenienza, standard di citazione, registrazione delle fonti, continuità dell’archivio, possibilità di ricostruire la filiera di un contenuto quando diventa rilevante per decisioni pubbliche o organizzative.
In secondo luogo, l’AI literacy non va trattata come corso accessorio o capitolo HR. Se la capability è uno dei layer del giudizio, allora la competenza critica è un’infrastruttura di cittadinanza e di amministrazione. Non riguarda solo “saper usare” il sistema, ma saperlo collocare, mettere in dubbio, confrontare, correggere, rifiutare quando serve. Una PA che adotta sistemi generativi senza capacità diffuse di lettura critica accelera la risposta e impoverisce il giudizio.
In terzo luogo, scuole, biblioteche, archivi e musei vanno riportati dentro il discorso sulla governance dell’IA non come appendici culturali, ma come presìdi operativi della democrazia cognitiva. Se vengono trattati come settori separati, l’habitat si frammenta. Se vengono riconosciuti come infrastrutture del giudizio, diventano elementi essenziali di una politica della provenienza, della memoria e del pluralismo.
C’è poi un tema di procurement che il lessico tecnico spesso sottovaluta. Quando una amministrazione o una grande organizzazione acquista un sistema generativo, non compra soltanto funzionalità. Compra un regime di dipendenza: standard documentali, pratiche di logging, filiere di aggiornamento, soglie di auditabilità, interfacce attraverso cui il giudizio viene canalizzato. Per questo la pluralità istituzionale non è un ideale astratto, ma un criterio di progetto. Dove tutto converge in un’unica classe di intermediari, anche la contestazione tende a diventare interna al medesimo ecosistema che dovrebbe essere sottoposto a verifica.
Infine, la contestabilità non può restare una promessa astratta. Ogni sistema generativo usato in amministrazioni, organizzazioni complesse o ambienti ad alta esposizione documentale dovrebbe rendere visibili almeno quattro cose: chi risponde della filiera, dove si può contestare, quali documenti restano accessibili nel tempo, quale margine di dipendenza da un singolo stack viene accettato come compatibile con il giudizio pubblico. È qui che la governance smette di essere model-centric e diventa istituzionale.
Governare il giudizio, non solo i modelli
Rastier ha ragione a diffidare della ripetizione industriale che si traveste da creazione. Minghetti ha ragione a tradurre quella diagnosi in una disciplina del criterio, contro la resa cognitiva e contro il conformismo di sistema. I due paper — Diritti cognitivi come diritti di habitat nell’era dell’IA e L’economia del giudizio nelle società mediate dall’IA — mostrano che questa disciplina, per essere all’altezza del problema, deve uscire dall’atelier del prompt e diventare politica dell’habitat e delle istituzioni del giudizio.
In altre parole, il bivio decisivo non è uomo contro macchina. È tra un’accelerazione opaca che concentra autorità interpretativa, scarica i costi della verifica e svuota le mediazioni pubbliche, e una governance che rende l’innovazione documentabile, contestabile, pluralistica e capace di memoria. La prima produce efficienza locale e fragilità sistemica. La seconda può usare l’IA senza consegnarle il criterio.
Se si vuole una governance davvero democratica dell’IA generativa, la domanda da porre non è soltanto se il modello sembri convincente. È se l’ecosistema che lo rende operativo lasci ancora spazio a interpretazione, verifica, ricorso e pluralità istituzionale. Non basta governare i modelli. Bisogna governare il giudizio.
Note
1. Marco Minghetti, “Prolegomeni al Manifesto del Pop Management 173. Innovazione Pop. Opinion Piece di François Rastier”, 24 marzo 2026, in particolare i passaggi su distant writing, governance del criterio, default cognitive mode / designed cognitive mode e ruolo del Supervisor. La formula TB-CSPN citata nel testo è: “delega l’esecuzione, mai il criterio”.
2. Andrea Viliotti, coautore del presente articolo, firma con la resa “Andrea Viliotti – Framework GDE” il paper Diritti cognitivi come diritti di habitat nell’era dell’IA. Scuole, archivi, biblioteche, musei e territori come infrastrutture delle comunità educanti, depositato su Zenodo, record 18925752, DOI 10.5281/zenodo.18925752. Nel pezzo il paper è trattato come precedente lavoro d’autore rielaborato in forma editoriale. Si veda in particolare la nota terminologica e di metodo e l’argomento per cui i diritti cognitivi non vengono trattati come categoria di diritto positivo già chiusa.
3. Andrea Viliotti, coautore del presente articolo, è autore del paper L’economia del giudizio nelle società mediate dall’IA. Diritti cognitivi come diritti di habitat tra autorità interpretativa, costi della verifica e istituzioni del giudizio, depositato su Zenodo, record 19164007, DOI 10.5281/zenodo.19164007. Nel pezzo il paper è trattato come precedente lavoro d’autore rielaborato in forma editoriale. Rilevano soprattutto la definizione dei tre layer, dei sei assi diagnostici e il posizionamento del framework come dispositivo concettuale non ancora validato empiricamente.
4. Municipality of Amsterdam, “ChatAmsterdam”, The Algorithm Register of the Dutch Government, ultimo aggiornamento 10 settembre 2025. La scheda pubblica dichiara la finalità di promuovere AI literacy, l’uso di GPT4o, il provider Microsoft Azure, l’esistenza di human intervention, la presenza di DPIA ed Ethical Guide e il rinvio della source registration a un repository interno accessibile solo ai dipendenti del Comune.
5. City of Amsterdam, Approach and tools for a responsible use of algorithms in Amsterdam, 2022; OECD, Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions, 2025. Queste fonti sono usate come supporto istituzionale alla lettura del lifecycle approach e della governance pubblica del caso Amsterdam.
Bibliografia
City of Amsterdam. 2022. Approach and tools for a responsible use of algorithms in Amsterdam. Amsterdam: Municipality of Amsterdam.
Council of Europe. 2024. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CETS No. 225). Vilnius.
European Commission. 2025. AI Literacy – Questions & Answers. Shaping Europe’s Digital Future.
European Union. 2022. Regulation (EU) 2022/2065 on a Single Market for Digital Services (Digital Services Act).
European Union. 2024. Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
Herzog, Lisa. 2023. Citizen Knowledge: Markets, Experts, and the Infrastructure of Democracy. New York: Oxford University Press.
Hyzen, Aaron, Hilde Van den Bulck, Manuel Puppis, Michelle Kulig, and Steve Paulussen. 2026. “Epistemic Welfare and Algorithmic Recommender Systems: Overcoming the Epistemic Crisis in the Digitalized Public Sphere.” Communication Theory 36 (1): 46–57.
Ienca, Marcello, and Roberto Andorno. 2017. “Towards New Human Rights in the Age of Neuroscience and Neurotechnology.” Life Sciences, Society and Policy 13 (1): 5.
Jaillant, Lise, Olivia Mitchell, Eric Ewoh-Opu, and Maribel Hidalgo Urbaneja. 2025. “How Can We Improve the Diversity of Archival Collections with AI? Opportunities, Risks, and Solutions.” AI & Society 40 (6): 4447–4459.
Kaldeli, Eirini. 2023. “Combining AI Tools with Human Validation to Enrich Cultural Heritage Metadata.” Europeana Pro, 16 February 2023.
Minghetti, Marco. 2026. “Prolegomeni al Manifesto del Pop Management 173. Innovazione Pop. Opinion Piece di François Rastier.” Le Aziende InVisibili, 24 marzo 2026.
Municipality of Amsterdam. 2025. “ChatAmsterdam.” The Algorithm Register of the Dutch Government. Last updated 10 September 2025.
OECD. 2025. Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions. Paris: OECD Publishing.
OMB. 2025. M-25-21, Accelerating Federal Use of AI through Innovation, Governance, and Public Trust. Washington, DC: Office of Management and Budget.
Pasquale, Frank. 2015. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.
Shackell, Cameron, and Laurianne Sitbon. 2018. “Cognitive Externalities and HCI: Towards the Recognition and Protection of Cognitive Rights.” In Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. New York: ACM.
Simon, Herbert A. 1971. “Designing Organizations for an Information-Rich World.” In Computers, Communications, and the Public Interest, edited by Martin Greenberger, 37–72. Baltimore: Johns Hopkins University Press.
UNESCO. 2023. Guidance for Generative AI in Education and Research. Paris: UNESCO.
Viliotti, Andrea – Framework GDE. 2026a. Diritti cognitivi come diritti di habitat nell’era dell’IA. Scuole, archivi, biblioteche, musei e territori come infrastrutture delle comunità educanti. Zenodo. DOI 10.5281/zenodo.18925752.
Viliotti, Andrea. 2026b. L’economia del giudizio nelle società mediate dall’IA. Diritti cognitivi come diritti di habitat tra autorità interpretativa, costi della verifica e istituzioni del giudizio. Zenodo. DOI 10.5281/zenodo.19164007.
Appendice audit
DisclosureConsegna in regime CHAT_ONLY. Il MAIN resta non numerico e non metricista; i diagrammi sono concettuali; la matrice comparativa è osservata/non numerica. Andrea Viliotti, coautore del pezzo, è autore dei due paper Zenodo rielaborati nel MAIN. Il testo non tratta i “diritti cognitivi” come categoria di diritto positivo già chiusa e non presenta il framework GDE come modello quantitativo calibrato. |
A. Registro delle fonti di base
ID | Fonte base | Freeze / data | Ruolo nel pezzo |
B1 | Marco Minghetti, “Prolegomeni … Opinion Piece di François Rastier” (web page + DOCX allegato) | 24/03/2026 | Innesco esterno, lead, governance degli stili cognitivi, TB-CSPN, Supervisor, rapporto Minghetti/Rastier. |
B2 | Andrea Viliotti – Framework GDE, Diritti cognitivi come diritti di habitat nell’era dell’IA (Zenodo, record 18925752) | Atti consultati al 06/03/2026 | Precedente lavoro di Andrea Viliotti rielaborato nel MAIN: habitat cognitivo, delimitazione non-positivistica dei diritti cognitivi, attori dell’habitat. |
B3 | Andrea Viliotti, L’economia del giudizio nelle società mediate dall’IA (Zenodo, record 19164007) | Documenti consultati fino al 22/03/2026 | Precedente lavoro di Andrea Viliotti rielaborato nel MAIN: tre layer, sei assi, mini-case ChatAmsterdam, agenda di governance del giudizio. |
Nota di versione: per i due precedenti paper di Andrea Viliotti depositati su Zenodo — Diritti cognitivi come diritti di habitat nell’era dell’IA (record 18925752) e L’economia del giudizio nelle società mediate dall’IA (record 19164007) — si è usato come source-of-text il PDF allegato a t0; i riferimenti bibliografici e di deposito web sono stati riallineati ai rispettivi record Zenodo.
B. Fonti esterne addizionali verificate entro il freeze
Fonte | Ultimo aggiornamento / data | Perché è stata usata | Status audit |
ChatAmsterdam, The Algorithm Register of the Dutch Government | 10/09/2025 | Verifica mini-case: finalità di AI literacy, GPT4o/Azure, source registration interna, human intervention, DPIA, Ethical Guide. | Usata nel MAIN + note |
City of Amsterdam, playbook Algorithm Lifecycle Approach | 2022 | Supporto al riferimento al lifecycle approach e ai presìdi di governance, audit e archiviazione. | Usata in audit e note |
European Commission, AI Literacy – Questions & Answers | pagina attiva, accesso 24/03/2026 | Verifica status di art. 4 AI Act: obbligo già applicabile; enforcement dal 03/08/2026. | Usata in audit |
European Union, AI Act / page timeline | pagina attiva, accesso 24/03/2026 | Cross-check del calendario di applicazione dell’AI Act. | Usata in audit |
OMB M-25-21 | 03/04/2025 | Conferma del riferimento federale USA già presente nel paper sull’economia del giudizio. | Usata in audit |
OECD, Governing with Artificial Intelligence | 18/09/2025 | Conferma del riferimento OECD sul governo pubblico dell’IA. | Usata in audit |
UNESCO, Guidance for Generative AI in Education and Research | 07/09/2023; ultimo update 16/01/2026 | Ancoraggio istituzionale per literacy, educazione e governo umano-centrico. | Usata in audit |
C. Distinzione tra claim osservati e claim interpretativi
Claim | Statuto | Base di supporto |
Il Prolegomeno di Minghetti lega stili cognitivi, Supervisor e formula TB-CSPN. | Osservato / source-grounded | Articolo web-base + DOCX allegato. |
I “diritti cognitivi” sono trattati come quadro interpretativo e non come categoria di diritto positivo già chiusa. | Osservato / source-grounded | PDF Diritti cognitivi… |
L’economia del giudizio distingue tre layer e sei assi diagnostici. | Osservato / source-grounded | PDF Economia del giudizio… |
ChatAmsterdam dichiara AI literacy, GPT4o via Azure, human intervention e source registration interna. | Osservato / source-grounded | Registro pubblico + mini-case nel paper. |
La governance dell’IA va spostata dal controllo del solo modello alle condizioni istituzionali del giudizio. | Interpretativo | Sintesi argomentativa dell’articolo; coerente con le tre fonti base. |
Un registro pubblico è necessario ma non sufficiente se non è agganciato a archivi, ricorsi, literacy e pluralismo istituzionale. | Interpretativo | Deriva dalla lettura del mini-case e dal framework dei tre layer. |
D. Nota sul mini-case
ChatAmsterdam è usato come mini-case pubblico illustrativo, non come prova causale conclusiva. Il suo valore, nel pezzo, è diagnostico: rende visibili nello stesso oggetto finalità di AI literacy, pubblicità documentale, intervento umano, assessment etico e dipendenza infrastrutturale.
Il caso non viene generalizzato in forma statistica. La sua funzione è mostrare, in scala ridotta, come allocazione, tracciabilità epistemica e correzione istituzionale possano essere osservate insieme.
E. Logica dei visual
Visual | Tipo | Narrative job / readback | Caveat |
Figura 1 | Diagramma concettuale | Mostra il passaggio da prompt e stile cognitivo a provenienza, verifica e sedi di correzione. | Non è un workflow software; è una mappa di governo del criterio. |
Figura 2 | Diagramma relazionale | Rende visibile l’habitat cognitivo come insieme di istituzioni e mediazioni co-dipendenti. | Non è network analysis quantitativa; è una semplificazione didattica. |
Tabella 1 | Matrice comparativa | Allinea un innesco esterno e due lavori d’autore su nuclei concettuali, aggiunta teorica e domanda di governance. | Non è ranking; è una tabella di orientamento concettuale. |
F. Chiusura autoriale e narratore
Campo | Stato |
Byline pubblica richiesta | Andrea Viliotti e Framework GDE |
Allowed public rendering | Byline preservata; disclosure esplicita che Andrea Viliotti è coautore del pezzo e autore dei due paper; nota minima che distingue Framework GDE da un coautore fisico distinto. |
Forbidden public rendering | Riscrivere silenziosamente la byline; posture da commentatore esterno dei testi di Andrea Viliotti; etichetta ready-to-publish sotto firme reali. |
Narrator mode | Saggio autoriale/istituzionale; i due paper sono trattati come precedenti lavori di Andrea Viliotti ripresi e rielaborati nel pezzo, non come fonte terza. |
Signature readiness | Non confermata. |
Label finale ammessa | Draft/ghostdraft per revisione autoriale. |



Commenti