top of page

Coltivare l’habitat cognitivo

Cultura, intelligenza artificiale e giudizio pubblico oltre il semplice accesso all’informazione

Andrea Viliotti – Framework GDE


Da tempo provo a spostare il baricentro del dibattito sull’intelligenza artificiale. Mi interessa meno la domanda astratta se la macchina ci sostituirà e molto di più una questione concreta: che cosa accade alle condizioni che rendono possibile il giudizio? È da qui che nasce anche il ragionamento che ho sviluppato nel mio saggio sui diritti cognitivi e che qui riprendo in forma più pubblica e discorsiva.

 

Diritti cognitivi e habitat cognitivo nell’era dell’intelligenza artificiale
Diritti cognitivi e habitat cognitivo nell’era dell’intelligenza artificiale

Non basta più l’accesso

Quando parlo di diritti cognitivi, non intendo aggiungere una formula suggestiva a un catalogo giuridico già esistente. Intendo nominare un problema che oggi vediamo in forma dispersa: istruzione, libertà di informazione, pluralismo delle fonti, trasparenza algoritmica, accesso alla cultura, protezione dei minori, qualità della mediazione pubblica. Nel diritto positivo europeo e italiano non esiste ancora, in modo pienamente compiuto, una categoria unitaria e stabilizzata chiamata così. Eppure, i pezzi del problema sono già davanti a noi.


Il punto, allora, non è inventare un diritto “in più”. È mostrare che senza tempo di interpretazione, pluralità delle mediazioni, memoria pubblica e criteri minimi di comprensibilità dell’ordinamento algoritmico, anche l’accesso diventa una promessa vuota. Una comunità può essere connessa, avere dispositivi, banche dati, piattaforme e servizi digitali, e insieme essere cognitivamente impoverita. Può avere più informazioni e meno giudizio. Può ricevere più risposte e disporre di meno strumenti per verificarle, ordinarle, contestarle.


Per questo sento la necessità di spostare il baricentro dall’accesso al giudizio. La questione decisiva, nell’età dell’IA, non è solo se arriviamo ai contenuti, ma se restano intatte le condizioni sociali e istituzionali che ci permettono di comprenderli davvero.


La cultura come infrastruttura del giudizio

È qui che propongo di leggere i diritti cognitivi come diritti di habitat. Un cittadino non pensa nel vuoto. Pensa dentro un ambiente fatto di scuole, archivi, biblioteche, musei, famiglie, associazioni, territori, media e piattaforme. Questi luoghi non sono unità amministrative isolate; sono nodi di una stessa architettura cognitiva. La scuola insegna a leggere e discutere. L’archivio custodisce tracce, prove, contesti. La biblioteca organizza accesso, orientamento e comparazione. Il museo costruisce esperienza pubblica e interpretazione. Il territorio mette in relazione persone, istituzioni e pratiche civiche.


Quando questi nodi si parlano, il giudizio individuale cresce dentro un contesto plurale, situato e verificabile. Quando si disallineano, il cittadino impara in modo intermittente, frammentario, spesso dipendente da interfacce commerciali che selezionano il visibile secondo logiche che non controlla. È questo il cuore della mia tesi: le comunità educanti non sono una metafora consolatoria. Sono infrastrutture del giudizio.


C’è anche un altro aspetto che mi sta particolarmente a cuore. Ogni comunità vive di una propria memoria esternalizzata: documenti, cataloghi, metadati, pratiche di descrizione, provenienze, relazioni tra oggetti, luoghi e interpretazioni. Se questa trama si impoverisce, si impoverisce anche la capacità di una società di discutere pubblicamente ciò che considera vero, rilevante, meritevole di trasmissione.


Che cosa fa davvero l’IA nello spazio culturale

Qui entra davvero in scena l’intelligenza artificiale. Nel mondo della cultura, l’IA non è soltanto uno strumento in più. È un mediatore. Search engine, sistemi di raccomandazione, feed e modelli linguistici osservano enormi masse di tracce, ne estraggono rappresentazioni compresse, restituiscono sintesi, ranking, suggerimenti. In chiave GDE mi interessa chiamarli, con cautela, osservatori algoritmici: non perché sostituiscano l’umano, ma perché riorganizzano l’attenzione e il campo del visibile.


Da un lato, questa mediazione può essere straordinariamente utile. L’IA può aiutare a descrivere collezioni, collegare archivi lontani, migliorare l’accessibilità, tradurre, far emergere opere e documenti prima difficili da raggiungere, sostenere percorsi educativi e di ricerca. Per istituzioni culturali spesso sotto pressione di risorse, è una possibilità concreta di servizio pubblico migliore.


Dall’altro lato, proprio perché questi sistemi accelerano l’accesso, rischiano anche di comprimere il pluralismo del visibile. Possono rendere più rapido l’incontro con un contenuto e, insieme, più debole il rapporto con il suo contesto. Possono semplificare la ricerca e impoverire la provenienza. Possono produrre comodità cognitiva e dipendenza interpretativa. Il problema non è la velocità in sé. Il problema nasce quando la velocità sostituisce la verifica, quando la sintesi prende il posto della fonte, quando la risposta probabilistica viene ricevuta come se fosse giudizio argomentato, quando il ranking proprietario diventa architettura invisibile della sfera pubblica.

«La cultura non è il contorno dell’innovazione: è il telaio che rende l’informazione socialmente leggibile.»


Cinque scelte pubbliche non più rinviabili

Se accettiamo questa prospettiva, allora anche la politica cambia. I diritti cognitivi non possono essere affidati a un solo ministero, a una sola piattaforma, a un singolo progetto di innovazione. Hanno una natura territoriale, interistituzionale e civica. Per questo vedo almeno cinque priorità operative.

1. Integrazione territoriale. Ogni territorio dovrebbe sapersi leggere come sistema cognitivo e dotarsi di patti locali tra scuole, università, archivi, biblioteche, musei, enti locali, associazioni e famiglie. Non per aggiungere tavoli ai tavoli, ma per ridurre isolamento istituzionale, duplicazioni e frammentazione della mediazione.

2. AI literacy come competenza interpretativa. L’alfabetizzazione all’IA non coincide con l’addestramento a usare prompt o piattaforme. Significa capire cos’è un modello generativo, distinguere previsione e prova, riconoscere il ruolo di ranking e bias, sapere quando una sintesi va riaperta e ricondotta alla fonte primaria.

3. Trasparenza delle adozioni. Le istituzioni culturali ed educative che adottano sistemi di IA dovrebbero rendere leggibili finalità d’uso, limiti, criteri di supervisione umana, tipologie di dati coinvolti e canali di contestazione. Non per burocratizzare ogni sperimentazione, ma per evitare che strumenti opachi entrino nello spazio pubblico come se fossero neutrali per definizione.

4. Cura dei dati culturali. Digitalizzare non basta. Bisogna rendere interoperabili i dati senza cancellare contesto, provenienza e qualità descrittiva. Un patrimonio ridotto a pura superficie computabile perde una parte della propria funzione pubblica.

5. Fiducia come effetto di accountability. Nessun ecosistema cognitivo pubblico regge senza fiducia. Ma, nell’epoca degli osservatori algoritmici, la fiducia non può essere chiesta come atto di fede. Deve essere costruita attraverso pluralismo delle fonti, registri, possibilità di ricorso, spiegabilità proporzionata e istituzioni autorevoli ma contestabili.

 

Perché parlo di habitat

Su questo punto vorrei essere molto chiaro: non sto proponendo una contrapposizione sterile tra uomo e macchina. Non penso che la risposta consista nel respingere l’IA dal mondo della cultura. Sarebbe una posizione ingenua e, in fondo, rinunciataria. Penso esattamente il contrario: la cultura deve abitare l’IA, governarla, orientarla, educarla socialmente. Deve farlo mettendo al centro non soltanto l’efficienza, ma la qualità del giudizio, la continuità della memoria condivisa, la possibilità della discussione pubblica.


Nel lavoro che porto avanti con la GDE provo a leggere proprio questa interdipendenza: scuole, istituzioni della memoria, territori e mediatori algoritmici come parti di un unico habitat cognitivo. Non uso qui la GDE come una formula da esibire, né come un modello quantitativo già calibrato per questo specifico problema. La uso come linguaggio interpretativo per tenere insieme integrazione istituzionale, pluralità delle mediazioni, capacità di giudizio e adattamento organizzativo. In altre parole: mi serve per vedere l’unità di un problema che spesso continuiamo a trattare per silos.


È questa, in fondo, la posta in gioco. Nell’età dell’IA, la democrazia non si decide solo nei luoghi della rappresentanza formale. Si decide anche nell’architettura dei mediatori digitali, nei criteri di visibilità, nella forza o nella fragilità delle istituzioni che custodiscono contesto, memoria e interpretazione. Se lasciamo che il rapporto tra sapere e cittadinanza sia organizzato solo da metriche di efficienza, profilazione e cattura dell’attenzione, avremo forse sistemi più rapidi, ma non per questo società più intelligenti.


Se invece coltiviamo l’habitat cognitivo, allora l’innovazione potrà essere discussa, corretta, contestata e resa più democratica. È il ragionamento che ho cercato di sviluppare più estesamente nel saggio pubblicato su Culture Digitali e che continuo a portare avanti nel mio lavoro sulla GDE. Non per costruire un lessico astratto, ma per ricordare una cosa semplice: le persone non esercitano il giudizio da sole, e la libertà cognitiva non vive senza istituzioni, luoghi, mediazioni e responsabilità pubbliche. Oggi, più che mai, la cultura non è il contorno dell’innovazione. È la sua condizione di qualità.


Andrea Viliotti

 
 
 

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page