top of page

Quando il Logos incontra il Dao: una storia incrociata delle idee che oggi chiamiamo IA

Filosofia, istituzioni, economia e politica: due tradizioni – Occidente e Oriente – come due alfabeti della stessa modernità.


Rileggere Platone e Confucio con una “IA” accanto non produce risposte definitive. Produce domande migliori: che cosa consideriamo vero, che cosa riteniamo giusto, e quali parti del mondo – mercati, Stati, piattaforme – decidiamo di automatizzare. Dal VI secolo a.C. al 2026, una doppia timeline per orientarsi fra idee e potere.


Livo, 10 febbraio 2026


Intelligenza artificiale tra Occidente e Oriente
Intelligenza artificiale tra Occidente e Oriente

Da qualche tempo, quando apro un classico – Platone o Confucio, Agostino o Nāgārjuna – tengo accanto una “IA”. Non la uso per farmi scrivere riassunti: la uso come si usa un righello quando si disegna. Non decide al posto mio, ma rende visibili proporzioni che, a occhio nudo, sfuggono. Mi mostra dove un argomento salta, dove una metafora regge e dove invece collassa. E, soprattutto, mi obbliga a distinguere tra ciò che un sistema può calcolare e ciò che una società deve deliberare.


Questa distinzione, che sembra astratta, è diventata politica ed economica. Negli ultimi anni – e nel 2026 più che mai – l’adozione di sistemi di IA si intreccia con norme, investimenti, sovranità tecnologica, lavoro, sicurezza. Non a caso istituzioni diverse hanno iniziato a fissare principi e processi: dall’approccio per il risk management negli Stati Uniti alle raccomandazioni multilaterali su etica e diritti, fino alla regolazione europea e alle misure cinesi sui servizi di IA generativa.


Il punto è che la competizione attuale non riguarda soltanto “chi ha il modello migliore”. Riguarda quale idea di verità, di responsabilità e di potere si deposita dentro le infrastrutture. È qui che il confronto fra Occidente e Oriente diventa utile: non come cartolina esotica, ma come archivio di soluzioni (e di errori) già sperimentate, in secoli diversi, con linguaggi diversi.


La mia tesi, se devo ridurla a una frase, è questa: la modernità digitale non cancella le differenze fra le due storie filosofiche, le rende misurabili. Una lente algoritmica, proprio perché povera di saggezza, ci costringe a nominare ciò che prima lasciavamo implicito. E ci rimanda al nodo originario: che cosa consideriamo vero; che cosa consideriamo giusto; chi può decidere; e quali decisioni non dovrebbero mai essere automatizzate.

La “lente IA” in cinque mosse

1) Scompone il testo in unità (parole, frasi, n-grammi) e ne misura frequenze e co-occorrenze.

2) Cerca regolarità: definizioni ricorrenti, catene di inferenze, opposizioni (vero/falso; essere/divenire; individuo/comunità).

3) Confronta contesti: come cambia lo stesso concetto in epoche e lingue diverse.

4) Evidenzia anomalie: salti logici, ambiguità, metafore che sostituiscono un argomento.

5) Restituisce “candidati”: ipotesi di lettura, non conclusioni. La decisione rimane umana.

Due alfabeti della verità

Se dovessi descrivere con una sola parola la vocazione dell’Occidente, sceglierei “logos”. Non perché altrove manchi ragione, ma perché qui – dalla Grecia in poi – la verità tende a presentarsi come argomento: qualcosa che si espone, si contesta, si difende. Aristotele apre la Metafisica con una frase che è già un programma: “Tutti gli uomini per natura desiderano conoscere”. La conoscenza, in questa tradizione, è spesso una conquista: un passaggio dal sensibile al concettuale, dal particolare all’universale.


In una parte consistente dell’Oriente, invece, la verità tende a presentarsi come via. Non si possiede: si percorre. Nelle Analecta, Confucio lega apprendimento e pratica fino a farne un’abitudine del carattere: “Imparare e ripetere: non è forse una gioia?”. Nel Daodejing, il Dao è ciò che sfugge a ogni definizione definitiva: “Il Dao di cui si può parlare non è il Dao eterno”. E nella tradizione buddhista la questione non è tanto “che cosa è vero?” quanto “che cosa libera dalla sofferenza?”.


Una lente di IA, quando mette questi testi uno accanto all’altro, non “vede” spiritualità o secolarizzazione: vede strutture. Vede, per esempio, che l’Occidente ama trasformare le domande in problemi ben formati, mentre molte correnti orientali tollerano meglio la coesistenza di livelli – logico, esperienziale, etico – che non si riducono l’uno all’altro. Ma la lente vede anche l’errore del nostro schema troppo comodo: l’Oriente non è solo armonia, l’Occidente non è solo conflitto. Entrambi hanno prodotto scetticismi e dogmatismi, ascetismi e tecniche, guerre sante e pratiche di compassione.


Per questo la contrapposizione Occidente/Oriente funziona solo se la trattiamo come una doppia timeline: due linee che si avvicinano e si allontanano, si influenzano, si traducono male e poi meglio. Non è un duello fra civiltà: è una storia di traduzioni imperfette. E oggi, con l’IA, la traduzione è diventata anche un’infrastruttura economica: modelli addestrati su corpora globali, standard tecnici, policy pubbliche, filiere industriali, sistemi educativi.


Timeline doppia (schema non in scala: compressione storica per evitare affollamento nel tratto contemporaneo): snodi filosofici, istituzionali e tecnologici selezionati. Nota: le date in a.C. sono riportate in forma convenzionale e, per alcune figure, approssimata
Timeline doppia (schema non in scala: compressione storica per evitare affollamento nel tratto contemporaneo): snodi filosofici, istituzionali e tecnologici selezionati. Nota: le date in a.C. sono riportate in forma convenzionale e, per alcune figure, approssimata

Quando le idee diventano istituzioni: la metafisica applicata

Una filosofia non resta mai solo nei libri. Prima o poi si deposita in una grammatica delle decisioni: diritto, scuola, amministrazione, mercato, liturgia. È il punto in cui le idee smettono di essere solo discorso e diventano procedure. In un certo senso, ogni istituzione è un algoritmo sociale: prende casi particolari e li classifica, decide, archivia, sanziona.

Il mondo romano è un laboratorio anticipatore. Quando leggo le grandi sintesi sul diritto romano, mi colpisce quanto presto l’Occidente abbia immaginato l’ordine come sistema di categorie: persone, cose, obbligazioni; e poi eccezioni, interpretazioni, gerarchie. È una forma di “ingegneria normativa” che rende possibile l’impero ma prepara anche, secoli dopo, il lessico moderno dei diritti.


In parallelo, in Cina la tradizione confuciana sviluppa una teoria dell’ordine che passa dal rito e dalla relazione: la stabilità non nasce dal contratto fra individui astratti, ma dalla qualità dei legami e dalla virtù coltivata dentro le istituzioni. Il potere, qui, è legittimo se è educante: se trasforma la società in scuola permanente. Quando, molti secoli più tardi, la Cina entra nel ciclo della modernizzazione economica, lo fa portandosi dietro questa idea di amministrazione come pedagogia.


Il medioevo europeo aggiunge un altro ingrediente: l’idea che la verità abbia una dimensione rivelata, ma anche discutibile con strumenti razionali. Agostino e, poi, Tommaso d’Aquino lavorano su un equilibrio delicato tra fede e ragione: non sempre stabile, ma produttivo. Nascono università, commentari, dispute: una forma di “machine learning” ante litteram – non automatica, ma cumulativa – in cui il sapere cresce per variazione e correzione.


Intanto, l’Oriente elabora altre tecniche dell’attenzione. Il buddhismo, nelle sue molte scuole, porta al centro il tema della mente: la coscienza non è un monolite, è un processo. Con Nāgārjuna, per esempio, la critica delle essenze diventa critica delle pretese assolute del linguaggio. In Giappone, secoli dopo, il dialogo fra buddhismo e filosofia europea darà vita al Kyoto School: un tentativo esplicito di tradurre l’Occidente senza farsi assorbire.

La “lente IA” come mappa di domande (ontologia, epistemologia, etica, politica)

Schema concettuale: l’IA è usata come lente per formulare domande comparabili fra tradizioni e habitat (non come autorità finale).
Schema concettuale: l’IA è usata come lente per formulare domande comparabili fra tradizioni e habitat (non come autorità finale).

 

Scienza, capitale, imperi: quando la ragione diventa macchina

Il passaggio decisivo dell’Occidente verso la modernità non è solo filosofico: è tecnico ed economico. Quando Descartes propone di sospendere il dubbio su tutto ciò che può essere messo in dubbio, non sta solo parlando di conoscenza; sta descrivendo un metodo replicabile. Una mente, per lui, deve funzionare come un laboratorio: isolare variabili, scomporre problemi, ricostruire. La metafora della “macchina” entra nel lessico europeo e, presto, diventa infrastruttura: scienza applicata, organizzazione produttiva, Stato fiscale.

È qui che l’Italia entra nella storia non solo come luogo di idee, ma come cerniera fra idee e mercati. Rinascimento significa anche città, contabilità, manifattura, diritto commerciale, banche. È la versione mediterranea di un fenomeno che, nel tempo, diventerà atlantico.


Quando più tardi gli Stati Uniti costruiranno il loro pragmatismo – la filosofia che misura la verità sugli effetti – troveranno già pronta una domanda: a che cosa serve un’idea, se non cambia il mondo?


Kant, nel cuore dell’Illuminismo, tenta l’operazione più ambiziosa: delimitare il campo della ragione per salvarne la forza. “Sapere aude” diventa lo slogan di una cultura che vuole emanciparsi. Ma nello stesso movimento nasce un paradosso che oggi riconosciamo nei sistemi di IA: più formalizziamo, più rischiamo di scambiare la mappa per il territorio. La ragione, quando diventa procedura, può produrre libertà; può anche produrre burocrazia cieca.


Nel XIX secolo, Hegel e Marx spostano ulteriormente l’asse. La storia non è solo un teatro di idee: è un processo. Marx lo sintetizza con un colpo di penna: “I filosofi hanno finora soltanto interpretato il mondo; si tratta di trasformarlo”. Da qui in poi, la filosofia europea non potrà più fingere di essere neutrale rispetto a lavoro, capitale, tecnica. E l’economia – in Europa e, soprattutto, negli Stati Uniti – prenderà sul serio l’idea che l’organizzazione produttiva è una metafisica in azione.


In Giappone, il XIX secolo è anche l’inizio di una traduzione accelerata. La Restaurazione Meiji apre un ciclo di modernizzazione che non copia semplicemente l’Occidente: seleziona, riorganizza, innesta. Lo Stato giapponese costruisce archivi, scuole, infrastrutture: un modo di trasformare il sapere in politica pubblica che oggi ritroviamo nelle linee guida istituzionali sull’uso della IA, dalla pubblica amministrazione alle imprese.


La Cina vive un percorso diverso: prima l’urto coloniale e la crisi dell’impero, poi la rivoluzione, poi – dal 1978 – una riforma economica che ha ridefinito il rapporto fra pianificazione e mercato. Qui, la domanda filosofica non scompare: cambia forma. Che cosa significa “verità” quando la crescita diventa criterio di legittimità? E che cosa significa “ordine” quando la rete digitale entra in ogni transazione?


Il Novecento: linguaggio, potere, tecnica

Il XX secolo scopre, con forza, che il problema non è solo la realtà: è il linguaggio con cui la descriviamo. Wittgenstein lo dice in modo quasi brutale: “I limiti del mio linguaggio significano i limiti del mio mondo”. È una frase che oggi suona sorprendentemente contemporanea: un modello di IA, in fondo, ha un mondo grande quanto i suoi dati e le sue rappresentazioni. Quando cambiamo linguaggio, cambiamo ciò che possiamo vedere – e ciò che possiamo governare.


Negli Stati Uniti, la filosofia pragmatista mette al centro il criterio degli effetti. In tempi di industria, grandi organizzazioni, mercati di massa, questo approccio diventa quasi una cultura nazionale: la verità non è un’icona, è un test. È una tradizione che si sposa con l’innovazione tecnologica e con un capitalismo capace di trasformare scienza in prodotto. Nel 2026, questa eredità si riflette anche nel modo in cui gli Stati Uniti alternano accelerazione e regolazione, spesso attraverso standard e framework più che attraverso codici unici.


In Europa, invece, la ferita delle guerre e dei totalitarismi rende inevitabile una domanda politica: che cosa può fare la ragione quando diventa apparato? Heidegger, e poi molti altri, spostano l’attenzione sull’esperienza: l’essere umano non è solo un soggetto che osserva, è un essere-nel-mondo. Foucault, con un lessico diverso, mostra come il sapere e il potere si co-producono: le istituzioni non applicano solo una verità, la fabbricano. Per l’Unione europea, questa lezione diventerà, nel tempo, un’ossessione positiva: costruire mercato e diritti insieme.


L’Italia, dentro questa storia, è un caso di studio. È patria di un umanesimo che celebra l’uomo, ma è anche laboratorio di modernità fragile: stato nazionale tardivo, industrializzazione diseguale, ricostruzione, integrazione europea. Quando oggi discutiamo di IA in Italia – nella PA, nelle imprese, nella ricerca – stiamo ancora negoziando quel vecchio equilibrio fra creatività e regola, fra saper fare e istituzione.


In Asia orientale, il Novecento è anche un confronto frontale con l’Occidente. Il Giappone produce un esperimento filosofico raro: il Kyoto School, che usa strumenti concettuali europei per pensare categorie buddhiste come il “nulla” e la non-dualità. È un promemoria utile: la traduzione non è imitazione, è trasformazione. E oggi la stessa logica vale per la tecnologia: importare un modello non significa importarne automaticamente la governance.


La Cina, nello stesso secolo, attraversa rivoluzione, pianificazione, apertura. Il punto, dal punto di vista della lente, è che cambiano i criteri di legittimazione: dalla tradizione, alla rivoluzione, alla performance economica e sociale. Quando nel 2023 vengono pubblicate misure specifiche per i servizi di IA generativa, si vede in trasparenza questo intreccio tra innovazione e controllo: un’idea di ordine che non coincide con quella occidentale, ma non per questo è “irrazionale” – è un’altra metafisica applicata.

Snodo

Idea/Metodo

Che cosa evidenzia la lente

Aristotele

Categorie, definizione, sillogismo

Ontologie, tassonomie; coerenza inferenziale

Confucio

Etica delle virtù e ruoli; armonia sociale

Grafi relazionali; norme implicite; contesto

Daoismo (Daodejing)

Paradosso e non-azione; critica dell’eccesso di controllo

Limiti dell’ottimizzazione; trade-off; feedback

Buddhismo / Nāgārjuna

Impermanenza; critica delle essenze; dipendenza originata

Modelli dinamici; causalità; attenzione ai presupposti

Descartes / Kant

Metodo, dubbio; condizioni della conoscenza

Validazione; robustezza; gestione di bias e incertezza

Marx

Critica dell’economia politica; potere materiale

Analisi incentivi; distribuzione; effetti di scala

Kyoto School / Zen

Non-dualità; esperienza; “nulla” come categoria limite

Allineamento a fini umani; interpretabilità; limiti semantici


2012–2026: l’IA come infrastruttura. E la governance come filosofia in azione

Se una data va ricordata, sul piano tecnico, è il 2012: l’anno in cui una rete neurale profonda (AlexNet) mostra, su un benchmark diventato celebre, quanto la combinazione di dati, potenza di calcolo e architetture adeguate possa cambiare il livello di prestazione. Negli anni successivi, l’attenzione si sposta dall’immagine al linguaggio: il Transformer (2017) e poi la famiglia dei grandi modelli linguistici rendono praticabile una cosa che, per decenni, era rimasta promessa: interagire con testo e conoscenza in modo fluido.


La conseguenza non è solo tecnologica: è economica. Quando un modello diventa interfaccia – quando “parla” e “scrive” – entra nei processi produttivi come una nuova forma di capitale. Ma qui la lente mi rimanda ai classici: ogni tecnologia che promette efficienza ridisegna anche i confini della responsabilità. Chi risponde di una decisione automatizzata? Che cosa significa “competenza” quando parte del lavoro cognitivo è delegabile?


L’Unione europea ha scelto una risposta coerente con la propria storia: trasformare il tema in diritto. L’AI Act è costruito come una regolazione basata sul rischio, con scadenze progressive fino alla piena applicazione nel 2026 (e alcune obbligazioni che scattano prima). È l’idea europea – figlia della lezione novecentesca – che l’innovazione non sia neutra e che mercato e diritti debbano essere progettati insieme.


Gli Stati Uniti oscillano fra due pulsioni: una cultura dell’innovazione rapida e un’esigenza crescente di governance. L’Executive Order 14110 del 2023 aveva esplicitato un’agenda di sviluppo “safe, secure and trustworthy”; nel 2025 un nuovo ordine esecutivo ha revocato quello precedente, spostando l’enfasi sulla rimozione di barriere all’innovazione e sulla leadership. In parallelo, però, restano strumenti istituzionali come il framework di risk management del NIST: un approccio tipicamente americano, fatto di standard e responsabilità distribuite.


La Cina, invece, ha impostato la governance come estensione dell’ordine informazionale. Nel 2023 pubblica misure ad hoc per i servizi di IA generativa; nel 2025 mette in consultazione regole specifiche per servizi “personificati” o di interazione umano-simulata. Qui, la lente vede una continuità profonda: la tradizione amministrativa come dispositivo di coesione e controllo, oggi applicata alla sfera digitale.


Il Giappone prova una via intermedia: linee guida e raccomandazioni per un uso responsabile, sia nel settore privato sia nella pubblica amministrazione. Non è solo una scelta tecnica: è un riflesso culturale. Dopo due secoli di traduzioni – dalla modernizzazione Meiji alle sintesi filosofiche del Novecento – il Giappone tende a preferire strumenti adattivi, che guidano il comportamento senza pretendere di esaurirlo in un codice unico.


L’Italia, nel 2024–2026, si muove dentro l’architettura europea ma con esigenze proprie: pubbliche amministrazioni molto diverse fra loro, tessuto di PMI, distretti industriali, un patrimonio culturale che chiede tutela e, insieme, una scuola che deve aggiornarsi. Da qui la strategia nazionale 2024–2026 e, nel 2025, una legge quadro che definisce principi e deleghe in materia di intelligenza artificiale, esplicitando la centralità della decisione umana e la vigilanza sui rischi.


A livello globale, la frammentazione geoeconomica – catene del valore, controlli sulle tecnologie critiche, sicurezza – fa da sfondo a tutto questo. Le istituzioni multilaterali discutono di etica e principi (UNESCO, OECD) e, insieme, di produttività e distribuzione dei benefici (IMF, BIS). E qui la lente torna utile: ogni volta che un attore invoca “innovazione” o “sicurezza”, sta facendo una scelta filosofica su che cosa conta e su chi deve pagare il costo dell’incertezza.


Cosa monitorare nel 2026: cinque tensioni fra idee, mercati e istituzioni

Se dovessi trasformare questo viaggio – dalle origini al 2026 – in un’agenda operativa, sceglierei cinque tensioni. Sono tensioni filosofiche, ma hanno conseguenze immediate su investimenti, lavoro, commercio, sicurezza.


1) Formalizzazione vs contesto. L’Occidente ha una lunga storia di definizioni e confini; molte tradizioni orientali ricordano che il significato dipende dal contesto. Nella IA, questa tensione è concreta: regole rigide contro sistemi adattivi; compliance contro learning continuo.


2) Diritti individuali vs doveri relazionali. L’Europa parla la lingua dei diritti, la Cina spesso quella dell’ordine, il Giappone quella dell’armonia, gli Stati Uniti quella dell’opportunità e della responsabilità distribuita. Non sono caricature: sono genealogie diverse che oggi si incontrano nelle piattaforme e nelle supply chain.


3) Sicurezza vs apertura. Il lessico della sicurezza (nazionale, informatica, sociale) cresce ovunque. Ma la storia delle idee insegna che ogni chiusura produce anche cecità: meno scambio significa meno critica e meno verifica incrociata. Nel 2026, la domanda non è se mettere controlli, ma dove e con quale accountability.


4) Produttività vs distribuzione. Le istituzioni economiche osservano con attenzione le promesse di produttività, ma anche i rischi di concentrazione. Qui, Marx non è un monumento: è un promemoria. Ogni volta che una tecnologia aumenta la produttività, qualcuno guadagna più di altri, e qualcuno perde potere contrattuale.


5) Automazione vs deliberazione. La tentazione, per Stati e imprese, è trattare l’IA come scorciatoia decisionale. Ma la lezione comune delle due tradizioni è opposta: ciò che conta davvero – verità pubblica, giustizia, dignità – non si ottiene solo con calcolo, richiede giudizio.

Glossario minimo (2026) per leggere i documenti sull’IA

• Rischio: probabilità × impatto; nelle norme spesso categorizzato per contesto d’uso.

• Modello di base / foundation model: modello addestrato su dati ampi, riusabile in più compiti.

• Sistema ad alto rischio: uso che può incidere su diritti e sicurezza (definizioni variano per giurisdizione).

• Allineamento: tecniche e processi per far sì che l’output del modello rispetti fini e vincoli umani.

• Auditabilità: capacità di ricostruire dati, scelte, responsabilità e controlli nel ciclo di vita del sistema.

• Governance: regole, incentivi, controlli e responsabilità che trasformano una tecnologia in istituzione.


Filo rosso — La domanda che ritorna

Se metto in fila due millenni e mezzo di filosofia, l’Occidente mi consegna un’ossessione: rendere esplicito ciò che è implicito; trasformare intuizioni in argomenti; costruire istituzioni che “reggano” al dissenso. L’Oriente mi consegna un’altra ossessione: ricordare che nessuna definizione esaurisce l’esperienza; che ogni regola deve fare i conti con il contesto; che il potere più pericoloso è quello che non sa di essere potere. La “IA”, usata come lente, non risolve questa tensione. La rende impossibile da ignorare. E forse è già molto: nel 2026, la scelta non è tra Occidente e Oriente, ma tra automatismi inconsapevoli e deliberazioni consapevoli.

 

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page