top of page

Come l'intelligenza artificiale entra nei conflitti moderni

La guerra tra Stati Uniti, Israele e Iran — estesa a shipping, Libano, cyber e disinformazione — mostra che l'AI pesa soprattutto come acceleratore della catena che va dai dati agli effetti militari, politici ed economici.

12 marzo 2026


Droni, cloud, targeting, cyber e propaganda sintetica non agiscono in compartimenti separati: fanno parte della stessa infrastruttura di conflitto. Leggerla bene serve sia a capire la guerra sia a interpretarne le ricadute su energia, logistica, mercati e qualità dell'informazione.


La novità decisiva non è il robot che decide da solo. È la velocità con cui sensori, software, droni, piattaforme cloud e feed social si trasformano in effetti reali. La guerra aperta tra Stati Uniti, Israele e Iran — con estensioni marittime, libanesi, cyber e informative — offre un caso utile per capire come l'intelligenza artificiale stia cambiando i conflitti moderni.


Intelligenza artificiale nei conflitti moderni
Intelligenza artificiale nei conflitti moderni

Una guerra che non resta fra tre capitali

La prima cosa da capire è che il caso attuale non è leggibile come una semplice guerra aerea fra tre Stati. L'11 marzo l'International Energy Agency ha giudicato necessario il più grande rilascio coordinato di scorte petrolifere della sua storia: 400 milioni di barili, motivati dalle interruzioni di mercato prodotte dalla guerra in Medio Oriente. Nello stesso quadro, l'agenzia ha ricordato che il conflitto cominciato il 28 febbraio ha fatto scendere i volumi di export che transitano per Hormuz a meno del 10% dei livelli prebellici. Se si aggiunge che, in condizioni normali, da quello stretto passano circa 20 milioni di barili al giorno e una quota enorme del commercio marittimo di petrolio e gas, si capisce subito che il teatro non è soltanto iraniano o israeliano: è energetico, logistico e finanziario.


Per questo la fotografia più utile non è quella della sola mappa militare. È quella di una rete che collega i cieli iraniani, il nord di Israele, il Libano, le rotte del Golfo, i porti dell'Oman, i mercati energetici, i sistemi cyber europei e le piattaforme social. Reuters ha mostrato che il numero di petroliere in transito giornaliero nello Stretto di Hormuz è precipitato da 37, il 27 febbraio, a zero il 5 marzo. Nello stesso arco di giorni, Israele ha annunciato l'espansione delle operazioni in Libano dopo una nuova salva di Hezbollah. La guerra, in altre parole, non si limita a colpire obiettivi: apre o chiude corridoi, alza premi assicurativi, muta i tempi del commercio, sposta il rischio politico in territori che non stanno formalmente combattendo.

Grafico 1 — Traffico giornaliero di petroliere nello Stretto di Hormuz in due date-chiave. Periodo: 27 febbraio 2026 e 5 marzo 2026. Fonte: Reuters, visual report del 6 marzo 2026.
Grafico 1 — Traffico giornaliero di petroliere nello Stretto di Hormuz in due date-chiave. Periodo: 27 febbraio 2026 e 5 marzo 2026. Fonte: Reuters, visual report del 6 marzo 2026.

Per un lettore generalista questo significa una cosa molto semplice: il fronte non coincide più con il confine. Per un lettore aziendale significa qualcosa di ancora più concreto: la guerra entra nei costi dell'energia, nel nolo, nella disponibilità di componenti, nei tempi di consegna, nella sicurezza dei dati e nella qualità dell'informazione con cui si prendono decisioni.


Dal dato all'effetto

Se si vuole leggere con ordine un conflitto di questo tipo, conviene usare una mappa più simile a una filiera che a un bollettino di guerra. La sequenza è questa: sensori e dati; analisi e triage; decisione e comando; azione; effetti; ritorno di feedback nel sistema. È qui, molto più che nell'immaginario della "guerra autonoma", che l'intelligenza artificiale modifica il campo di battaglia.


Nel primo anello stanno le sorgenti: immagini satellitari, segnali elettronici, tracciati navali, intercettazioni, video, social media, log di rete, immagini da droni. Nel secondo anello entrano i sistemi che traducono, classificano, ordinano, suggeriscono priorità, evidenziano anomalie, mettono in relazione eventi lontani nello spazio e nel tempo. Nel terzo anello resta il comando: regole d'ingaggio, autorizzazioni, bilanciamento tra obiettivo, rischio e costo politico. Solo dopo arriva l'azione: fuoco, difesa antiaerea, attacco cyber, sabotaggio logistico, pressione informativa. Gli effetti, infine, non sono solo militari: possono essere un porto fermo, una rotta più lunga, un prezzo più alto, un feed sociale intossicato, una radicalizzazione accelerata.

Figura 1 — Schema concettuale del passaggio sensori/dati → analisi → decisione → azione → effetti → feedback. Periodo: costrutto analitico. Fonte: elaborazione propria su mappa utente “dal dato all'effetto” e struttura GDE.
Figura 1 — Schema concettuale del passaggio sensori/dati → analisi → decisione → azione → effetti → feedback. Periodo: costrutto analitico. Fonte: elaborazione propria su mappa utente “dal dato all'effetto” e struttura GDE.

La forza di questa mappa è che è riutilizzabile. Chi vuole capire l'efficacia militare deve guardare soprattutto ai primi tre passaggi. Chi vuole capire l'impatto economico deve concentrarsi sul ponte fra azione ed effetti. Chi vuole capire la qualità della democrazia informativa deve osservare il ritorno di feedback: quali immagini circolano, chi le verifica, quali falsi entrano nella percezione pubblica prima ancora che i fatti siano chiariti.


Dall'analisi ai bersagli

La parte più discussa dell'AI in guerra è sempre la stessa: il targeting, cioè la catena che porta dall'individuazione di un possibile obiettivo alla decisione di colpirlo. Ma anche qui è facile sbagliare fuoco. La domanda non è solo se una macchina sceglie il bersaglio. La domanda più importante è: chi ordina l'universo delle possibilità, con quali dati, con quale tempo di revisione, e con quale responsabilità se qualcosa va storto?


Nel caso attuale esiste già un indizio rilevante. L'Associated Press ha riportato che il comandante dello U.S. Central Command, parlando delle operazioni contro l'Iran, ha confermato l'uso di strumenti avanzati di AI capaci di setacciare grandi quantità di dati in pochi secondi. Nello stesso passaggio ha insistito sul fatto che la decisione finale resti umana. È una formula importante, ma va letta bene: dire che l'ultimo clic è umano non basta a chiudere il problema, se tutto ciò che arriva al decisore è già stato filtrato, ordinato e ristretto da sistemi automatici.


Qui pesa molto l'esperienza israeliana precedente. Reuters, nel 2024, aveva riferito delle verifiche americane su un'inchiesta secondo cui l'esercito israeliano avrebbe usato sistemi di AI per assistere l'identificazione di obiettivi a Gaza; l'IDF aveva negato che la macchina identificasse autonomamente i target, sostenendo che i sistemi informativi fossero soltanto strumenti a supporto degli analisti. Un anno dopo, l'Associated Press ha documentato come grandi fornitori statunitensi di cloud e modelli commerciali abbiano ampliato le capacità del sistema militare israeliano in Gaza e in Libano, mentre Microsoft ha poi ammesso di avere disabilitato servizi a una unità militare israeliana dopo evidenze coerenti con un uso dei propri strumenti in attività di sorveglianza.


La lezione, qui, è meno polemica e più strutturale. L'AI entra nella catena di selezione e ingaggio — quella che nel gergo militare viene chiamata kill chain — soprattutto come acceleratore di ricerca, classificazione, traduzione, correlazione e priorità. Può ridurre il tempo fra osservazione e decisione; può aumentare il numero di elementi processabili; può far emergere un obiettivo da un mare di dati che altrimenti resterebbe opaco. Ma proprio per questo sposta la responsabilità a monte. Se la lista dei candidati è costruita male, o se l'orizzonte del decisore è già deformato da dati incompleti, da etichette errate o da tempi impossibili, la presenza dell'uomo alla fine rischia di diventare più rituale che sostanziale.


Quando la catena sbaglia

Un caso riportato da Reuters e Associated Press rende il problema meno astratto. Secondo fonti citate dalle due agenzie, un'indagine preliminare statunitense ha trovato che dati di targeting obsoleti potrebbero avere contribuito all'attacco del 28 febbraio contro la scuola elementare Shajareh Tayyebeh a Minab, in Iran. L'inchiesta è ancora in corso e il Pentagono non ha pubblicato conclusioni finali. Proprio per questo il caso va trattato con cautela. Ma basta a mostrare il punto: quando la pipeline che ordina i dati è difettosa, l'errore non scompare perché l'ultimo passaggio resta formalmente umano.


In un articolo sull'AI in guerra, questo non è un inciso etico a margine. È il punto in cui tecnologia, diritto dei conflitti armati e responsabilità organizzativa si toccano. Per leggere davvero l'AI in guerra, bisogna tenere insieme le due dimensioni: l'efficienza promessa dai sistemi e il costo umano quando la catena sbaglia.


Droni, contromisure, mare

Il secondo luogo in cui l'AI pesa davvero è il mondo dei droni e delle contromisure. E anche qui la parola giusta non è autonomia nel senso cinematografico del termine. È ciclo rapido: individuare, classificare, inseguire, disturbare, correggere rotta, scegliere la finestra utile.

Reuters ha riferito, citando autorità marittime, video e analisti, che in almeno due attacchi a petroliere nel Golfo sono stati probabilmente impiegati droni navali. In uno dei casi l'Iran è sospettato; la stessa Reuters però ha scritto di non avere potuto determinarne in modo indipendente la responsabilità. Nello stesso periodo, sempre Reuters ha riferito di colloqui tra Stati Uniti, Qatar e Ucraina sull'uso di droni intercettori ucraini come soluzione più economica per abbattere gli Shahed iraniani. Questa è forse la fotografia più chiara della guerra contemporanea: l'innovazione non procede solo dal lato dell'offesa, ma dal rapporto dinamico fra offesa a basso costo e difesa che cerca di non farsi dissanguare da ogni intercettazione.


In questa zona grigia fra automazione utile e autonomia operativa, l'AI conta perché permette di riconoscere pattern di volo, gestire sciami, filtrare falsi positivi, integrare radar e sensori elettro-ottici, ascoltare segnali e interferenze, e rendere più rapida la risposta. Ma il punto decisivo è un altro: abbassa la soglia d'ingresso di capacità che un tempo richiedevano piattaforme molto più costose e visibili. Per questo un porto, una petroliera o una base nel Golfo possono diventare bersagli o punti di stress non solo per missili e aerei, ma per mezzi senza equipaggio relativamente economici, difficili da attribuire subito e capaci di produrre effetti sproporzionati.


Per le imprese, questa parte della storia è meno militare di quanto sembri. Significa che il costo della protezione dei corridoi può crescere più rapidamente del valore della merce che li attraversa. E significa che la domanda cruciale non è solo quanto petrolio passa, ma quanto costa renderlo di nuovo assicurabile, scortabile e consegnabile.


Cyber, cloud, propaganda

C'è poi un altro fronte in cui l'AI non è un accessorio ma una componente centrale: l'ambiente informativo. L'Associated Press ha ricostruito, nei primi giorni della guerra, la diffusione di video generati con AI e rilanciati da account associati al governo iraniano per amplificare il racconto dei propri successi militari. In uno dei casi più discussi, un video di un presunto attacco a un grattacielo in Bahrain si è rivelato sintetico. Il punto non è solo il falso in sé. È il contesto: censura, interruzioni di rete, scarsità di testimonianze verificabili e velocità di circolazione fanno sì che il contenuto artificiale riempia il vuoto prima che arrivi la conferma dei fatti.


Lo stesso vale per il fronte cyber. Europol ha avvertito che la crisi iraniana accresce per l'Unione Europea il rischio di cyberattacchi, radicalizzazione e frodi online, e che l'ondata informativa intorno al conflitto può essere sfruttata con strumenti di AI sempre più sofisticati. Questa osservazione merita attenzione perché allarga il problema: il conflitto non colpisce solo chi sta sotto le bombe, ma anche chi abita ecosistemi informativi e infrastrutture civili lontane dal teatro principale. L'AI, qui, non serve soltanto a generare falsi. Serve a selezionare bersagli digitali, tradurre e analizzare volumi enormi di comunicazioni, orchestrare campagne, personalizzare il messaggio e rendere più efficiente sia l'attacco sia la difesa.


È per questo che data center, cloud commerciali, piattaforme di traduzione, sistemi di sorveglianza e modelli linguistici non possono più essere considerati fuori dal conflitto solo perché sono nati nel mercato civile. Sono infrastrutture dual use. Possono aiutare a salvare ostaggi, a tradurre flussi informativi, a costruire dossier operativi, ma anche a diventare oggetto di disputa politica, reputazionale e, in alcuni casi, militare.


Il problema non è solo tecnico: è politico

Arrivati qui, il rischio è cadere in un equivoco opposto al primo. Prima si immagina la macchina onnipotente; poi si reagisce dicendo che, in fondo, decide sempre l'uomo e quindi il problema non c'è. In realtà il punto cruciale è politico e organizzativo. Chi definisce le soglie? Chi decide quanta automazione è accettabile? Chi conserva i log? Chi può ricostruire, dopo un errore, quali dati sono entrati nel sistema e come sono stati pesati?


La disputa fra Pentagono e Anthropic, raccontata da Reuters e dall'Associated Press, è istruttiva proprio per questo. Da un lato l'apparato militare vuole integrare l'AI sempre più in profondità nei processi operativi; dall'altro emergono linee rosse su sorveglianza di massa e armi autonome senza controllo umano. Anche quando la discussione sembra tecnica o legale, il tema è in realtà strategico: quanto spazio si concede alla velocità automatica rispetto alla responsabilità umana verificabile.


Chi osserva il conflitto attuale con una lente più ampia vede allora una verità meno spettacolare ma più solida: l'AI non abolisce la politica. Ne alza il costo dell'errore. Più il sistema accelera, più servono regole robuste per non scambiare la rapidità con la lucidità.


Timeline

28 febbraio 2026 — Per l'IEA il conflitto prende avvio con gli attacchi statunitensi e israeliani contro l'Iran. Da qui parte la sequenza che investe energia, shipping, difesa e informazione.

1 marzo 2026 — Un mezzo navale senza equipaggio colpisce la petroliera MKD VYOM al largo dell'Oman. Il fronte marittimo non è più una minaccia teorica.

5 marzo 2026 — Europol avverte di un aumento atteso di cyberattacchi e frodi online legate alla crisi. Nello stesso giorno emergono colloqui su droni intercettori contro gli Shahed iraniani.

6 marzo 2026 — Reuters mostra il crollo del traffico di petroliere nello Stretto di Hormuz: da 37 passaggi giornalieri il 27 febbraio a zero il 5 marzo.

11 marzo 2026 — L'IEA approva il più grande rilascio coordinato di scorte mai deciso: 400 milioni di barili. Washington annuncia un rilascio di 172 milioni dalla Strategic Petroleum Reserve.

11 marzo 2026 — Reuters e Associated Press riferiscono che una prima indagine statunitense collega con alta probabilità a dati di targeting obsoleti l'attacco del 28 febbraio contro una scuola elementare a Minab. È il caso che rende concreto il tema dell'accountability lungo la catena dati-decisione.

12 marzo 2026 — Israele amplia le operazioni in Libano dopo la salva di Hezbollah. Il livello proxy diventa parte esplicita del quadro di guerra.


Come usare la mappa nel presente

Per chi guarda il conflitto con una lente militare, i punti da tenere insieme sono tre: il flusso dei dati, il tempo della revisione umana e il costo della difesa. L'AI conta quando accelera classificazione, priorità e coordinamento; conta ancora di più quando accorcia troppo i tempi e rende più fragile la verifica.


Per chi lo legge da un'impresa, la stessa catena passa invece da Hormuz ai premi assicurativi, dai porti ai tempi di consegna, dai cloud commerciali al rischio cyber. In questo caso la domanda giusta non è soltanto «chi ha colpito chi», ma «quale nodo della rete è stato reso più lento, più costoso o meno affidabile».


Per chi lo segue come problema civico, il punto decisivo è la qualità del feed informativo. Quanti contenuti sintetici circolano prima che i fatti vengano verificati? Chi segnala un falso, chi conserva i log, chi spiega quali strumenti automatici hanno inciso sulle scelte operative? Nei conflitti software-intensive la fiducia pubblica diventa parte della battaglia.


Per chi, infine, guarda alla politica e al diritto, la domanda è dove siano le soglie: quali usi dell'AI restano supporto analitico, quali entrano nella selezione dei target, quali pretendono un controllo umano che sia verificabile e non solo dichiarato. È qui che il caso attuale smette di essere un episodio regionale e diventa un precedente osservato da governi, imprese e società civili ben oltre il Medio Oriente.


Che cosa il caso mostra già oggi

Guardando il conflitto con questa lente, quattro cose sono già visibili. Primo: il fronte non coincide con il triangolo Stati Uniti-Israele-Iran, perché Libano, shipping e cyberspazio sono ormai parti della stessa scena. Secondo: la pressione sull'economia mondiale passa da nodi molto concreti — Hormuz, petroliere, porti, assicurazioni, data center — più che da dichiarazioni astratte. Terzo: l'AI entra soprattutto come sistema di accelerazione, filtro e coordinamento, non come sostituto completo della decisione politica e militare. Quarto: l'ambiente informativo è diventato un'estensione del campo di battaglia, e la capacità di verificare o smentire rapidamente un contenuto sintetico incide già oggi sulla percezione del conflitto.


Il filo rosso

Il filo rosso del caso attuale è questo: l'intelligenza artificiale non rende la guerra meno umana, la rende più densa di intermediazioni tecniche. E proprio per questo più difficile da leggere con categorie vecchie. La forza non sta soltanto nel colpire; sta nel vedere prima, ordinare meglio, tradurre più in fretta, attribuire o confondere, difendere rotte, saturare feed, moltiplicare bersagli e comprimere il tempo di risposta dell'avversario. Una petroliera, una piattaforma cloud, una batteria antimissile, un video sintetico e un algoritmo di triage appartengono ormai alla stessa scena strategica.


Per leggere i conflitti moderni conviene allora farsi sempre le stesse domande, in quest'ordine. Quali dati entrano nel sistema? Chi li filtra? Chi decide? Con quale margine di revisione? Quale azione segue? Quali effetti produce fuori dal fronte strettamente militare? E quali feedback ritornano nei modelli, nei mercati, nei media e nell'opinione pubblica? Se si usa questa lente, la guerra aperta con l'Iran smette di apparire come una successione di episodi e diventa ciò che è davvero: un conflitto di rete, in cui software, logistica, propaganda, deterrenza e rischio economico sono ormai fusi in un'unica catena.


 

Appendice audit e fonti

As-of reale del freeze pubblico revisionato: 12/03/2026 17:48 Europe/Rome. Secondo passaggio di revisione editoriale applicato sul testo pubblico; nessun numero futuro inserito; la tracciabilità è spostata qui.

A0. Nota di revisione editoriale (secondo passaggio)

• Audit simulato: revisore editoriale di una testata giornalistica internazionale, con priorità a precisione, attribuzione, leggibilità, proporzione e tenuta legale del copy.

• Interventi applicati: titolo e deck resi più netti sul tema principale; attribuzioni strette nei passaggi a maggiore rischio di overclaim; inserito un caso concreto di fallimento della catena dati-targeting con indagine ancora in corso; sezione finale ricondotta da watchpoints impliciti a chiavi di lettura del presente; lessico tecnico reso più leggibile per pubblico generalista colto.

A1. Contratto di consegna, byline e perimetro

Deliverable emesso: un DOCX impaginato con testo pubblico pulito e appendice audit/fonti nello stesso file.

Byline applicata su richiesta utente: “di Andrea Viliotti e Framework GDE”.

Collisione canonica auditabile: i riferimenti editoriali e i profili lint canonici supportano la byline “di Andrea Viliotti” o il placeholder “[FIRMA]”; l'override utente è stato mantenuto visibile e non normalizzato silenziosamente.

Perimetro fattuale: conflitto attivo fra Stati Uniti, Israele e Iran, trattato come rete estesa multi-attore quando il layer proxy, marittimo, cyber e informativo diventa load-bearing.

Policy numerica: nessun numero futuro; solo dati osservati o claim attribuiti al presente/passato recente.


A2. DATA_BLOCK_FREEZE (cluster di claim load-bearing)

• Cluster C1 — stato del conflitto, shock energetico e shipping: freeze 12/03/2026 17:48 Europe/Rome; fonti primarie Reuters/IEA/AP; convergenza ALTA su shock energetico e marittimo, MEDIA sulle attribuzioni tattiche ancora oggetto di indagine.

Cluster

Contenuto congelato

Freeze / as-of

Stato

Source refs

CFG-1

Dateline del conflitto: inizio il 28/02/2026 e riconoscimento del conflitto come guerra regionale aperta con effetti su mercati e corridoi.

12/03/2026

VERIFIED

S1; S6

CFG-2

Hormuz come chokepoint: export ridotti a meno del 10% dei livelli prebellici; peso sistemico dello stretto su petrolio e LNG.

12/03/2026

VERIFIED

S1; S2

CFG-3

Traffico giornaliero di petroliere: da 37 passaggi il 27/02/2026 a zero il 05/03/2026.

12/03/2026

VERIFIED

S3

CFG-4

Uso di droni navali e mine nel teatro marittimo; rischio logistico e assicurativo.

12/03/2026

VERIFIED

S4; S5

CFG-5

Uso di strumenti avanzati di AI da parte statunitense per setacciare grandi quantità di dati nelle operazioni contro l'Iran, con decisione finale dichiarata come umana.

12/03/2026

ATTRIBUITO

S13; S14

CFG-6

Nel caso israeliano il nodo load-bearing non è l'autonomia totale confermata, ma l'integrazione di AI/cloud/sorveglianza nei processi di analisi e targeting, con contestazioni e smentite parziali.

12/03/2026

DOWNGRADED

S9; S10; S11; S12

CFG-7

AI-generated propaganda, vuoti informativi e aumento del rischio cyber/informativo in Europa.

12/03/2026

VERIFIED

S7; S8

A3. Dati estratti / panel figure

• Grafico 1: punti osservati = 27/02/2026: 37 passaggi; 05/03/2026: 0 passaggi. Figura 1: costrutto analitico non empirico, derivato dalla mappa utente “dal dato all'effetto”.

Figura

Tipo

Dati / costrutto

Fonte / nota

Figura 1

Schema

Costrutto narrativo “dal dato all'effetto”: sensori/dati → analisi AI/triage → decisione/comando → azione → effetti → feedback/apprendimento.

Elaborazione propria; nessun dato empirico esterno.

Grafico 1

Empirico

27/02/2026 = 37 petroliere/giorno; 05/03/2026 = 0 petroliere/giorno nello Stretto di Hormuz.

Reuters, visual report del 06/03/2026 (S3).

A4. CLAIMS_TABLE sintetica

• Claim load-bearing sostenuti nel main text: shock Hormuz/scorte IEA; uso dichiarato di advanced AI tools con decisione finale umana; video sintetici in ambiente informativo; rischio cyber UE; ruolo dual use di cloud/AI commerciali; caso Minab formulato con attribuzione forte perché l'indagine resta in corso.

Claim ID

Claim sintetico

Fact status

Indep. src

Refs

C1

La guerra aperta in Medio Oriente inizia il 28/02/2026.

VERIFIED

2

S1; S6

C2

L'IEA rilascia 400 milioni di barili per lo shock di mercato.

VERIFIED

1

S1

C3

Hormuz scende a meno del 10% dei volumi di export prebellici.

VERIFIED

1

S1

C4

Il traffico giornaliero di petroliere crolla da 37 a 0 fra 27/02 e 05/03.

VERIFIED

1

S3

C5

Sono stati impiegati droni navali contro petroliere nel Golfo.

VERIFIED

1

S4

C6

L'Iran ha posato mine nello Stretto secondo fonti Reuters.

ATTRIBUITO

1

S5

C7

Il comandante del CENTCOM conferma l'uso di advanced AI tools per setacciare dati, con decisione finale umana.

ATTRIBUITO

2

S13; S14

C8

Nel caso israeliano l'uso di cloud/AI/sorveglianza in supporto alla macchina militare è documentato; il grado di autonomia nel targeting resta contestato.

DOWNGRADED

4

S9; S10; S11; S12

C9

La propaganda sintetica e i falsi AI-generated fanno parte dell'ambiente informativo del conflitto.

VERIFIED

2

S7; S8

A5. SOURCES_LOG / fonti principali

S1 — International Energy Agency, 11/03/2026. IEA initiates largest ever release of emergency oil stocks in response to severe oil market disruption caused by Middle East conflict.

S2 — International Energy Agency, 02/2026. The Strait of Hormuz remains a critical oil chokepoint — factsheet con peso di petrolio e LNG.

S3 — Reuters, 06/03/2026. Visual report sul crollo del traffico di petroliere nello Stretto di Hormuz.

S4 — Reuters, 11/03/2026. Sea drones used in attacks on oil tankers since the war erupted.

S5 — Reuters, 11/03/2026. Reporting su mine iraniane nello Stretto di Hormuz e blocco de facto delle esportazioni.

S6 — Reuters, 12/03/2026. Israele amplia le operazioni in Libano dopo la salva di Hezbollah.

S7 — Reuters / Europol, 05/03/2026. Aumento atteso di cyberattacchi, radicalizzazione e frodi online con AI sullo sfondo della crisi iraniana.

S8 — Associated Press, 03/2026. Video sintetici e disinformazione collegati alla guerra fra Israele e Iran.

S9 — Reuters, 04/04/2024. Verifiche USA su report relativi all'uso di AI da parte israeliana per assistere l'identificazione di obiettivi; smentita IDF su targeting autonomo.

S10 — Associated Press, 28/02/2025. Documentazione sull'uso di modelli commerciali e cloud da parte militare israeliana.

S11 — Associated Press, 09/2025. Microsoft disabilita servizi a una unità militare israeliana dopo review su uso in sorveglianza.

S12 — Reuters, 25/09/2025. Microsoft conferma disattivazione di alcuni servizi dopo evidenze coerenti con le inchieste.

S13 — Associated Press, 03/2026. Il comandante del CENTCOM conferma l'uso di advanced AI tools nelle operazioni contro l'Iran.

S14 — Reuters, 05/03/2026. Anthropic/Pentagon dispute: AI usata per analisi di intelligence e pianificazione operativa in Iran.

S15 — Reuters, 05/03/2026. Colloqui su droni intercettori ucraini per contrastare gli Shahed iraniani.

S16 — Reuters, 11/03/2026. US may have struck Iranian girls' school after using outdated targeting data, sources say.

S17 — Associated Press, 12/03/2026. US likely struck Iranian school by mistake; Microsoft backs Anthropic filing with note on advanced AI tools and final human decision.

A6. Mini-scorecard gate PASS/FAIL

• Editorial precision = PASS after revision; contested-claim attribution = TIGHTENED; forward-looking drift nel testo pubblico = REMOVED; readability for generalist audience = PASS; byline collision = AUDITED / KEPT VISIBLE.

Gate

Esito

Nota

MANIFEST-FIRST

PASS

Usati solo file canonici del Manifest come riferimenti di processo.

PRD-AUTO / DATA_BLOCK

PASS

Claim load-bearing separati in cluster con freeze stamp e source refs.

KZ-2L12

PASS con downgrade

Dove la convergenza è incompleta, il testo pubblico usa attribuzione o formula prudente.

LONGFORM_ARTICLE_NOBOX

PASS

Timeline e Indicatori e segnali resi inline; appendice audit separata e A3 non vuoto.

BYLINE canonical collision

OVERRIDE LOGGED

Richiesta utente mantenuta: “di Andrea Viliotti e Framework GDE”; collisione resa auditabile.

FUTURE NUMBERS

PASS

Nessun numero futuro o outlook quantitativo nel main text.

VISUAL POLICY

PASS

Due visual minimi: uno concettuale, uno empirico.

A7. Conflict stack, neighborhood e driver coverage

Theater boundary: Iran; Israele; Stati Uniti; Stretto di Hormuz e Golfo di Oman; Libano; spillover cyber/informativo su Unione Europea.

Conflict type: guerra interstatale con estensione multi-attore e strati marittimi, cyber, informativi, logistici ed energetici.

Core actors: Stati Uniti; Israele; Iran.

Extended actors inclusi nel modello: Hezbollah; shipping e assicurazioni marittime; IEA/mercati energetici; Europol/UE; big tech e infrastrutture cloud quando diventano load-bearing per il tema AI.

Driver coverage matrix: ISR/intelligence = IN_MODEL; targeting/kill-chain = IN_MODEL; droni/autonomia = IN_MODEL; cyber = IN_MODEL; info-ops = IN_MODEL; decision-support = IN_MODEL; proxy layer = IN_MODEL ma parziale; corridoi energetici/logistici = IN_MODEL; accountability/HITL = IN_MODEL.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page