top of page


Imprenditoria digitale: 1955–2026. Dalla prima Silicon Valley alla GenAI, e ritorno
Dal 1955 a gennaio 2026: come il digitale diventa imprenditoria, poi infrastruttura e potere. Dalla Silicon Valley a Europa e Cina, con una coda italiana. Dentro la timeline trovi una griglia GDE (auditabile) per leggere tre esiti ricorrenti—successo, fallimento, acquisizione/assorbimento—e un playbook “Forecast GDE” per aziende GenAI-native: segnali deboli, vincoli su compute/dati/energia, fiducia, sicurezza, compliance. Per CEO e board: cosa osservare, quando intervenire, q
Andrea Viliotti
14 febTempo di lettura: 32 min


Il costo vero dell’IA è l’inferenza: la guerra si gioca su memoria e latenza, non sui FLOPS
Il vero costo dell’IA non è solo addestrare i modelli: in produzione conta l’inferenza, soprattutto la fase di decode, spesso limitata da memoria e interconnessione. La ricerca su hardware per LLM indica nuove strade (near‑memory, 3D stacking, flash ad alta banda) e nuove metriche di TCO, potenza e CO2e. Cosa devono fare CIO e CFO tra cloud, on‑prem ed edge, con governance e compliance (EU AI Act, GDPR, ISO/IEC 42001, NIST AI RMF). KV cache, memoria e latenza: qui si gioca il
Andrea Viliotti
14 genTempo di lettura: 6 min


Apple scommette su Gemini per la nuova Siri
Apple e Google stringono un'alleanza per usare la tecnologia Gemini come base di Siri e degli Apple Foundation Models. La mossa sposta la sfida dell'AI da 'chi ha il modello migliore' a chi controlla distribuzione cloud e condizioni di accesso. Per le imprese: procurement più selettivo, governance dei dati, logging e sicurezza, rischio lock-in, attenzione a privacy, AI Act UE e antitrust. Nel confronto con OpenAI, Microsoft, Amazon, Meta e Anthropic, cambia il potere contratt
Andrea Viliotti
13 genTempo di lettura: 3 min


Quando il prompt diventa “ambiente”: l’idea dei Recursive Language Models per aggirare i limiti del contesto
Dal MIT CSAIL arriva l'idea dei Recursive Language Models (RLM): invece di affidarsi solo a una context window sempre più grande, il modello tratta il prompt come un ambiente esterno (es. un Python REPL), ispeziona i documenti, li filtra e richiama sub-query ricorsive su parti rilevanti. Il punto chiave è l'effective context, la porzione davvero utilizzabile nel task. Cosa significa per banca, assicurazioni, manifattura e PA: più controllo, ma anche più governance e sandboxin
Andrea Viliotti
11 genTempo di lettura: 5 min
bottom of page