<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
     xmlns:atom="http://www.w3.org/2005/Atom"
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:media="http://search.yahoo.com/mrss/"
     xmlns:sy="http://purl.org/rss/1.0/modules/syndication/">
  <channel>
    <title>Altro | Irene Burresi</title>
    <link>https://ireneburresi.dev/</link>
    <description>Articoli di sintesi che integrano prospettive multiple: analisi trimestrali, trend cross-domain e scenario planning basato su dati.</description>
    <language>it-IT</language>
    <copyright>© 2026 Irene Burresi · CC-BY-4.0</copyright>
    <managingEditor>Irene Burresi</managingEditor>
    <webMaster>Irene Burresi</webMaster>
    <generator>Astro Feed Engine</generator>
    <docs>https://www.rssboard.org/rss-specification</docs>
    <ttl>360</ttl>
    <lastBuildDate>Sun, 15 Mar 2026 16:26:19 GMT</lastBuildDate>
    <pubDate>Sun, 01 Feb 2026 00:00:00 GMT</pubDate>
    <atom:link href="https://ireneburresi.dev/altro/rss.xml" rel="self" type="application/rss+xml"/>
    <atom:link rel="hub" href="https://pubsubhubbub.appspot.com/"/>
    <image>
      <url>https://ireneburresi.dev/images/og-default.svg</url>
      <title>Altro | Irene Burresi</title>
      <link>https://ireneburresi.dev/</link>
    </image>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
    <item>
      <title>L&apos;AI sta uccidendo la &apos;programmazione&apos; per salvare l&apos;ingegneria del software</title>
      <link>https://ireneburresi.dev/blog/others/ai-uccide-programmazione/</link>
      <guid isPermaLink="true">https://ireneburresi.dev/blog/others/ai-uccide-programmazione/</guid>
      <pubDate>Sun, 01 Feb 2026 00:00:00 GMT</pubDate>
      <dc:creator>Irene Burresi</dc:creator>
      <dc:language>it</dc:language>
      <description><![CDATA[<p>Nuovi dati del governo USA e uno studio del MIT svelano una biforcazione netta nel mercato del lavoro tech: i computer programmer sono in declino del 6%, i software developer crescono del 15%.</p>]]></description>
      <content:encoded><![CDATA[<p>La “morte del programmatore” è stata annunciata così tante volte, e con tale insistenza, da essere diventata quasi un genere letterario della Silicon Valley. Da <a href="https://www.techradar.com/pro/nvidia-ceo-predicts-the-death-of-coding-jensen-huang-says-ai-will-do-the-work-so-kids-dont-need-to-learn">Jensen Huang di Nvidia</a> che invita a non imparare più il C++, fino ai CEO delle startup che promettono intere app generate da un prompt. L’hype è visibile, accecante. Quello che si vede meno, però, è una frattura silenziosa che si sta aprendo sotto i piedi dell’industria tech. Una biforcazione che distingue, forse per la prima volta in modo davvero netto, chi “scrive codice” da chi “costruisce software”.</p>
<p>I numeri parlano chiaro e arrivano dal <a href="https://www.bls.gov/emp/">Bureau of Labor Statistics</a> (BLS) degli Stati Uniti, l’ente che monitora il polso del mercato del lavoro americano. Nelle proiezioni per il decennio 2024-2034 emerge una divergenza brutale. Da un lato abbiamo i <a href="https://www.bls.gov/ooh/computer-and-information-technology/computer-programmers.htm">“computer programmers”</a>, figure focalizzate sulla scrittura e il test del codice, il cui impiego è previsto in contrazione del 6%. Dall’altro i <a href="https://www.bls.gov/ooh/computer-and-information-technology/software-developers.htm">“software developers”</a>, coloro che progettano, mantengono e architettano sistemi: per loro si prevede un boom del 15%, un tasso di crescita definito “molto più veloce della media” di tutte le altre professioni, trainato da investimenti in sicurezza, IoT e automazione.</p>
<p>L’AI sta trasformando la sintassi in una commodity, ma sta rendendo la semantica il vero asset strategico.</p>
<h2>Il cortocircuito dello studente</h2>
<p>Per capire questa forbice occorre addentrarsi nella “scatola nera” di come l’intelligenza artificiale approccia lo sviluppo. Ed è qui che entra in gioco un paper pubblicato a marzo 2025 dal MIT, intitolato <a href="https://arxiv.org/abs/2503.22625">“Challenges and Paths Towards AI for Software Engineering”</a>. Lo studio, firmato tra gli altri da Armando Solar-Lezama, scardina una delle narrative più popolari: l’idea che l’AI possa sostituire l’ingegnere del tutto.</p>
<p>“Le narrative popolari tendono a ridurre il software engineering a un esercizio da studente universitario”, <a href="https://news.mit.edu/2025/can-ai-really-code-study-maps-roadblocks-to-autonomous-software-engineering-0716">spiega Solar-Lezama</a>. Il professore si riferisce a quello scenario idealizzato dove qualcuno ti fornisce una specifica perfetta per una singola funzione isolata e tu devi solo implementarla. Quello che solitamente viene testato alle interview tecniche per le posizioni da dev. “Ma questa è solo una frazione infinitesimale del lavoro reale”.</p>
<p>Gli attuali Large Language Models (LLM) eccellono nella code generation (ad esempio nel produrre snippet di codice sintatticamente corretti) ma faticano ancora enormemente nel software engineering. Manca loro quello che i ricercatori chiamano “long-horizon planning”: la capacità di ragionare su come una decisione presa a riga 10 influenzerà la stabilità del sistema a riga 10.000, sei mesi dopo.</p>
<h2>Oltre la linea di codice</h2>
<p>Il problema è strutturale, non solo di potenza di calcolo. Alex Gu, primo autore dello studio del MIT, sottolinea come la scrittura di software reale richieda di navigare compromessi complessi: performance contro memoria, velocità di sviluppo contro manutenibilità, debito tecnico contro feature immediate. L’AI attuale non “ragiona” in questi termini; predice il prossimo token.</p>
<p>L’interazione tra sviluppatore e AI oggi avviene attraverso una “linea di comunicazione sottilissima”: l’AI restituisce codice opaco, senza spiegare il suo livello di confidenza o le alternative scartate. Se richiedi spiegazioni, la sycophancy prende subito il sopravvento. È come lavorare con un programmatore junior velocissimo ma muto, che ti consegna il compito senza dirti se è sicuro al 100% o se ha tirato a indovinare.</p>
<p>Inoltre, c’è il problema della memoria e del contesto. Nonostante le finestre di contesto (context window) dei modelli si stiano allargando a dismisura, l’AI non possiede un vero modello mentale della codebase completa. Non “ricorda” l’evoluzione storica del progetto, non sa perché tre anni fa è stata fatta quella scelta architetturale specifica che magari ora sembra strana ma serviva a evitare un bug critico col database.</p>
<h2>L’illusione dei benchmark</h2>
<p>Ed è qui che scatta l’inganno. Spesso vediamo benchmark trionfali (come <a href="https://www.swebench.com/SWE-bench/">SWE-bench</a>) dove l’AI risolve problemi complessi. Ma questi test toccano solitamente poche centinaia di righe di codice o repository contenute. Il refactoring di un sistema legacy con milioni di righe, l’integrazione di sistemi distribuiti, o la riscrittura di core business logic su sistemi già in produzione: questi sono i terreni dove l’ingegnere umano non ha rivali, e dove l’AI tende ad avere il fiato corto.</p>
<p>La contrazione del 6% dei ruoli di pura programmazione rilevata dal BLS è la cronaca di questa obsolescenza annunciata. Chi si limita a tradurre istruzioni in C++ o Python sta vedendo il proprio valore eroso dall’automazione. Ma quel +15% per gli sviluppatori e ingegneri racconta l’altra faccia della medaglia: la complessità non sta sparendo, si sta solo spostando più in alto, verso l’astrazione.</p>
<h2>Dal coding all’orchestrazione</h2>
<p>Se la scrittura del codice diventa “cheap” e abbondante, il valore si sposta sulla capacità di giudizio. L’ingegnere del software del futuro assomiglierà sempre meno a chi scrive codice e sempre più a chi decide quale codice ha senso scrivere. L’obiettivo, suggerisce lo studio del MIT, dovrebbe essere liberare gli umani dai compiti di routine per concentrarsi su decisioni critiche e design di alto livello.</p>
<p>Siamo di fronte a un cambio di paradigma. Fino a ieri, il collo di bottiglia era la velocità di scrittura: quante righe di codice un umano poteva ragionevolmente produrre in una giornata lavorativa. Domani, il collo di bottiglia sarà la capacità di validare, integrare e dare senso strategico a una mole infinita di codice generato dalle macchine.</p>
<p>La posta in gioco è la qualità stessa del futuro digitale. Se deleghiamo totalmente la costruzione del software a sistemi che non sanno ragionare sul lungo termine, rischiamo di costruire grattacieli digitali con fondamenta di argilla.</p>
<p>Chi non ha mai imparato a ragionare sui trade-off architetturali, con l’AI non diventa un senior engineer: diventa solo un generatore di debito tecnico ad alta velocità.</p>
<p>Per questo i dati ci dicono che non stiamo andando verso la fine dello sviluppo software, ma verso la sua fase adulta. Non ci serve più chi sa parlare la lingua delle macchine (per quello ora abbiamo le macchine), ci serve chi sa decidere cosa dire. E, soprattutto, perché.</p>
<hr />
<h2>Per approfondire</h2>
<ul>
<li>
<p><a href="https://www.bls.gov/ooh/computer-and-information-technology/computer-programmers.htm">BLS: Computer Programmers Outlook 2024-2034</a> — <em>Le proiezioni ufficiali del governo USA: -6% di occupazione, con automazione e AI tra le cause principali.</em></p>
</li>
<li>
<p><a href="https://www.bls.gov/ooh/computer-and-information-technology/software-developers.htm">BLS: Software Developers Outlook 2024-2034</a> — <em>L’altro lato della medaglia: +15% di crescita trainata da AI, IoT e sicurezza informatica.</em></p>
</li>
<li>
<p><a href="https://arxiv.org/abs/2503.22625">MIT: Challenges and Paths Towards AI for Software Engineering (arXiv)</a> — <em>Il paper completo (75 pagine) con tassonomia dei task, bottleneck e direzioni di ricerca.</em></p>
</li>
<li>
<p><a href="https://news.mit.edu/2025/can-ai-really-code-study-maps-roadblocks-to-autonomous-software-engineering-0716">MIT News: Can AI really code?</a> — <em>L’articolo divulgativo con citazioni dirette di Solar-Lezama e Gu.</em></p>
</li>
<li>
<p><a href="https://www.swebench.com/SWE-bench/">SWE-bench</a> — <em>Il benchmark più usato per valutare AI su task di software engineering. Utile per capire cosa misurano (e cosa no) le metriche che leggiamo.</em></p>
</li>
<li>
<p><a href="https://www.techradar.com/pro/nvidia-ceo-predicts-the-death-of-coding-jensen-huang-says-ai-will-do-the-work-so-kids-dont-need-to-learn">Jensen Huang: “Don’t learn to code” (TechRadar)</a> — <em>Il discorso del CEO Nvidia al World Government Summit (febbraio 2024) che ha scatenato il dibattito.</em></p>
</li>
</ul>
]]></content:encoded>
      <category>Altro</category>
      <category>ai-coding</category>
      <category>software-engineering</category>
      <category>labor-market</category>
    </item>
    <item>
      <title>AI 2026: perché Stanford parla di resa dei conti</title>
      <link>https://ireneburresi.dev/blog/business/ai-2026-anno-resa-conti/</link>
      <guid isPermaLink="true">https://ireneburresi.dev/blog/business/ai-2026-anno-resa-conti/</guid>
      <pubDate>Sat, 20 Dec 2025 00:00:00 GMT</pubDate>
      <dc:creator>Irene Burresi</dc:creator>
      <dc:language>it</dc:language>
      <description><![CDATA[<p>Il 42% delle aziende ha già chiuso progetti AI: per Stanford HAI il 2026 premierà solo chi dimostra ROI misurabile, vendor affidabili e metriche trasparenti.</p>]]></description>
      <content:encoded><![CDATA[<h2>L’anno della resa dei conti: perché il 2026 sarà decisivo per l’AI enterprise</h2>
<p><em>Il 42% delle aziende ha già abbandonato la maggior parte dei progetti AI. I dati dicono che il peggio potrebbe non essere finito.</em></p>
<p><strong>TL;DR:</strong> Il 42% delle aziende ha abbandonato progetti AI nel 2025, il doppio dell’anno precedente. Stanford HAI prevede che il 2026 sarà l’anno della resa dei conti: meno hype, più richiesta di prove concrete. I dati Brynjolfsson mostrano già l’impatto occupazionale: -20% per sviluppatori junior, +8% per senior. Per chi investe, le implicazioni sono chiare: metriche definite prima del lancio, non dopo; soluzioni vendor (67% successo) vs sviluppo interno (33%); attenzione ai tempi di go-live che uccidono i progetti più della tecnologia.</p>
<hr />
<p>A metà dicembre 2025, <a href="https://hai.stanford.edu/news/stanford-ai-experts-predict-what-will-happen-in-2026">nove faculty dello Stanford Human-Centered Artificial Intelligence</a> hanno pubblicato le loro previsioni per il 2026. Non è il solito esercizio di futurologia accademica, ma una dichiarazione collettiva con un messaggio chiaro: la festa sta finendo.</p>
<p>James Landay, co-direttore di HAI, apre con una frase che suona quasi provocatoria in un’epoca di annunci trionfalistici: “Non ci sarà AGI quest’anno.” Il punto, però, è quello che aggiunge subito dopo: le aziende inizieranno ad ammettere pubblicamente che l’AI non ha ancora prodotto gli aumenti di produttività promessi, se non in nicchie specifiche come la programmazione e i call center. E sentiremo parlare, finalmente, di progetti falliti.</p>
<p>Non è una previsione sul futuro. È la fotografia di qualcosa che sta già succedendo.</p>
<hr />
<h2>I numeri che nessuno vuole guardare</h2>
<p>A luglio 2025, il <a href="https://projectnanda.org/">MIT Project NANDA</a> ha pubblicato un report che ha generato ampio dibattito per una singola statistica: il <strong>95% dei progetti AI enterprise non genera alcun ritorno misurabile</strong>. Il numero è stato contestato, la metodologia ha i suoi limiti, la definizione di “successo” è discutibile. Ma non è un dato isolato.</p>
<p>Nello stesso periodo, <a href="https://www.spglobal.com/market-intelligence/en/news-insights/research/2025/10/generative-ai-shows-rapid-growth-but-yields-mixed-results">S&amp;P Global</a> ha rilevato che il 42% delle aziende ha abbandonato la maggior parte delle proprie iniziative AI nel 2025. Nel 2024 la percentuale era il 17%. Il tasso di abbandono, in pratica, è più che raddoppiato in un anno. In media, le organizzazioni intervistate hanno cestinato il 46% dei proof-of-concept prima che arrivassero in produzione.</p>
<p>Secondo <a href="https://www.rand.org/pubs/research_reports/RRA2680-1.html">RAND Corporation</a>, oltre l’80% dei progetti AI fallisce, il doppio del tasso di fallimento dei progetti IT tradizionali. Gartner riporta che solo il 48% dei progetti AI arriva in produzione, e oltre il 30% dei progetti GenAI verrà abbandonato dopo il proof of concept entro fine 2025.</p>
<p>Le cause sono sempre le stesse: qualità dei dati insufficiente (43% secondo Informatica), mancanza di maturità tecnica (43%), carenza di competenze (35%). Ma sotto questi numeri c’è un pattern più profondo. Le aziende stanno scoprendo che l’AI funziona nelle demo ma non in produzione, genera entusiasmo nei pilot ma non ROI nei bilanci.</p>
<p>Sono questi numeri a spiegare perché Stanford HAI, un’istituzione non esattamente nota per il pessimismo tecnologico, stia spostando il discorso. Non più “l’AI può fare questo?” ma “quanto bene, a quale costo, per chi?”.</p>
<hr />
<h2>I canarini nella miniera</h2>
<p>Se i tassi di fallimento sono il sintomo, il lavoro di Erik Brynjolfsson offre una diagnosi più precisa. <a href="https://digitaleconomy.stanford.edu/publications/canaries-in-the-coal-mine/">“Canaries in the Coal Mine”</a>, pubblicato ad agosto 2025 dal Digital Economy Lab di Stanford, è tra gli studi più rigorosi oggi disponibili sull’impatto dell’AI sul mercato del lavoro.</p>
<p>Il paper usa dati di payroll di ADP, il più grande fornitore di servizi di buste paga negli Stati Uniti, che copre oltre 25 milioni di lavoratori. L’obiettivo è tracciare i cambiamenti occupazionali nelle professioni esposte all’intelligenza artificiale.</p>
<p>Quello che emerge è netto. L’occupazione per software developer tra i 22 e i 25 anni è calata del <strong>20% dal picco di fine 2022</strong>, più o meno dal lancio di ChatGPT, a luglio 2025. Non è un dato isolato: i lavoratori early-career nelle occupazioni più esposte all’AI mostrano un declino relativo del 13% rispetto ai colleghi in ruoli meno esposti.</p>
<p>Il dato più interessante, però, è la divergenza per età. Mentre i giovani perdono terreno, i lavoratori over 30 nelle stesse categorie ad alta esposizione hanno visto una crescita occupazionale tra il 6% e il 12%. Brynjolfsson sintetizza così: “Sembra che ciò che i lavoratori giovani sanno si sovrapponga a ciò che i LLM possono rimpiazzare.”</p>
<p>Non è un effetto uniforme, ma un riallineamento: l’AI sta erodendo le posizioni entry-level più rapidamente di quanto crei nuovi ruoli. I “canarini nella miniera”, i giovani sviluppatori e gli addetti al customer support, stanno già mostrando sintomi di un cambiamento più ampio.</p>
<p>Quando Brynjolfsson prevede l’emergere di “dashboard economici AI” che tracciano questi spostamenti in tempo quasi reale, non sta speculando. Sta descrivendo l’infrastruttura necessaria per capire cosa sta succedendo, un’infrastruttura che oggi non esiste ma che nel 2026 potrebbe diventare urgente.</p>
<hr />
<h2>La divergenza tra adozione e risultati</h2>
<p>C’è un paradosso nei dati del 2025 che merita attenzione. L’adozione dell’AI sta accelerando: secondo <a href="https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai">McKinsey</a>, la percentuale di aziende che dichiarano di usare AI è passata dal 55% nel 2023 al 78% nel 2024. L’uso di GenAI in almeno una funzione aziendale è più che raddoppiato, dal 33% al 71%.</p>
<p>Eppure, in parallelo, i tassi di abbandono dei progetti crescono invece di diminuire. S&amp;P Global mostra un salto dal 17% al 42% in un solo anno. Il report MIT NANDA parla di <em>“GenAI Divide”</em>, una divisione netta tra il 5% che estrae valore reale e il 95% che rimane fermo.</p>
<p>Molte aziende hanno attraversato la fase dell’entusiasmo, del pilot, della demo impressionante, e poi si sono schiantate contro il muro della produzione reale. Hanno scoperto che il modello funziona in sandbox ma non con i loro dati; che l’integrazione nei workflow esistenti è più complessa del previsto; che il ROI promesso dai vendor non si materializza.</p>
<p>Angèle Christin, sociologa della comunicazione e senior fellow di HAI, lo dice senza giri di parole: “I cartelloni pubblicitari di San Francisco, ‘AI everywhere!!! For everything!!! All the time!!!’, tradiscono un tono leggermente maniacale.” La sua previsione: vedremo più realismo su cosa possiamo aspettarci dall’AI. Non è necessariamente la bolla che scoppia, ma la bolla potrebbe smettere di gonfiarsi.</p>
<hr />
<h2>Il problema della misurazione</h2>
<p>Una delle previsioni più concrete, e potenzialmente più significative, arriva ancora da Brynjolfsson. Propone l’emergere di <em>“AI economic dashboards”</em> ad alta frequenza: strumenti che tracciano, a livello di task e occupazione, dove l’AI sta aumentando la produttività, dove sta spostando lavoratori, dove sta creando nuovi ruoli.</p>
<p>Oggi non abbiamo nulla del genere. I dati sul mercato del lavoro arrivano con mesi di ritardo. Le aziende misurano l’adozione dell’AI ma raramente l’impatto. I report di settore fotografano l’hype ma non i risultati.</p>
<p>Se questi dashboard emergeranno davvero nel 2026, cambieranno il modo in cui parliamo di AI. Il dibattito si sposterà dal generico “l’AI ha un impatto?” a domande più precise: quanto velocemente si sta diffondendo questo impatto, chi sta restando indietro, quali investimenti complementari funzionano.</p>
<p>È una visione ottimistica: dati migliori portano decisioni migliori. Ma è anche un’ammissione implicita: oggi stiamo navigando al buio.</p>
<hr />
<h2>Medicina e legal: i settori-test</h2>
<p>Due settori emergono dalle previsioni Stanford come banco di prova particolarmente rilevante.</p>
<p>Nigam Shah, Chief Data Scientist di Stanford Health Care, descrive un problema che chiunque lavori nel settore riconoscerà. Gli ospedali sono sommersi da startup che vogliono vendere soluzioni AI. “Ogni singola proposta può essere ragionevole, ma in aggregato sono uno tsunami di rumore.”</p>
<p>Secondo Shah, nel 2026 emergeranno framework sistematici per valutare queste soluzioni: impatto tecnico, popolazione su cui il modello è stato addestrato, ROI sul workflow ospedaliero, soddisfazione dei pazienti, qualità delle decisioni cliniche. È un lavoro che Stanford sta già facendo internamente, ma che dovrà essere esteso a istituzioni con meno risorse tecniche.</p>
<p>Shah segnala anche un rischio. I vendor, frustrati dai cicli decisionali lunghi degli ospedali, potrebbero iniziare ad andare direttamente agli utenti finali. Applicazioni “gratuite” per medici e pazienti che bypassano i controlli istituzionali. È già in corso: OpenEvidence per riassunti della letteratura, AtroposHealth per risposte on-demand a domande cliniche.</p>
<p>Nel settore legale, Julian Nyarko prevede uno shift simile. Il focus si sposterà da “questo modello sa scrivere?” a questioni più operative: accuratezza, integrità delle citazioni, esposizione a violazioni del segreto professionale. Il settore sta già lavorando su benchmark specifici, come quelli basati su <em>“LLM-as-judge”</em>, framework dove un modello valuta l’output di un altro modello per task complessi come la sintesi multi-documento.</p>
<p>Medicina e legal condividono una caratteristica: sono altamente regolamentati, con conseguenze gravi in caso di errore. Se l’AI deve dimostrare il suo valore da qualche parte, è qui che la prova sarà più dura. E più significativa.</p>
<hr />
<h2>Track record: quanto sono affidabili queste previsioni?</h2>
<p>Stanford HAI pubblica previsioni annuali da alcuni anni. Ha senso chiedersi quanto siano state accurate finora.</p>
<p>A fine 2022, Russ Altman previde per il 2023 uno <em>“shocking rollout of AI way before it’s mature or ready to go”</em>. Difficile trovare una descrizione più accurata di quello che è successo: ChatGPT, Bing Chat, Bard lanciati in successione rapida, con problemi di accuratezza, allucinazioni, incidenti imbarazzanti. Altman aveva anche previsto una “hit parade di AI che non è pronta per il prime time ma esce perché guidata da industria troppo zelante”. Esatto.</p>
<p>Percy Liang, sempre a fine 2022, previde che il video sarebbe stato un focus del 2023 e che “potremmo arrivare al punto in cui non distingueremo se un umano o un computer ha generato un video”. Era un anno in anticipo (Sora è arrivato a febbraio 2024) ma la direzione era corretta.</p>
<p>Per il 2024, Altman previde un “rise of agents” e passi verso sistemi multimediali. Entrambi si sono verificati, anche se gli agent sono ancora più promessa che realtà in produzione.</p>
<p>Non tutte le previsioni si sono avverate. Le aspettative su un’azione legislativa del Congresso USA sono rimaste deluse: l’Executive Order di Biden c’è stato, ma la nuova amministrazione ha cambiato direzione. Nel complesso, però, il track record di Stanford HAI è ragionevole: tendono a essere cauti piuttosto che entusiasti, e le previsioni tecniche sono generalmente fondate.</p>
<p>Questo non garantisce che le previsioni 2026 si avvereranno. Ma significa che vale la pena prenderle sul serio.</p>
<hr />
<h2>Cosa significa per chi deve decidere</h2>
<p>Se le previsioni Stanford e i dati sui failure rate convergono su qualcosa, è questo: il 2026 sarà l’anno in cui l’AI enterprise dovrà mostrare risultati, non demo.</p>
<p>Per chi gestisce budget tecnologici, le implicazioni sono concrete.</p>
<p>Sul fronte delle <strong>metriche</strong>, i progetti AI devono avere criteri di successo definiti prima del lancio, non dopo. Non “esploriamo l’AI per il customer service” ma “riduciamo del 15% il tempo medio di risoluzione ticket entro 6 mesi, con costo per interazione inferiore a X”. I progetti senza metriche chiare hanno probabilità sproporzionata di finire nel 42% degli abbandoni.</p>
<p>Sul fronte <strong>make-or-buy</strong>, il report MIT NANDA indica che le soluzioni acquistate da vendor specializzati hanno un tasso di successo del 67%, contro il 33% degli sviluppi interni. Non significa che lo sviluppo interno sia sempre sbagliato, ma richiede competenze, dati e infrastruttura che molte organizzazioni sopravvalutano di avere.</p>
<p>Sul <strong>timing</strong>, le imprese mid-market passano dal pilot alla produzione in circa 90 giorni, secondo lo stesso report. Le grandi enterprise impiegano nove mesi o più. La burocrazia uccide i progetti AI più della tecnologia.</p>
<p>Infine, una questione di <strong>onestà</strong>. L’economia-ombra dell’AI (il 90% dei dipendenti usa strumenti personali come ChatGPT per il lavoro, secondo MIT NANDA) indica che gli individui sanno già dove l’AI funziona meglio delle iniziative enterprise ufficiali. Invece di combatterla, le organizzazioni potrebbero imparare da questa adozione spontanea.</p>
<hr />
<h2>Cosa manca</h2>
<p>Le previsioni Stanford hanno punti ciechi evidenti.</p>
<p>Nessuno degli esperti menziona il consumo energetico e l’impatto ambientale dell’AI. Christin lo accenna (“costi ambientali tremendi dell’attuale build-out”) ma il tema non viene sviluppato. Eppure i data center AI stanno diventando uno dei maggiori consumatori di energia al mondo, e questo entrerà nel calcolo del ROI prima o poi.</p>
<p>Manca anche una discussione seria sulla concentrazione del mercato. I modelli frontier sono sviluppati da un pugno di aziende. Questo crea dipendenze, influenza i prezzi, determina chi può competere. È un fattore strategico che chiunque pianifichi investimenti AI dovrebbe considerare.</p>
<p>Landay accenna alla <em>“AI sovereignty”</em>, i paesi che vogliono indipendenza dai provider americani, ma il tema resta superficiale. È un’area in rapida evoluzione, con implicazioni geopolitiche significative, che meriterebbe un’analisi più approfondita.</p>
<hr />
<h2>Un cambio di tono</h2>
<p>Più delle singole previsioni, quello che colpisce dell’articolo Stanford è il tono. Non c’è l’entusiasmo tipico del settore. Non ci sono promesse di trasformazione imminente. C’è cautela, richiesta di prove, enfasi sulla misurazione.</p>
<p>Quando il co-direttore di un istituto AI di Stanford apre dicendo “non ci sarà AGI quest’anno”, sta prendendo posizione contro una narrativa dominante. Quando economisti come Brynjolfsson pubblicano dati sui lavoratori giovani che perdono occupazione, stanno documentando costi, non solo benefici.</p>
<p>Questo non significa che l’AI sia sopravvalutata o che i progetti debbano fermarsi. Significa che la fase dell’adozione acritica sta finendo. Chi continuerà a investire dovrà farlo con aspettative calibrate, metriche definite, capacità di ammettere il fallimento quando si verifica.</p>
<p>Il 2026, se queste previsioni sono corrette, sarà l’anno in cui scopriremo quali progetti AI erano solidi e quali erano costruiti sull’hype. Per molte organizzazioni sarà una scoperta dolorosa. Per altre, un’opportunità: chi ha già imparato a misurare, a iterare, a distinguere il valore dalla promessa avrà un vantaggio competitivo che l’entusiasmo generico non può comprare.</p>
<hr />
<h2>Fonti</h2>
<p>Brynjolfsson, E., Chandar, B., &amp; Chen, R. (2025). <a href="https://digitaleconomy.stanford.edu/publications/canaries-in-the-coal-mine/"><em>Canaries in the Coal Mine: Six Facts about the Recent Employment Effects of AI</em></a>. Stanford Digital Economy Lab.</p>
<p>McKinsey &amp; Company. (2024). <a href="https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai"><em>The State of AI in 2024: Gen AI adoption spikes and starts to generate value</em></a>. McKinsey Global Institute.</p>
<p>MIT Project NANDA. (2025). <a href="https://projectnanda.org/"><em>The GenAI Divide 2025</em></a>. Massachusetts Institute of Technology.</p>
<p>RAND Corporation. (2024). <a href="https://www.rand.org/pubs/research_reports/RRA2680-1.html"><em>The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed</em></a>. RAND Research Reports.</p>
<p>S&amp;P Global Market Intelligence. (2025, October). <a href="https://www.spglobal.com/market-intelligence/en/news-insights/research/2025/10/generative-ai-shows-rapid-growth-but-yields-mixed-results"><em>Generative AI Shows Rapid Growth but Yields Mixed Results</em></a>. S&amp;P Global.</p>
<p>Stanford HAI. (2025, December). <a href="https://hai.stanford.edu/news/stanford-ai-experts-predict-what-will-happen-in-2026"><em>Stanford AI Experts Predict What Will Happen in 2026</em></a>. Stanford Human-Centered Artificial Intelligence.</p>
]]></content:encoded>
      <category>Business</category>
      <category>Ricerca</category>
      <category>Altro</category>
      <category>Stanford HAI</category>
      <category>AI 2026</category>
      <category>Enterprise AI</category>
      <category>Market Analysis</category>
      <category>AI Predictions</category>
      <atom:link rel="alternate" hreflang="en" href="https://ireneburresi.dev/en/blog/business/ai-2026-anno-resa-conti/"/>
    </item>
    <item>
      <title>Sovranità AI: quale modello per l&apos;Europa</title>
      <link>https://ireneburresi.dev/blog/governance/ia-sovranit%C3%A0/</link>
      <guid isPermaLink="true">https://ireneburresi.dev/blog/governance/ia-sovranit%C3%A0/</guid>
      <pubDate>Sat, 20 Dec 2025 00:00:00 GMT</pubDate>
      <dc:creator>Irene Burresi</dc:creator>
      <dc:language>it</dc:language>
      <description><![CDATA[<p>Cloud sovrani, modelli nazionali e provider USA definiscono tre idee di sovranità AI. L'Europa deve scegliere quale infrastruttura e governance finanziare.</p>]]></description>
      <content:encoded><![CDATA[<h2>Il nuovo ordine dell’AI globale</h2>
<p><em>Tra LLM nazionali, infrastrutture locali e dipendenza dai provider americani, il concetto di sovranità AI sta ridefinendo la geopolitica tecnologica. L’Europa è al bivio tra tre modelli incompatibili.</em></p>
<p>Nel maggio 2025, il presidente Trump ha visitato il Golfo Persico per annunciare accordi che cambiano la geografia dell’AI globale. Gli Emirati Arabi Uniti costruiranno un campus di data center da 5 gigawatt, il più grande fuori dagli Stati Uniti. L’Arabia Saudita, attraverso HUMAIN (la nuova entità AI del fondo sovrano PIF), ha ottenuto accesso a centinaia di migliaia di chip Nvidia di ultima generazione. Il Qatar ha appena lanciato Qai con un investimento da 20 miliardi di dollari in partnership con Brookfield.</p>
<p>Mentre i paesi del Golfo costruiscono infrastruttura AI con capitali petroliferi, in Europa il dibattito sulla “sovranità AI” procede su binari diversi. Mistral e Aleph Alpha sviluppano modelli, SAP lancia l’EU AI Cloud, Francia e Germania annunciano partnership per “AI e cloud sovrani” nel settore pubblico. Ma la domanda di fondo resta senza risposta chiara: cosa significa davvero sovranità AI, e quale modello l’Europa sta realmente perseguendo?</p>
<hr />
<h2>Quattro definizioni di sovranità</h2>
<p>Il termine “sovereign AI” viene usato con significati diversi a seconda di chi parla. L’ambiguità non è casuale: permette a governi, vendor e istituzioni di rivendicare impegni sulla sovranità senza chiarire cosa intendono concretamente.</p>
<p>L’Atlantic Council propone quattro componenti distinte.</p>
<p>La prima è la <strong>legalità</strong>: i sistemi AI devono rispettare le leggi e i regolamenti applicabili nel territorio dove operano. È la componente più debole, perché non richiede infrastruttura o modelli propri, solo compliance.</p>
<p>La seconda è la <strong>competitività economica</strong>: lo sviluppo AI deve creare valore per l’economia nazionale, idealmente costruendo un ecosistema industriale locale. Richiede investimenti in startup, formazione, ricerca.</p>
<p>La terza riguarda la <strong>sicurezza nazionale</strong>: le applicazioni AI in infrastrutture critiche, difesa e funzioni strategiche richiedono protezioni aggiuntive contro interferenze esterne. Implica controllo su dove risiedono dati e modelli sensibili.</p>
<p>La quarta è l’<strong>allineamento valoriale</strong>: i modelli devono riflettere valori nazionali o regionali, non quelli impliciti nei dati di training (prevalentemente anglofoni e occidentali). È la componente più controversa. Chi decide quali valori, e come si implementano tecnicamente?</p>
<p>Queste quattro dimensioni non sono sempre compatibili. Un paese può raggiungere legalità e competitività usando modelli americani su infrastruttura americana: basta rispettare le regole locali. Ma non raggiungerà sicurezza nazionale né allineamento valoriale, perché i modelli restano black box sviluppate altrove con dati altrui.</p>
<hr />
<h2>Due modelli operativi</h2>
<p>Al di là delle definizioni, esistono due approcci pratici alla sovranità AI, ciascuno con trade-off specifici.</p>
<h3>LLM nazionali</h3>
<p>Il primo approccio consiste nello sviluppare modelli fondazionali propri, addestrati su dati locali, ottimizzati per lingue e contesti specifici. È la strada scelta da Singapore con SEA-LION (modello per le lingue del Sud-Est asiatico), dall’Italia con Minerva e Velvet, dalla Corea del Sud con il programma nazionale che coinvolge SK Telecom, Naver e Samsung.</p>
<p>Il vantaggio è il controllo completo sui dati di training, la possibilità di incorporare conoscenza locale (leggi, dialetti, norme culturali), l’indipendenza dalle decisioni dei provider esteri su censura e alignment.</p>
<p>I limiti sono altrettanto evidenti. Addestrare un modello frontier richiede centinaia di milioni di dollari solo in compute. I modelli risultanti sono tipicamente inferiori ai frontier americani su benchmark generali: SEA-LION v1 perde nettamente contro GPT-4 in performance complessiva, anche se eccelle nell’analisi del sentiment per le lingue del Sud-Est asiatico. E resta la dipendenza da hardware (Nvidia) e spesso da infrastruttura cloud (AWS, Azure) per il training stesso.</p>
<p>Un ricercatore di AI Singapore lo ha ammesso candidamente: il modello Falcon degli Emirati è stato addestrato su infrastruttura Amazon Web Services. SEA-LION dipende da GitHub (Microsoft), Hugging Face (USA) e IBM per la distribuzione. La sovranità del modello non implica sovranità dell’infrastruttura.</p>
<h3>Infrastruttura locale con modelli terzi</h3>
<p>Il secondo approccio prevede di costruire data center nazionali, GPU cluster, cloud sovrani, ma usare modelli sviluppati altrove (OpenAI, Anthropic, Meta) eseguiti localmente. È la strada degli Emirati con G42: infrastruttura massiccia, partnership con Microsoft e OpenAI, modelli americani che girano su suolo emiratino.</p>
<p>Il vantaggio principale è che i dati non lasciano il territorio nazionale. Le query degli utenti locali non transitano per server esteri. Per settori regolamentati (sanità, finanza, difesa), questo può essere sufficiente a soddisfare requisiti di data residency.</p>
<p>Il limite è che il modello resta una black box. Il provider estero controlla gli aggiornamenti, le policy di safety, cosa il modello può o non può fare. Un report di HSToday lo sintetizza brutalmente: “Se i model weights escono, il tuo giudizio è letteralmente esogeno.” C’è poi il rischio di data poisoning: bastano 250 documenti per compromettere un modello durante il pre-training, secondo ricerche recenti.</p>
<hr />
<h2>Il caso del Golfo: infrastruttura come asset geopolitico</h2>
<p>I paesi del Golfo Persico stanno perseguendo una variante del secondo modello, ma con una scala e un’ambizione che merita attenzione separata.</p>
<p>Gli Emirati, attraverso G42 e Khazna Data Centers, stanno costruendo quella che sarà la più grande concentrazione di capacità compute AI fuori dagli Stati Uniti. Il campus di Abu Dhabi avrà capacità fino a 5 gigawatt. Per confronto, l’intera capacità data center europea nei mercati FLAP (Francoforte, Londra, Amsterdam, Parigi) è stimata intorno ai 10 gigawatt totali. G42 ha ottenuto una quota garantita di 500.000 chip Nvidia all’anno, di cui l’80% andrà a servire clienti americani e il 20% resterà per uso locale.</p>
<p>L’Arabia Saudita, attraverso HUMAIN, sta costruendo data center con capacità prevista di 500 megawatt e centinaia di migliaia di chip Nvidia. Il primo deployment include 18.000 chip di ultima generazione per un supercomputer saudita. Google Cloud e il fondo sovrano PIF hanno annunciato una partnership da 10 miliardi di dollari per un hub AI globale.</p>
<p>Il Qatar ha lanciato Qai con 20 miliardi di dollari in partnership con Brookfield, più un investimento separato in Anthropic.</p>
<p>Non sono progetti di sovranità nel senso europeo del termine. Sono progetti di posizionamento: i paesi del Golfo vogliono diventare hub infrastrutturali per l’AI globale, fornendo compute a basso costo (grazie al capitale dei fondi sovrani) a paesi emergenti che non possono permettersi infrastruttura propria. Come nota Foreign Policy, “l’essenza della sovereign AI per il Golfo è fornire backend compute per paesi che vogliono usare AI ma non hanno capacità di training e deployment proprie”.</p>
<p>Il rischio, dal punto di vista statunitense, è la diversione di GPU verso la Cina. Ma i deal recenti includono clausole che legano il compute del Golfo allo “stack americano”: i chip restano sotto controllo di hyperscaler USA, i modelli sono americani, le regole operative sono concordate bilateralmente.</p>
<hr />
<h2>L’Europa: tre strade, nessuna scelta</h2>
<p>L’Europa sta perseguendo simultaneamente approcci diversi senza una strategia unificata. Il risultato è frammentazione.</p>
<h3>I campioni nazionali</h3>
<p><strong>Mistral AI</strong> (Francia) è il caso più visibile. Fondata nel 2023 da ex-ricercatori di Google DeepMind e Meta, ha raccolto oltre 2,8 miliardi di euro, incluso un round da 1,7 miliardi nel settembre 2025 guidato da ASML e Nvidia. I suoi modelli open-weight sono competitivi con i frontier americani su alcuni benchmark (Mistral Large 2 è nono globale nell’uso di tool per agent). La strategia è esplicita: modelli aperti che permettono customizzazione locale, allineamento con le regole europee (AI Act), deployment on-premise o edge.</p>
<p>Ma Mistral ha investitori americani (a16z, Lightspeed) e partnership con Microsoft. Quanto è “sovrana” un’azienda che dipende da venture capital americano per crescere?</p>
<p><strong>Aleph Alpha</strong> (Germania) ha scelto un posizionamento diverso: meno performance frontier, più explainability e deployment in settori regolamentati. La piattaforma PhariaAI supporta deployment on-premise, air-gapped, ibridi. I clienti includono l’Agenzia Federale per l’Impiego tedesca e BWI (IT della Bundeswehr). Ha raccolto circa 500 milioni di euro, quasi interamente da investitori europei (Bosch Ventures, Schwarz Group, SAP).</p>
<p>Il trade-off è evidente: Aleph Alpha è più “sovrana” nel funding ma meno competitiva nei benchmark. Se il gap con i modelli frontier si allarga troppo, le aziende europee potrebbero essere costrette a scegliere tra compliance e competitività.</p>
<h3>Le partnership istituzionali</h3>
<p>A novembre 2025, Francia e Germania hanno annunciato una partnership con Mistral e SAP per sviluppare “cloud e AI sovrani” per il settore pubblico. SAP ha lanciato l’EU AI Cloud, integrando modelli di Mistral e Aleph Alpha nel suo Business Technology Platform con garanzie di data residency europea.</p>
<p>Queste iniziative rispondono a esigenze reali. Il settore pubblico europeo ha requisiti di compliance che rendono problematico l’uso di modelli americani su infrastruttura americana. Ma restano progetti verticali, non una strategia industriale.</p>
<h3>GAIA-X e l’infrastruttura federata</h3>
<p>GAIA-X, lanciato nel 2020 da Francia e Germania, doveva essere “l’Airbus del cloud”, un’infrastruttura federata europea alternativa agli hyperscaler americani. A fine 2025, il bilancio è misto.</p>
<p>Sul lato positivo, il framework esiste. Ci sono oltre 180 data space settoriali in sviluppo. Il Trust Framework 3.0 (“Danube”) è stato rilasciato. Progetti come Catena-X (automotive) dimostrano che la condivisione dati basata su standard europei è tecnicamente fattibile.</p>
<p>Sul lato negativo, GAIA-X non è un cloud provider. Non compete con AWS, Azure o Google Cloud. Il mercato cloud europeo resta dominato al 70% da hyperscaler americani. Alcuni membri fondatori europei hanno lasciato il progetto. Il co-fondatore di NextCloud ha accusato GAIA-X di essere stato “diluito” e “sabotato dall’interno” dagli hyperscaler stessi, che sono membri dell’associazione.</p>
<p>Un’analisi di STL Partners è brutale: “GAIA-X resta più un simbolo politico che un disruptor di mercato. Realisticamente, colmare il gap richiederebbe investimenti coordinati EU nell’ordine di 500-700 miliardi di euro, una scala non attualmente all’orizzonte.”</p>
<hr />
<h2>L’intersezione con l’AI Act</h2>
<p>L’EU AI Act, entrato progressivamente in vigore dal febbraio 2025, crea obblighi che si intersecano con la sovranità AI in modi specifici.</p>
<p>Sul fronte <strong>data residency e training data</strong>, l’AI Act non impone esplicitamente che i dati restino in Europa, ma le regole sulla trasparenza dei dati di training (Template for public summary, rilasciato a luglio 2025) richiedono disclosure dettagliata delle fonti. Per sistemi ad alto rischio, le valutazioni d’impatto sui diritti fondamentali possono richiedere accesso ai dataset, cosa difficile se sono su server americani soggetti a leggi americane.</p>
<p>Per quanto riguarda <strong>GPAI e rischio sistemico</strong>, i provider di General-Purpose AI con rischio sistemico (definito come modelli addestrati con compute superiore a 10^25 FLOP) devono rispettare obblighi aggiuntivi di sicurezza, testing e incident reporting. I principali modelli frontier (GPT-4, Claude, Gemini) rientrano in questa categoria. Il Code of Practice rilasciato a luglio 2025 e firmato da Mistral, Aleph Alpha, OpenAI, IBM e altri offre un framework volontario di compliance.</p>
<p>C’è poi la questione <strong>audit e accesso</strong>: l’AI Act prevede che le autorità nazionali possano richiedere accesso a modelli per verifiche. Per modelli sviluppati e hostati fuori dall’UE, questo crea tensioni giurisdizionali irrisolte.</p>
<p>Il <strong>Digital Omnibus</strong>, proposto dalla Commissione a novembre 2025, potrebbe cambiare significativamente il quadro. Alcune parti dell’AI Act e del GDPR potrebbero essere ammorbidite per ridurre il carico di compliance sulle PMI. I critici sostengono che questo indebolisce la posizione europea proprio mentre la sovranità AI diventa critica. Come nota un analista: “Se l’Europa ha la migliore regolamentazione ma nessuna azienda europea, non ha vinto molto.”</p>
<hr />
<h2>Il rischio della bolla infrastrutturale</h2>
<p>James Landay, co-direttore di Stanford HAI, nelle sue previsioni per il 2026 ha inserito una nota di cautela sugli investimenti in data center AI: “A un certo punto, non puoi impegnare tutti i soldi del mondo su una cosa sola. Sembra una bolla molto speculativa.”</p>
<p>I numeri sono impressionanti. I quattro hyperscaler americani (Amazon, Microsoft, Google, Meta) spenderanno circa 325 miliardi di dollari in capex infrastrutturale nel solo 2025, più dell’intero PIL di paesi come Finlandia o Cile. Il Golfo sta aggiungendo altri 100+ miliardi. La capacità data center globale sta crescendo del 20% annuo.</p>
<p>Ma la domanda effettiva di compute AI è ancora concentrata in pochi use case: training di modelli frontier (dominato da 5-6 lab), inferenza per chatbot consumer (dominata da OpenAI e pochi altri), e applicazioni enterprise ancora in fase sperimentale (il 42% dei progetti viene abbandonato, come documentato altrove).</p>
<p>Se la domanda non cresce alla velocità dell’offerta, chi ha investito miliardi in GPU cluster potrebbe trovarsi con capacità inutilizzata. I paesi che hanno scommesso sulla sovranità infrastrutturale (UAE, Arabia Saudita, ma anche le iniziative europee) potrebbero scoprire di aver costruito cattedrali nel deserto.</p>
<hr />
<h2>Implicazioni per le decisioni aziendali</h2>
<p>Per CTO, legal e compliance officer in Europa, la frammentazione della strategia di sovranità crea incertezza operativa. Alcune considerazioni pratiche.</p>
<p>Il punto di partenza è <strong>mappare le dipendenze esistenti</strong>: quali modelli AI usa l’organizzazione? Dove sono hostati? Quali dati vengono inviati a provider terzi? Questa mappatura è prerequisito per qualsiasi strategia di sovranità.</p>
<p>Serve poi <strong>distinguere requisiti reali da requisiti percepiti</strong>. Non tutti i workload richiedono sovranità piena. Per applicazioni non critiche senza dati personali sensibili, la compliance con AI Act e GDPR può essere sufficiente anche usando provider americani. Per settori regolamentati (sanità, finanza, difesa, pubblica amministrazione), i requisiti sono più stringenti.</p>
<p>C’è da considerare il <strong>vendor lock-in</strong>. Le soluzioni “sovrane” europee (Mistral via SAP, Aleph Alpha per enterprise) offrono oggi performance inferiori ai frontier americani. Adottarle crea dipendenza da un ecosistema più piccolo. Se il gap si allarga, migrare sarà costoso.</p>
<p>L’<strong>evoluzione normativa</strong> va monitorata con attenzione. Il Digital Omnibus potrebbe cambiare significativamente gli obblighi AI Act. Le guidelines della Commissione vengono aggiornate regolarmente. La compliance di oggi potrebbe non bastare domani, oppure potrebbe risultare eccessiva se le regole vengono ammorbidite.</p>
<p>Vale la pena infine considerare <strong>modelli ibridi</strong>: alcuni workload su infrastruttura sovrana (dati sensibili, applicazioni critiche), altri su hyperscaler (scale, performance, costo). Questa architettura è più complessa da gestire ma può bilanciare i rischi.</p>
<hr />
<h2>Una scelta inevitabile</h2>
<p>L’Europa non può perseguire simultaneamente tre strategie incompatibili: campioni nazionali che competono tra loro, infrastruttura federata che non scala, e dipendenza de facto dagli hyperscaler americani.</p>
<p>A un certo punto sarà necessario scegliere. Il modello del Golfo (infrastruttura massiccia, capitale sovrano, partnership con provider americani) richiede risorse che l’Europa potrebbe mobilitare ma non sta mobilitando. Il modello dei campioni nazionali (Mistral, Aleph Alpha, DeepL) produce eccellenza puntuale ma non massa critica. Il modello GAIA-X (standard e interoperabilità) è necessario ma non sufficiente.</p>
<p>Per i decisori europei, pubblici e privati, la domanda non è se la sovranità AI sia importante. Lo è. La domanda è quale livello di sovranità è realisticamente raggiungibile, a quale costo, e con quali compromessi. Finché questa domanda resta senza risposta chiara, le aziende europee navigheranno in un ambiente di incertezza strutturale, costrette a scommettere su strategie che potrebbero rivelarsi obsolete prima di essere implementate.</p>
<hr />
<h2>Fonti</h2>
<ul>
<li>Atlantic Council, “Sovereign Remedies: Between AI Autonomy and Control”, aprile 2025</li>
<li>RAND Corporation, “At the Paris AI Summit, Europe Charts Its Course”, febbraio 2025</li>
<li>Carnegie Endowment, “The EU’s AI Power Play: Between Deregulation and Innovation”, maggio 2025</li>
<li>Lawfare, “Sovereign AI in a Hybrid World: National Strategies and Policy Responses”, novembre 2024</li>
<li>NVIDIA Blog, “What is Sovereign AI?”, luglio 2025</li>
<li>Foreign Policy, “U.S.-China AI Competition Needs Data Centers in UAE, Saudi Arabia”, luglio 2025</li>
<li>Fortune, “Saudi Arabia wants to build its post-oil future with massive AI data centers”, maggio 2025</li>
<li>Semafor, “Qatar launches $20B AI push”, dicembre 2025</li>
<li><a href="https://tech.eu">Tech.eu</a>, “Europe’s AI ecosystem: Rapid growth and rising global ambitions”, novembre 2025</li>
<li>DirectIndustry, “Why Europe Needs a Sovereign AI”, novembre 2025</li>
<li>STL Partners, “Sovereign AI: What it is, country playbooks &amp; data centre strategy”, settembre 2025</li>
<li>IAPP, “Global AI Governance Law and Policy: EU”, 2025</li>
<li>European Commission, “AI Act implementation updates”, 2025</li>
<li>Polytechnique Insights, “Gaia-X: the bid for a sovereign European cloud”, giugno 2025</li>
</ul>
]]></content:encoded>
      <category>Governance</category>
      <category>Business</category>
      <category>Altro</category>
      <category>AI Sovereignty</category>
      <category>EU AI Act</category>
      <category>GAIA-X</category>
      <category>Geopolitics</category>
      <category>Europe</category>
      <atom:link rel="alternate" hreflang="en" href="https://ireneburresi.dev/en/blog/governance/ia-sovranit%C3%A0/"/>
    </item>
  </channel>
</rss>