Contenuto articolo
L’unica leva rimasta
Il 74% delle aziende quotate in Europa usa email provider americani. L’89% delle imprese tedesche si considera tecnologicamente dipendente dall’estero. L’AI Act esiste in questo contesto. Leggerlo solo come problema di compliance significa perdere il quadro.
TL;DR: L’AI Act è politica industriale. L’Europa è in posizione di dipendenza tecnologica strutturale e la regolamentazione è l’unica leva dove ha ancora peso globale. Il “Brussels Effect” (la capacità di esportare standard) è contestato ma probabile per i sistemi AI high-risk. A novembre 2025 il Digital Omnibus ha ritardato l’applicazione di 16 mesi, ma la direzione resta la stessa. Chi legge l’AI Act solo come checklist normativa sta guardando l’albero e perdendo la foresta.
I numeri sulla posizione tecnologica europea sono noti agli addetti ai lavori. Raramente entrano nel dibattito sull’AI Act.
Un report Proton di ottobre 2025 ha analizzato i record DNS delle aziende quotate in Europa: il 74% usa email provider americani. Non startup: aziende quotate in borsa, con obblighi di governance e sicurezza. Un sondaggio Bitkom sulle imprese tedesche con più di 20 dipendenti rivela che l’89% si considera tecnologicamente dipendente dall’estero.
Il report EPRS del Parlamento Europeo completa il quadro. Delle 100 maggiori piattaforme digitali globali per capitalizzazione, solo il 2% del valore combinato è europeo. Nel cloud computing, negli hyperscaler, nei modelli AI foundation, l’Europa è importatore netto.
Questo contesto cambia la lettura dell’AI Act. Non si tratta solo di proteggere i cittadini europei dagli algoritmi. Si tratta di usare l’unica leva dove l’Europa ha ancora peso per negoziare posizione in un mercato dominato da altri.
Il meccanismo
Il termine “Brussels Effect” è stato coniato da Anu Bradford nel 2012 e sviluppato nel suo libro del 2020. La tesi è diretta: l’UE, grazie alle dimensioni del suo mercato e alla qualità delle sue istituzioni, riesce a esportare i propri standard globalmente.
Il meccanismo funziona in due modi. L’effetto de facto: le aziende che vogliono accedere al mercato europeo adottano gli standard EU anche altrove, perché mantenere due versioni costa di più che averne una sola. L’effetto de jure: altri governi copiano le regole europee perché funzionano e riducono il costo di progettare regolamentazione da zero.
Il GDPR è l’esempio canonico. Leggi privacy ispirate al regolamento europeo sono state adottate in Brasile, Giappone, California. Le aziende tech hanno esteso molte protezioni GDPR a utenti non europei per semplificare le operazioni. La forma della regolamentazione europea si è diffusa oltre i confini dell’Unione.
Sull’AI Act, la letteratura accademica è più sfumata.
Un paper GovAI del 2022 ha analizzato le condizioni per il Brussels Effect applicato all’intelligenza artificiale. La conclusione: effetti de facto e de jure sono probabili, soprattutto per i sistemi ad alto rischio delle grandi tech americane. Microsoft, Google, Meta operano in Europa con sistemi di recruiting, credito, moderazione contenuti. Dovranno conformarsi. E per molte di queste aziende, è più economico applicare uno standard globale che segmentare i prodotti per mercato.
Il paper identifica anche i limiti. Il Brussels Effect funziona meglio quando il mercato EU è inevitabile (lo è per le big tech), quando la regolamentazione è percepita come di alta qualità (contestato), e quando non esistono alternative credibili (la Cina offre un modello diverso). Per i sistemi AI a basso rischio o per aziende che non operano in Europa, l’effetto sarà minore o assente.
Un articolo su Policy Review propone un frame complementare: l’AI Act come “governance sperimentalista”. Non un modello da esportare tout court, ma un approccio tra tanti in un contesto di incertezza tecnologica. L’interazione con altri modelli regolatori (Stati Uniti, Regno Unito, Cina) sarà più cooperativa e meno unidirezionale di quanto il frame Brussels Effect suggerisca.
La sintesi: il Brussels Effect sull’AI esiste ma è contestato e incerto. Non è garantito che le regole europee diventino standard globale. Non è garantito che restino irrilevanti. La partita è aperta.
L’aggiustamento tattico
A novembre 2025, la Commissione Europea ha proposto il Digital Omnibus. Il pacchetto include modifiche all’AI Act che hanno generato titoli su “l’Europa che fa marcia indietro”.
I fatti: l’applicazione dei requisiti per i sistemi AI ad alto rischio slitta di circa 16 mesi. La nuova data limite è dicembre 2027 per i sistemi Annex III (recruiting, credito, sanità), agosto 2028 per quelli embedded in prodotti regolamentati. È un ritardo significativo.
Ma la struttura dell’AI Act resta intatta. Le categorie di rischio restano le stesse. Gli obblighi restano gli stessi. Cambia il calendario, non la destinazione.
Il Digital Omnibus è un aggiustamento tattico, non un’inversione strategica. L’Europa sta calibrando i tempi, non abbandonando la direzione. Chi legge il ritardo come “marcia indietro” sta confondendo velocità con traiettoria.
Il quadro che manca
La conversazione sull’AI Act in Italia ruota quasi interamente attorno alla compliance. Quali sistemi rientrano nelle categorie high-risk. Quanto costa conformarsi. Quali sanzioni si rischiano. Sono domande legittime, ma parziali.
Il contesto che manca è quello dei numeri iniziali. Il 74% di dipendenza per le email. L’89% di percezione di dipendenza tecnologica. Il 2% di valore europeo nelle piattaforme digitali globali. In questo quadro, l’AI Act non è un problema di conformità normativa. È uno strumento in una partita più ampia sulla posizione dell’Europa nel mercato tecnologico globale.
L’Europa ha poche leve. Non ha hyperscaler. Non ha i modelli foundation dominanti. Non ha la base di venture capital degli Stati Uniti né la scala di deployment della Cina. Quello che ha è un mercato da 450 milioni di consumatori e una capacità istituzionale di regolare che altri blocchi non hanno.
Usare questa leva per influenzare gli standard globali è politica industriale. Chiamarla solo “protezione dei consumatori” è una descrizione incompleta. Trattarla solo come “compliance” è perdere il quadro.
Microsoft ha fatto dell’allineamento regolatorio europeo un elemento di posizionamento. Meta ha scelto la strada opposta, ritardando il rilascio di modelli in Europa e facendo pressione per ammorbidire le regole. Sono strategie diverse che riflettono letture diverse di dove sta andando il mercato. Nessuna delle due tratta l’AI Act come semplice checklist.
Forse dovremmo chiederci perché noi sì.
Fonti
Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
Siegmann, C. & Anderljung, M. (2022). The Brussels Effect and Artificial Intelligence: How EU regulation will impact the global AI market. GovAI, arXiv:2208.12645.
Policy Review. (2025). Brussels effect or experimentalism? The EU AI Act and global standard-setting.
European Commission. (2025). Digital Omnibus on AI Regulation Proposal.
European Parliamentary Research Service. (2025). European Software and Cyber Dependencies.
TechReport. (2025). Europe’s Digital Dependence: The Risks of the EU’s Reliance on US Tech.