

L'Unione Europea ha compiuto un passo storico con l'entrata in vigore dell'AI Act, la prima normativa completa al mondo sull'intelligenza artificiale. Questo atto rivoluzionario, che pone l'Europa all'avanguardia nella governance dell'IA, stabilisce un quadro normativo basato sul rischio che mira a bilanciare innovazione e protezione dei diritti fondamentali. Tuttavia, il regolamento rappresenta anche l'ennesima manifestazione del cosiddetto "Brussels Effect" - la tendenza dell'UE a imporre le proprie norme su scala globale attraverso il potere del suo mercato, senza necessariamente guidare l'innovazione tecnologica.
Mentre gli Stati Uniti e la Cina guidano lo sviluppo dell'IA con massicci investimenti pubblici e privati (rispettivamente il 45% e il 30% degli investimenti globali nel 2024), l'Europa ha attratto solo il 10% degli investimenti globali in IA. In risposta, l'UE cerca di compensare il suo ritardo tecnologico attraverso la regolamentazione, imponendo standard che finiscono per influenzare l'intero ecosistema globale.
La domanda centrale è: l'Europa sta creando un ambiente che promuove l'innovazione responsabile o sta semplicemente esportando burocrazia in un settore dove non riesce a competere?
L'AI Act si applica non solo alle aziende europee, ma anche a quelle che operano sul mercato europeo o i cui sistemi di IA hanno un impatto su cittadini dell'UE. Questa giurisdizione extraterritoriale è particolarmente evidente nelle disposizioni relative ai modelli GPAI, dove il considerando 106 dell'Act stabilisce che i fornitori devono rispettare il diritto d'autore dell'UE "indipendentemente dalla giurisdizione in cui avviene l'addestramento dei modelli".
Tale approccio è stato fortemente criticato da alcuni osservatori, che lo vedono come un tentativo dell'UE di imporre le proprie norme su aziende che non hanno sede nel suo territorio. Secondo i critici, questo potrebbe creare una frattura nell'ecosistema tecnologico globale, con aziende costrette a sviluppare versioni separate dei loro prodotti per il mercato europeo o ad adottare gli standard europei per tutti i mercati per evitare costi di compliance aggiuntivi.
Le multinazionali tecnologiche si trovano dunque in una posizione difficile: ignorare il mercato europeo non è un'opzione praticabile, ma conformarsi all'AI Act richiede investimenti significativi e potrebbe limitare le possibilità di innovazione. Questo effetto è ulteriormente amplificato dalla tempistica ambiziosa dell'implementazione e dall'incertezza interpretativa di molte disposizioni.
L'AI Act è entrato in vigore il 1° agosto 2024, ma la sua applicazione seguirà un calendario scaglionato:
Il regolamento adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie: rischio inaccettabile (vietati), alto rischio (soggetti a rigorosi requisiti), rischio limitato (con obblighi di trasparenza) e rischio minimo o nullo (uso libero). Questa categorizzazione determina gli obblighi specifici per sviluppatori, fornitori e utilizzatori.
Una delle innovazioni più significative dell'AI Act riguarda gli obblighi di trasparenza, che mirano ad affrontare la natura "black box" dei sistemi di IA. Questi obblighi includono:
Questi requisiti, sebbene progettati per proteggere i diritti dei cittadini, potrebbero costituire un significativo onere per le aziende, in particolare per le startup e le PMI innovative. La necessità di documentare in dettaglio i processi di sviluppo, i dati di addestramento e le logiche decisionali potrebbe rallentare i cicli di innovazione e aumentare i costi di sviluppo, ponendo le aziende europee in una posizione di svantaggio rispetto ai concorrenti di altre regioni con regolamentazioni meno stringenti.

La sentenza del Caso C-203/22 evidenzia come le aziende inizialmente resistano ai mandati di trasparenza. L'imputato, un fornitore di telecomunicazioni, ha sostenuto che rivelare la logica del suo algoritmo di credit scoring avrebbe rivelato segreti commerciali, mettendo a rischio il suo vantaggio competitivo6 . La CGUE ha respinto questa tesi, affermando che l'Articolo 22 del GDPR dà diritto alle persone a una spiegazione dei "criteri e della logica" alla base delle decisioni automatizzate, anche se semplificata6 .
Secondo il sistema a due livelli dell'AI Act, la maggior parte dei modelli di IA generativa rientra nel Livello 1, richiedendo il rispetto del diritto d'autore dell'UE e riassunti dei dati di addestramento2 . Per evitare rivendicazioni di violazione del copyright, aziende come OpenAI sono passate a dati sintetici o contenuti con licenza, ma persistono lacune nella documentazione.
L'AI Act contiene disposizioni specifiche relative al diritto d'autore che estendono l'influenza normativa dell'UE ben oltre i suoi confini. I fornitori di modelli GPAI devono:
Il considerando 106 dell'AI Act stabilisce che i fornitori devono rispettare il diritto d'autore dell'UE, "indipendentemente dalla giurisdizione in cui avviene l'addestramento dei modelli". Questo approccio extraterritoriale solleva interrogativi sulla compatibilità con i principi di territorialità del diritto d'autore e potrebbe creare conflitti normativi con altre giurisdizioni.
Per le aziende tecnologiche globali, l'AI Act presenta una scelta strategica fondamentale: adattarsi al "Brussels Effect" e conformarsi agli standard europei a livello globale, o sviluppare approcci differenziati per diversi mercati? Diverse strategie sono emerse:
Alcune grandi aziende tecnologiche stanno sviluppando un "modello duale" di operatività:
Questo approccio, sebbene costoso, permette di mantenere una presenza sul mercato europeo senza compromettere l'innovazione a livello globale. Tuttavia, questa frammentazione potrebbe portare a un divario tecnologico crescente, con gli utenti europei che avrebbero accesso a tecnologie meno avanzate rispetto a quelli di altre regioni.
L'AI Act europeo rappresenta un punto di svolta nella regolamentazione dell'IA, ma la sua complessità e le ambiguità interpretative generano un clima di incertezza che potrebbe influenzare negativamente l'innovazione e gli investimenti nel settore. Le aziende si trovano ad affrontare diverse sfide:
Il panorama normativo in continua evoluzione rappresenta un rischio significativo per le aziende. L'interpretazione di concetti chiave come "riassunto sufficientemente dettagliato" o la classificazione dei sistemi ad "alto rischio" rimane ambigua. Questa incertezza potrebbe tradursi in:

Il dibattito sul "Brussels Effect" si inserisce nel più ampio contesto della sovranità tecnologica europea. L'UE si trova nella difficile posizione di dover bilanciare la necessità di promuovere l'innovazione interna con quella di regolamentare le tecnologie sviluppate principalmente da attori non europei.
Nel 2024, le aziende europee hanno attratto solo il 10% degli investimenti globali in IA, mentre gli Stati Uniti e la Cina hanno dominato il settore con una combinazione di massicci investimenti pubblici e privati, politiche favorevoli all'innovazione e accesso a grandi quantità di dati. L'Europa, con la sua frammentazione linguistica, culturale e normativa, fatica a generare "campioni" tecnologici in grado di competere a livello globale.
I critici sostengono che l'approccio europeo incentrato sulla regolamentazione rischia di soffocare ulteriormente l'innovazione e di dissuadere gli investimenti, mentre i sostenitori ritengono che la creazione di un quadro normativo affidabile possa in realtà stimolare lo sviluppo di IA "by design" etiche e sicure, creando un vantaggio competitivo a lungo termine.
Il "Brussels Effect" dell'AI Act mette in luce una tensione fondamentale nell'approccio europeo alla tecnologia: la capacità di stabilire standard globali attraverso la regolamentazione non è accompagnata da una corrispondente leadership nell'innovazione tecnologica. Questa asimmetria solleva interrogativi sulla sostenibilità a lungo termine di tale approccio.
Se l'Europa continua a regolamentare tecnologie che non sviluppa, rischia di trovarsi in una posizione di crescente dipendenza tecnologica, dove le sue regole potrebbero diventare sempre meno rilevanti in un ecosistema globale in rapida evoluzione. Inoltre, le aziende extraeuropee potrebbero progressivamente ritirarsi dal mercato europeo o offrirvi versioni limitate dei loro prodotti, creando una "fortezza digitale Europa" sempre più isolata dai progressi globali.
D'altra parte, se l'UE riuscisse a bilanciare l'approccio regolamentare con una strategia efficace di promozione dell'innovazione, potrebbe effettivamente definire una "terza via" tra il capitalismo americano e il controllo statale cinese, ponendo i diritti umani e i valori democratici al centro dello sviluppo tecnologico. Vaste programme direbbero in Francia.
Il futuro dell'IA in Europa dipenderà non solo dall'efficacia dell'AI Act nella protezione dei diritti fondamentali, ma anche dalla capacità dell'Europa di accompagnare la regolamentazione con adeguati investimenti nell'innovazione e di semplificare il quadro normativo per renderlo meno opprimente. In caso contrario, l'Europa rischia di trovarsi in una situazione paradossale: leader mondiale nella regolamentazione dell'IA, ma marginale nel suo sviluppo e nella sua applicazione.