📧 **Articolo della Newsletter Aggiornato**
*Questo articolo è stato originariamente pubblicato nella nostra newsletter settimanale e successivamente aggiornato con gli sviluppi del 2025, incluse le sentenze storiche Bartz v. Anthropic, Kadrey v. Meta, Disney v. Midjourney e Thomson Reuters v. Ross Intelligence.*
**Ultimo aggiornamento:** [Luglio 2025]
L'incontro tra intelligenza artificiale e diritto d'autore è diventato uno dei campi più complessi e in rapida evoluzione del panorama giuridico moderno. Il 2025 ha segnato un punto di svolta storico con le prime sentenze sostanziali che stanno ridefinendo il modo in cui i contenuti generati dall'IA vengono trattati sotto il profilo del copyright.
Le Sentenze Storiche del 2025: Una Giurisprudenza Frammentata
Il Precedente Devastante: Thomson Reuters v. Ross Intelligence
L'11 febbraio 2025 ha segnato una data spartiacque nel diritto dell'IA quando il giudice Stephanos Bibas ha emesso la prima sentenza che respinge categoricamente la difesa del fair use nell'addestramento AI.
Nel caso Thomson Reuters Enterprise Centre GmbH v. Ross Intelligence Inc., il tribunale ha stabilito come questione di diritto che l'uso di headnotes protetti da copyright per addestrare un sistema AI non costituisce fair use.
Il cuore della decisione: Ross Intelligence aveva utilizzato le headnotes di Westlaw (riassunti legali proprietari di Thomson Reuters) per addestrare il proprio motore di ricerca AI concorrente. Il tribunale ha enfatizzato che Ross stava creando un "sostituto di mercato" diretto per Westlaw, pesando decisivamente contro il fair use.
Come ha scritto il giudice Bibas: "Il pubblico non ha diritto all'analisi legale di Thomson Reuters. I copyright incoraggiano le persone a sviluppare cose che aiutano la società, come buoni strumenti di ricerca legale."
Le Sentenze Gemelle del Giugno 2025: Un Paradosso Giuridico
A distanza di soli due giorni, nel giugno 2025, due tribunali federali della California hanno emesso decisioni apparentemente contraddittorie che hanno scosso l'industria dell'IA.
Bartz v. Anthropic (23 giugno 2025): Il giudice William Alsup ha stabilito che l'addestramento di Claude su libri legalmente acquistati costituisce fair use, definendo il processo "spettacolarmente trasformativo". Tuttavia, ha condannato Anthropic per aver scaricato oltre 7 milioni di libri da siti pirata come LibGen e Pirate Library Mirror, stabilendo che questa acquisizione illegale non è protetta dal fair use. La decisione crea una distinzione cruciale: l'addestramento può essere fair use, ma solo quando i materiali sono ottenuti legalmente.
Kadrey v. Meta (25 giugno 2025): Il giudice Vince Chhabria ha stabilito che l'addestramento di LLaMA sui libri degli autori costituisce fair use, ma per ragioni diverse rispetto ad Anthropic. Gli autori (inclusi Sarah Silverman e Ta-Nehisi Coates) non sono riusciti a dimostrare che l'IA di Meta stesse effettivamente sostituendo le loro opere nel mercato o causando danni economici concreti. Nella sua decisione, il giudice Chhabria ha implicitamente criticato l'enfasi del giudice Alsup sulla natura "trasformativa" dell'IA, sottolineando invece che il fattore cruciale dovrebbe essere l'evidenza di danno economico effettivo.
Hollywood Entra Nella Battaglia: Disney e Universal v. Midjourney
Giugno 2025 ha visto anche l'ingresso dei colossi di Hollywood nella guerra legale AI-copyright. Disney e Universal hanno intentato causa contro Midjourney, segnando la prima volta che major hollywoodiane citano in giudizio una compagnia di AI per violazione di copyright.
Il Peso dei Giganti: La causa da 110 pagine accusa Midjourney di aver rubato "innumerevoli" opere protette da copyright per addestrare il suo software, inclusi personaggi iconici come Darth Vader, Homer Simpson e Shrek. Come riportato da TIME, l'importanza di questo caso risiede nelle dimensioni, influenza e risorse di Disney e Universal: "Più questi pilastri dell'economia americana entrano nella lotta, più difficile diventa ignorare la semplice verità qui."
La "Macchina Distributrice Virtuale": La causa descrive Midjourney come una "macchina distributrice virtuale che genera copie infinite e non autorizzate" delle opere di Disney e Universal. Con oltre 20 milioni di utenti registrati e $300 milioni di entrate nel 2024, Midjourney rappresenta uno dei più grandi generatori di immagini AI al mondo.
Andersen contro Stability AI: L'Evoluzione Continua
Il gruppo di artisti guidato da Sarah Andersen continua a ottenere vittorie significative quando il giudice William Orrick ha permesso alle loro accuse di violazione del copyright di procedere contro aziende come Stability AI e Midjourney. Gli artisti sostenevano che queste aziende avessero illegalmente archiviato copie delle loro opere d'arte nei dataset di addestramento senza consenso o compenso.
La contraddizione fondamentale: Questa causa mette in luce il paradosso intrinseco dell'IA generativa: i modelli sono progettati per imitare la creatività umana, ma possono farlo solo consumando opere umane.
L'Approccio Etico di Adobe: Licensing vs. Fair Use
Mentre altri giganti tecnologici affrontano cause legali per violazioni di copyright, Adobe ha tentato di posizionarsi come l'alternativa "etica" con il suo Firefly AI. Adobe ha costruito la sua strategia marketing e differenziazione del prodotto attorno al concetto di "commercially safe AI", addestrato principalmente su immagini licenziate da Adobe Stock e contenuti di pubblico dominio.
La Promessa dell'Etica: Adobe ha differenziato Firefly dai competitor come Midjourney e DALL-E enfatizzando che il suo modello è addestrato solo su contenuti licenziati, evitando il controverso scraping di internet. La compagnia ha implementato anche tecnologie come Content Credentials per consentire ai creatori di aggiungere un tag "Do Not Train" ai loro lavori.
La Realtà Complessa: Tuttavia, rivelazioni di Bloomberg nell'aprile 2024 hanno mostrato che circa il 5% del dataset di addestramento di Firefly includeva immagini generate da AI competitor, incluso Midjourney. All'interno di Adobe Stock, 57 milioni di immagini sono esplicitamente etichettate come generate da AI, rappresentando il 14% del database totale.
La Difesa di Adobe: Adobe ha risposto che tutte le immagini in Adobe Stock, incluse quelle generate da AI, passano attraverso un "rigoroso processo di moderazione" per garantire che non includano proprietà intellettuali, marchi o personaggi riconoscibili. La compagnia sostiene che questo approccio rimane più etico dei competitor che utilizzano dati completamente non licenziati.
Il vantaggio per l'utente finale: l’approccio di Adobe si traduce nella possibilità di utilizzare contenuti generati da Firefly con una minore esposizione a rischi legali o violazioni di copyright. Anche in un contesto in cui emergono contraddizioni e zone grigie, l’impegno di Adobe verso la trasparenza, la moderazione dei contenuti e il rispetto dei diritti degli artisti rappresenta un valore aggiunto.
La Frammentazione Giurisprudenziale del 2025
Il 2025 ha rivelato una giurisprudenza profondamente divisa che riflette la complessità intrinseca di applicare leggi del XX secolo a tecnologie del XXI secolo.
Il Paradigma dell'Acquisizione Legale: Tutte le sentenze concordano su un principio fondamentale: la distinzione tra acquisizione legale e illegale di materiali di addestramento. Anche quando l'uso successivo potrebbe essere fair use, il download di materiale piratato resta illegale e può comportare responsabilità separate.
La Battaglia del Quarto Fattore: Le decisioni hanno identificato il quarto fattore del fair use (impatto sul mercato) come il nuovo campo di battaglia legale. Mentre Thomson Reuters ha vinto dimostrando una chiara sostituzione di mercato, i casi Bartz e Kadrey hanno fallito nel dimostrare danni economici concreti.
Il problema della probatio diabolica: Emerge un paradosso processuale: come possono gli autori dimostrare danni di mercato da sistemi AI quando l'impatto è diffuso e difficile da quantificare? Stiamo assistendo alla nascita di un sistema in cui la protezione dipende dalla capacità di dimostrare matematicamente ciò che spesso è intuitivamente evidente.
Gli Attori di Fronte all'Abisso Digitale
La crisi del copyright nell'era dell'IA colpisce particolarmente il mondo della recitazione, dove l'identità stessa dell'interprete rappresenta il fulcro della professione. La possibilità di clonare sembianze, voci e stili recitativi sta rapidamente trasformando il concetto di "performance" da atto creativo unico a potenziale template replicabile.
La dissoluzione dell'interpretazione: Quando un attore può essere ricreato digitalmente, cosa resta dell'arte interpretativa? Gli studios hanno già dimostrato la capacità di "resuscitare" attori deceduti e di manipolare digitalmente interpretazioni esistenti. La domanda fondamentale non è tanto se sia possibile dal punto di vista tecnico, ma se preservi l'essenza di ciò che rende significativa una performance.
Il precedente di "Here": Il film "Here", dove sono state utilizzate ricreazioni digitali complete di Tom Hanks e Robin Wright per ruoli principali, rappresenta un modello di uso autorizzato. La produzione ha ottenuto il consenso esplicito e pagato i diritti agli attori coinvolti, creando così un precedente commerciale di uso consensuale. Questo evidenzia come il problema non sia necessariamente la tecnologia in sé, ma il consenso e la compensazione degli artisti il cui lavoro e immagine vengono utilizzati.
L'Agenda di Disney sui Digital Replicas: È significativo notare che Disney è anche tra i sostenitori del NO FAKES Act, la proposta di legge federale per proteggere voce e somiglianza di attori da repliche AI non autorizzate. Questo mostra una strategia coordinata: proteggere gli attori dalle repliche digitali non autorizzate mentre si combatte l'uso non autorizzato delle proprietà intellettuali esistenti.
Il paradosso del valore inverso: È emerso un fenomeno economico peculiare: gli attori più celebri e con carriere consolidate (quindi con ampio materiale disponibile per l'addestramento AI) sono paradossalmente i più vulnerabili alla sostituzione algoritmica. Il loro stesso successo li rende facili bersagli per la clonazione non autorizzata, invertendo la tradizionale curva di valore della carriera artistica.
L'Europa Come Contraltare Normativo: L'AI Act in Azione
Mentre gli Stati Uniti navigano nel labirinto del fair use, l'Europa ha scelto un approccio radicalmente diverso con l'AI Act, entrato in vigore nell'agosto 2024 e ora in fase di implementazione attiva.
La Rivoluzione della Trasparenza Obbligatoria: L'AI Act richiede che i fornitori di modelli AI generali rendano pubblico un "riassunto sufficientemente dettagliato" dei dati usati per l'addestramento, inclusi materiali protetti da copyright. Nel gennaio 2025, la Commissione Europea ha pubblicato un template per assistere i fornitori nella preparazione del riassunto richiesto.
I Pilastri dell'AI Act:
- Trasparenza: Le aziende devono rivelare le fonti dei loro dati di addestramento
- Rispetto del Copyright: Obbligo di rispettare le leggi UE sul copyright, indipendentemente da dove avvenga l'addestramento
- Opt-out: Rispetto delle preferenze dei detentori dei diritti che esprimono rifiuto
L'Effetto Extraterritoriale: L'AI Act si applica a qualsiasi fornitore che immette un modello AI sul mercato UE, "indipendentemente dalla giurisdizione in cui si svolgono gli atti rilevanti per il copyright". Questo crea potenziali conflitti con la giurisprudenza americana del fair use.
Il Nuovo Rapporto dell'Ufficio Copyright USA (2025)
Nel gennaio 2025, l'Ufficio Copyright statunitense ha rilasciato la Parte 2 del suo rapporto sull'IA, fornendo chiarimenti cruciali sulla proteggibilità delle opere generate dall'IA.
I Principi Fondamentali Confermati:
- Solo le opere con elementi espressivi determinati da un autore umano possono essere protette da copyright
- Il mero fornire prompt non è sufficiente per la protezione copyright
- L'assistenza dell'IA nella creazione non impedisce automaticamente la proteggibilità
- Le opere completamente generate dall'IA non possono essere protette da copyright
Il Mito dell'Originalità Rivisitato: Il rapporto conferma quanto sia artificiale il concetto di "originalità" nel diritto d'autore moderno. Cosa distingue veramente un artista che seleziona tra migliaia di output IA da un programmatore che seleziona tra migliaia di algoritmi? La distinzione legale sembra più ideologica che pratica, eppure rimane cruciale per determinare cosa può essere protetto da copyright.
Prospettive Internazionali: La Divergenza Globale
Cina: Un tribunale di Pechino ha riconosciuto nel novembre 2023 la protezione copyright per un'immagine generata dall'IA, purché dimostri originalità e rifletta lo sforzo intellettuale umano. Questo contrasta con l'approccio più restrittivo degli Stati Uniti.
Repubblica Ceca: Nel 2024, un tribunale ceco ha emesso la prima sentenza europea sul copyright generato dall'IA, rifiutando la protezione per un'immagine creata tramite prompt, allineandosi con la posizione dell'Ufficio Copyright statunitense.
L'Ipocrisia Legislativa Globale: È interessante notare come i sistemi legali occidentali rifiutino di riconoscere diritti alle opere generate dall'IA mentre simultaneamente permettono che opere umane vengano "divorate" da questi stessi sistemi. Stiamo assistendo a un doppio standard: le opere umane sono considerate sacre quando create, ma sacrificabili quando consumate dall'IA.
Il Dibattito sul Fair Use: La Nuova Frontiera
Le aziende di IA si affidano sempre più all'argomento dell'"uso trasformativo", ma le sentenze del 2025 hanno mostrato i limiti di questa strategia.
L'Illusione della Trasformazione: L'argomento dell'"uso trasformativo" si sta rivelando una conveniente finzione legale quando applicato su scala industriale. La verità è che le IA non "trasformano" opere tanto quanto le digeriscono e le riciclano. I giudici iniziano a comprendere questa distinzione - come dimostrato nel caso Thomson Reuters - quando l'uso commerciale è evidente e diretto, ma faticano ancora ad articolare perché esattamente l'apprendimento umano da opere protette sia accettabile mentre quello artificiale non lo sia.
I Nuovi Fattori Decisivi:
- Acquisizione legale vs. illegale dei materiali di addestramento
- Sostituzione diretta del mercato vs. creazione di nuovi mercati
- Evidenza concreta di danno economico vs. danno teorico
-
Rischi di Responsabilità per Utenti Finali e Sviluppatori
Il caso Andersen ha stabilito che gli utenti finali potrebbero essere responsabili se gli output dell'IA assomigliano troppo ai dati di addestramento, ma le sentenze del 2025 hanno complicato ulteriormente questo panorama.
L'Impossibile Onere della Conoscenza Aggiornato: Come può un utente finale conoscere il contenuto di dataset di addestramento che contengono miliardi di immagini, soprattutto quando l'AI Act ora richiede trasparenza ma i fornitori USA potrebbero non conformarsi? Stiamo creando un sistema in cui l'utente medio rischia sanzioni per violazioni che non può né prevedere né evitare, in un contesto di regolamentazione transfrontaliera incoerente.
P.S. - Il Paradosso di Frankenstein Aggiornato: Come nel caso del Dr. Frankenstein - che è il creatore e non la creatura, errore comune tra chi non ha letto l'opera di Mary Shelley - ci troviamo in un paradosso amplificato: l'utente che utilizza l'IA viene trattato come il "mostro" responsabile delle violazioni, mentre i veri "dottori" che hanno creato e addestrato questi sistemi su dati altrui spesso sfuggono alle conseguenze legali. Le sentenze del 2025 mostrano che anche quando le aziende vengono ritenute responsabili, spesso è solo per gli aspetti più eclatanti (come la pirateria di Anthropic), non per l'uso sistematico di materiali protetti. Un'ulteriore dimostrazione di come la superficialità culturale si rifletta anche nella nostra interpretazione delle responsabilità nell'era digitale.
Implicazioni per l'Industria e Direzioni Future
I casi del 2025 hanno accelerato la domanda di dataset di addestramento con licenza. Le principali aziende mediatiche stanno ora negoziando accordi di ripartizione dei redditi che rispecchiano il modello ASCAP/BMI dell'industria musicale.
L'Eterogenesi dei Fini Confermata: Paradossalmente, le cause legali intentate per proteggere i creatori individuali stanno favorendo le grandi aziende strutturate, che possono permettersi complessi accordi di licenza. Le sentenze del 2025 hanno dimostrato che la capacità di dimostrare danni economici concreti - spesso al di là delle possibilità dei singoli creatori - è diventata cruciale per il successo legale. Tuttavia, l'ingresso di Disney e Universal cambia le dinamiche: questi colossi hanno sia le risorse per sostenere lunghe battaglie legali sia l'influenza per ottenere attenzione mediatica e politica.
Il Mercato del Licensing in Espansione: Thomson Reuters, Getty Images, e altri grandi detentori di contenuti stanno ora monetizzando attivamente i loro archivi come dati di addestramento, creando un nuovo mercato che potrebbe escludere creatori più piccoli e indipendenti. L'ingresso di Disney e Universal accelererà probabilmente questo trend, con l'industria cinematografica che potrebbe "accelerare effettivamente il suo utilizzo di modelli AI costruiti su contenuti licenziati" una volta ottenuta chiarezza legale.
La Lezione di Adobe: Il caso Adobe dimostra che anche gli approcci apparentemente più etici possono essere imperfetti. Tuttavia, rappresenta un tentativo genuino di trovare un equilibrio tra innovazione AI e rispetto dei diritti dei creatori. Come ha dichiarato Adobe: "Il nostro obiettivo è costruire IA generativa che permetta ai creatori di monetizzare i loro talenti" - un principio che contrasta nettamente con l'approccio "take first, ask later" di molti competitor.
Il Modello Adobe vs. Concorrenti: Mentre aziende come Anthropic e Meta si difendono in tribunale per l'uso di contenuti piratati, Adobe ha almeno tentato di creare un framework di licensing. Questo approach, seppur imperfetto, potrebbe servire da modello per future regolamentazioni che richiedono trasparenza e compensazione per i creatori.
Conclusione: Navigare nell'Incertezza Post-2025
Il futuro della creatività umana nell'era post-sentenze 2025: Le battaglie legali attuali non riguardano semplicemente la proprietà intellettuale, ma il significato stesso della creatività umana nell'era dell'IA. Le sentenze del 2025 hanno tentato di preservare una distinzione sempre più artificiale tra creatività umana e artificiale, ma hanno anche rivelato i limiti pratici di questo approccio.
La Frammentazione Come Nuova Normalità: Invece di chiarezza, il 2025 ha prodotto un mosaico di decisioni giurisprudenziali che riflettono approcci fondamentalmente diversi. La convergenza su alcuni principi (illegalità della pirateria, importanza dell'impatto sul mercato) coesiste con divergenze profonde su questioni fondamentali.
Il Vero Problema Emergente: Le sentenze del 2025 hanno dimostrato che il problema non è più se l'IA possa violare il copyright, ma se i sistemi legali nazionali possano sviluppare framework coerenti abbastanza rapidamente da governare una tecnologia in evoluzione esponenziale. L'AI Act europeo e la giurisprudenza americana stanno creando standard incompatibili che potrebbero frammentare il mercato globale dell'IA. L'ingresso di Disney - con il suo potere di lobby e influenza politica - potrebbe essere il catalizzatore per una legislazione federale USA più definitiva.
La Lezione di Disney: Come ha osservato un esperto dell'industria riguardo al caso Disney-Universal: "Questo non sarà Hollywood che cerca di spegnere l'IA generativa. Si tratta di compensazione." Questa distinzione è cruciale: non si tratta di fermare l'innovazione, ma di assicurare che i creatori vengano compensati per il loro lavoro.
Il Contrasto dei Modelli: Il 2025 ha evidenziato tre approcci fondamentalmente diversi: da un lato abbiamo Disney che usa il tribunale per proteggere IP ad alto valore, e Adobe che tenta di costruire un ecosistema etico (seppur imperfetto); dall'altro, aziende che preferiscono rischiare cause legali piuttosto che limitare l'accesso ai dati; infine, l'Europa che impone trasparenza obbligatoria attraverso l'AI Act. Questo contrasto definirà probabilmente il futuro della regolamentazione AI.
Mentre cerchiamo di applicare leggi del XX secolo a tecnologie del XXI secolo, potremmo trovarci a difendere un sistema che non solo non protegge più gli interessi che pretende di tutelare, ma che attivamente ostacola l'emergere di nuove forme di espressione creativa che non rientrano facilmente nelle categorie esistenti. Il 2025 ha mostrato che la strada verso la coesistenza tra creatività umana e artificiale sarà molto più complessa e contraddittoria di quanto inizialmente previsto.
Nota: Questo articolo aggiornato riflette gli sviluppi significativi del 2025 nel campo AI-copyright, incluse le prime sentenze sostanziali e l'implementazione dell'AI Act europeo. Per ulteriori aggiornamenti sui casi pendenti, consultare il tracker completo dei casi AI-copyright di BakerHostetler. Il panorama legale continua a evolversi rapidamente, richiedendo monitoraggio costante degli sviluppi normativi e giurisprudenziali.
Risorse Aggiuntive:
- EU AI Act - Sito Ufficiale
- U.S. Copyright Office AI Initiative
- MIT Technology Review - AI Copyright Analysis