La fine di giugno 2025 ha segnato un momento cruciale con due pronunce giudiziarie significative riguardanti le società che sviluppano intelligenze artificiali. L'avvocata Laura Turini ha sottolineato l'importanza di queste decisioni provvisorie, che iniziano a chiarire i confini legali sull'uso di dati protetti da copyright per l'addestramento delle macchine. Il 23 giugno 2025, un giudice federale di San Francisco ha stabilito che l'impiego di libri coperti da copyright per l'addestramento di un'intelligenza artificiale non contravviene alle normative sul diritto d'autore negli Stati Uniti.
Questa determinazione fa parte di una causa intentata da un gruppo di scrittori contro Anthropic, creatore del modello linguistico Claude. Anthropic ha basato la sua difesa sul principio del \"fair use\", che permette l'utilizzo di materiale protetto senza consenso in determinate circostanze. Queste includono la natura trasformativa dell'uso, il tipo di opera, la quantità di materiale impiegato e il suo impatto sul mercato. Il giudice William Alsup ha argomentato che i grandi modelli linguistici di Anthropic sono stati addestrati su opere non per riproduzione o sostituzione, ma per assimilare e generare contenuti nuovi e originali, qualificando tale uso come trasformativo.
Una sentenza simile ha coinvolto Meta, dove il giudice Vincent Chhabria ha anch'esso riconosciuto l'applicabilità del \"fair use\" all'addestramento delle IA. Tuttavia, a differenza del collega, Chhabria ha espresso una certa riluttanza, sostenendo che le IA generative potrebbero gravemente danneggiare il mercato producendo opere di qualità inferiore ma capaci di sostituire la produzione letteraria esistente. Ha inoltre messo in discussione l'equità di permettere alle IA di apprendere gratuitamente da opere di autori celebri.
Un punto di convergenza tra i due giudici è la provenienza del materiale di addestramento. Sia Chhabria che Alsup hanno convenuto che l'utilizzo di materiale piratato da parte di aziende come Meta e Anthropic costituirebbe un illecito. Questa specificazione è fondamentale per chi osserva le dinamiche legali dall'esterno. Essa implica che l'addestramento di una macchina non è dissimile dall'apprendimento umano: per creare strumenti migliori, è necessario alimentarli con il meglio della produzione intellettuale, e l'apprendimento che porta a nuove creazioni non è equiparabile alla mera copiatura.
Queste discussioni non annullano le problematiche legate alle pratiche potenzialmente predatorie delle grandi aziende della Silicon Valley, né risolvono la questione della sovrapproduzione di contenuti o l'impatto sul futuro del mercato del lavoro creativo. È imperativo affrontare seriamente queste sfide. Le cause legali, ancora nelle fasi iniziali e limitate al contesto statunitense, beneficeranno le parti vincitrici, ma difficilmente si tradurranno in un beneficio universale. Nel frattempo, lo sviluppo tecnologico avanza incessantemente, rendendo urgente una riflessione più ampia sulle implicazioni sociali ed etiche dell'intelligenza artificiale.