Schiaffo al copyright: utilizzare materiale protetto per l’addestramento si può. La sentenza che fa discutere

L’Alta Corte di Giustizia di Londra ha dato in gran parte ragione a Stability AI, creatrice del celebre generatore di immagini Stable Diffusion, nel processo intentato da Getty Images per presunta violazione del copyright. Il verdetto segna una vittoria legale per la società di intelligenza artificiale, ma lascia ancora irrisolto uno dei temi più discussi del settore: l’uso di opere protette dal diritto d’autore per addestrare modelli generativi.

La causa, avviata nel 2023, rappresentava il primo grande caso sul copyright legato all’IA esaminato nel Regno Unito. Getty accusava Stability di aver “copiato illegalmente milioni di immagini” dal proprio archivio per alimentare il sistema di generazione visiva.

Come riporta The Verge, la giudice Joanna Smith ha riconosciuto una violazione del marchio a causa della presenza dei watermark Getty in alcune immagini prodotte da Stable Diffusion, ma ha respinto l’accusa di violazione diretta del diritto d’autore. Secondo la sentenza, il modello non conserva né riproduce materiale protetto, limitandosi a elaborare informazioni statistiche durante la fase di addestramento.

Getty ha scelto di ritirare l’accusa principale di uso illecito di opere coperte da copyright a causa di prove insufficienti, ridimensionando così la portata del caso. Negli Stati Uniti, però, la battaglia legale prosegue: Getty ha spostato la causa dal Delaware alla California lo scorso agosto, con l’obiettivo di ottenere un verdetto più favorevole.

Si tratta di una sentenza significativa, poiché è una delle prime in favore di un’azienda fornitrice di modelli basati sull’intelligenza artificiale generativa. Dal boom avvenuto lo scorso anno, sono molti i casi finiti in tribunale, alcuni dei quali già chiusi in favore degli accusanti.

Il più rilevante, al momento, è forse quello di Anthropic che ha accettato di pagare 1,5 miliardi di dollari per risolvere una causa con un gruppo di autori. Alcuni giorni fa, invece, la CODA – un’organizzazione che riunisce alcuni tra i principali editori e produttori giapponesi – ha portato OpenAI e il modello Sora 2 in tribunale per presunte violazioni del diritto d’autore di anime, videogiochi e altre opere.

Per ora, la sentenza britannica non stabilisce alcuna regola vincolante. Il dibattito, però, è quantomai aperto: le società fornitrici di modelli IA generativi dovrebbero chiedere un consenso esplicito per utilizzare materiale coperto da copyright da dare in pasto all’IA? La normativa giapponese impone di sì, ma la questione è ormai globale.