Getty Images ha citato in giudizio Stability AI, produttore di Stable Diffusion, sostenendo che l’azienda avrebbe violato i diritti d’autore posseduti o rappresentati da Getty. “È posizione di Getty Images, secondo cui Stability AI ha illegalmente copiato ed elaborato milioni di immagini protette da copyright e i relativi metadati di proprietà di Getty Images o da essa rappresentati, in assenza di una licenza a vantaggio degli interessi commerciali di Stability AI e a scapito dei creatori di contenuti”, ha dichiarato Getty in un comunicato.

In sostanza, l’azienda sostiene che Stability AI tragga vantaggio dall’addestramento del suo modello fatto con immagini pubblicate da Getty su Internet, senza riconoscere alcun compenso. Le immagini Getty vengono pubblicate su Internet con un watermark visibile; le immagini concesse in licenza hanno il watermark rimosso. Getty ha dichiarato che Stability AI non ha chiesto una licenza per utilizzare le immagini sotto copyright.

La causa, che è stata intentata presso il tribunale di Londra, contribuirà a stabilire cosa può fare un modello di intelligenza artificiale con le immagini che trova su Internet, specialmente se queste sono protette da copyright. “Riteniamo che questi modelli generativi debbano tenere conto dei diritti di proprietà intellettuale altrui, questo è il nocciolo della questione”, ha dichiarato Craig Peters, amministratore delegato di Getty Images, a The Verge. “E stiamo intraprendendo questa azione per fare chiarezza”.

Un problema generale o solo di Stable Diffusion?

È interessante notare che Getty non stia anche facendo causa a OpenAI, il creatore dei modelli Dall-E e Dall-E 2, che hanno utilizzato 400 milioni di immagini con didascalia recuperate da Internet, senza però specificare chi ne fosse il proprietario. L’azienda ha invece citato in giudizio Stability AI, lo sviluppatore del modello Stable Diffusion che consente di sviluppare l’arte dell’IA sul proprio PC. (Stable Diffusion è disponibile anche come servizio cloud hosted su DreamStudio.ai). L’azienda non dice esplicitamente dove ha addestrato il suo modello, ma fa notare che le immagini generate tramite Stable Diffusion 2 includono un watermark invisibile che le classifica come “generate dalla IA”. In questo modo, Stability AI starebbe quindi tentando di attribuirsi la paternità delle immagini, anche se il modello è stato addestrato su immagini altrui.

L’utente Reddit toastythunder ha pubblicato questa immagine generata con Stable Diffusion in cui compare il watermark di iStockphotos, sito che vende immagini stock.

L’utente Reddit toastythunder ha pubblicato questa immagine generata con Stable Diffusion in cui compare il watermark di iStockphotos, sito che vende immagini stock.

È plausibile che una sentenza contro Stability AI impedirà ai modelli di intelligenza artificiale di utilizzare immagini protette da copyright senza una licenza, almeno nel Regno Unito, costringendo Stability AI e altri sviluppatori a pagare i diritti di licenza o eliminando semplicemente le immagini protette da copyright dai dati di addestramento dei loro modelli. Questo eliminerebbe un numero significativo di immagini dai modelli di Stability, forse degradando i risultati del modello. D’altra parte, ciò preserverebbe il copyright di Getty e presumibilmente di coloro che hanno creato le proprie opere d’arte uniche e protette da copyright.

Fair use e fair dealing

Le argomentazioni di entrambe le parti si ridurranno presumibilmente al concetto di fair use (uso corretto), un’idea nata nella legislazione statunitense e che consente un uso limitato di materiale protetto da copyright senza dover prima ottenere l’autorizzazione del titolare del diritto d’autore. Si tratta di un argomento alquanto controverso, che cerca di limitare il diritto d’autore a vantaggio del pubblico, consentendo per esempio di utilizzare materiale sotto copyright per realizzare parodie o per fini di insegnamento, ma vietando essenzialmente ai musicisti di campionare frammenti di altri artisti senza il loro permesso.

Tuttavia, dal momento che la causa è stata intentata nel Regno Unito, essa verrà esaminata alla luce della dottrina britannica del fair dealing, una versione meno permissiva rispetto al concetto di fair use. Una volta dimostrata la violazione, la possibile difesa rientra in una delle tre eccezioni: quando l’uso è a scopo di ricerca o studio privato, quando è per consentire critiche o revisioni e quando è a scopo di cronaca, secondo Wikipedia. Inoltre, si tiene conto della quantità di materiale protetto da copyright utilizzato.

Nel caso, potrebbero emergere come esempi artisti come Andy Warhol. Il celebre artista pop scomparso nel 1987 era famoso per aver preso oggetti e immagini popolari, come per  esempio le lattine di zuppa Campbell o una foto di Marilyn Monroe, e per essersene appropriato nel proprio lavoro. Nel suo Dittico di Marilyn, Warhol prese una foto pubblicitaria della Warner Bros, la colorò e la pubblicò come opera propria. Secondo il saggio di Kate Donohue in The Columbia Journal of Law & the Arts, Warhol e, dopo la sua morte, la sua fondazione – furono citati in giudizio da artisti che sostenevano che l’artista aveva preso le loro fotografie e le aveva adattate ripubblicandole a proprio nome. Con molti di loro fu definito un accordo extra giudiziale.

Secondo la dottrina statunitense del fair use, un nodo centrale sarebbe stabilire se l’opera di Warhol fosse sufficientemente “trasformativa” da poter passare attraverso la scappatoia del fair use, e se lo scopo dell’arte dell’AI sia trasformativo per natura. Nel Regno Unito, invece, Stability AI potrebbe avere opzioni di difesa più limitate. In ogni caso, è probabile che il tribunale britannico contribuisca a decidere cosa l’AI può o non può fare con le opere protette da copyright, plasmando il futuro dell’AI nelle arti.

Immagine di apertura: II.studio / Shutterstock.com