Il 2022 è stato l’anno in cui gli strumenti dei cosiddetti “media sintetici” sono diventati mainstream. Creatori di contenuti, marketer, blogger aziendali si stanno affrettando a sfruttare questa nuova tendenza. E’ facile capire perché. L’arte creata con l’intelligenza artificiale (AI) offre un’alternativa flessibile e originale alla vecchia fotografia d’archivio. E i generatori di contenuti AI, in particolare ChatGPT, possono letteralmente scrivere in pochi secondi post, pubblicità e contenuti di marketing di qualità accettabile.

La maggior parte del merito di questa improvvisa svolta verso i media sintetici da parte di milioni di persone va a una società con sede a San Francisco chiamata OpenAI. E’ una società a scopo di lucro di proprietà di una azienda senza scopo di lucro – entrambe chiamate OpenAI – fondata da Sam Altman, Elon Musk, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys e YC Research e sostenuta da Microsoft con un importo di 1 miliardo di dollari. OpenAI è responsabile sia di DALL-E 2 che di ChatGPT, i servizi che permettono di creare immagini e testi attraverso l’AI.

Nelle ultime settimane sono emerse centinaia di nuovi prodotti e servizi online che consentono un facile utilizzo di questi strumenti. Ma OpenAI ne è il fulcro.

Il vero problema con i media sintetici

Darren Hick, professore di filosofia presso la Furman University, ha recentemente scritto su Facebook che insegnanti e professori possono aspettarsi una “ondata” di compiti a casa svolti da ChatGPT.

Possiamo aspettarci “imbrogli” anche da parte dei creatori di contenuti aziendali.

Gli strumenti di media sintetici pubblici basati su DALL-E 2 e ChatGPT consentono di risparmiare tempo e denaro e di generare rapidamente contenuti di qualità. Le aziende li stanno già utilizzando per post sui social e sui blog aziendali, risposte automatiche e illustrazioni.

I media sintetici promettono un futuro molto prossimo in cui gli annunci pubblicitari sono generati su misura per ogni cliente, agenti del servizio clienti AI super realistici rispondono al telefono anche nelle piccole e medie imprese e tutte le immagini di marketing, pubblicità e business sono generate dall’IA, piuttosto che da grafici e fotografi umani. La tecnologia promette un’intelligenza artificiale che scrive software, gestisce la SEO e pubblica sui social media senza intervento umano.

Fantastico, vero? Il guaio è che pochi pensano alle conseguenze legali.

Supponiamo che la vostra azienda voglia una nuova pagina “Chi siamo” sul proprio sito web. Le aziende ora possono dare selfie esistenti a uno strumento di intelligenza artificiale, scegliere uno stile, quindi generare foto false che sembrano tutte foto scattate nello stesso studio con la stessa illuminazione o dipinte dallo stesso artista con lo stesso stile e palette di colori. Ma gli stili vengono spesso “appresi” dall’intelligenza artificiale elaborando (in termini legali) la proprietà intellettuale di specifici fotografi o artisti.

È un furto di proprietà intellettuale?

Si corre anche il rischio di pubblicare contenuti simili o identici a contenuti generati da ChatGPT e pubblicati altrove, come minimo di essere declassati da Google Search per contenuti duplicati e, come estrema conseguenza, di essere accusati (o citati in giudizio) per plagio.

Per esempio, supponiamo che un’azienda utilizzi ChatGPT per generare un post, e lo pubblichi sui social o sul bolo aziendale apportando minime modifiche. Il copyright può proteggere o meno quel contenuto, inclusi i bit generati dall’intelligenza artificiale.

Ma poi un’azienda concorrente incarica ChatGPT di scrivere un altro post sul blog, generando un linguaggio identico nell’espressione al primo. Il contenuto viene pubblicato online, con minime modifiche.

In questo caso, chi sta copiando chi? Chi detiene i diritti in ciascun caso? OpenAI? Chi ha pubblicato per primo? Entrambe le parti?

Tecnicamente, se il secondo utente di ChatGPT non ha visto il contenuto del primo utente, non si tratta di plagio. In tal caso, potrebbe crearsi una situazione in cui centinaia di siti pubblicano contenuti pressoché identici generati da ChatGPT, ma tecnicamente nessuna persona copia nessun’altra persona.

Adobe accetta invii di opere d’arte generate dall’intelligenza artificiale, che vende come “fotografie” stock. Con tale accordo rivendica la proprietà delle immagini con l’intenzione di impedire ad altri di copiarle e utilizzarle senza pagare. Chi ha o dovrebbe avere il diritto di “possedere” queste immagini, soprattutto se il loro stile si basa sul lavoro pubblicato di un artista o di un fotografo?

Qual è il confine tra legale e illegale?

La più grande esposizione legale può essere la pubblicazione cieca di errori veri e propri, di cui ChatGPT è notoriamente capace. Il professor Hick, per esempio, ha scoperto che una studentessa utilizzava Chat GPT perché il suo saggio era scritto in modo impeccabile, ma era completamento sbagliato.

Uno strumento basato sull’AI potrebbe anche generare contenuti diffamatori, offensivi, calunniosi o che violano la privacy di qualcuno.

Quando le parole di una intelligenza artificiale trasgrediscono la legge, di chi è la responsabilità?

ChatGPT concede il permesso di utilizzare il suo output, ma richiede di rivelare che si tratta di contenuto generato dall’intelligenza artificiale.

Ma il copyright si applica in entrambe le direzioni. La maggior parte di ChatGPT è generica e anodina dove le fonti su un certo argomento sono molte. Ma su argomenti in cui le fonti sono poche, lo stesso ChatGPT potrebbe violare il copyright.

Ho chiesto a ChatGPT di parlarmi degli affari di mia moglie e l’intelligenza artificiale li ha descritti perfettamente, usando le stesse parole che avrebbe usato mia moglie. I termini e le condizioni di ChatGPT consentono l’uso del suo output: in questo caso, afferma di consentire l’uso dell’espressione protetta da copyright di mia moglie, autorizzazione che lei non ha concesso né a OpenAI né ai suoi utenti.

ChatGPT si presenta al mondo come un esperimento e gli utenti stanno contribuendo al suo sviluppo con i loro input. Ma le aziende stanno già utilizzando questo output sperimentale nel mondo reale.

Il problema è che non sono state ancora scritte leggi importanti e non ci sono precedenti giuridici; mettere i media sintetici nel mondo reale significa che la legge futura si applicherà ai contenuti attuali.

Le prime sentenze stanno arrivando. Di recente l’US Copyright Office ha stabilito che un fumetto che utilizza l’arte generata da una AI non è idoneo per la protezione del copyright. Non è né una legge né una sentenza legale, ma è un precedente che potrebbe essere preso in considerazione in futuro.

OpenAI dà il via libera all’uso dell’output di DALL-E e ChatGPT per usi commerciali. In tal modo, scarica l’onere legale sugli utenti, che possono cadere nell’autocompiacimento riguardo l’adeguatezza dell’uso.

Il mio consiglio è non utilizzare in alcun modo media sintetici per la propria azienda. Sì, usatelo per ottenere idee, imparare, esplorare. Ma non pubblicate parole o immagini generate dall’intelligenza artificiale, almeno fino a quando non ci sarà un quadro legale noto per farlo.

I media sintetici generati dall’intelligenza artificiale sono probabilmente il regno più eccitante della tecnologia in questo momento. Un giorno trasformeranno il business, ma, per ora, è un binario legale che dovremmo evitare.

Mike Elgan