Il potenziale impatto dell’IA sulla privacy dei dati e sulla proprietà intellettuale è stato un tema caldo per mesi, ma le nuove cause intentate contro OpenAI mirano ad affrontare entrambe le questioni nei tribunali della California.
Una class action depositata la scorsa settimana sostiene che OpenAI ha violato le leggi statali e federali sul copyright e sulla privacy quando ha raccolto i dati utilizzati per addestrare i modelli linguistici usati in ChatGPT e in altre applicazioni di AI generativa. Secondo la denuncia, OpenAI avrebbe rubato i dati personali delle persone facendo scraping di Internet e di varie applicazioni, tra cui Snapchat, Spotify, Slack e persino la piattaforma sanitaria MyChart.
Oltre a concentrarsi sulla privacy dei dati, la denuncia – presentata dallo studio legale Clarkson – sostiene anche che OpenAI abbia violato le leggi sul copyright, che continua a essere una zona grigia dal punto di vista legale su diversi fronti. Le tutele della proprietà intellettuale sono anche al centro di una causa separata, presentata la scorsa settimana da un altro studio legale, in cui si sostiene che OpenAI abbia usato impropriamente le opere di due autori statunitensi durante l’addestramento di ChatGPT.
La causa intentata da Clarkson non cita direttamente alcun querelante, ma include le iniziali di più di una dozzina di persone. L’azienda sta inoltre cercando attivamente altri querelanti che si uniscano alla class action e ha anche creato un sito web in cui le persone possono condividere ulteriori informazioni su come hanno utilizzato vari prodotti di intelligenza artificiale, tra cui ChatGPT, il generatore di immagini DALL-E di OpenAI e l’imitatore vocale VALL-E, o prodotti di intelligenza artificiale di altre aziende come Google e Meta.
OpenAI – la cui tecnologia è già utilizzata in piattaforme pubblicitarie come la ricerca Bing di Microsoft e in una nuova API di annunci di chat per gli editori – non ha risposto alle richieste di commento formulate dalle testate USA. Tuttavia, l’informativa sulla privacy, aggiornata l’ultima volta il 23 giugno, afferma che l’azienda non ‘vende’ o ‘condivide’ informazioni personali per la pubblicità cross-contestuale e non ‘raccoglie consapevolmente’ informazioni personali di minori di 13 anni. OpenAI ha anche un’informativa sulla privacy separata per dipendenti, candidati, appaltatori e ospiti, aggiornata a febbraio. In questi termini, l’azienda afferma di non aver ‘venduto o condiviso le informazioni personali per scopi pubblicitari mirati nei 12 mesi precedenti’, mentre in un’altra sezione afferma che gli utenti hanno il diritto di rinunciare alla ‘pubblicità comportamentale cross-context’.
Nella denuncia di Clarkson, gli avvocati sostengono che OpenAI avrebbe violato le leggi sulla privacy durante la raccolta e la condivisione dei dati per la pubblicità, tra cui il targeting di minori e persone vulnerabili con pubblicità predatoria, discriminazione algoritmica e “altri atti non etici e dannosi”. Tracey Cowan, un’altra socia dello studio legale coinvolto nel caso OpenAI, ha dichiarato di rappresentare un certo numero di querelanti minorenni, preoccupata dal fatto che la tecnologia dell’intelligenza artificiale venga impiegata senza un’adeguata protezione dei bambini. Secondo l’avvocato, questo solleva una serie di problemi diversi rispetto alle preoccupazioni legate all’invasione della privacy per gli adulti.
Le sfide legali arrivano mentre l’industria dell’AI si trova ad affrontare un crescente controllo. Alla fine della scorsa settimana, anche la Federal Trade Commission statunitense ha pubblicato un nuovo post sul blog in cui suggerisce che l’AI generativa solleva ‘problemi di concorrenza’ relativi a dati, talenti, risorse informatiche e altre aree. L’Unione Europea, dal canto suo, sta avanzando una proposta di regolamentazione dell’IA con l’ ‘AI Act’, proposta di regolamentazione che ha spinto i dirigenti di oltre 150 aziende a inviare una lettera aperta alla Commissione Europea per avvertire che le norme potrebbero essere inefficaci e dannose per la concorrenza. Comunque anche negli Stati Uniti i legislatori stanno valutando la possibilità di una regolamentazione.
Nonostante l’incertezza e l’evoluzione del panorama legale e normativo, un numero sempre maggiore di operatori del marketing si sta muovendo per vedere l’IA come qualcosa di più di una nuova tendenza, che potrebbe avere un impatto significativo su molte aree di business. Tuttavia, questo non significa che molti non suggeriscano ancora alle aziende di sperimentare, pur mantenendo la cautela.
Invece di raccogliere dati senza autorizzazione, alcune startup di intelligenza artificiale stanno adottando un approccio alternativo ai loro processi. Per esempio, l’israeliana Bria addestra i suoi strumenti di IA visiva solo con contenuti di cui ha già la licenza d’uso. È un metodo più costoso ma meno rischioso, che l’azienda spera possa dare i suoi frutti. (Tra i partner di Bria c’è Getty Images, che all’inizio dell’anno ha fatto causa a Stability AI per aver presumibilmente ‘rubato’ 12 milioni di immagini e averle usate per addestrare il suo generatore di AI open-source senza autorizzazione).
In attesa degli sviluppi, resta il fatto che i mercati risponderanno probabilmente più in fretta del sistema legale, costringendo le le aziende di IA ad agire in modo più responsabile. È risaputo che i modelli linguistici non rappresentano più un ostacolo allo sviluppo dell’AI. Il vero ostacolo – da superare in qualche modo – sono i dati stessi.