ChatGPT, privacy a rischio: l'ordine del giudice impone la conservazione dei log, OpenAI senza via di fuga

Nel contesto di una causa per violazione del copyright promossa dal New York Times, un giudice federale ha imposto a OpenAI la conservazione indefinita di tutti i log di ChatGPT, comprese le conversazioni cancellate o temporanee. L’ordinanza, che esclude i clienti enterprise, solleva allarmi per la riservatezza dei dati degli utenti comuni e potrebbe avere forti implicazioni legali ed economiche.

Nel cuore di una battaglia legale dagli sviluppi potenzialmente dirompenti, OpenAI si è vista respingere l’ennesima obiezione a un’ordinanza che impone la conservazione indefinita di tutti i log generati da ChatGPT, comprese le conversazioni temporanee e quelle cancellate dagli utenti (!). La decisione, assunta dal giudice federale Sidney Stein, fa seguito all’ordinanza iniziale della giudice Ona Wang, emanata su richiesta del New York Times e di altre testate, nel contesto di una causa per violazione di copyright.

Titolavamo un nostro precedente articolo “Incredibile, OpenAI deve conservare i log delle conversazioni su ChatGPT“, a sottolineare i molteplici aspetti che stridono in una vicenda che, ne siamo quasi certi, sul territorio europeo non si sarebbe mai neanche lontanamente sviluppata nello stesso modo.

Privacy contrattuale di ChatGPT messa in discussione

OpenAI aveva denunciato il provvedimento come una minaccia alle “norme di lunga data a tutela della privacy” applicate nella sua piattaforma, in quanto obbliga l’azienda a conservare informazioni che, in base ai termini di servizio, gli utenti possono eliminare.

Il giudice Stein ha ribattuto che negli stessi termini contrattuali di OpenAI, l’azienda dovrebbe invece esplicitamente chiarire che i dati degli utenti possano essere trattenuti nel contesto di procedimenti legali. E questo, secondo il magistrato, è esattamente il caso.

Nel frattempo, OpenAI ha intrapreso una trattativa con i querelanti (New York Times e “soci”) per definire il perimetro di ricerca all’interno dei log di ChatGPT. L’obiettivo è ridurre al minimo la quantità di dati conservati e oggetto di accesso. Ma i rischi — e le implicazioni legali — restano elevatissimi.

Perché l’accusa vuole accedere ai log di ChatGPT: cosa sta cercando?

La richiesta dei log da parte del New York Times e di altre testate nasce da un timore molto specifico: gli utenti potrebbero aver usato ChatGPT per ottenere contenuti protetti da copyright, come articoli dietro paywall, per poi cancellare le prove delle loro conversazioni compromettenti.

La conservazione dei log servirebbe a congelare queste prove, impedendo a OpenAI (o agli utenti) di eliminarle prima che siano analizzate.

Nei casi di copyright, uno dei punti più importanti per i ricorrenti è dimostrare:

  • che l’opera copiata riduce il valore commerciale dell’opera originale;
  • che il modello sostituisce economicamente il lavoro dei giornalisti e delle testate.

I log potrebbero inoltre fornire ulteriori prove per dimostrare l’uso improprio di contenuti e comprovare ripetute attribuzioni scorrette da parte del modello di OpenAI.

Un precedente pericoloso: quando la prova distrugge la fiducia

Secondo Jay Edelson, avvocato esperto in tema di privacy, l’ordinanza rappresenta un pericoloso precedente: non solo vìola la fiducia degli utenti che confidavano nella possibilità di eliminare le proprie conversazioni, ma crea anche un forte incentivo a passare a soluzioni alternative come Claude di Anthropic o Gemini di Google, meno esposte al rischio di conservazione forzata dei dati.

Edelson mette in guardia su un rischio fondamentale: la vulnerabilità dei dati personali, riservati e sensibili archiviati, che potrebbero essere esposti non solo ad eventuali attacchi informatici, ma anche a banali errori nella gestione forense da parte dei legali delle controparti. “Gli avvocati non sono noti per le loro competenze in sicurezza informatica”, ha osservato, “e qui parliamo di alcuni dei dati più intimi mai registrati da un’intelligenza artificiale”.

Il pericolo non si limita però alle intrusioni esterne. Con i dati conservati, ogni futura richiesta da parte di forze dell’ordine o altri procedimenti civili potrebbe avere accesso a conversazioni private, creando uno scenario da sorveglianza permanente. “Le persone parlano delle loro relazioni, della loro salute, delle loro paure. E fino a ieri, pensavano di poter cancellare tutto questo con un clic”, cosa che a questo punto non è più garantita.

Disuguaglianza nell’applicazione: i clienti enterprise esclusi

Un altro elemento criticato è l’esclusione dei clienti enterprise dall’ordinanza, che continueranno a godere della piena riservatezza. Secondo Edelson, questa scelta potrebbe essere stata motivata dal desiderio di proteggere la competitività di OpenAI sul mercato B2B. Ma ciò implica una discriminazione netta: i più potenti sono protetti, i cittadini comuni no.

Questo ordine attacca solo la privacy della gente comune. È inaccettabile”, ha affermato. “I clienti aziendali hanno risorse per difendersi, e ora sono stati completamente esonerati. Il che lascia scoperti solo gli utenti più vulnerabili”.

D’altra parte, OpenAI stessa scrive:

I miei dati sono interessati? Sì, se avete un abbonamento ChatGPT Free, Plus, Pro e Team o se utilizzate l’API OpenAI (senza un accordo di Zero Data Retention). Non sono invece interessati gli utenti di ChatGPT Enterprise o ChatGPT Edu. Il provvedimento non influisce inoltre sui clienti API che utilizzano endpoint di Zero Data Retention.

Non abbiamo ancora letto di un intervento dei Garanti europei. È estremamente probabile, però, che le prese di posizione possa ben presto arrivare. D’altra parte, c’è in gioco anche la riservatezza dei cittadini europei: come saranno trattati i loro dati a valle dei provvedimenti dei giudici USA Wang-Stein? Saranno automaticamente esclusi? Se sì in che modo?

Conservazione selettiva, ma non priva di pericoli

I log non saranno esaminati nella loro interezza. Come osservato in precedenza, le parti stanno negoziando un accesso limitato, probabilmente tramite parole chiave concordate, e i dati saranno anonimizzati. Tuttavia, i rischi non spariscono: OpenAI teme che i log possano contenere prove di usi impropri del sistema o di output in violazione del copyright, danneggiando ulteriormente la posizione della società diretta da Sam Altman.

Potrebbe rafforzarsi la tesi secondo cui ChatGPT danneggerebbe economicamente il mercato dei contenuti originali. E questo, secondo il diritto USA, è un elemento decisivo nella valutazione dell’applicazione della disciplina del fair use, soprattutto nella fase di addestramento dei modelli AI.

Ti consigliamo anche

Link copiato negli appunti