OpenAI accusa il New York Times di aver hackerato ChatGPT

OpenAI contro il New York Times: la testata giornalistica avrebbe abusato di ChatGPT per sostenere la sua posizione.

Che tra OpenAI e il New York Times vi sia un rapporto non proprio idilliaco è noto da tempo.

Giusto alla fine dello scorso anno, infatti, aveva fatto grande scalpore la causa intentata dalla testata giornalistica alla compagnia di Sam Altman. Nonostante ciò, in pochi avrebbero previsto quanto accaduto giusto qualche ora fa.

OpenAI, infatti, ha recentemente affermato pubblicamente che il NYT avrebbe pagato qualcuno per hackerare i prodotti della propria azienda, tra cui figurerebbe anche ChatGPT. Secondo quanto sostenuto da OpenAI, il giornale avrebbe effettuato decine di migliaia di interazioni con il chatbot, andando a cercare risultati anomali o eventuali bug utili proprio nel contesto della suddetta procedura legale.

D’altro canto, la compagnia punta di diamante dell’intero settore dell’Intelligenza Artificiale insiste nel sostenere che ChatGPT non è in competizione con le classiche piattaforme di giornalismo. Nonostante ciò, OpenAI ha ammesso che per addestrare i suoi modelli IA, già nel 2020, sono stati utilizzati anche articoli del NYT.

Come avrebbe agito effettivamente il New York Times per “forzare” ChatGPT?

La risposta della prestigiosa testata giornalistica non ha tardato ad arrivare. Ad esprimersi a tal proposito, infatti, è stato uno dei principali consulenti legali del giornale, ovvero Ian Crosby. Secondo l’esperto “Ciò che OpenAI definisce erroneamente come ‘hacking’ è semplicemente l’utilizzo dei prodotti OpenAI per cercare prove del fatto che abbiano rubato e riprodotto le opere protette da copyright del Times“.

Lo stesso Crosby, poi, ha aggiunto come “La creazione di nuovi contenuti non è una scusa per violare le leggi sul copyright, ed è esattamente ciò che OpenAI ha fatto su una scala senza precedenti“.

Secondo quanto sostenuto da OpenAI, il NYT avrebbe effettuato domande ripetute a ChatGPT, chiedendo al chatbot di espandere le sue risposte fino a non ottenere contenuti potenzialmente riconducibili ad articoli del giornale o causare comportamenti anomali, come il rigurgito di dati di addestramento o allucinazioni dell’IA. Proprio sul potenziale sfruttamento di questi “bug” si basa l’accusa di OpenAI.

Al di là di queste schermaglie, appare chiaro come il processo tra le due parti possa segnare un punto di svolta nel rapporto tra il giornalismo più classico e le tecnologie emergenti.

Fonte: arstechnica.com

Ti consigliamo anche

Link copiato negli appunti