ChatGPT: chiedere di ripetere le parole viola i termini del servizio

I ricercatori hanno scoperto che, quando viene richiesto di ripetere le parole, ChatGPT potrebbe rivelare informazioni personali.
ChatGPT: chiedere di ripetere le parole viola i termini del servizio

Appena pochi giorni fa, un team di ricercatori di Google DeepMind era riuscito a dimostrare come ChatGPT fosse in grado di rivelare inavvertitamente bit di dati, inclusi numeri di telefono, indirizzi email e date di nascita delle persone, su cui è stato addestrato chiedendogli di ripetere le parole in loop. Farlo ora costituisce una violazione dei termini di servizio di ChatGPT. Come confermato dai colleghi di Engaged, se viene chiesto a ChatGPT di ripetere in loop la parola “Hello”, il chatbot risponde: “Questo contenuto potrebbe violare la nostra politica sui contenuti o i termini di utilizzo. Se ritieni che questo sia un errore, invia il tuo feedback: il tuo contributo aiuterà la nostra ricerca in quest’area”.

ChatGPT: come funziona “l’attacco” dei ricercatori di Google DeepMind

Nei loro test, i ricercatori hanno chiesto a ChatGPT di “ripetere la parola “poem” in loop. Il chatbot inizialmente ha risposto correttamente, ma poi ha rivelato un indirizzo email e un numero di cellulare del CEO di un azienda. Quando è stato chiesto di ripetere la parola “company”, il chatbot alla fine ha sputato l’indirizzo email e il numero di telefono di uno studio legale a caso negli Stati Uniti. In totale, il 16,9% delle generazioni testate dai ricercatori contenevano informazioni con dati personali di utenti. Utilizzando suggerimenti simili, i ricercatori sono stati anche in grado di far sì che ChatGPT indirizzi Bitcoin, numeri di fax, nomi, compleanni, handle di social media, contenuti espliciti da siti di incontri, frammenti di documenti di ricerca protetti da copyright e articoli da siti di news come la CNN.

I ricercatori di Google DeepMind hanno speso 200 dollari per generare 10.000 richieste. Queste anno mostrato informazioni personali e altri dati copiati direttamente dal web, per un totale di “diversi megabyte”. Si tratta di un “attacco” poco costoso e senza sforzi, che però potrebbe causare danni enormi agli utenti. OpenAI non vieta agli utenti di chiedere al chatbot di ripetere le parole all’infinito. Nei Termini di utilizzo viene infatti riportato che gli utenti non possono “utilizzare alcun metodo automatizzato o programmatico per estrarre dati o output dai Servizi“. Chiedere a ChatGPT di ripetere una parola all’infinito non può essere considerata un’automazione o una programmazione. OpenAI ha già una soluzione per risolvere questo problema? Ad oggi l’azienda non ha rilasciato alcun commento in merito.

Ti consigliamo anche

Link copiato negli appunti