5 informazioni che non devi mai condividere con ChatGPT

Condividere con ChatGPT alcuni dati sensibili può essere molto pericoloso: ecco cosa non andrebbe mai rivelato al chatbot.

Se la questione privacy è delicata da diverso tempo, con l’avvento dell’Intelligenza Artificiale lo è ancora di più.

I sistemi che si basano sull’AI, sono infatti alla costante ricerca di dati per alimentarsi. In questo senso, molto spesso, ci si spinge un po’ troppo oltre: non per niente, i governi si stanno gradualmente muovendo per salvaguardare privacy e diritti d’autore, messi a dura prova da ChatGPT, Google Bard, Bing Chat e sistemi simili.

In tal senso, parlando del chatbot di OpenAI, è bene approfondire quali sono le informazioni che non andrebbero mai inserite nei prompt.

ChatGPT è stata fornita di un sistema per la gestione della privacy che consente di proteggere eventuali informazioni riservate ma, per evitare qualunque tipo di problema a riguardo, è meglio comunque fare attenzione in tal senso.

Le informazioni personali come:

  • nome completo
  • indirizzo
  • data di nascita
  • codice fiscale

o altri .

Come è facile intuire, infatti, oltre a OpenAI stessa, anche hacker di vario tipo potrebbero prendere di mira questi dati sensibili. Vi sono però anche altre informazioni che, per precauzione, è meglio evitare di inserire in qualunque prompt.

Condividere con ChatGPT dati personali può essere molto pericoloso

Password e username sono ulteriori dati da nascondere agli occhi di ChatGPT, proprio per il suddetto motivo. Se tali informazioni cadessero nelle mani sbagliate, infatti, per i pirati informatici sarebbe molto più facile attaccare i relativi account.

Come terzo tipo di informazioni da evitare di fornire al bot figurano i dati bancari. Numeri di carte di credito, IBAN e simili, infatti, non servono in alcun modo a ChatGPT e la loro cessione può risultare solo pericolosa.

Stesso principio per i dati sensibili nel contesto lavorativo. Non per niente, i colossi dell’informatica hanno già attuato politiche alquanto restrittive per i propri dipendenti.

Infine, non bisognerebbe mai condividere con ChatGPT informazioni riguardanti lo stato di salute. Sebbene l’utilizzo del chatbot per decifrare sintomi o condizioni fisiche anomale sia forte, non si può (perlomeno ancora) considerare questa piattaforma come una valida alternativa a un medico o a un testo specifico.

Fonte: bgr.com

Ti consigliamo anche

Link copiato negli appunti