Meta usa le nostre foto private per l'AI? Cosa è stato scoperto

Meta testa l'uso di foto non pubblicate per la funzione cloud processing. Dubbi sulla privacy e sull'uso dei dati personali.
Meta usa le nostre foto private per l'AI? Cosa è stato scoperto

La privacy degli utenti di Facebook e Instagram è al centro dell’ennesima polemica dopo che Meta ha iniziato a testare una nuova funzionalità denominata cloud processing. Questo sistema, che coinvolge l’analisi automatica delle foto non pubblicate, promette di offrire suggerimenti creativi personalizzati, ma solleva preoccupazioni significative riguardo alla gestione dei dati personali.

Meta cloud processing: cosa ne sappiamo

Il test è stato introdotto tramite notifiche pop-up che invitano gli utenti a consentire il caricamento regolare dei media dal proprio rullino fotografico su server remoti. Accettando, gli utenti autorizzano Meta ad analizzare dettagli come caratteristiche facciali, date di acquisizione e persino la presenza di altre persone nelle immagini. Sebbene l’azienda affermi che i dati non saranno utilizzati per addestrare i modelli di AI, il linguaggio ambiguo dei termini di servizio desta preoccupazione.

Questa iniziativa rappresenta un cambiamento radicale rispetto al modello tradizionale in cui gli utenti scelgono consapevolmente quali contenuti condividere. Le foto caricate per il cloud processing saranno eliminate dopo un mese, a meno che non vengano utilizzate per suggerimenti tematici, il che potrebbe richiedere un accesso più prolungato. Tuttavia, la mancanza di trasparenza sulle modalità di utilizzo futuro dei dati continua a suscitare critiche.

Un portavoce di Meta ha sottolineato che la funzione è ancora in fase di test e può essere disattivata in qualsiasi momento. Nonostante ciò, l’assenza di garanzie chiare alimenta il timore che i dati degli utenti possano essere sfruttati per scopi non dichiarati. Questo è particolarmente rilevante considerando che Meta ha già ammesso di utilizzare contenuti pubblici di Facebook e Instagram dal 2007 per addestrare i suoi sistemi di AI generativa.

Le preoccupazioni si intensificano ulteriormente se si confronta questa funzionalità con quella di Google Photos. Mentre Google dichiara esplicitamente di non utilizzare i dati personali per addestrare i suoi modelli generativi, Meta non offre garanzie simili. Questo approccio ha portato molti utenti online, specialmente su Reddit, a condividere esperienze di modifiche non autorizzate alle proprie immagini, come foto di matrimonio trasformate in stili artistici senza consenso.

Servono leggi chiare, ma non ci sono

Le implicazioni per la privacy digitale sono profonde. Gli esperti sottolineano la necessità di regolamentazioni più severe e di una maggiore chiarezza nelle politiche di gestione dei dati personali. La fiducia degli utenti nelle piattaforme di social media è già fragile e iniziative come questa rischiano di eroderla ulteriormente.

In definitiva, il test di cloud processing di Meta mette in evidenza una questione cruciale: fino a che punto le aziende tecnologiche possono spingersi nell’analisi dei dati personali senza compromettere i diritti degli utenti? La risposta a questa domanda potrebbe ridefinire il rapporto tra tecnologia e privacy nell’era dell’intelligenza artificiale.

Ti consigliamo anche

Link copiato negli appunti