OpenAI: nuove filigrane per le immagini create con DALL-E 3

OpenAI pronta a proporre un nuovo sistema di filigrane per contrastare abusi IA: sarà una soluzione efficace?
OpenAI: nuove filigrane per le immagini create con DALL-E 3

Entro il prossimo 12 febbraio, OpenAI introdurrà delle nuove filigrane nelle immagini generate attraverso DALL-E 3.

Seguendo le direttive della Coalition for Content Provenance and Authenticity (C2PA), qualunque tipo di contenuto generato dal sito Web e dall’API di DALL-E 3, sarà dotato di metadati invisibili e di un simbolo, con quest’ultimo ben visibile in alto a sinistra di ogni immagine creata.

Secondo quanto affermato da OpenAI, questa introduzione non andrà ad influenzare tempi e qualità della generazione delle immagini anche se, per ovvie ragioni, le dimensioni delle stesse potrebbero essere leggermente superiori rispetto al passato. Questa introduzione non rappresenta di certo una novità per il contesto di OpenAI visto che, la stessa compagnia, ha già cercato di adottare soluzioni simili anche per quanto riguarda il testo generato con ChatGPT.

Il suddetto C2PA è un gruppo costituito da colossi tecnologici che promuove l’utilizzo di filigrana e strumenti simili per verificare la provenienza dei contenuti generati dall’IA. In questo senso, Adobe ha fornito un logo che funge da standard per individuare al volo ciò che è stato creato artificialmente da ciò che è opera umana.

OpenAI e non solo: ma le filigrane possono davvero evitare abusi?

Una mossa molto simile è stata effettuata anche da Meta, che ha recentemente annunciato l’aggiunta di tag ai contenuti generati tramite IA nelle sue piattaforme.

Questa mossa è molto utile per evitare abusi di tali strumenti, anche se la filigrana non è una soluzione definitiva al problema. Secondo OpenAI, infatti, i metadati di C2PA possono essere facilmente manipolati o rimossi, anche involontariamente. Basta un semplice passaggio dell’immagine incriminata, attraverso uno screenshot e un ritaglio della stessa, per eliminare qualunque segnale dell’etichettatura.

Nonostante ciò, la compagnia leader nel settore dell’IA sembra ottimista “Crediamo che l’adozione di questi metodi per stabilire la provenienza e incoraggiare gli utenti a riconoscere questi segnali sia fondamentale per aumentare l’affidabilità delle informazioni digitali“.

Ti consigliamo anche

Link copiato negli appunti