Microsoft studia nuovo sistema per evitare allucinazioni dell'IA

Stop alle allucinazioni e filtri dei contenuti: Microsoft a lavoro per migliorare l'utilizzo dell'Intelligenza Artificiale.
Microsoft studia nuovo sistema per evitare allucinazioni dell'IA

L’Intelligenza Artificiale è una tecnologia tutta da scoprire, con enormi potenzialità ma anche con grandi punti deboli.

Uno di questi, senza ombra di dubbio, sono le famigerate allucinazioni, ovvero risposte non veritiere dell’IA che inventa informazioni senza un’apparente logica. A quanto pare, Microsoft è a lavoro per eliminare questo fenomeno una volta per tutte.

Sarah Bird, chief product officer di Microsoft responsabile per il settore IA ha rilasciato un’interessante intervista a The Verge.

Come affermato da Bird, il suo team ha progettato diverse funzionalità di sicurezza, fornite ai clienti di Azure. Questi nuovi strumenti, basati su LLM, dovrebbero essere in grado di monitorare e bloccare possibili allucinazioni dell’IA.

La funzione specifica si chiama Groundedness Detection e dovrebbe permettere di evitare risposte senza senso da parte dell’IA. Questo sarà affiancato anche da un altro strumento, ovvero Prompt Shields, in grado di bloccare prompt considerati “dannosi”, bloccando anche possibili fonti esterne considerate non attendibili.

Non solo allucinazioni dell’IA: Microsoft a lavoro per una gestione personalizzata dei filtri

Soprattutto quest’ultimo strumento, però, apre un acceso dibattito su come viene alimentata l’IA.

Casi come quello di Google Gemini e la generazione di immagini di esseri umani, per esempio, dimostrano come questo sistema mostri evidenti lacune e come l’impostazione dell’IA possa creare situazioni a dir poco spiacevoli.

Di fatto, i colossi del settore possono arbitrariamente decidere quali argomenti l’IA può trattare e come affrontare gli stessi. Bird, riconoscendo questo punto debole, ha comunque affermato come ai clienti Azure verrà concesso di attivare o disattivare eventuali filtri legati all’incitamento all’odio o alla violenza.

A quanto pare, le funzionalità proposte saranno immediatamente disponibili per modelli come GPT-4 e Llama 2. Il problema delle allucinazioni dell’IA non è assolutamente una prerogativa di Microsoft: anche altri colossi del settore, come OpenAI, devono fare i conti con questo fastidioso fenomeno.

Ti consigliamo anche

Link copiato negli appunti