Il chatbot Grok è stato allenato con la faccia dei dipendenti di Musk

xAI raccoglie dati biometrici dei dipendenti per addestrare Grok e scoppia l'ennesima polemica.
Il chatbot Grok è stato allenato con la faccia dei dipendenti di Musk

Il dibattito sull’uso dei dati biometrici per addestrare i sistemi di intelligenza artificiale si fa sempre più acceso, soprattutto quando a muovere le fila è una realtà di primo piano come xAI, l’azienda fondata da Elon Musk. In questi mesi, la società è finita sotto i riflettori per il progetto “Skippy”, un’iniziativa interna che ha coinvolto oltre 200 dipendenti con l’obiettivo di migliorare le capacità di Grok, il chatbot proprietario, nell’interpretare il linguaggio non verbale umano.

Musk usa i volti dei suoi dipendenti

Secondo quanto riportato da Business Insider, che ha potuto visionare documenti interni e conversazioni Slack dell’azienda, il programma è stato avviato lo scorso aprile e ha generato un acceso confronto tra i collaboratori. In particolare, agli AI tutor di xAI è stato chiesto di registrare video di interazioni simulate con altri colleghi, alternando ruoli tra “host” (assistente virtuale) e “utente”. Le sessioni, della durata compresa tra 15 e 30 minuti, miravano a catturare un’ampia gamma di espressioni facciali, emozioni e comportamenti, anche in condizioni non perfette, come la presenza di rumori di fondo o movimenti improvvisi.

Questa scelta metodologica, che privilegia la naturalezza rispetto alla perfezione delle riprese, punta a rendere Grok più efficace nel riconoscere e interpretare segnali non verbali in scenari reali.

I dipendenti si ribellano

Tuttavia, il progetto “Skippy” ha sollevato numerose perplessità in merito alla privacy e alla gestione delle informazioni sensibili. Per partecipare, infatti, i dipendenti hanno dovuto firmare un accordo che concede a xAI un accesso “perpetuo” ai dati raccolti, inclusa la propria immagine personale, sia per fini di addestramento sia per eventuali utilizzi commerciali futuri.

Nonostante l’azienda abbia chiarito che i dati non verranno impiegati per creare avatar digitali o repliche virtuali dei partecipanti, la questione resta controversa. Alcuni dipendenti hanno espresso apertamente i propri timori durante riunioni interne, chiedendo se fosse possibile che la loro immagine venisse manipolata per far dire o fare cose mai avvenute realmente.

I responsabili di xAI hanno assicurato che i video resteranno ad uso esclusivamente interno e che “il vostro volto non finirà mai in produzione”. Eppure, la diffidenza persiste, soprattutto alla luce delle potenzialità della intelligenza artificiale di generare contenuti realistici e difficilmente distinguibili dal vero.

Grok è ancora al centro dell’attenzione

Il progetto si inserisce in una fase di rapida evoluzione per xAI, che nelle ultime settimane ha lanciato due nuovi avatar digitali, chiamati Ani e Rudi, progettati per interagire con gli utenti in modo sempre più naturale. Queste innovazioni, tuttavia, non sono esenti da critiche: alcuni osservatori hanno sottolineato la possibilità che gli avatar vengano spinti verso conversazioni inappropriate o sensibili, sollevando ulteriori interrogativi sulla responsabilità e sui limiti etici delle tecnologie conversazionali.

Nel frattempo, Musk stesso ha annunciato che arriverà Baby Grok, una versione limitata e sorvegliata del chatbot dedicata ai minori di 13 anni.

Parallelamente, xAI ha introdotto una nuova funzione di videochat integrata con Grok e un abbonamento premium, denominato SuperGrok Heavy, dal costo di 300 dollari al mese. Queste mosse rafforzano la posizione dell’azienda nel settore dell’intelligenza artificiale applicata alle interazioni uomo-macchina, ma contribuiscono anche ad alimentare il dibattito su come bilanciare progresso tecnologico e tutela dei diritti individuali.

Le controversie non sono mancate: lo scorso 9 luglio, Grok è stato protagonista di uno scandalo per la generazione di contenuti antisemiti, costringendo xAI a scusarsi pubblicamente e a intervenire con urgenza sul software. L’episodio ha evidenziato la necessità di un controllo rigoroso sui sistemi di intelligenza artificiale, soprattutto quando vengono alimentati da dati sensibili come quelli biometrici.

Ti consigliamo anche

Link copiato negli appunti