Geoffrey Hinton, ex Google, mette in guardia sui pericoli dell'intelligenza artificiale

Uno dei padri delle moderne intelligenze artificiali è scettico sull'utilizzo a largo spettro dei nuovi modelli generativi: le sfide che abbiamo davanti a noi sono davvero impegnative.
Geoffrey Hinton, ex Google, mette in guardia sui pericoli dell'intelligenza artificiale

Da alcuni mesi le le soluzioni di intelligenza artificiale sono sempre più al centro della scena. A raffreddare gli entusiasmi e a tirare un un po’ il freno su un trend che negli ha conosciuto una crescita continua e vorticosa ci ha pensato Geoffrey Hinton, uno dei padri dell’IA moderna.

In un lungo articolo pubblicato nelle pagine del New York Times, Hinton si è dichiarato piuttosto preoccupato di come lo sviluppo delle intelligenze artificiali sia andato molto oltre e più velocemente rispetto a quanto precedentemente previsto. Il lancio di progetti come ChatGPT, Bing Chat e Google Bard è stato largamente impattante e rappresenta il primo passo per un’eventuale evoluzione autonoma delle stesse intelligenze artificiali.

Hinton spiega che la maggior parte delle persone, tecnici compresi, pensava che ciò che riescono a fare i moderni chatbot fosse ancora inarrivabile. “Io stesso pensavo che ci sarebbero voluti dai 30 ai 50 anni, o anche di più”, osserva l’informatico britannico naturalizzato canadese. Nell’immediato futuro, Hinton crede che l’intelligenza artificiale possa arrivare a permettere la creazione di deep fake dall’aspetto realistico con le persone che saranno sempre più in difficoltà nello stabilire cosa è falso e cosa è reale.

Chi è Geoffrey Hinton

Geoffrey Hinton è uno dei maggiori esperti mondiali di intelligenza artificiale e di apprendimento automatico. È professore di informatica e ricercatore presso l’Università di Toronto in Canada e ha lavorato in Google Brain, divisione recentemente unita con DeepMind. Hinton è uno dei pionieri in tema deep learning e reti neurali artificiali: addirittura nel 1986, ha pubblicato uno studio sulla cosiddetta rete di Boltzmann, un tipo di rete neurale artificiale capace di apprendere in modo non supervisionato: il suo lavoro ha gettato le basi per lo sviluppo delle moderne reti neurali profonde.

Negli anni successivi, Hinton ha continuato a sviluppare nuove tecniche di deep learning e ha lavorato alla loro applicazione in diversi campi, tra cui la visione artificiale, il riconoscimento del parlato e la traduzione automatica. Nel 2012, una squadra guidata da Hinton ha vinto il concorso ImageNet, un’importante competizione di riconoscimento delle immagini, utilizzando una rete neurale convoluzionale sviluppata da lui stesso.

Hinton ha anche cofondato la società DNNresearch, che è stata acquisita da Google nel 2013 per sviluppare ulteriormente la ricerca sul deep learning. In seguito, Hinton ha continuato a lavorare come ricercatore presso Google Brain, dove ha contribuito a sviluppare diverse applicazioni di intelligenza artificiale, come il riconoscimento vocale di Google Assistant e il riconoscimento delle immagini di Google Foto.

Hinton ha ricevuto numerosi premi e riconoscimenti per la sua ricerca, tra cui il premio Turing nel 2018, considerato il premio Nobel dell’informatica, per i suoi contributi innovativi nel campo dell’apprendimento automatico, in particolare per la teoria delle reti neurali profonde.

Perché Hinton ha deciso di lasciare Google

Prima di dare l’addio a Google, in questi giorni, Hinton si è sentito la scorsa settimana con il CEO dell’azienda, Sundar Pichai. Al di là degli scenari più nefasti dipinti da certa stampa sensazionalistica, l’informatico racconta di essersi voluto affrancare da Google per dedicarsi ad analizzare gli sviluppi dell’intelligenza artificiale focalizzandosi sui pericoli di un’evoluzione senza controllo.

Per svolgere quest’attività era necessario operare fuori da Google, per evitare di danneggiare l’azienda e le attività che sta svolgendo in quel di Mountain View. Parlando del suo ormai ex datore di lavoro, Hinton ha precisato che Google “ha agito in modo molto responsabile” astenendosi dall’immettere sul mercato intelligenze artificiale poco mature e potenzialmente dannose.

Jeff Dean, ex vicepresidente senior di Google Research and Health e co-fondatore del team Brain, recentemente nominato a capo della nuova area di ricerca sull’intelligenza artificiale, ha fatto eco alle valutazioni di Hinton puntualizzando come l’azienda sia “impegnata a sviluppare un approccio responsabile per l’IA“.

Quali sono i problemi dei modelli generativi moderni

I modelli generativi sui quali si basano le moderne intelligenze artificiali, hanno fatto enormi passi avanti negli ultimi periodi tanto che secondo OpenAI l’era dei modelli di grandi dimensioni è già conclusa.

I modelli generativi, comunque, sono di diverse debolezze e devono affrontare sfide importanti: hanno bisogno di grandi quantità di dati per l’apprendimento e la fase di inferenza (quindi per generare output accurati); possono essere influenzati da pregiudizi nascosti nei dati di addestramento (produzione di risultati sbagliati o discriminatori); gli output spesso mancano di trasparenza, il che rende difficile capire come siano state raggiunte una decisione o una conclusione; sono vulnerabili ad attacchi di manipolazione dei dati, come il prompt injection; possono risultare difficilmente scalabili richiedendo risorse computazionali molto elevate.

Il prompt injection è un problema che si verifica quando un utente malintenzionato introduce intenzionalmente richieste specifiche con lo scopo di alterare i risultati prodotti dal modello. In questo modo è possibile influenzare la generazione di testo da parte del modello (data poisoning) inducendo l’IA a produrre messaggi sconveniente, fake news o addirittura testi che incitano all’odio. Abbiamo visto come un semplice gioco di ruolo (DAN) abbia fatto saltare tutti i filtri imposti su ChatGPT.

Questo comportamento può essere particolarmente pericoloso in contesti in cui i modelli basati sull’intelligenza artificiale vengono utilizzati per prendere decisioni importanti, ad esempio nella valutazione del credito o nell’elaborazione di domande di lavoro. In questi casi, l’inserimento di prompt intenzionalmente manipolati potrebbe portare a decisioni discriminatorie o ingiuste.

Ti consigliamo anche

Link copiato negli appunti