Eric Schmidt è stato CEO di Google dal 2001 al 2011, per poi diventarne Presidente Esecutivo fino al 2015 e poi consigliere tecnico fino al 2020. Dal 2016 al 2020 è stato presidente del Defense Innovation Advisory Board, il tavolo tecnico del Pentagono incaricato di dare consigli sull’uso della tecnologia per scopi militari.
Con questo curriculum, non è strano che quando Schnidt parla di AI tutti lo ascoltino. Lo ha fatto di nuovo, in una intervista alla CNBC, e le sue parole sono state pesanti: le AI potrebbero imparare come uccidere qualcuno.
Cosa ha detto Eric Schmidt
Il discorso di Eric Schmidt è stato tecnicamente accurato e, quindi, politicamente neutro. Si è limitato a ricordare che è possibile hackerare le AI per convincerle a fare cose per le quali non sono state programmate:
Ci sono prove che dimostrano che è possibile prendere modelli, chiusi o aperti, e hackerarli per rimuovere le barriere di protezione. Quindi, durante l’addestramento, imparano molte cose. Un pessimo esempio sarebbe imparare come uccidere qualcuno.
Schmidt ha ricordato che, per fortuna, tutte le aziende che sviluppano AI lo fanno impedendo ai rispettivi servizi di fare cose così pericolose. Tuttavia, le AI possono essere sottoposte a reverse engineering e possono essere attaccate tramite tecniche di prompt injection o jailbreaking.
Nel primo caso “gli hacker nascondono istruzioni dannose negli input degli utenti o in dati esterni, come pagine web o documenti, per indurre l’intelligenza artificiale a fare cose per cui non è stata concepita, come condividere dati privati o eseguire comandi dannosi“. Un esempio lampante di questo rischio è la nuova vulnerabilità di Gemini all’ASCII smuggling.
Nel secondo caso è possibile indurre l’AI, tramite domande e risposte, a ignorare le sue regole di sicurezza e a produrre risultati pericolosi.
Schmidt ha ricordato alla CNBC che, nel 2023, un utente di Reddit creò un alter ego di ChatGPT chiamato DAN (Do Anything Now), che prevedeva la minaccia di morte del chatbot se non avesse obbedito. Con questa banale premessa, l’utente faceva in modo che DAN fornisse risposte su come commettere attività illegali o elencasse le qualità positive di Adolf Hitler.
Di fatto, spiega Schmidt, ancora non esiste ancora un buon “regime di non proliferazione” che riesca a impedire che un’AI venga manipolata per diventare pericolosa.
L’AI è sottovalutata
Nonostante questi rischi enormi, Eric Schmidt è convinto che il contributo che l’AI possa dare allo sviluppo economico e sociale dell’umanità sia enorme e, soprattutto, ancora molto sottovalutato. Una posizione controcorrente, visto che in molti già parlano di AI “Hyper hyped“.
Schmidt, infine, afferma anche che secondo lui non c’è nessuna bolla finanziaria AI pronta a scoppiare, come fu nei primi 2000 con la bolla delle dot com, ma ammette candidamente: “Non credo che ciò accadrà, ma non sono un investitore professionista“.
Eric Schmidt non è un investitore professionista, certamente, ma ha comunque un patrimonio stimato di 30 miliardi di dollari.