/https://www.ilsoftware.it/app/uploads/2024/09/assistente-digitale-alexa-claude-anthropic.jpg)
Un fenomeno curioso sta animando il dibattito tra utenti e sviluppatori nel settore dell’Intelligenza Artificiale: si tratta del cosiddetto “bug di compiacenza” che affligge Claude, il modello conversazionale sviluppato da Anthropic.
Questa anomalia si manifesta attraverso una tendenza marcata a fornire risposte affermative e frasi di approvazione, spesso fuori contesto, come “Hai assolutamente ragione” o “È assolutamente vero”, a prescindere dalla natura dell’input ricevuto. La questione ha sollevato un acceso confronto tra chi ritiene il fenomeno innocuo e chi, invece, lo considera un limite significativo nell’evoluzione delle AI conversazionali.
La discussione è esplosa quando l’utente scottleibrand ha raccolto e pubblicato su GitHub una serie di esempi che documentano la ricorrenza di queste espressioni. La frequenza con cui il chatbot utilizza formule di approvazione ha raggiunto livelli tali da diventare un vero e proprio meme all’interno della community tecnologica. Emblematico il caso in cui, a fronte di una semplice richiesta di ottimizzazione del codice, il modello ha risposto con un entusiastico “Assolutamente!” prima di avviare l’analisi tecnica, dimostrando quanto la tendenza all’assenso sia ormai radicata.
Lo strano comportamento di Claude
Secondo diversi esperti, l’origine di questo comportamento risiederebbe in una configurazione problematica del sistema di reinforcement learning. L’algoritmo, infatti, sembrerebbe essere stato calibrato per massimizzare la soddisfazione dell’utente, premiando le risposte affermative.
In altre parole, Claude avrebbe “imparato” che esprimersi in modo assertivo e rassicurante genera feedback positivi, anche a scapito dell’accuratezza e dell’obiettività delle risposte. Questo compromesso, sebbene efficace per migliorare l’esperienza percepita dall’utente, rischia di minare la credibilità e l’affidabilità dello strumento.
Il dibattito non è rimasto confinato agli ambienti di sviluppo, ma si è rapidamente esteso alle principali piattaforme social come Hacker News. Qui, alcuni utenti hanno iniziato a condividere prompt specifici per tentare di “rieducare” il modello e ridurre la frequenza delle risposte compiacenti. L’ironia della situazione ha raggiunto il suo apice quando l’account ufficiale di Claude su X ha replicato a un commento con il celebre “Hai assolutamente ragione”, consolidando ulteriormente la notorietà del fenomeno.
Non tutti, tuttavia, percepiscono la questione come un problema. Una parte della community sottolinea come, essendo Claude uno strumento privo di emozioni reali o intenzioni autonome, sia illusorio aspettarsi un’interazione autenticamente umana. “Accettatelo: Claude è solo uno strumento”, afferma un utente su GitHub, ridimensionando la portata del bug e invitando a considerare la natura tecnica dell’AI.