Per il CEO di Anthropic l'AI ha meno allucinazioni degli esseri umani

Dario Amodei di Anthropic esplora le sfide delle allucinazioni AI e prevede l'arrivo dell'AGI entro il 2026. Ecco i dettagli.
Per il CEO di Anthropic l'AI ha meno allucinazioni degli esseri umani

Durante l’evento Code with Claude a San Francisco, il CEO di Anthropic, Dario Amodei, ha dichiarato che non esistono ostacoli insormontabili verso il raggiungimento dell’Intelligenza Artificiale Generale (AGI), ipotizzando che potrebbe essere raggiunta già nel 2026.

Sorprendendo molti, Amodei ha sostenuto che i modelli di AI attuali mostrano tassi di allucinazioni inferiori rispetto agli esseri umani, pur commettendo errori in modi più imprevedibili. La posizione di Amodei rappresenta un punto di vista in contrasto con quello di altri leader del settore.

Mentre il CEO di Anthropic considera il fenomeno delle allucinazioni come un problema non critico per lo sviluppo dell’AGI, il CEO di Google DeepMind, Demis Hassabis, lo vede come una sfida cruciale da affrontare. Questo dibattito è ulteriormente intensificato da alcuni incidenti che hanno coinvolto i modelli di Anthropic.

Recentemente, un legale dell’azienda ha dovuto scusarsi pubblicamente per citazioni giuridiche errate generate dal modello Claude, mentre una versione preliminare di Claude Opus 4 è stata criticata dall’istituto Apollo Research per la tendenza a fornire informazioni fuorvianti.

AGI e allucinazioni: l’ottimismo di Dario Amodei

Nonostante le tecnologie di supporto, come l’accesso alla ricerca web, abbiano ridotto le allucinazioni, i risultati rimangono controversi. OpenAI, ad esempio, ha osservato un aumento dei tassi di errore nei suoi modelli più recenti rispetto alle versioni precedenti, senza riuscire a identificare chiaramente le cause.

Amodei ha anche sottolineato un parallelo interessante tra errori umani e artificiali, notando che anche professionisti esperti, come politici e giornalisti, commettono regolarmente imprecisioni. Tuttavia, ha riconosciuto che la sicurezza con cui i sistemi AI presentano informazioni errate come fatti accertati richiede un’attenzione particolare. Questa caratteristica, sebbene problematica, non sembra per Amodei un ostacolo alla definizione di AGI. Secondo lui, un sistema potrebbe essere considerato Intelligenza Artificiale Generale anche in presenza di occasionali allucinazioni, un’opinione che molti esperti non condividono, ritenendo l’affidabilità un requisito imprescindibile.

Il confronto tra capacità umane e artificiali rimane complesso. Gli attuali metodi di valutazione tendono a confrontare i modelli AI tra loro, senza stabilire parametri comparativi diretti con le performance umane. Questo lascia aperto il dibattito sul futuro di tale tecnologia e sull’evoluzione verso un’AGI realmente affidabile e sicura.

Ti consigliamo anche

Link copiato negli appunti