Meta, crisi AI: esodo del team che ha sviluppato Llama

Meta perde il team originale di Llama, ritardi nello sviluppo di Llama 4 e sfide legali mettono alla prova la posizione nel contesto AI dell'azienda.
Meta, crisi AI: esodo del team che ha sviluppato Llama

Il colosso tecnologico Meta, guidato da Mark Zuckerberg, sta affrontando una crisi che riguarda il dipartimento dedicato dell’Intelligenza Artificiale. Undici dei quattordici autori originali del modello Llama hanno abbandonato l’azienda, creando un vuoto di competenze che sta rallentando lo sviluppo di Llama 4 Behemoth.

Stiamo parlando di un progetto ambizioso che avrebbe dovuto rappresentare il futuro dell’AI open source, ma che ora potrebbe essere lanciato con un considerevole ritardo rispetto alla tabella di marcia dell’azienda.

La fuga di talenti è stata catalizzata dalla nascita di Mistral AI, una startup fondata da Guillaume Lampl e Timothy Lacroix, due figure chiave del progetto Llama. Mistral AI ha già attirato altri tre ricercatori di punta da Meta, consolidando la sua posizione come concorrente emergente. Parallelamente, altri membri del team originale di Llama hanno trovato opportunità presso giganti come Anthropic, Google DeepMind, Microsoft AI, Thinking Machines Lab e Cohere.

Questo esodo di esperti rappresenta una vera e propria emorragia di talenti AI per Meta, che fatica a reclutare figure altrettanto qualificate per colmare il divario.

Esperti AI lasciano in massa Meta: a rischio Llama 4 Behemoth

Il progetto Llama 4 Behemoth, che prometteva di essere un modello linguistico rivoluzionario con 2 trilioni di parametri, è ora gravemente rallentato. La mancanza di risorse umane qualificate non solo ostacola il completamento del progetto, ma solleva dubbi sulla capacità di Meta di mantenere il suo impegno in questo settore. Questa difficoltà si manifesta in un momento in cui la competizione con startup agili e innovative, come Mistral AI, è più intensa che mai.

Nel frattempo, Zuckerberg sta cercando di bilanciare gli investimenti in AI con le necessità operative dell’azienda. Durante un recente incontro interno, il CEO ha evidenziato l’importanza di migliorare i sistemi di moderazione dei contenuti. La compagnia  mira a ridurre sia i post inappropriati sia i falsi positivi, un compito che diventa ancora più cruciale con l’interruzione dei programmi di fact-checking di terze parti negli Stati Uniti. Tuttavia, l’azienda è anche al centro di controversie legali per l’uso di contenuti protetti da copyright nell’addestramento dei suoi modelli AI, un problema che potrebbe ulteriormente complicare la sua posizione nel settore.

Ti consigliamo anche

Link copiato negli appunti