Linus Torvalds sfida l’AI: il Kernel Linux non si lascia ingannare dai codici automatici

Il dibattito sull’uso dell’intelligenza artificiale nello sviluppo del kernel Linux si concentra sulla responsabilità tecnica, non sull’origine del codice. Linus Torvalds sottolinea che l’AI è uno strumento di supporto importante.

Il dibattito sull’uso dell’intelligenza artificiale nello sviluppo software ha ormai superato la fase dell’entusiasmo iniziale ed è entrato in una zona più complessa e conflittuale, soprattutto quando tocca progetti critici come il kernel Linux. La discussione interna alla comunità del kernel sugli strumenti di supporto allo sviluppo – e in particolare sui contributi generati o assistiti da AI – rappresenta un caso emblematico di come l’ingegneria del software si trovi ad affrontare uno scenario che cambia rapidamente. Le recenti prese di posizione di Linus Torvalds non sono un rifiuto dell’AI in sé, ma un richiamo netto a un principio cardine dello sviluppo del kernel: la qualità del codice è l’unica metrica che conta.

Il vero problema non è l’AI, ma la responsabilità del contributore

Uno degli aspetti più interessanti di un nuovo recente intervento di Torvalds è lo spostamento deliberato del focus: non “chi” o “cosa” genera il codice, ma chi se ne assume la responsabilità tecnica. L’idea di introdurre documentazione specifica sull’uso dell’AI rischia, secondo Torvalds, di creare una falsa dicotomia tra codice “umano” e codice “assistito”, una distinzione che non ha alcun valore pratico nella revisione del kernel.

Nel modello di sviluppo Linux, ogni patch deve:

  • essere comprensibile,
  • essere verificabile,
  • rispettare gli standard architetturali,
  • dimostrare di risolvere un problema reale senza introdurne di nuovi.

Se una patch soddisfa questi criteri, l’origine del codice diventa irrilevante. Se non li soddisfa, non è accettabile, indipendentemente dal fatto che sia stata scritta da un umano, da un editor avanzato o da un LLM (Large Language Model).

“AI slop”: un falso problema travestito da questione etica

Il concetto di AI slop – codice di bassa qualità generato automaticamente e proposto senza adeguata comprensione – è liquidato da Torvalds come un problema mal posto. Non perché non esista, ma perché la documentazione non può risolvere comportamenti scorretti.

Chi invia patch scadenti non seguirà linee guida aggiuntive, non dichiarerà l’uso di AI, non migliorerà la qualità del codice per effetto di un documento formale.

Secondo il “re pinguino”, la documentazione è per definizione utile soltanto per gli sviluppatori responsabili. Credere che spingere l’acceleratore sulla produzione di documentazione a sostegno del codice sviluppato sia sufficiente a contenere l’abuso di strumenti automatici, equivale a scambiare la governance tecnica per un semplice appello al buon comportamento, un errore ricorrente nei progetti open source quando entrano in gioco tecnologie “di moda”.

Torvalds: l’AI è uno strumento, e come tale va trattata

Il punto centrale della posizione di Torvalds è pragmatico: l’AI è uno strumento, né più né meno di un compilatore, di un debugger o di un sistema di static analysis.

Trattarla come una categoria a parte implica due rischi concreti. Da un lato si tenderebbe a politicizzare la documentazione tecnica, trasformandola in una dichiarazione di principio invece che in una guida operativa. Dall’altro si darebbe, a torto, troppo vigore a un dibattito transitorio, legato a una fase storica dell’evoluzione tecnologica, nell’ambito di un progetto come il kernel Linux che deve invece restare stabile per decenni.

Il kernel Linux non può permettersi documenti che invecchiano rapidamente o che riflettono posizioni emotive (“l’AI distruggerà tutto” vs “l’AI risolverà tutto”). La neutralità tecnologica non è una posizione ideologica: è una necessità ingegneristica.

Revisione del codice e fiducia: ciò che non cambia

Un aspetto spesso sottovalutato nel dibattito pubblico è che il processo di revisione del kernel Linux è già progettato per essere ostile al codice che non è ben compreso. Ogni maintainer si assume un rischio reputazionale e tecnico accettando una patch.

Prima che il maintainer dia il suo benestare affinché il kernel Linux si arricchisca di nuovi contributi, chi ha realizzato il codice deve dimostrare di averne pienamente compreso il funzionamento; le risposte ai commenti sono spesso più importanti della patch stessa; l’incapacità di motivare una scelta progettuale è un segnale d’allarme immediato.

L’AI, se usata come scorciatoia cognitiva anziché come supporto, fallisce esattamente su questi punti cruciali. Ed è qui, spiega Torvalds, che il sistema si auto-protegge, senza bisogno di nuove regole.

Torvalds sull’AI: supporto alla manutenzione, non sostituzione dei maintainer

Linus Torvalds aveva già espresso, in una precedente intervista, le sue riflessioni sul ruolo dell’intelligenza artificiale nello sviluppo del kernel Linux. La sua posizione non è mai stata ideologica: l’AI non è vista come un sostituto degli sviluppatori, ma come uno strumento di supporto alla manutenzione e alla gestione del rumore cognitivo generato dalle migliaia di patch quotidiane.

Come evidenziato in quell’analisi, Torvalds considera i modelli linguistici strumenti in grado di amplificare l’attenzione e la memoria storica del progetto, migliorando l’efficacia dei maintainer senza sostituirne il giudizio.

L’approccio dell’inventore del kernel Linux spiega perché egli insista sull’uso responsabile degli strumenti per preservare la qualità e l’integrità del kernel.

Ti consigliamo anche

Link copiato negli appunti