AI nel Kernel Linux: Linus Torvalds detta le nuove regole per gli sviluppatori

Il kernel Linux introduce una policy sull’uso dell’AI: codice permesso, ma sotto controllo umano rigoroso.
AI nel Kernel Linux: Linus Torvalds detta le nuove regole per gli sviluppatori

Il kernel Linux ha una reputazione da difendere. Con milioni di dispositivi che dipendono dalla sua stabilità (server, smartphone Android, sistemi embedded e infrastrutture critiche) ogni riga di codice ha un peso specifico notevole.

Quando gli assistenti AI hanno iniziato a diffondersi tra gli sviluppatori, Linus Torvalds e i maintainer hanno risposto nel modo più coerente con la cultura del progetto: non con un divieto, ma con una policy chiara.

Cosa stabilisce la policy di Linux rispetto all’utilizzo dell’AI?

Le nuove linee guida non escludono l’uso di strumenti come GitHub Copilot o altri assistenti automatici. Il punto centrale è un altro: chi firma il codice ne è responsabile al cento per cento, indipendentemente da come è stato generato.

Questo significa che uno sviluppatore non può inviare una patch prodotta da un modello AI senza averla compresa, testata e validata. Il processo di revisione, già noto per essere tra i più rigorosi nell’universo dell’open source, resta invariato. I maintainer continueranno a respingere codice di bassa qualità, a prescindere dall’origine.

La tracciabilità è l’altro pilastro della policy. Ogni modifica deve essere spiegabile: cosa fa, perché è stata scritta così, quali alternative sono state valutate. Un requisito che i modelli AI, per natura, non possono soddisfare da soli.

I rischi concreti che la policy vuole contenere

Il kernel Linux non è un progetto dove ci si può permettere approssimazioni. I rischi identificati dai maintainer sono specifici e fondati: errori logici difficili da rilevare in fase di review, vulnerabilità di sicurezza introdotte da codice generato su dataset di addestramento non verificabili, e potenziali violazioni di licenza legate alla provenienza del materiale su cui i modelli sono stati addestrati.

Quest’ultimo punto è particolarmente delicato per un progetto rilasciato sotto GPL. Se un modello riproduce frammenti di codice con licenze incompatibili, il problema legale ricade sul contributore umano che ha firmato la patch.

Perché questa scelta potrebbe diventare un modello per l’open source

Il kernel Linux ha spesso anticipato pratiche poi adottate più in largo nell’industria software. Il sistema dei maintainer, il processo di revisione, la gestione dei sottosistemi: molte delle metodologie oggi standard nascono o si sono affinate in questo progetto.

Una policy sull’uso dell’AI che non demonizza la tecnologia ma ne regola l’impiego con criteri tecnici precisi potrebbe fare scuola. Altri progetti open source di rilievo (da GCC a LLVM, da PostgreSQL fino a FreeBSD) devono affrontare la stessa questione e osserveranno da vicino come questa impostazione regge nel tempo.

Ti consigliamo anche

Link copiato negli appunti