Il kernel Linux stabilisce regole per i contributi di codice assistiti da AI
Il kernel Linux formalizza le regole per il codice generato dall'AI
Il kernel Linux, il software fondamentale per innumerevoli dispositivi e server in tutto il mondo, ha ufficialmente riconosciuto l'ascesa degli assistenti di codifica AI. Un nuovo documento aggiunto al suo albero dei sorgenti fornisce la prima guida formale del progetto su come questi strumenti dovrebbero essere utilizzati dai contributori. Ciò segna un momento significativo per lo sviluppo open-source, stabilendo un precedente per come progetti su larga scala guidati dalla comunità possano integrare responsabilmente l'AI.
La politica, documentata in coding-assistants.rst, stabilisce regole base chiare. Essa afferma che gli strumenti AI devono seguire gli stessi rigorosi processi di sviluppo degli esseri umani, facendo riferimento alle guide esistenti sullo stile di codifica, sull'invio di patch e sul flusso di lavoro di sviluppo complessivo. Ciò garantisce che il codice generato dall'AI sia tenuto agli stessi standard di qualità di qualsiasi altro contributo.
Tuttavia, le linee guida tracciano una linea legale ferma. Gli agenti AI sono esplicitamente proibiti dall'aggiungere un tag Signed-off-by. Questo tag certifica il Developer Certificate of Origin (DCO), una dichiarazione legale che il contributore ha il diritto di inviare il codice. Solo un essere umano può assumersi legalmente questa responsabilità.
Responsabilità umana e nuovo tag di attribuzione
Il principio fondamentale è chiaro: la responsabilità ultima rimane in capo allo sviluppatore umano. Il documento afferma che l'inviante umano è responsabile della revisione di tutto il codice generato dall'AI, garantendo la conformità alle licenze e aggiungendo il proprio tag Signed-off-by. Egli è pienamente responsabile del contributo.
Per fornire trasparenza e tracciare il ruolo in evoluzione dell'AI, il kernel introduce un nuovo tag di attribuzione: Assisted-by. Il formato richiesto è Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]. Ciò consente ai responsabili della manutenzione di vedere quale modello AI (ad esempio, Claude:claude-3-opus) e quali strumenti di analisi specializzati (ad esempio, coccinelle, sparse) sono stati utilizzati, escludendo gli strumenti di sviluppo di base come git o gcc.
Contesto: il panorama dello sviluppo potenziato dall'AI
Questa politica arriva in un momento di grande crescita degli strumenti AI progettati per assistere in compiti tecnici complessi, compresi quelli relativi a Linux e alla sicurezza. Ad esempio, METATRON, un assistente open-source per il penetration testing, utilizza un LLM locale per orchestrare autonomamente strumenti di ricognizione come nmap e nikto su sistemi basati su Debian come Parrot OS. Il suo "ciclo agente" consente all'AI di richiedere dinamicamente ulteriori scansioni sulla base dei risultati iniziali.
Su scala più ampia, iniziative come Project Glasswing di Anthropic evidenziano la spinta del settore a utilizzare l'AI per la sicurezza proattiva. Sostenuto da giganti tecnologici e dalla Linux Foundation, il progetto mira a fornire ai responsabili della manutenzione di software open-source critici modelli AI avanzati per "identificare e correggere proattivamente le vulnerabilità su larga scala". Il CEO della Linux Foundation, Jim Zemlin, lo ha definito "un percorso credibile" per proteggere la stragrande maggioranza del codice moderno.
La doppia lama: AI per attacco e difesa
Mentre l'AI diventa un "fido compagno" per gli sviluppatori e i team di sicurezza, viene anche utilizzata come arma. Recenti campagne come "prt-scan" e "hackerbot-claw" dimostrano che gli attori delle minacce utilizzano l'automazione assistita da AI per sfruttare le configurazioni errate comuni, come il flusso di lavoro pull_request_target di GitHub, negli attacchi alla catena di approvvigionamento.
Ciò crea una nuova corsa agli armamenti. Mentre progetti come Glasswing mirano a rafforzare le difese, gli attaccanti stanno sfruttando una simile automazione per trovare e sfruttare le debolezze più velocemente. Le nuove regole del kernel Linux possono essere viste come una misura difensiva - un quadro per garantire che i contributi assistiti da AI migliorino, anziché compromettere, l'integrità delle infrastrutture critiche.
Implicazioni più ampie per i flussi di lavoro di sviluppo
Il cambiamento va oltre la sicurezza. L'intero toolchain di sviluppo viene reinventato intorno agli agenti AI. Come notato nei commenti su strumenti come Cursor, l'ambiente di sviluppo integrato (IDE) tradizionale sta diventando "una soluzione di ripiego, non quella predefinita". Gli agenti AI stanno passando in primo piano nel processo di codifica.
Questa evoluzione porta nuove sfide, come il potenziale del codice generato dall'AI di interrompere le pipeline CI/CD, nonché nuove lacune di sicurezza che tecnologie come WebAssembly potrebbero aiutare a risolvere. La richiesta del kernel di revisione umana e firma legale è un'importante salvaguardia in questo nuovo panorama guidato dagli agenti.
Perché ciò è importante
La mossa del kernel Linux è più di una semplice burocrazia. È un adattamento necessario per uno dei progetti software più importanti al mondo. Stabilendo regole ora, il progetto mira a:
- Mantenere l'integrità legale e della qualità del codice: Garantire che tutti i contributi, indipendentemente dall'origine, siano conformi agli standard di licenza e qualità.
- Fornire trasparenza: Il tag Assisted-by crea una pista di controllo per il ruolo dell'AI nell'evoluzione del kernel.
- Stabilire uno standard comunitario: Altri grandi progetti open-source guarderanno probabilmente a questa politica come a un modello.
- Incoraggiare l'adozione responsabile: Essa legittima l'uso degli assistenti AI ponendo al contempo chiari confini intorno al loro utilizzo.
Mentre il ruolo dell'AI nella creazione di software e nella sicurezza cresce, le politiche stabilite da progetti fondamentali come il kernel Linux formeranno l'approccio del settore per anni a venire. Il messaggio è chiaro: l'AI può assistere, ma l'essere umano deve garantire.
Related News

GitButler raccoglie 17 milioni di dollari in Serie A guidata da a16z per costruire strumenti di sviluppo post-Git

OpenAI sostiene il disegno di legge sullo scudo di responsabilità dell'Illinois mentre la Florida lancia un'indagine

L'app Unfolder colma il divario tra modellazione 3D e papercraft, tra le voci su iPhone Fold

Meta presenta Muse Spark: un modello AI multimodale per la superintelligenza personale

Cantante AI 'Eddie Dalton' Domina le Classifiche di iTunes, Scatenando un Dibattito nell'Industria

