La generazione di codice AI sposta la scelta del linguaggio da Python a Rust e Go
La fine della scelta facile di Python
Negli ultimi dieci anni, il calcolo per la scelta di un linguaggio di programmazione era semplice. Si sceglieva Python o TypeScript per default. Il compromesso era chiaro: sacrificare le prestazioni raw per un vasto ecosistema, una profonda disponibilità di personale e la capacità di consegnare un prodotto funzionante entro venerdì. Linguaggi come Rust, Go o C++ offrivano miglioramenti di velocità di 10-100 volte, ma venivano con curve di apprendimento ripide e cicli di sviluppo più lenti. Quel compromesso è finito.
La disruption è guidata da un singolo fattore: gli agenti di codifica AI sono diventati eccezionalmente competenti nei linguaggi che gli umani trovavano difficili. Man mano che l'AI si assume il carico di scrivere codice complesso e a basso livello, la logica per scegliere un linguaggio basato sull'ergonomia per gli sviluppatori sta crollando. La nuova priorità è selezionare linguaggi che offrono le migliori prestazioni in runtime e sicurezza, fidandosi dell'AI per gestire la complessità dell'implementazione.
Perché i linguaggi difficili sono diventati facili per l'AI
Il cambiamento è iniziato con rapidi miglioramenti nelle prestazioni dei modelli linguistici di grandi dimensioni sui compiti di programmazione dei sistemi. All'inizio del 2026, modelli come Claude Opus 4.7, GPT-5.5, Gemini 3.1 e DeepSeek V4 stavano tutti ottenendo punteggi superiori all'80% su SWE-bench Verified, un benchmark per problemi di codifica reali. Fondamentalmente, questi modelli eccellono nei bug di concorrenza, nelle condizioni di gara e nella pianificazione architetturale.
Linguaggi con sistemi di tipo statico forti e cicli di feedback del compilatore rapidi, come Rust e Go, si sono dimostrati ideali per lo sviluppo assistito da AI. Come ha notato un osservatore su X, il compilatore di Rust fornisce un "ciclo di feedback stretto" dove "ogni messaggio di errore è un segnale di allenamento gratuito". Ciò consente agli agenti AI di autocorreggersi in tempo reale, trasformando un ostacolo umano in un vantaggio per le macchine.
Progetti reali: il porting su larga scala
Il cambiamento teorico si sta già manifestando in importanti progetti di ingegneria. In una mossa storica, il team di TypeScript di Microsoft ha riscritto il core del compilatore TypeScript in Go, ottenendo TypeScript 7.0 beta, che è circa 10 volte più veloce del suo predecessore. La loro motivazione era che Go offriva la maggior parte dei benefici in termini di prestazioni a una frazione del costo di ingegneria, un calcolo reso possibile dall'assistenza dell'AI.
Altri porting di alto profilo dimostrano la scala del cambiamento. Il ricercatore Nicholas Carlini ha orchestrato 16 agenti Claude paralleli per scrivere un compilatore C pronto per la produzione in Rust—100.000 righe di codice che fanno partire Linux e compilano importanti progetti come SQLite e Redis, il tutto per meno di 20.000 dollari. Lo sviluppatore esperto di Rust, Steve Klabnik, ha costruito un nuovo linguaggio di sistema chiamato Rue in due settimane con Claude, avanzando più velocemente che nei precedenti tentativi manuali.
Andreas Kling ha portato il motore JavaScript per il suo browser Ladybird da C++ a Rust in due settimane utilizzando agenti AI, ottenendo zero regressioni su migliaia di test. "Lo stesso lavoro mi avrebbe richiesto diversi mesi per essere fatto manualmente", ha notato.
L'erosione dell'argomento dell'ecosistema
La difesa più forte per i linguaggi di alto livello è sempre stata il loro ecosistema—librerie come FastAPI, Django, PyTorch e React che risolvono problemi comuni. Tuttavia, questo ecosistema è sempre più costruito su linguaggi più veloci. Quando si importa `pydantic` in Python, spesso si sta utilizzando una libreria Rust al suo interno.
- Polars, un'alternativa a pandas, è scritta in Rust.
- I tokenizzatori di Hugging Face sono in Rust.
- L'indagine di JetBrains del 2025 sugli sviluppatori Python ha mostrato che l'utilizzo di Rust per le estensioni binarie è saltato dal 27% al 33% in un anno.
La pipeline di tooling riflette questo. Progetti come Ruff (un linter Python), uv (un gestore di pacchetti Python) e Bun (un runtime JavaScript) sono tutti scritti in Rust e hanno visto un'adozione esplosiva. L'acquisizione di Astral (produttore di uv) da parte di OpenAI è stata giustificata dal tempo di calcolo risparmiato per i suoi sistemi Codex.
La natura mutevole del contributo open source
L'AI sta anche alterando il modello open source. Il ciclo tradizionale prevedeva la ricerca di un bug in una dipendenza, la scrittura di una patch e l'invio della correzione. Gli agenti AI hanno spostato l'unità di contributo dalla patch al porting. Come ha dimostrato Armin Ronacher, creatore di Flask, il porting di una libreria come MiniJinja da Rust a Go può essere un lavoro per lo più automatizzato, di 45 minuti di tempo umano.
Ciò solleva una questione critica: perché spendere tempo per correggere una libreria quando è possibile forkare e portarla in un linguaggio più veloce con uno sforzo minimo? Ronacher ha osservato che il valore si sta spostando "dal codice ai test e alla documentazione. Un buon insieme di test potrebbe effettivamente valere più del codice".
Il nuovo ruolo dello sviluppatore umano
Questa trasformazione non elimina lo sviluppatore, ma ridefinisce radicalmente il ruolo. Come notato in un articolo di Nature su "vibe coding", il codice generato dall'AI è spesso più pulito e più annotato del codice scritto da esseri umani. Il lavoro dell'umano si sposta dalla scrittura della sintassi all'architettura dei sistemi, alla richiesta efficace e alla revisione critica dell'output dell'AI.
Per ricercatori e principianti, ciò abbassa le barriere. Gli scienziati possono utilizzare il linguaggio naturale per comandare visualizzazioni di dati complesse o costruire siti web in un giorno. Un sondaggio DX ha rilevato che oltre il 90% degli sviluppatori professionisti utilizza assistenti AI mensilmente, con codice scritto dall'AI che comprende oltre un quarto del codice rivolto ai clienti.
Tuttavia, la supervisione critica rimane essenziale. Come avverte un articolo di Forbes, i laureati devono imparare a ispezionare il lavoro generato dall'AI, a metterne in discussione le ipotesi e a sostenerne l'output. L'AI può essere "sicuro e sbagliato", mancando di contesto o inventando dettagli.
Caveat e punti di vista contrari
Il cambiamento non è assoluto. Alcuni domini rimangono radicati. PyTorch domina la ricerca sull'apprendimento profondo perché i pesi del modello sono indipendenti dal linguaggio. Prisma, un ORM, ha spostato il suo core da Rust a TypeScript/WASM, ottenendo un bundle dell'85% più piccolo e query più veloci, evidenziando che i binari nativi possono essere ostili agli ambienti serverless.
Inoltre, le prestazioni dell'AI sono irregolari tra i linguaggi. Eccelle in Rust e Go a causa della loro abbondanza di dati di allenamento su GitHub. Linguaggi più piccoli e di nicchia come Zig, Haskell o Gleam non ricevono ancora lo stesso livello di supporto AI, mantenendoli sul lato sbagliato della curva di adozione.
Un cambiamento permanente nell'ingegneria del software
Il vincolo fondamentale degli ultimi vent'anni—che gli umani sono lenti nei linguaggi di basso livello—è stato rimosso. L'esperienza dello sviluppatore non è più principalmente sulla scrittura del codice, ma sulla direzione di sistemi intelligenti. In questo nuovo paradigma, i vantaggi di runtime di un linguaggio si accumulano quotidianamente, mentre la sua facilità sintattica conta sempre meno.
Come ha notato il ricercatore AI Andrej Karpathy, "gli LLM cambiano completamente il panorama dei vincoli del software". Il futuro della programmazione potrebbe non essere nei linguaggi più facili per gli umani, ma nei linguaggi più facili per gli agenti. I team stanno già consegnando applicazioni di produzione in linguaggi come Rust senza previa esperienza del team, ottenendo software più piccoli e più veloci. La scelta predefinita per il tuo prossimo progetto non deve più essere Python.
Related News

Il modello video 'Omni' di Gemini di Google emerge mentre il modello distillato per la chiamata di strumenti raggiunge GitHub

Perché i Senior Developer Non Riescono a Comunicare: Il Conflitto tra Complessità e Incertezza

Attacco alla catena di approvvigionamento TanStack NPM: Analisi approfondita della compromissione

Esecuzione di LLMs Locali su Apple Silicon: Configurazione e Prestazioni M4 24GB

Perché l'AI Locale è Essenziale per la Privacy e il Software Robusto

