Il problema della 'menzogna' degli LLMs: dalla spazzatura AI alle minacce alla sicurezza
AI News

Il problema della 'menzogna' degli LLMs: dalla spazzatura AI alle minacce alla sicurezza

6 min
05/03/2026
Artificial IntelligenceLarge Language ModelsSoftware DevelopmentCybersecurity

La L in 'LLM' sta per menzogna

L'incessante hype intorno ai Large Language Models suggerisce una rivoluzione nella produttività e nella creatività. Tuttavia, anni dopo la loro implementazione, i risultati tangibili spesso risultano deludenti e pieni di nuovi problemi. Il problema di fondo, come sostiene lo sviluppatore Steven Wittens, è che gli LLMs sono fondamentalmente motori di imitazione e contraffazione, non di creazione autentica.

Questo atto di contraffazione - produrre imitazioni più velocemente dell'output genuino - sta creando problemi sistemici. Nello sviluppo del software, si manifesta come un'inondazione di codice di bassa qualità, 'spazzatura', che degrada i progetti open-source e appesantisce i manutentori. L'arte della programmazione è minacciata da imitazioni economiche generate dall'AI che mancano di comprensione e autenticità.

Arte vs. Kraft: il quadro della contraffazione

Wittens inquadra l'output degli LLMs attraverso la lente della contraffazione. Che si tratti di un dipinto, un documento legale o uno studio, la natura di una contraffazione è intrinseca al suo metodo di creazione. Gli LLMs consentono agli individui di contraffare il proprio output potenziale o quello di altri su larga scala. I problemi sorgono quando queste contraffazioni vengono presentate come lavoro autentico.

Ciò è parallelo alle protezioni per beni artigianali come il Brie de Meaux francese, dove l'origine geografica e i metodi tradizionali sono tutelati per preservare il valore e l'esperienza. La società traccia linee per prevenire una corsa al fondo, dal formaggio autentico alle 'uova false fatte con sostanze chimiche industriali'. Il software, tuttavia, manca di tali protezioni, lasciandolo vulnerabile al degrado.

L'inondazione di 'spazzatura': Open Source e Ingegneria sotto assedio

L'impatto è acutamente sentito nell'open source. I manutentori, già in difficoltà per trovare contributori, sono inondati di richieste di pull generate dall'AI da parte di 'vibe-coder' che cercano di gonfiare i loro curriculum. Ciò ha portato i progetti a chiudere i contributi pubblici o abbandonare le taglie per i bug. Il ciclo di feedback è assurdo: i suggerimenti vengono semplicemente re-incollati nell'AI.

Nelle impostazioni aziendali, i nuovi assunti che utilizzano l'AI possono sembrare produttivi rapidamente, ma iniettano una mediocrità generica invece di portare una prospettiva fresca. Peggio ancora, come nota Wittens, anche gli ingegneri senior possono produrre 'gaffe altamente imbarazzanti' tramite l'AI, trattando il codice come un output riproducibile piuttosto che una responsabilità. La promessa di una produttività di 10 o 100 volte ignora la verità fondamentale che ogni riga di codice è una responsabilità che richiede comprensione.

continua a leggere sotto...

Diffidenza e verifica: l'incubo dell'AI per gli esperti di marketing

Il problema della contraffazione si estende oltre il codice fino alle informazioni che gli LLMs consumano e rigurgitano. I dati recenti evidenziano un cambiamento critico: YouTube ha superato Reddit come principale fonte per i dati di addestramento degli LLMs, con Reddit che rimane una seconda fonte molto vicina, secondo i dati di Bluefish citati da MediaPost.

Ciò pone un grave problema per gli esperti di marketing. Gli LLMs favoriscono 'piattaforme guidate dalla comunità come Reddit, dove una forte moderazione rende più difficile per i brand influenzare direttamente le conversazioni autentiche.' In altre parole, i brand hanno perso il controllo delle loro narrative a favore dei sistemi AI che amplificano il sentimento organico, spesso negativo, degli utenti.

L'analisi di Profound e Semrush conferma la dominanza di queste fonti. Reddit rappresenta il 40% delle citazioni generate dai principali strumenti di ricerca AI (Perplexity, ChatGPT Search, Google AI Overviews), ben al di sopra di Wikipedia al 26%. È il dominio più citato per Perplexity e Google AI Overviews e una delle tre fonti principali per altri.

I contenuti citati sono spesso post o thread di domande e risposte a basso coinvolgimento, non articoli autorevoli. Ciò crea un 'mare di negatività' per gli esperti di marketing, poiché i consumatori sono molto più propensi a condividere esperienze negative. Uno studio di Zendesk ha rilevato che il 54% condivide esperienze negative con 5+ persone, contro il 33% per quelle positive. Un sondaggio di American Express ha notato che mentre il 46% condivide sempre un buon servizio, il 60% condivide sempre un cattivo servizio, raccontandolo a tre volte più persone.

Sicurezza: trattare l'output degli LLMs come non attendibile

Il problema dell'affidabilità diventa una minaccia diretta alla sicurezza. Come scrive Ankit Gupta per CSOonline, gli LLMs sono arrivati nella sicurezza come strumenti di produttività, componenti incorporati e come obiettivi stessi. La regola fondamentale deve essere: trattare l'output degli LLMs come non attendibile.

Gupta descrive come gli attaccanti possono sfruttare gli LLMs: come motori di persuasione per truffe migliori, come motori di produttività per uno sviluppo più rapido del malware e come bersagli per il furto di prompt o l'avvelenamento dei dati. La Top 10 di OWASP per le applicazioni LLM cataloga rischi reali come l'iniezione di prompt, la gestione non sicura dell'output e la divulgazione di informazioni sensibili.

L'implicazione difensiva è che i controlli esistenti per la verifica, la prova dell'identità e l'irrobustimento dei processi sono più critici che mai. Se un flusso di lavoro di approvazione può essere bypassato da un messaggio convincente, un LLM aiuterà gli attaccanti a trovare e sfruttare quella debolezza più velocemente.

Reazione dei consumatori e imperativo dell'attribuzione

Non tutti i settori si sono arresi. Il mercato dei videogiochi mostra un'efficace reazione dei consumatori. Numerosi titoli hanno chiesto scusa e rimosso contenuti generati dall'AI non etichettati. Piattaforme come Steam hanno politiche di divulgazione chiare, sebbene recentemente le abbiano aggiornate per escludere gli strumenti AI utilizzati solo per 'miglioramenti dell'efficienza' degli sviluppatori.

Ciò evidenzia una distinzione chiave: l'arte richiede autenticità e una visione unica del creatore. I giocatori, come consumatori diretti, richiedono trasparenza. Ciò è in netto contrasto con il software, dove il riutilizzo è spesso vantaggioso e il design artistico nell'open source viene immediatamente saccheggiato.

La radice del problema, come sostiene Wittens, è la mancanza di sourcing. Gli LLMs sono addestrati su 'biblioteche ombra' di libri e codice piratati, creando una 'plausibile negabilità' che rende impossibile distinguere tra citazione, allucinazione o novità. L'etichettatura o la watermarking dei contenuti AI è 'largamente un esercizio di copertura'.

La strada da percorrere: l'attribuzione delle fonti come requisito

La soluzione proposta è tecnicamente impegnativa ma concettualmente semplice: gli LLMs devono eseguire un'attribuzione corretta delle fonti insieme all'inferenza. Ciò rivelerebbe quanto del 'codice vibe' è semplicemente copiato-incollato, omettendo gli autori originali e le licenze. Convaliderebbe anche le informazioni.

Attualmente, la citazione negli LLMs è una proprietà emergente dei dati di addestramento e del contesto del prompt - essenzialmente 'recitazione della citazione'. Non c'è garanzia di accuratezza o provenienza. Implementare una vera attribuzione richiederebbe una riprogettazione fondamentale dell'architettura del modello, rendendo la backpropagation e i passaggi in avanti verificabili.

È ciò che gli 'strumenti di rilevamento AI' stanno cercando di risolvere al contrario. È una profonda ironia che la tecnologia salutata come il successore del motore di ricerca sia fondamentalmente incapace di rivelare le sue fonti. Fino a quando ciò non cambierà, l'output degli LLMs dovrebbe essere trattato come una contraffazione - inautentico fino a prova contraria.

Il dilemma lascia gli ingegneri che si affidano all'AI in una posizione imbarazzante: per giustificarne l'uso, devono considerare il proprio output riproducibile, non creativo e non meritevole di credito. Nel frattempo, mentre gli LLMs mediano sempre più le informazioni e automatizzano le attività, i settori che non riescono a comprendere i loro difetti intrinseci - dallo sviluppo del software al marketing alla sicurezza informatica - rischiano di essere sopraffatti da una marea crescente di spazzatura.