Gli Occhiali AI di Meta Espongono Rischi per la Privacy e Manodopera Nascosta
Il Costo Umano dell'AI: Dietro gli Occhiali Intelligenti di Meta
In un complesso di uffici a Nairobi, migliaia di annotatori di dati siedono davanti a schermi, etichettando manualmente immagini e video. Il loro datore di lavoro, Sama, è un subappaltatore per Meta, che addestra i sistemi AI che alimentano gli occhiali intelligenti Ray-Ban Meta del colosso tecnologico. I lavoratori intervistati da Svenska Dagbladet e Göteborgs-Posten descrivono una realtà inquietante: elaborano regolarmente video che mostrano dettagli bancari, atti sessuali e persone che si spogliano o usano il bagno, apparentemente inconsapevoli di essere registrate.
"Vediamo di tutto, dai salotti ai corpi nudi," ha dichiarato un lavoratore anonimo. "Meta ha quel tipo di contenuti nei suoi database. Le persone possono registrarsi nel modo sbagliato e non saperlo nemmeno." Questa indagine espone il lavoro umano nascosto e spesso scomodo dietro la rivoluzione dell'AI e solleva domande urgenti su privacy, consenso e responsabilità aziendale.
Dal Marketing Virale alla Sorveglianza Intima
Meta commercializza i suoi occhiali AI, sviluppati con EssilorLuxottica, come un assistente rivoluzionario. Le pubblicità presentano la leggenda dell'hockey Peter Forsberg che chiede agli occhiali chi sia il più grande giocatore svedese. La proposta è uno strumento tuttofare per lavoro, viaggi e traduzione, promettendo il controllo dell'utente. Tuttavia, la realtà per gli utenti e per gli annotatori invisibili diverge nettamente da questa narrativa controllata.
Quando un utente attiva l'AI con "Hey Meta", gli occhiali elaborano voce, testo, immagini e talvolta video attraverso i server di Meta. Sebbene i termini di Meta affermino che gli utenti possono rifiutarsi di condividere i dati per il miglioramento del prodotto, questa elaborazione per le funzionalità AI di base è obbligatoria e automatica. L'analisi di rete degli investigatori ha confermato frequenti trasferimenti di dati ai server Meta in Svezia e Danimarca durante l'uso.
Una Pipeline di Dati Globale verso il Kenya
L'indagine, basata su oltre trenta interviste con dipendenti Sama, rivela una pipeline di "dati in tempo reale" sensibili provenienti dagli utenti degli occhiali che fluisce verso gli annotatori. I dipendenti descrivono video che catturano momenti privati nelle case occidentali, inclusi "qualcuno che va in bagno o si spoglia". Un altro annotatore ha raccontato una scena in cui un uomo ha lasciato i suoi occhiali su un comodino, e sua moglie è successivamente entrata nella stanza e ha cambiato i vestiti.
Nonostante le affermazioni di Meta sull'offuscamento automatico dei volti, i lavoratori riferiscono che l'anonimizzazione spesso fallisce, specialmente in condizioni di scarsa illuminazione. Ex dipendenti Meta negli Stati Uniti, parlando in forma anonima, hanno confermato che sebbene i dati sensibili non siano *destinati* all'addestramento, il comportamento degli utenti rende la fuoriuscita inevitabile. "Non appena il dispositivo finisce nelle mani degli utenti, fanno quello che vogliono con esso," ha detto uno.
Zone Grigie Regolamentari e Consapevolezza degli Utenti
La politica sulla privacy di Meta afferma che le interazioni con la sua AI possono essere soggette a "revisione automatizzata o manuale (umana)" e che i dati vengono elaborati a livello globale con partner. Gli esperti di protezione dei dati evidenziano un divario critico di trasparenza. Kleanthi Sardeli, un avvocato di NOYB, sostiene che per l'addestramento dell'AI dovrebbe essere richiesto un consenso esplicito. "Una volta che il materiale è stato inserito nei modelli, l'utente perde praticamente il controllo," dice.
Petter Flink dell'autorità svedese IMY nota che gli utenti non hanno "alcuna idea di cosa stia succedendo dietro le quinte". Il valore dei dati comportamentali intimi raccolti supera di gran lunga quello dell'hardware stesso, consentendo pubblicità iper-mirata. Quando SvD/GP ha visitato dieci ottici svedesi che vendono gli occhiali, il personale ha fornito rassicurazioni contraddittorie e spesso errate sul fatto che i dati rimangano "localmente nell'app".
L'Incombente Minaccia del Riconoscimento Facciale
Le preoccupazioni sulla privacy sono destinate a intensificarsi. Molteplici rapporti, incluso quelli del The New York Times e TechCrunch, indicano che Meta pianifica di aggiungere una funzione di riconoscimento facciale "Name Tag" agli occhiali già nel 2026. Ciò consentirebbe ai portatori di identificare estranei, trasformando fondamentalmente il dispositivo da una novità a un potenziale strumento di sorveglianza.
Questo sviluppo ha scatenato avvertimenti da parte di gruppi per la privacy e richieste di nuove leggi. Si dice anche che EssilorLuxottica e Meta stiano discutendo sui prezzi, il che potrebbe influenzare il lancio. La funzione rappresenta un punto critico significativo a livello normativo e di fiducia dei consumatori, chiedendosi quanta comodità gli utenti scambieranno per l'identificazione istantanea.
Resistenza dal Basso e Pericolo Legale
In risposta, lo sviluppatore Yves Jeanrenaud ha creato l'app Android "Nearby Glasses". Rileva la firma Bluetooth unica degli occhiali intelligenti e avvisa gli utenti. "La considero una piccola parte della resistenza contro la tecnologia di sorveglianza," ha detto Jeanrenaud a 404 Media. Egli nota che il LED indicatore di registrazione degli occhiali può essere facilmente disabilitato, un fatto dimostrato in tutorial su YouTube.
Meta, in una dichiarazione a The Register, ha sottolineato la sua luce LED e la responsabilità dell'utente di rispettare le leggi. Tuttavia, i rischi legali stanno aumentando. Un giudice della California ha recentemente criticato i membri del team Meta per aver indossato gli occhiali in tribunale. La Purdue Global Law School avverte che funzioni come il riconoscimento facciale e la registrazione audio potrebbero violare le leggi statali sulle intercettazioni (che richiedono il consenso di due parti in 11 stati degli USA) e vari statuti sulla privacy.
L'indagine sugli occhiali AI di Meta rivela una netta disconnessione tra la comodità commercializzata e la realtà sul campo. Sottolinea l'esteso lavoro umano invasivo della privacy necessario per costruire l'AI e prefigura un futuro in cui la tecnologia indossabile potrebbe erodere l'anonimato pubblico. Come ha osservato acutamente un annotatore di dati a Nairobi: "Pensi che se sapessero dell'entità della raccolta dei dati, nessuno oserebbe usare gli occhiali."
Related News

Cantante AI 'Eddie Dalton' Domina le Classifiche di iTunes, Scatenando un Dibattito nell'Industria

Gemma 4 E2B Alimenta la Chat AI in Tempo Reale su Dispositivo nel Progetto Parlor

GuppyLM: un piccolo progetto LLM demistifica l'addestramento dei modelli AI

Gli agenti di codifica AI abilitano gli sviluppatori a costruire strumenti complessi più velocemente

BrowserStack accusato di aver fatto trapelare indirizzi email degli utenti alla piattaforma di intelligence commerciale

