Meta sta installando un software sui computer dei dipendenti americani che registra clic, movimenti del mouse, sequenze di tasti e occasionali screenshot. Si chiama Model Capability Initiative, è partito ieri, e non c’è modo di rifiutarlo: lo ha confermato il CTO Andrew Bosworth in un thread interno, rispondendo alla domanda più votata fra i commenti dei dipendenti (“Come si fa opt-out?”). I dati serviranno ad addestrare gli agenti AI dell’azienda, quelli che dovrebbero “completare attività quotidiane su un computer”.
Per dirla in parole povere: gli agenti AI imparano guardando lavorare i dipendenti, e a un certo punto qualcuno deciderà che non qualcun altro non serve più.
Cosa fa esattamente il tool
Il software, secondo un memo interno ottenuto da Business Insider, registra input come “movimenti del mouse, posizione dei clic e sequenze di tasti, oltre al contenuto dello schermo per il contesto”. Funziona solo su una lista di applicazioni di lavoro pre-approvate: Gmail, GChat, VSCode, Metamate (l’assistente AI interno). Non sui telefoni. Non, almeno per ora, sui codici sorgente classificati. Ai dipendenti USA compare un pop-up con istruzioni per attivare lo strumento, poi parte la registrazione silenziosa.
L’annuncio, riferiscono Reuters e Fortune, è uscito martedì sul canale interno dei Meta Superintelligence Labs, la divisione guidata dall’ex CEO di Scale AI Alexandr Wang. Il primo commento, in cima al thread, era una sola frase: “Questa cosa mi mette super a disagio. Come si fa opt-out?”. La reazione più frequente sotto il post: la faccina arrabbiata.
Bosworth ha risposto con tre parole: non si può.
Obbligati ad addestrare chi li sostituirà
Meta sta investendo tra i 115 e i 135 miliardi di dollari per il 2026, gran parte sull’infrastruttura AI. La visione, dichiarata sempre da Bosworth in un memo separato, è chiara:
“agenti che fanno principalmente il lavoro mentre il nostro ruolo è dirigerli, revisionarli, aiutarli a migliorare”.
Il programma interno per costruire questi agenti AI è stato ribattezzato Agent Transformation Accelerator. Tradotto: chi lavora oggi a Menlo Park sta producendo, gratis e senza opzione, i dati che serviranno a sostituirlo domani.
Non è un’esagerazione retorica. Osservate la sequenza dei fatti: Meta ha annunciato licenziamenti significativi nei prossimi mesi, ha trasferito ingegneri “forti” nella divisione Applied AI, e ora raccoglie dati comportamentali per addestrare le macchine che dovranno occuparsi di “tutti i tipi di interazioni che abbiamo durante il lavoro”. È la prima volta che un colosso tech istituzionalizza in questa forma il riciclo del lavoro umano come materia prima dell’automazione.
In Italia sarebbe illegale, ma quello americano è un altro pianeta
Il dettaglio geografico conta. Ifeoma Ajunwa, professoressa di diritto a Yale, ha spiegato a Reuters che “negli Stati Uniti, a livello federale, non esiste alcun limite alla sorveglianza dei lavoratori”: le leggi statali al massimo richiedono che i dipendenti siano genericamente informati. Stop.
Valerio De Stefano, professore di diritto del lavoro alla York University di Toronto, ha aggiunto che in Europa una pratica del genere violerebbe quasi certamente il GDPR.
“In alcuni paesi, come l’Italia, l’uso del monitoraggio elettronico per tracciare la produttività dei dipendenti è esplicitamente illegale.”
Lo Statuto dei lavoratori, articolo 4, vieta esattamente questo tipo di controllo a distanza per finalità diverse da esigenze produttive specifiche e concordate con i sindacati. Sapere che l’AI che useremo nei prossimi anni è stata addestrata aggirando regole che da noi hanno cinquant’anni è uno di quei dettagli che il comunicato stampa preferisce omettere.
Il precedente: dalla cuffia EEG al keylogger
Su questo blog ne avevamo parlato due volte, in tempi non sospetti. Tre anni fa, quando le startup iniziavano a vendere visori EEG per “spiare il cervello dei dipendenti”. Un anno fa, raccontando il salto della neuroergonomia da disciplina di laboratorio a mercato da 21 miliardi. La traiettoria era prevedibile: dal cartellino al badge, dal badge al monitoraggio dello schermo, dal monitoraggio dello schermo alla registrazione di tutto. La novità del 2026 non è tanto la sorveglianza in sé, quanto la motivazione: non serve più a controllare se lavori, serve a copiarti.
Insomma, il keylogger non è più punitivo: è didattico. Lo strumento che storicamente le aziende usavano per cacciare chi non lavorava abbastanza ora viene usato per imparare da chi lavora. Cambia la grammatica, non cambia la posizione del soggetto.
Il problema di chi viene dopo
Resta una questione tecnica curiosa che gli ingegneri di Meta forse si sono già posti, ma di cui nessun memo parla. Se gli agenti AI imparano osservando come i dipendenti compilano dropdown, scelgono shortcut e navigano interfacce, cosa succederà quando questi agenti AI avranno sostituito buona parte di quei dipendenti? Da chi impareranno la prossima generazione di modelli? Da altri agenti?
Una catena di copia su copia su copia, finché qualcuno non si accorge che le interfacce stesse stanno cambiando perché ormai le usano solo macchine.
Per il momento il problema non si pone. Per il momento c’è un dipendente di Meta che apre Gmail alle nove di mattina, scrolla i menu, scrive una mail, e da qualche parte un modello impara a fare lo stesso. Lui non lo sa, ma sta facendo il tutorial più costoso e meno retribuito della storia del lavoro intellettuale.
Non c’è opt-out. C’è solo una faccina arrabbiata sotto al post.