Ti è mai capitato di parlare di qualcosa con un amico e poi, ore dopo, vedere pubblicità esattamente su quel tema? Non sei paranoico. O meglio, forse lo sei, ma non senza motivo. Google ha appena accettato di pagare 68 milioni di dollari per chiudere una causa che parla proprio di questo. L’assistente vocale Google Assistant si attivava anche senza “Hey Google”. Registrava frammenti di conversazioni private. Discussioni su soldi, lavoro, decisioni personali. Tutto materiale poi utilizzato per pubblicità mirata.
La causa è partita nel luglio 2019. Sei anni e mezzo di contenziosi, deposizioni, perizie tecniche. Alla fine Google ha scelto di pagare piuttosto che andare a processo. Nega tutto, ovviamente. Ma 68 milioni parlano abbastanza chiaro. Quanto vale la tua privacy? Per Google, più o meno questa è la cifra.
Attivazioni sbagliate, gli “errori” che costano
Il meccanismo è semplice. L’assistente vocale Google Assistant dovrebbe attivarsi solo quando gli dici “Hey Google” o “Okay Google”. Un po’ come “Siri” con Apple, o “Alexa” con Amazon, giusto? In teoria, funziona così. Nella pratica, il sistema sbaglia: scambia una parola per un’altra, interpreta male un suono, parte da solo.
Google chiama questi episodi “false accepts”: attivazioni sbagliate: gli utenti li chiamano violazione della privacy (e pure io, ndr). La giudice Beth Labson Freeman della corte federale di San Jose li chiama materiale per una class action. La differenza di prospettiva è notevole, direi.
Mi piacerebbe ciucciarmi la caramellina dell’errore, ma il problema è di sistema Dal maggio 2016 (data di inizio della class action) ad oggi questi “errori” si sono ripetuti milioni di volte, su milioni di dispositivi coinvolti, con conversazioni registrate senza consenso e dati usati per profilazione pubblicitaria. Google sapeva. Come faceva a saperlo? Beh, perché le segnalazioni degli utenti erano costanti.
Apple 95 milioni, Google 68: la matematica della sorveglianza
Google non è la sola a origliare: Apple ha chiuso una causa simile a dicembre 2024. Siri aveva lo stesso “problema”, poverina, e guarda caso con lo stesso meccanismo: assistente vocale che si attiva da sé senza comando, e registrazioni utilizzate per pubblicità. Importo dell’accordo: 95 milioni di dollari: gli utenti Apple risarciti hanno ricevuto tra 8 e 40 dollari ciascuno, quelli Google pure meno (dipende da quante richieste arriveranno).
Gli avvocati dei querelanti potrebbero prendere fino a un terzo del fondo: 22,7 milioni. Il resto andrà agli utenti. Nel complesso, posso dirlo: due spiccioli. Vale così poco la privacy?
La privacy policy che non dice abbastanza
Google ha una difesa: la privacy policy spiega tutto. Gli utenti accettano quando attivano il dispositivo, è la solita filastrocca: dovevamo leggere le righe piccole, giusto?
Il problema è che la policy parla di raccolta dati per pubblicità mirata, non parla di registrazioni accidentali. Non spiega che l’assistente vocale può attivarsi senza comando. Soprattutto, non chiarisce che le “false accepts” vengono utilizzate allo stesso modo delle attivazioni volontarie.
La giudice Freeman ha portato avanti la causa proprio per questo. Google “non informa sufficientemente gli utenti” che utilizzerà registrazioni fatte “in assenza di attivazione manuale o pronuncia del comando vocale”. Per un tribunale, la differenza tra dire “raccolgo dati” e spiegare come li raccogli è giustamente sostanziale.
Settembre 2024: ammissioni e conferme
Non è la prima volta che emerge il tema. A settembre 2024 un’agenzia di marketing, CMG Local Solutions, ha ammesso pubblicamente di utilizzare “ascolto attivo” sugli smartphone: analisi tramite intelligenza artificiale di conversazioni captate dai microfoni e dati vocali combinati con informazioni comportamentali per creare profili dettagliati. Il risultato? Pubblicità così mirate da sembrare telepatiche.
L’ammissione ha fatto rumore. Quello che era considerato paranoia da teoria del complotto si è rivelato pratica documentata. Anche allora le aziende hanno negato, ma le cause legali raccontano un’altra storia.
Approfondisci
Ti interessa il tema della privacy e degli assistenti vocali? Leggi anche come i nuovi assistenti avatar AI cambiano la percezione della sorveglianza domestica. Oppure scopri l’allarme UNESCO sugli assistenti vocali e le questioni etiche che sollevano nel rapporto tra tecnologia e società.
L’accordo è un preliminare, e la giudice Freeman deve ancora approvarlo, ma il messaggio è chiaro: spiarci costa relativamente poco a Big Tech, ma non si paga solo in denaro.
Anche se l’ascolto è “accidentale”, e lo chiami “imperfezione tecnica”, è una roba che dura da anni e coinvolge milioni di persone. Google preferisce pagare piuttosto che spiegare in tribunale perché queste imperfezioni continuano.
E questo, probabilmente, dice più di qualsiasi confessione.