L’intelligenza artificiale mobile non è più soltanto una voce di marketing. Il vero nodo, oggi, riguarda dove avvenga l’elaborazione: direttamente sul telefono oppure su server remoti.
La scelta tra on-device e cloud tocca privacy, velocità, costi energetici, accessibilità e perfino il modo in cui le persone imparano a fidarsi delle risposte generate dalle macchine.
Due architetture diverse, due idee diverse di intelligenza
L’AI on-device esegue almeno una parte delle operazioni sullo smartphone, sfruttando chip dedicati e servizi di sistema come AICore, pensati per ridurre la latenza e usare l’hardware locale in modo più efficiente. In ambiente Android, Google spiega che Gemini Nano gira dentro AICore e che Android System Intelligence opera nel perimetro di Private Compute Core. L’AI in cloud, invece, invia la richiesta a infrastrutture esterne, dove modelli più grandi possono gestire compiti più complessi. Il mercato non si sta muovendo verso una vittoria totale di uno dei due modelli, ma verso formule ibride: Apple, per esempio, presenta Apple Intelligence come basata sull’elaborazione on-device, ma per richieste più pesanti prevede l’appoggio a Private Cloud Compute. In altre parole, la distinzione non è solo “locale contro remoto”, ma vicinanza del dato contro potenza del modello.
Dove l’AI mobile può essere davvero utile
Le funzioni che traggono più vantaggio dall’AI sul telefono sono quelle che richiedono rapidità, contesto personale e interazione frequente. Sul fronte dei riassunti, Google indica che il Recorder dei Pixel può generare sintesi delle trascrizioni tramite un modello linguistico, anche se in alcune lingue può servire la connessione internet e parte del processo può avvenire in un ambiente cloud isolato. Sul fronte dell’organizzazione personale, Pixel Screenshots può generare titoli, riassunti, azioni suggerite e ricerca semantica dei contenuti, con un’impostazione esplicitamente legata all’on-device AI. Nelle foto, Google Photos sta spingendo su ricerche in linguaggio naturale con Ask Photos, capaci di trovare immagini e dettagli senza costringere l’utente a ricordare parole chiave rigide. Anche l’accessibilità è un terreno decisivo: TalkBack può produrre descrizioni più ricche delle immagini, e sui Pixel 9 le descrizioni automatiche possono essere generate on-device, mentre le descrizioni manuali possono appoggiarsi a modelli server-side se c’è rete.
I limiti reali: allucinazioni, bias e promesse gonfiate
La parte più delicata non riguarda la velocità, ma l’affidabilità. NIST segnala tra i rischi della generative AI problemi di information integrity, harmful bias e difficoltà di misurazione nei contesti reali. Lo stesso documento evidenzia che il divario tra benchmark e uso quotidiano può ampliarsi per la sensibilità ai prompt e per l’eterogeneità dei casi d’uso.
In pratica, uno smartphone può riassumere bene una nota vocale e sbagliare il passaggio decisivo di una riunione, oppure descrivere un’immagine in modo utile ma fuorviante in un caso ambiguo. Google, nelle proprie pagine di supporto, ricorda a più riprese che certe funzioni generative sono sperimentali e che i risultati possono essere inaccurati. Il problema non è solo l’errore occasionale. C’è anche il rischio che un sistema costruito su dati incompleti o sbilanciati riproduca bias sociali, semplifichi troppo o faccia passare come neutrale una risposta che neutrale non è affatto.
Privacy: meno dati in uscita non significa privacy assoluta
L’argomento più usato a favore dell’AI on-device è la privacy, e in parte è fondato. Google spiega che i componenti di Private Compute Core non hanno accesso diretto alla rete e che, quando serve un ponte verso il cloud, le richieste vengono registrate in un Network Usage Log visibile nelle impostazioni. Questo aumenta la trasparenza operativa. Ma sarebbe ingenuo pensare che on-device significhi automaticamente “nessun rischio”. Anche le funzioni locali dipendono da modelli da aggiornare, da sistemi di sincronizzazione, da permessi e da dati contestuali raccolti nel tempo. Sul lato cloud il discorso si complica ulteriormente: Google Photos precisa che i dati personali nelle foto non vengono usati per la pubblicità e non addestrano modelli generativi fuori da Photos, però dichiara anche che alcune funzioni possono usare libreria fotografica, etichette dei volti, informazioni dell’account e inferenze su età, luoghi o relazioni per offrire risultati più utili. Il vero compromesso, quindi, non è solo tecnico. È un equilibrio tra comodità, potenza e quantità di contesto personale che si è disposti a concedere.
Perché la scelta conta anche sul piano sociale
La partita tra on-device e cloud non riguarda solo le prestazioni del telefono. Riguarda il modello di relazione che si crea tra persone, piattaforme e informazioni personali. Un’AI che lavora localmente tende a rafforzare l’idea di controllo individuale, riduce la dipendenza costante dalla rete e può risultare più adatta a compiti rapidi, intimi e ricorrenti.
Un’AI che si appoggia al cloud offre spesso risultati più sofisticati, ma chiede un livello di fiducia superiore verso il produttore e verso le sue politiche di trattamento dei dati. Il caso pixel 9 pro mostra bene questa transizione: lo smartphone diventa il primo luogo dell’elaborazione intelligente, ma non l’unico. Per il pubblico, la domanda giusta non è se l’AI su telefono sia “buona” o “cattiva”. La domanda giusta è quale equilibrio si voglia tra autonomia, personalizzazione, accuratezza e riservatezza, sapendo che nessuna promessa di marketing può cancellare del tutto il bisogno di verifica critica.
Come valutare davvero le dichiarazioni sull’AI
Per orientarsi tra slogan e schede tecniche serve un framework pratico. La prima domanda da porsi è dove venga eseguito il compito: tutto sul dispositivo, in parte sul dispositivo, oppure quasi tutto in cloud. La seconda riguarda i dati: quali informazioni lasciano il telefono, per quanto tempo restano conservate e con quali controlli di cancellazione. La terza è la verificabilità: esistono log, impostazioni chiare, documentazione tecnica o artefatti di trasparenza? La quarta è la robustezza: la funzione lavora offline, degrada con grazia senza rete oppure smette semplicemente di essere utile? La quinta riguarda la qualità: il produttore parla apertamente di errori, limiti, lingue supportate e condizioni in cui il sistema funziona peggio? NIST raccomanda approcci come red-teaming, metriche, feedback strutturato, monitoraggio continuo dei modelli e revisione di system card o model card. Applicato agli smartphone, questo significa una cosa molto semplice: non basta che un brand dica “abbiamo AI”. Serve capire quale AI, dove gira, cosa vede, cosa ricorda e quanto sia facile per l’utente spegnerla, controllarla o contestarla.