Google Gemini Live sbarca ufficialmente su iPhone

Gemini Live arriva su iPhone e iPad con nuove funzioni.


Dopo l’annuncio ufficiale durante il Google I/O 2025, l’ultima versione di Gemini Live — l’assistente vocale basato su intelligenza artificiale sviluppato da Google DeepMind — sta arrivando anche sugli iPhone e iPad di un numero sempre più ampio di utenti negli USA, e a breve dovrebbe arrivare anche in Italia.

E porta con sé due funzioni che promettono di cambiare l’interazione con l’AI: la condivisione della fotocamera e quella dello schermo.

Si tratta di un passo avanti importante, non solo per l’esperienza utente ma anche per capire in che direzione stia andando il confronto tra Google e Apple nel campo degli assistenti virtuali evoluti.

Una volta lanciata la funzione Gemini Live (riconoscibile dall’icona a forma di onda con stellina nell’angolo in basso a destra), troverai due nuovi pulsanti nel menu inferiore. I classici pulsanti circolari sono stati sostituiti da pillole minimali, più in linea con le tendenze di design attuali.

Toccando l’icona della fotocamera si apre il mirino in tempo reale, con la possibilità di passare alla fotocamera frontale. A quel punto puoi semplicemente puntare l’obiettivo su un oggetto o su una scena e iniziare a fare domande: Gemini analizzerà ciò che vede per fornire risposte contestualizzate.

Puoi, ad esempio, chiedere:

  • “Che tipo di pianta è questa?”
  • “Quanto può costare questo elettrodomestico?”
  • “Mi traduci questo cartello?”

La sessione si interrompe automaticamente se esci dall’app Gemini o se lo schermo si blocca.

Il secondo pulsante ti permette invece di attivare la condivisione dello schermo, con il classico avviso di iOS per confermare l’avvio della trasmissione. Da lì, potrai uscire da Gemini e navigare in qualsiasi altra app: una pagina web, una mail, un documento.

Mentre interagisci con lo schermo, puoi continuare a parlare con Gemini, che sarà in grado di rispondere a domande come:

  • “Riassumimi questa pagina.”
  • “Che opzioni ci sono in questo menù?”
  • “Cosa significano questi termini?”

Per interrompere la condivisione, basterà toccare il pulsante “Stop Broadcasting” che compare nell’angolo in alto a sinistra.

Tutto questo è reso possibile da Project Astra, il progetto di DeepMind che sta portando l’intelligenza artificiale multimodale (cioè capace di comprendere voce, testo e immagini) su smartphone e tablet. Il rollout, iniziato la scorsa settimana, si sta ora espandendo su larga scala negli Stati Uniti, sia per gli utenti gratuiti sia per quelli con abbonamento AI Pro o AI Ultra. Nel resto del mondo dovrebbe arrivare nei prossimi mesi.

Per accedere alle nuove funzioni, assicurati di avere l’app aggiornata all’ultima versione.

Offerte Amazon di oggi
Aggiornamenti