
I futuri Apple Glass potrebbero prendere in prestito una delle funzioni più riconoscibili dei Vision Pro: il controllo tramite gesti delle mani.
Secondo una fonte citata da MacRumors, gli occhiali AI di Apple integrerebbero due fotocamere: una ad alta risoluzione per foto e video, e una seconda lente grandangolare a risoluzione più bassa pensata per leggere gesture delle mani e fornire input visivi a Siri.
Potrebbero però esserci diverse limitazioni. Il Vision Pro può permettersi quel tipo di interazione perché è un dispositivo molto più grande, con un sistema di sensori e fotocamere decisamente più complesso. Gli Apple Glass, almeno nella prima generazione attesa tra il 2026 e il 2027, dovrebbero invece essere leggeri, sottili e privi di display integrato.
Riconoscere gesti complessi con una sola fotocamera esterna a bassa risoluzione sarebbe molto difficile, soprattutto senza eye-tracking, senza neural band e senza l’intero sistema di sensori di Vision Pro.
Lo scenario più realistico è un altro: Apple potrebbe puntare su comandi vocali, Siri, Apple Intelligence e gesti più semplici, come movimenti della testa per accettare o rifiutare azioni. Sarebbe una strada molto più plausibile per un dispositivo leggero, pensato per essere indossato durante la giornata e non per sostituire Vision Pro.
Tra l’altro, gli Apple Glass non sembrano nascere come un “Vision Pro in miniatura”, ma come un dispositivo AI da indossare tutti i giorni: foto, video, chiamate, Siri più contestuale e la possibilità di chiedere informazioni su ciò che si ha davanti. MacRumors parla proprio di un’esperienza simile a quella dei Meta Ray-Ban, ma integrata più profondamente nell’ecosistema Apple.
In questo contesto, i gesti delle mani potrebbero arrivare solo in forma molto limitata. Magari non per controllare un’interfaccia completa, ma per attivare funzioni semplici, confermare un’azione o dare un comando visivo molto evidente.