A partire da iOS 14, gli sviluppatori saranno in grado di aggiungere nelle loro app la capacità di rilevare il corpo umano e i movimenti delle mani utilizzando il framework Vision aggiornato da Apple.

Questa funzionalità consentirà alle app di analizzare le pose, i movimenti e i gesti delle persone, consentendo un’ampia varietà di potenziali utilizzi. Apple fornisce alcuni esempi, tra cui un’app per il fitness in grado di tracciare automaticamente l’attività fisica eseguita da un utente, un’app per l’addestramento sulla sicurezza che potrebbe aiutare i dipendenti a utilizzare le pose corrette e un’app per l’editing dei media in grado di trovare foto o video basati su pose simili dei soggetti.

Il rilevamento della posa delle mani promette di offrire una nuova forma di interazione con le app. Apple ha mostrato una persona che disegnare in un’app per iPhone senza toccare il display. Inoltre, le app potrebbero utilizzare il framework per sovrapporre emoji o grafiche sulle mani di un utente che rispecchiano il gesto specifico.

Un altro esempio è un’app della fotocamera che attiva automaticamente l’acquisizione di foto quando rileva l’utente che esegue un gesto specifico della mano.
Il framework è in grado di rilevare più mani o corpi in una scena, ma gli algoritmi potrebbero non funzionare altrettanto bene con le persone che indossano guanti, si chinano, sono capovolte o indossano abiti simili a vesti. L’algoritmo può anche incontrare difficoltà se una persona è vicina al bordo dello schermo o parzialmente ostruita.
Funzionalità simili sono già disponibili tramite ARKit, ma sono limitate alle sessioni di realtà aumentata e funzionano solo con la fotocamera posteriore sui modelli compatibili di iPhone e iPad. Con il framework Vision aggiornato, gli sviluppatori hanno molte più possibilità.
Cosa ne pensate?