
Lo scenario è chiaro: iOS 26 ha messo le basi, ma il vero salto di qualità per l’AI di Apple arriverà in due tempi. Prima con iOS 26.4 – dove è attesa la versione più potente e “consapevole” di Siri – e poi con iOS 27, che secondo un nuovo report porterà un “major update” ad Apple Intelligence.
Tradotto: non semplici ritocchi, ma un’evoluzione concreta della piattaforma che Apple sta costruendo, tassello dopo tassello, attorno al concetto di intelligenza on-device.
Nel breve periodo il riflettore è su iOS 26.4. Qui dovrebbe arrivare la Siri rinnovata, capace di:
- comprendere meglio il contesto personale (email, messaggi, appuntamenti pertinenti)
- leggere ciò che c’è sullo schermo per agire con più precisione
- gestire azioni in-app più profonde, concatenate e meno “scriptate”
È il pacchetto di funzioni che Apple aveva promesso e poi rinviato, ora indicato per la primavera. Se Apple centrerà l’obiettivo, avremo un assaggio tangibile di cosa significhi davvero Apple Intelligence nel quotidiano: meno domande, più risultati, con tempi d’esecuzione rapidi e un occhio alla privacy grazie al mix on-device e Private Cloud Compute.
La seconda tappa è iOS 27, presentazione attesa alla WWDC di giugno. Qui, stando alle anticipazioni, non si parlerà di ritocchi estetici: i “major updates” fanno pensare a nuove capacità trasversali per l’AI di sistema, più integrazione nelle app di base, strumenti migliori per gli sviluppatori e maggiore coerenza tra iPhone, iPad e Mac.
In questo contesto, potremmo vedere con iOS 27 le seguenti novità in Apple Intelligence:
- Automazioni naturali: azioni multi-step che si configurano parlando in linguaggio umano, senza macro e senza menù oscuri.
- Comprensione documentale: lettura, riassunto e riformulazione di contenuti con controllo dell’utente e citazioni, sfruttando l’on-device quando possibile e il cloud privato quando serve.
- Creatività assistita: strumenti di scrittura e immagini più rapidi e “contestuali”, utili dentro Mail, Note, Promemoria, Foto e non solo.
- Multimodalità coerente: Siri capace di “vedere” ciò che è in primo piano e proporre azioni pertinenti senza rimbalzare tra app.
- API più mature per gli sviluppatori: estensioni che aprano Apple Intelligence a casi d’uso verticali, preservando i confini di sicurezza.
Cosa ne pensate?