Le novità di Apple Intelligence spaziano dalla comunicazione alla creatività, fino alle nuove possibilità per gli sviluppatori. Ecco tutti i dettagli.
Comunicazione senza barriere con Live Translation
Apple introduce Live Translation per abbattere le barriere linguistiche. Integrato in Messaggi, FaceTime e Telefono, permette di tradurre in tempo reale ciò che viene scritto o detto, mantenendo la privacy grazie all’elaborazione interamente on-device.
- In Messaggi: traduzioni automatiche mentre si digita.
- In FaceTime: sottotitoli tradotti in tempo reale.
- Nelle chiamate: traduzioni vocali continue.
Creatività e personalizzazione: Genmoji e Image Playground
Gli strumenti creativi si arricchiscono:
- Genmoji ora permette di combinare emoji e descrizioni testuali per creare nuovi personaggi.
- Image Playground si arricchisce di stili grafici (es. olio su tela, arte vettoriale) grazie a ChatGPT. Con “Any Style” si descrive ciò che si vuole ottenere e l’immagine viene generata di conseguenza, sempre con il controllo dell’utente.
Visual Intelligence
Con Visual Intelligence, Apple Intelligence interpreta ciò che appare sullo schermo per fornire azioni contestuali:
- Ricerca di oggetti simili (es. da un sito o un’app come Etsy o Google).
- Creazione automatica di eventi in calendario quando viene visualizzato un appuntamento.
Workout Buddy su Apple Watch
L’intelligenza arriva anche nel fitness: Workout Buddy sfrutta i dati storici dell’utente (frequenza cardiaca, chilometri, ritmo) per fornire incoraggiamenti vocali personalizzati in tempo reale. Il tutto è basato su un modello text-to-speech derivato dalle voci degli allenatori Fitness+.
Apple Intelligence per sviluppatori
Apple apre agli sviluppatori l’accesso al modello fondazionale on-device, che alimenta Apple Intelligence:
- Gratuito, disponibile anche offline e rispettoso della privacy.
- Accessibile tramite il Framework Foundation Models, con supporto nativo a Swift e integrazione semplice in tre righe di codice.
Shortcut più intelligenti
Shortcut può ora attingere direttamente ai modelli Apple Intelligence. È possibile creare flussi di automazione complessi, sfruttando anche ChatGPT.
Esempio: confrontare trascrizioni vocali con appunti e aggiungere le differenze.
Nuove funzionalità Apple Intelligence integrate nei sistemi
Tra le altre novità:
- Reminders: rileva automaticamente le azioni più rilevanti da contenuti come email o note.
- Apple Wallet: organizza i dettagli di tracking degli ordini.
- Messaggi: suggerisce sondaggi nei gruppi, offre sfondi personalizzati generati con Image Playground.
Tutto ciò che può essere elaborato su dispositivo lo è, poi quando serve maggiore potenza, entra in gioco il Private Cloud Compute, sicuro e ispezionabile da esperti esterni.
Le novità saranno disponibili in beta pubblica il mese prossimo. Apple Intelligence sarà accessibile su:
- Tutti gli iPhone 16
- iPhone 15 Pro / Pro Max
- iPad mini con A17 Pro, iPad e Mac con chip M1 o successivi
Siri personalizzato? Ancora niente
Nonostante la valanga di novità annunciate con Apple Intelligence, l’upgrade più atteso — la versione davvero personalizzata di Siri — resta nel cassetto.
Apple ha confermato alla WWDC 2025 che le funzionalità contestuali, come il riconoscimento delle informazioni personali (tipo “Che volo ha mia madre?” o “A che ora ho il pranzo con Marco?”), non arriveranno con le prime beta di iOS 26, iPadOS 26 o macOS 26.
Promesse già fatte nel 2024, poi rinviate. E adesso? Si parla genericamente di “entro l’anno”. La rivoluzione dell’assistente vocale, per ora, resta in standby.
News