
Apple ha pubblicato un report tecnico dettagliato sui suoi nuovi modelli di IA presentati durante la WWDC25, offrendo uno sguardo approfondito al lavoro dietro le quinte di Apple Intelligence. Il documento, intitolato “Apple Intelligence Foundation Language Models – Tech Report 2025”, approfondisce aspetti chiave come architettura, addestramento, fonti dati e ottimizzazioni.
Ecco i 4 punti più interessanti.
1. Il modello on-device è diviso in due blocchi per essere più veloce
Apple ha confermato che il modello locale da 3 miliardi di parametri è suddiviso in due blocchi, ottimizzando la gestione della memoria:
- Il Blocco 1 contiene il 62,5% dei livelli del trasformatore;
- Il Blocco 2 il restante 37,5%, ma senza proiezioni “key” e “value”.
Questo ha permesso ad Apple di ridurre la memoria di caching del 37,5% e accelerare l’emissione del primo token del 37,5%, senza compromettere la qualità.
2. Il modello cloud è modulare e più intelligente
Il modello cloud si basa su un’architettura chiamata PT-MoE (Parallel-Track Mixture of Experts), realizzata su misura per il sistema Private Cloud Compute.
In pratica, si tratta di un sistema in cui solo gli “esperti” rilevanti vengono attivati per ogni prompt. Ad esempio, se chiedi una ricetta, si attiva solo il blocco dedicato alla cucina. Questo permette al modello di essere più veloce, preciso e scalabile.
Il tutto è gestito da un nuovo tipo di trasformatore che lavora in tracce parallele, riducendo i colli di bottiglia e migliorando l’efficienza.
3. Apple ha migliorato il supporto multilingua del 275%
Per superare i limiti della prima generazione di Apple Intelligence, l’azienda ha triplicato la quantità di dati multilingua, passando dall’8% al 30% durante la fase di training. Ha anche aumentato del 50% il vocabolario dei token (ora 150.000).
Il risultato? Performance molto più alte nei test in lingue non inglesi, grazie anche al reinforcement learning e a prompt scritti da madrelingua.
4. Da dove ha preso Apple i dati per addestrare i modelli?
Apple ha utilizzato:
- Dati web pubblici, raccolti con Applebot, nel rispetto dei file robots.txt.
- Contenuti su licenza da editori come Condé Nast, NBC News e IAC.
- Dati sintetici, generati con modelli più piccoli per migliorare codice, matematica e supporto multilingua.
- Dati visivi, inclusi oltre 10 miliardi di immagini con didascalie, note scritte a mano e screenshot elaborati con OCR.
Nonostante Apple sia spesso considerata in ritardo nel campo dell’IA, questo report dimostra quanto lavoro sia stato fatto in ottica performance, efficienza e rispetto della privacy. Con un focus modulare, multilingue e privacy-conscious, Apple sembra aver gettato basi solide per l’evoluzione di Apple Intelligence.
Quando vedremo questi risultati?
News