Arriva la seconda acquisizione più grande di Apple dopo Beats

Apple conferma l’acquisizione di Q.ai: quasi 2 miliardi per la tecnologia di “silent speech”. Ecco di cosa si tratta.

apple logo

Apple ha confermato a Reuters di aver acquisito Q.ai, startup israeliana che lavora su tecnologie di intelligenza artificiale legate all’audio. I dettagli economici non sono ufficiali, ma il Financial Times parla di un’operazione “vicina ai 2 miliardi di dollari”: numeri che, se confermati, rendono l’acquisizione la seconda più grande nella storia di Apple, dietro solo a Beats.

Perché Q.ai? Silent speech e micromovimenti del volto

La parola chiave è “silent speech”. Secondo il Financial Times, Q.ai ha sviluppato tecnologia capace di analizzare espressioni facciali e micro-movimenti della pelle del viso per interpretare una sorta di parlato “silenzioso”. Nei brevetti citati dal quotidiano, il concetto è applicato a cuffie o occhiali: dispositivi in grado di captare questi segnali e tradurli in comandi, senza voce.

Reuters aggiunge un dettaglio interessante: Q.ai lavora su AI per l’audio in condizioni difficili, inclusa la capacità di interpretare il parlato sussurrato. E parla anche di applicazioni più ampie basate su machine learning e imaging, con capacità potenziali di rilevare non solo segnali di “speech”, ma anche emozioni e perfino parametri vitali.

Se mettiamo insieme i pezzi, l’idea diventa chiara: Apple sta puntando a un’interazione più discreta, più privata e probabilmente più continua con i suoi dispositivi. Un’interazione che non passa per “Ehi Siri” detto ad alta voce, ma per un input quasi invisibile.

La seconda acquisizione più grande dopo Beats

Quando si parla di “seconda più grande acquisizione”, il riferimento è automatico: Beats. Nel 2014 Apple annunciò l’acquisto di Beats Music e Beats Electronics per 3 miliardi di dollari.

Qui il parallelo è interessante perché Beats era un’operazione molto “di prodotto” e di ecosistema: audio, brand, musica, servizi. Q.ai, invece, è un’operazione molto più “da Apple laboratorio”: imaging, machine learning, wearable, interazione uomo-macchina. E il fatto che Apple abbia accettato, almeno indirettamente, che si parlasse di cifre così alte (con conferma dell’acquisizione a Reuters) fa capire quanto consideri strategico questo tassello.

Un team da circa 100 persone e… Aviad Maizels

Secondo Reuters, il team Q.ai sarebbe composto da circa 100 persone e passerà in Apple insieme ai fondatori, tra cui Aviad Maizels (CEO) e i co-founder Yonatan Wexler e Avi Barliya.

Maizels non è un volto nuovo per Cupertino. In passato ha fondato PrimeSense, altra startup israeliana che Apple acquistò nel 2013. All’epoca si parlò di una cifra nell’ordine dei 345 milioni di dollari secondo Reuters, e quella tecnologia di sensing 3D è considerata una delle basi che hanno portato, negli anni, allo sviluppo di Face ID.

Nel commento condiviso con Reuters, Johny Srouji (SVP Hardware Technologies) definisce Q.ai “una società straordinaria” che sta aprendo strade nuove usando imaging e machine learning, e dice che Apple è entusiasta di ciò che verrà.

Srouji, per intenderci, non è uno che parla spesso “a caso”. Quando un nome così vicino al cuore hardware dell’azienda si espone, di solito significa che il progetto non è un esperimento laterale, ma qualcosa che può finire in prodotti veri. E se Q.ai sta nel perimetro “Hardware Technologies”, è difficile non pensare a dispositivi indossabili.

Dove potrebbe arrivare questa tecnologia

Ovviamente, Apple non ha detto in quali prodotti userà Q.ai. Però le ipotesi più credibili, guardando a brevetti e contesto, sono sempre le stesse.

La prima è AirPods. Reuters ricorda che Apple sta già spingendo funzioni avanzate, come la traduzione in tempo reale, che negli ultimi mesi ha avuto un’espansione più ampia anche in Europa secondo comunicazioni ufficiali Apple.

Aggiungere un input “silenzioso” potrebbe risolvere uno dei limiti pratici di qualsiasi assistente vocale: il momento in cui non vuoi parlare, non puoi parlare, o semplicemente non ti va di farlo in pubblico.

La seconda è la categoria occhiali. Il Financial Times parla esplicitamente di scenari “headphones or glasses” nei brevetti, e non è un caso: sono le due forme più naturali per un assistente sempre con te.

La terza è l’ecosistema Vision Pro e, più in generale, tutto ciò che ruota attorno a input alternativi. Un’interazione basata su micromovimenti del volto è coerente con una direzione: meno touch, meno voce, più “intenzione” rilevata dai sensori.

Questa acquisizione arriva mentre il mercato sta tornando a sognare una nuova ondata di dispositivi nati attorno all’AI.

Meta, ad esempio, sta spingendo la famiglia Ray-Ban Meta e ha già mostrato una variante con display integrato nelle lenti, con controllo tramite accessori dedicati.

E dall’altra parte c’è OpenAI: Axios riporta che l’azienda è “on track” per presentare il suo primo dispositivo nella seconda metà del 2026, dopo l’ingresso di Jony Ive nel progetto.
TechCrunch, con le dovute cautele, parla anche di ipotesi legate ad auricolari come possibile forma del primo hardware.

In questo scenario, Apple non può permettersi un assistente che funziona solo in modalità “parlami e ti rispondo”. Serve un’interazione più fluida, più privata, più immediata. E Q.ai sembra esattamente un tassello in quella direzione.

In qualità di Affiliato Amazon, iPhoneItalia riceve un guadagno dagli acquisti idonei.
Offerte Amazon di oggi