
Secondo un report di NBC News, Apple avrebbe contestato a Grok e a X la violazione delle regole dell’App Store e avrebbe avvertito gli sviluppatori che, senza ulteriori correzioni, l’app Grok avrebbe potuto essere rimossa dallo store.
La polemica sui deepfake sessualizzati generati o facilitati da Grok non è stata una semplice ondata di indignazione online: ha innescato pressioni politiche negli Stati Uniti, richieste formali ai grandi operatori digitali, verifiche regolatorie nel Regno Unito e interventi in altri Paesi. In altre parole, non si parla più solo di un problema di moderazione, ma di una questione che tocca sicurezza, conformità e responsabilità delle piattaforme.
Secondo quanto riportato da NBC News, Apple avrebbe contattato i team dietro X e Grok dopo aver ricevuto reclami e dopo aver visto l’esplosione mediatica del caso, chiedendo un piano per rafforzare la moderazione dei contenuti. A quel punto sarebbe iniziato un confronto diretto con gli sviluppatori. X avrebbe inviato un aggiornamento giudicato sufficiente a risolvere in larga parte le violazioni, mentre Grok sarebbe rimasta inizialmente fuori compliance, con una submission respinta e la richiesta di ulteriori modifiche per evitare la rimozione dall’App Store. Solo dopo altri interventi Apple avrebbe approvato una nuova versione dell’app.
Tra la fine del 2025 e l’inizio del 2026, Grok è stata travolta da critiche per la sua capacità di generare o modificare immagini di persone reali in modo sessualizzato senza consenso. La risposta iniziale di xAI è stata giudicata da molti tardiva e confusa. A gennaio l’azienda ha introdotto restrizioni, limitando alcune funzioni di generazione immagini e annunciando misure specifiche per bloccare la creazione di immagini intime di persone reali. Tuttavia, già nelle settimane successive, Ofcom nel Regno Unito ha aperto un’indagine formale su X, e Reuters ha riferito che Grok continuava in alcuni casi a produrre immagini sessualizzate anche dopo i correttivi promessi.
Nelle sue guide linea, Apple chiede alle app con contenuti generati dagli utenti di avere filtri contro il materiale offensivo, sistemi di segnalazione, strumenti per bloccare utenti abusivi e contatti chiari per l’assistenza. Inoltre, Apple specifica che le app usate principalmente per contenuti pornografici, bullismo o oggettivazione di persone reali non appartengono all’App Store e possono essere rimosse senza preavviso.