Apple ha rimosso tutti i riferimento a CSAM sul sito Child Safety

Apple inizia a fare marcia indietro rispetto al rilevamento CSAM di immagini pedopornografiche su iPhone e iPad?

Apple ha eliminato tutti i riferimenti al rilevamento CSAM sulla pagina web Child Safety, suggerendo l’intenzione di abbandonare questa controversa funzione che avrebbe rilevato immagini di abusi sessuali su minori presenti sugli iPhone e gli iPad degli utenti.

csam iphone

 

Annunciate ad agosto, le funzionalità CSAM pianificate da Apple includono la scansione lato client (ovvero sul dispositivo) delle librerie di foto di iCloud degli utenti per le immagini relative a materiale sessuale su minori (CSAM), così da poter avvisare per tempo le autorità competenti. Secondo i critici, questo sistema rischia di dare una finestra sui nostri iPhone ai governi di tutto il mondo, che potrebbero iniziare a spiare anche i cittadini rispettosi della legge. Apple ha fortemente respinto tale possibilità, affermando che rifiuterà qualsiasi richiesta del genere da parte dei governi. Ma per i ricercatori questo non basa.

Malgrado le rassicurazioni, non sono mancate ulteriori critiche, tanto che Apple ha ora deciso di eliminare i riferimenti alla tecnologia CSAM sul suo sito Web Child Safery. Tra l’altro, su iOS 15.2 sono state aggiunte funzioni che consentono all’app Messaggi di rilevare la presenza di nudità nelle immagini inviate ai bambini, ma non ci sono riferimenti alla tecnologia CSAM.

Con questa nuova mossa, non sappiamo se Apple si limiterà solo a ritardarne il lancio o se ha deciso di sospendere del tutto l’iniziativa.

HotAcquista iPhone 15 su Amazon!
News