I gruppi per i diritti civili chiedono ad Apple di abbandonare il progetto CSAM

Il sistema CSAM presentato da Apple alcune settimane fa è stato criticato anche da alcuni gruppi per i diritti civili.

Una coalizione internazionale di oltre 90 gruppi per i diritti civili e politici ha pubblicato una lettera aperta per esortare Apple ad abbandonare i suoi piani relativi al sistema di rilevamento CSAM

Child-Safety-Feature-yellow

Il gruppo afferma che le finalità di questo sistema non giustificano un’ingerenza così grande nella privacy degli utenti:

Sebbene il sistema di rilevamento CSAM abbia lo scopo di proteggere i bambini e ridurre la diffusione di materiale pedopornografico, siamo preoccupati che queste tecnologie vengano utilizzate per censurare comunicazioni, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere disastrosi conseguenze per molti bambini.

I firmatari della lettera inviata ad Apple temono che il sistema di scansione CSAM su dispositivi Apple possa essere sfruttato da alcune nazioni con sistemi legali diversi per cercare contenuti politici o altri contenuti sensibili appartenenti agli oppositori.

Una volta integrata questa funzione di backdoor, i governi potrebbero costringere Apple a estendere la notifica ad altri account e a rilevare immagini discutibili per ragioni diverse da quelle sessualmente esplicite.

Inoltre, la lettera invita Apple ad abbandonare le modifiche pianificate su iMessage negli account familiari, che andranno a identificare e offuscare la nudità nei messaggi dei bambini, consentendo loro di visualizzare le foto solo se i genitori vengono avvisati. I firmatari affermano che non solo questo blocco potrebbe mettere in pericolo i bambini vittime di violenza o coloro che cercano materiale educativo, ma potrebbe anche violare la crittografia end-to-end di iMessage.

Apple ha più volte spiegato che la scansione CSAM non analizzerà le foto di tutte le persone sui loro iPhone, ma solo quelle i cui hash combaciano con le immagini pedopornografiche del database CSAM. Non solo, la società ha annunciato la scorsa settimana che il sistema potrà essere verificato anche da terze parti. Inoltre, Apple ha anche confermato che il rilevamento CSAM si applica solo alle foto archiviate in iCloud Photos, e non ai video.

HotAcquista iPhone 15 su Amazon!
News