Apple sta ritardando i piani per la scansione dei telefoni alla ricerca di materiale pedopornografico

Apple ha annunciato che sta ufficialmente ritardando il lancio dei suoi controversi piani per scansionare gli iPhone alla ricerca di materiale pedopornografico (CSAM), riporta The Verge:

“Il mese scorso abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico“, ha scritto Apple in una nota. È un notevole – e raro – momento di auto-riflessione. Apple sta ascoltando i suoi critici. Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”, continua la dichiarazione. Il mese scorso, Apple ha annunciato di aver pianificato di scansionare tutti i dati caricati sul suo servizio iCloud Photos e confrontare gli hash, che sono rappresentazioni digitali illeggibili di ogni immagine, con un database esistente di CSAM. In caso di rilevazione di corrispondenze positive, l’azienda segnalerebbe automaticamente i contenuti sospetti al National Center for Missing and Exploited Children (NCMEC). L’annuncio di Apple include anche una nuova funzionalità che avviserebbe i genitori se il loro bambino dovesse ricevere foto sessualmente esplicite, offuscandole automaticamente.

- Prosegue dopo la pubblicità -

L’annuncio ha sollevato bandiere tra molti sostenitori della privacy online, con molti che sostenevano che la mossa potrebbe costituire un precedente preoccupante per la scansione di altro materiale da parte di Apple in futuro. Sarebbe uno sviluppo particolarmente inquietante nei paesi in cui il governo ha una presa più stretta su ciò che viene condiviso online, come l’India e la Cina. L’Electronic Frontier Foundation ha affermato in una dichiarazione all’epoca che “è impossibile costruire un sistema di scansione lato client che possa essere utilizzato solo per immagini sessualmente esplicite inviate o ricevute da bambini. Di conseguenza, anche uno sforzo ben intenzionato per costruire un tale sistema infrangerà le promesse chiave della crittografia stessa del messaggero e aprirà la porta ad abusi più ampi”. Per ora, Apple sta mettendo su ghiaccio i suoi piani per scansionare iPhone per CSAM. Non è chiaro come saranno le future funzionalità di sicurezza dei bambini del gigante della tecnologia, ma qualunque cosa siano, probabilmente dovranno affrontare un esame simile da parte dei sostenitori della privacy.

- Prosegue dopo la pubblicità -
Se ti è piaciuto questo articolo e non vuoi perderti i nostri aggiornamenti pui seguirci anche su Telegram al seguente indirizzo >https://t.me/globochannel<. E' inoltre possibile seguirci su Facebook cliccando "MI PIACE" e poi "segui" su questa Pagina >www.facebook.com/GloboChanneldotcom<. GloboChannel.com è anche su twitter.com/globochannel1, su instagram.com/globo_channe_ita/ e su linkedin.com/company/globochannel.