Da quasi un anno l’Unione Europea sta discutendo una proposta di regolamento denominata “ChatControl”, il cui scopo è la ricerca di materiale pedopornografico ma che rischia di sfociare in una gigantesca violazione dei diritti fondamentali dei cittadini europei.
La proposta prevede l’istituzione di apposite “autorità coordinatrici” in ogni Stato Membro, le quali avranno il potere – di concerto con altre autorità nazionali – di emanare “ordini di rilevazione” (o detection order) attraverso i quali potranno imporre ad alcuni servizi digitali (come social network e servizi di messaggistica) di installare un sistema di analisi automatizzata delle conversazioni di tutti gli utenti per individuare contenuti pedopornografici.
A seguito di questi ordini e per un periodo di massimo 24 mesi le conversazioni di tutti gli utenti sarebbero costantemente monitorate e confrontate con database contenenti “indicatori” in grado di rilevare la presenza di immagini sensibili.
La scansione riguarderebbe tutti gli utenti, senza distinguere, ad esempio, tra account precedentemente segnalati, specifiche utenze o zone geografiche.
Le preoccupazioni che questo regolamento suscita sono molteplici. Nonostante le soluzioni tecniche finora proposte potrebbero prevedere l’utilizzo di sistemi di cifratura delle informazioni sottoposte ad analisi, si verificherebbe comunque un controllo sistematico e di massa su tutti i cittadini europei, in violazione di regole fondamentali come la proporzionalità nel trattamento dei dati personali e il principio di presunzione d’innocenza.
L’implementazione di questi sistemi, inoltre, impedirebbe di utilizzare sistemi di crittografia end-to-end. Questo tipo di crittografia è molto diffusa (la utilizzano, ad esempio, WhatsApp, Signal e iCloud) e permette a chi ne beneficia di avere il massimo livello di sicurezza delle informazioni, in quanto solo il mittente e il destinatario di un’informazione possono accedere ai dati. Al contrario, qualsiasi accesso da parte di soggetti terzi è escluso.
La scansione dei messaggi deve operare su informazioni non cifrate e questo livello di sicurezza sarebbe impossibile da mantenere.
Con ogni probabilità si verrebbe a creare un paradosso: da un lato gli utenti comuni non potrebbero più utilizzare la crittografia end-to-end e sarebbero esposti ad intrusioni di terzi, sia privati che pubblici; dall’altro coloro che diffondono materiale pedopornografico si rivolgerebbero a servizi diversi, meno conosciuti e insensibili a questo tipo di soluzioni, come reti decentralizzate.
I rischi non riguardano solo gli abusi ma anche gli errori dell’algoritmo, che sarebbero amplificati dalla quantità di dati interessati dai controlli.
Ad esempio, su WhatsApp vengono scambiati oltre 70 miliardi di messaggi al giorno. Con questi numeri, anche una percentuale di errore dell’1% comporterebbe quantità enorme di segnalazioni errate, con conseguenti costi e tempi di gestione, nonché notevoli disagi per i soggetti coinvolti.
In termini pratici, lo scambio di immagini per finalità assolutamente lecite, come la trasmissione di una foto da parte di un genitore ad un pediatra, potrebbe far scattare un allarme e un inutile accertamento.
Ciò che non ci convince è l’approccio al problema. In questi ultimi anni, il progresso tecnologico ha generato una tendenza alle raccolte massive di dati, in un’ottica di controllo e repressione dei comportamenti illeciti, nell’illusione che la tecnologia possa fornire soluzioni semplici e immediate a problemi complessi e radicati.
In realtà, è molto comune che l’analisi di grandi quantità di dati pregiudichi l’efficacia delle investigazioni poiché inonda l’autorità di informazioni non utili, che richiedono tempo e risorse per essere gestite.
Il Regolamento ChatControl è, quindi, un caso di soluzionismo tecnologico. Senza voler sottovalutare il problema dello sfruttamento di minori on-line e del rischio di adescamento, le soluzioni dovrebbero essere differenti.
In primo luogo tenere effettivamente conto dei diritti dell’intera comunità e, in secondo luogo, incoraggiando un approccio di tipo preventivo, che investa sulla consapevolezza di bambini e genitori e sul recupero di chi ha commesso reati legati allo sfruttamento di minori.
* Head del dipartimento legale e Legal officer di Privacy Network, dail manifesto
- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO
Ultima modifica: stampa