Controllo dei dati e democrazia: siamo a un punto molto critico- Tre domande a Alessandra De Rossi

Alessandra De Rossi, docente di analisi numerica all’ Università di Torino

Evasia Sancio: “Professoressa De Rossi, il regolamento Chat Control si basa sull’uso di algoritmi per scansionare preventivamente le comunicazioni private alla ricerca di materiale illecito. Dal suo punto di vista di matematica, come si possono valutare e quantificare i rischi legati ai ‘falsi positivi’, ovvero quelle segnalazioni erronee che potrebbero ledere la privacy di cittadini innocenti? Esiste un modello matematico in grado di bilanciare efficacia della sorveglianza e tutela delle libertà individuali?”

Alessandra De Rossi: Dal punto di vista matematico, possiamo analizzare questi sistemi usando gli strumenti della teoria delle probabilità e della statistica. Quando si sviluppa un algoritmo di classificazione, come nel caso del riconoscimento di materiale pedopornografico, si introduce inevitabilmente un compromesso tra la capacità di individuare contenuti illeciti (veri positivi) e quella di evitare di segnalare contenuti innocui (falsi positivi). In termini concreti si potrebbe dire che anche un algoritmo con il 99% di accuratezza, applicato a miliardi di messaggi al giorno, può generare decine di migliaia di segnalazioni errate e ogni falso positivo significa la violazione della riservatezza di una persona innocente, con potenziali conseguenze psicologiche, sociali, legali. Esistono modelli matematici per quantificare questi rischi, ma nessun modello può eliminare l’asimmetria che sta alla base della procedura: la sorveglianza preventiva su larga scala sposta l’onere della prova sugli utenti, presumendoli tutti potenzialmente colpevoli. In altre parole, il problema non è solo tecnico, ma anche etico e sistemico. Possiamo progettare algoritmi più precisi, ma non possiamo accettare che la vita privata delle persone diventi oggetto di scansione automatica e costante.

E.S. La comunità nazionale che si occupa della privacy promuove l’idea che la privacy sia un valore fondamentale per la società democratica. La proposta Chat Control, tuttavia, richiederebbe l’implementazione di sistemi di scansione lato client che di fatto indeboliscono la crittografia end-to-end. Lei, come matematica, considera la crittografia inviolabile un ‘bene comune’ tecnologico e, se sì, quali implicazioni etiche e sociali ne derivano nel momento in cui viene compromessa per fini di sicurezza?”

A.D.R. Assolutamente sì, la crittografia end-to-end non è un lusso tecnico, è una condizione strutturale della fiducia digitale, è ciò che protegge i giornalisti, i medici, gli attivisti, ma anche le comunicazioni quotidiane di milioni di cittadini. Dal punto di vista matematico, la crittografia moderna si basa su principi solidi, ma la sua forza non è solo teorica, è pratica e verificabile. È un bene comune tecnologico perché è non esclusivo e non rivale, se protegge me, protegge anche te, e se la si indebolisce per uno, la si indebolisce per tutti. Compromettere la crittografia per introdurre la scansione lato client equivale a installare una microspia su ogni telefono. Anche se con buone intenzioni, è una scelta che mette a rischio la sicurezza dell’intero ecosistema digitale, aprendo la strada ad abusi futuri, statali o privati. In una società democratica, la privacy e la protezione dei dati non sono un ostacolo alla sicurezza, ma condizioni necessarie. La crittografia è il modo che la matematica ha trovato per garantircele.

E.S. “Spesso le decisioni politiche in ambito digitale vengono prese senza un’adeguata comprensione delle implicazioni tecniche. Come può la comunità nazionale che si occupa di privacy come bene comune, in cui la competenza tecnica si unisce all’attivismo civico, contribuire concretamente a orientare il dibattito sul Chat Control, garantendo che le scelte normative siano basate su dati scientifici solidi e non solo su percezioni emotive della sicurezza?”


A.D.R. Viviamo in un tempo in cui le decisioni politiche sul digitale hanno effetti profondi, ma vengono spesso prese con strumenti culturali inadeguati. La nostra comunità, unendo competenze tecniche e attivismo civico, può fare da ponte tra il linguaggio della tecnologia e quello della democrazia. Abbiamo il dovere di portare dati, simulazioni, analisi di impatto reale nei luoghi del dibattito pubblico, di contrastare la narrazione emotiva della sicurezza, che alimenta paure comprensibili, ma che rischia di legittimare strumenti pericolosi. Concretamente, possiamo costruire materiali divulgativi per cittadini, scuole, media, esercitare pressione democratica su chi decide, con petizioni, campagne e dialoghi aperti. Il nostro messaggio è semplice ma radicale: la protezione dei dati non è il problema ma è parte della soluzione, nel senso che se vogliamo una società sicura e democratica, dobbiamo costruirla su basi solide, e la libertà personale, nel digitale come nella vita, è una di queste.