
Il dibattito su Chat Control/CSAR sta spaccando il tavolo in due metà nette. Da una parte l’idea, legittima e doverosa, di togliere ossigeno a chi scambia o produce materiale pedopornografico e a chi adesca minori; dall’altra l’effetto collaterale di trasformare i nostri device in punti d’ispezione preventiva, con un impatto reale sulla libertà di scrittura e sulla privacy. Due letture che convivono nello stesso testo normativo, come due facce della stessa medaglia: la prima brilla, la seconda graffia.
La chiave POSITIVA: vedere l’invisibile (e chiuderlo)
Se il cuore del problema sono canali illegali difficili da intercettare, l’idea di anticipare il rilevamento “a monte” promette vantaggi operativi: individuare più rapidamente contenuti noti grazie a impronte digitali affidabili; riconoscere pattern tipici di adescamento; accorciare i tempi tra scoperta, segnalazione e rimozione; migliorare la cooperazione transfrontaliera con un flusso di evidenze più standardizzato. Tradotto: si aumentano le probabilità di spegnere reti, chiudere gruppi, proteggere minori. È la spinta etica che rende la proposta, almeno sulla carta, appetibile anche a chi fa sicurezza tutti i giorni.
La chiave NEGATIVA: quando l’antivirus diventa censore
La stessa meccanica di ispezione sul dispositivo prima della cifratura può scivolare nella sorveglianza generalizzata. Significa esporre testi e file “in chiaro” a motori che giudicano ciò che scriviamo; introdurre falsi positivi che colpiscono innocenti; creare un nuovo perimetro d’attacco(scanner, modelli, liste di hash) appetibile per criminali e governi; favorire il function creep: oggi CSAM, domani altro. Non è solo un tema da giuristi: per chi sviluppa o difende sistemi, equivale a indebolire l’end-to-end con un by-pass strutturale e a produrre autocensura negli utenti, che cambiano il modo di scrivere per il timore dell’algoritmo.
La stessa medaglia, la linea di demarcazione
Qui sta il punto concreto: diventa “positivo” quando l’ispezione è mirata, proporzionata e verificabile, limitata a hash di contenuti già noti, attivata solo su ordine circoscritto, con trasparenza sugli errori, controllo indipendente del database e tutele solide per chi segnala e per chi è segnalato. Diventa “negativo” un istante dopo che la scansione diventa di default, predittiva sul testo (AI che “interpreta” le chat), estensibile per decreto ad altri reati, opaca negli algoritmi, punitiva verso i provider che mantengono l’end-to-end e pervasiva al punto da cambiare la grammatica con cui ci esprimiamo. La soglia di rottura è operativa, non filosofica: è il passaggio da un intervento chirurgico su target determinati a un triage permanente su tutti, dove la prevenzione sconfina nel controllo.
La tecnologia per scovare canali illegali è utile e va usata bene; la stessa tecnologia, senza argini chiari, inceppa la libertà di scrittura e assottiglia la privacy fino a renderla simbolica. Sta tutto in come si disegna e si governa la leva: selettiva e accountability-first rimane strumento di tutela; onnivora e opaca diventa infrastruttura di sorveglianza. E una volta costruita, lo sappiamo, la tentazione di allargarne lo scopo non torna mai indietro.