Una questione informatica

Luca Bolognini

Siamo nelle mani degli algoritmi. Formule di calcolo, stabilite a priori da qualche ottimo programmatore, che organizzano, indicizzano, ordinano le informazioni. L’“automatizzazione” della gestione dei dati rischia di produrre impatti pesanti sulla dignità e sulla libertà degli individui.

Potrà piacere o meno, come idea, ma siamo fatti anche di dati, cioè elementi non “nostri”. Elementi altrui, terzi, come le ombre che non ci appartengono, ma che ci rappresentano, in qualche modo, sul muro. Dopo il soma e la psiche, la terza dimensione è l’informazione che ci proietta verso (e ci fa relazionare con) l’esterno. La “privacy”, allora, potrebbe essere intesa, in senso lato, come una “disciplina giuridica del Sé” (non me ne vogliano gli psicoanalisti, licenza poetica). Tant’è. Sta di fatto che, ormai, l’identità personale è composta anche (se non solo, vista da fuori) dai dati che circolano e sono reperibili su di noi e malgrado noi: non conta la sostanza, a volte, e nemmeno l’apparenza che diamo di noi stessi, se l’apparenza organizzata da altri soggetti (motori di ricerca, in primis) ci assegna una diversa misura, qualità, immagine e fama. Puoi dire quello che vuoi di te, ma, alla fine, ciò che conta sarà il “quadretto” di informazioni reso disponibile dal motore di ricerca e non da te. Stiamo parlando di identità sociale, ma anche di identità civile.

Siamo nelle mani degli algoritmi (bene ne ha parlato, di recente, anche Evgeny Morozov). Formule di calcolo, stabilite a priori da qualche ottimo programmatore, che organizzano, indicizzano, ordinano le informazioni. C’è una bella differenza se la notizia di un convegno a cui hai partecipato come relatore si trova in prima o in sesta pagina dei risultati, in una ricerca su Internet. Così come il massimo rilievo, primo risultato, assegnato a quella foto in cui festeggiavi un compleanno con un cappello da stregone in testa e il sigaro in bocca potrebbe mettere in secondo piano il fatto che sei un serissimo professore universitario di medicina.
Al di là delle ironie, questa “automatizzazione” della gestione dei dati rischia di produrre impatti pesanti sia sulla dignità e sulla libertà degli individui, in relazione al trattamento di dati che li riguardano come soggetti passivi, sia, al contrario, sulla loro capacità di informarsi come soggetti attivi. Andiamo con ordine, cercando di chiarire con semplicità perché si rivelino dei rischi, che andrebbero affrontati e ridotti con lungimiranza.

Libertà e dignità, prima di tutto. In un suo editoriale italiano, Morozov citava il caso della cosiddetta “polizia predittiva”, la tecnica, sempre più diffusa tra le autorità che svolgono indagini e si occupano della pubblica sicurezza in molti Paesi del mondo, non solo in quelli più sviluppati, grazie alla quale si riesce a prevedere statisticamente quali siano le zone (territoriali, per esempio i quartieri) più colpite da quali crimini, o chi siano gli individui più propensi a delinquere e dunque da tenere sotto controllo, e così via. Queste “predizioni” non sono frutto di portentose sfere di cristallo messe davanti a magici ispettori, bensì (solo) risultati di calcoli automatizzati basati su algoritmi complessi. Questi algoritmi consentono alla polizia di elaborare miliardi di dati, effettuare profilazioni e stabilire gradi di probabilità o tendenze. In sostanza, come giustamente ricordava Morozov in quell’articolo, la polizia non fa altro che applicare alla sicurezza ciò che i grandi operatori del web applicano da anni ai consumatori on-line, analizzando le loro navigazioni e preferenze, e pronosticando (invogliando, personalizzando) i loro acquisti futuri.
Internet, per questo tipo di analisi predittive, è lo strumento perfetto: per questa ragione si stanno facendo strada accordi tra grandi operatori privati (social networks, motori, provider di vario genere) ed autorità di polizia dei vari Paesi interessati. In poche parole, al social network viene delegata una parte di attività di polizia, e tutti quanti veniamo analizzati e profilati in automatico, non solo per scopi commerciali, ma anche per capire se siamo dei (potenziali?) criminali. Tutto ciò avviene in silenzio e spesso non ce ne accorgiamo. Beninteso, gli obiettivi di sconfiggere pedofilia, terrorismo e altre atrocità sono irrinunciabili e sarebbe scellerato metterli in discussione, ma ogni azione di prevenzione e contrasto deve muoversi nel rispetto dei diritti fondamentali dell’essere umano.
La Storia ha insegnato quanto le profilazioni siano pericolose, anche (o a maggior ragione) se legate a chissà quali buone intenzioni. Una profilazione automatizzata, per funzionare, ha bisogno di tre fasi fondamentali: la prima, in cui è necessario raccogliere la massima quantità e qualità di dati relativi ad ogni singolo individuo (che significa archiviare una miriade di informazioni precise e contestualizzate su gusti, preferenze, idee, spostamenti, ecc., cioè formare un dossier di per sé “esplosivo” per la dignità e la libertà di una persona). La seconda fase è quella dell’elaborazione di questa miriade di dati, che avviene grazie ad un software che ragiona sulla base del (famigerato) algoritmo predeterminato da “qualcuno”. La terza fase, rischiosa per la dignità, soprattutto, consiste nella riconduzione di quello specifico individuo, unico ed irripetibile come ogni persona umana, ad un “profilo” più generale, meno unico, appunto, al quale apparterranno anche altri individui. In questa terza fase si semplifica l’identità del singolo e lo si “assegna” ad un gruppo più vasto di soggetti, così forzando e superando la sua speciale peculiarità.

Se immaginiamo che tutto questo venga svolto da un’impresa privata per il solo scopo di fornirci pubblicità personalizzata, dopotutto non ci allarmiamo più di tanto (sebbene questo continuo “ricevere indietro in offerta” ciò che noi già amiamo e preferiamo potrebbe non rivelarsi un toccasana per l’evoluzione). Se pensiamo che siano gli Stati, con le loro polizie, a sviluppare queste analisi, qualche timore in più lo sentiamo crescere in noi. Se, poi, veniamo a sapere che la polizia di uno Stato ha sottoscritto un accordo con questo o quel social network o motore di ricerca, delegando ai privati la funzione di analizzarci e profilarci per finalità di pubblica sicurezza, quel brivido diventa febbre. In Democrazia, tutto questo non può e non deve accadere senza che vi sia totale trasparenza pubblica, sia sugli accordi, sia sugli algoritmi utilizzati, ovviamente. Di più, aggiungo io, senza che vi sia l’ordine di un magistrato che consenta alle polizie di effettuare, magari con l’aiuto dei privati, siffatte analisi profilanti sul web. La febbre sale, e di molto, se pensiamo che certe “alleanze” tra grandi operatori privati di Internet e delle telecomunicazioni potrebbero stringersi anche in Paesi non democratici, dittatoriali, spesso incuranti dei diritti umani (scenario reso ancora più realistico dalla prospettiva, a mio parere non auspicabile, che al prossimo ITU di Dubai, dicembre 2012, la governance di Internet finisca per cadere sotto la competenza dell’ONU).

Venendo al secondo ordine d’impatti, quello che vede l’individuo come soggetto attivo e capace di informarsi su ciò che è “altro da sé”, come direbbe Baudrillard, il tema appare altrettanto rilevante. Un algoritmo di un motore di ricerca o di un social network – pur non assurgendo questi ad attività editoriali, poiché non creano, né modificano i contenuti organizzati prodotti da altri utenti – può comunque dipingere un quadro non necessariamente oggettivo della realtà: potrebbe dare più peso e maggiore visibilità ad un dato piuttosto che ad un altro; potrebbe condannare all’oblio una notizia e renderne immortale un’altra; potrebbe mostrare una critica cento risultati prima di un’altra di senso opposto. Potrebbe, un algoritmo, intervenire sulla cultura diffusa, favorendo o sfavorendo linee di pensiero, politiche, economiche o filosofiche. Che strumento formidabile di pressione sul popolo, se intervenissero (il congiuntivo imperfetto è ironico) degli accordi tra questo o quel Paese non democratici ed un motore di ricerca: gli utenti formerebbero le proprie coscienze vedendo solo certi risultati e non altri, o almeno alcuni dati prima e meglio di altri. I cittadini conoscerebbero l’identità di altre persone (per esempio, oppositori a questo o a quel regime) secondo un quadro composto da informazioni incomplete o viziate. La libertà di informazione (che è libertà di informarsi e di informare, anche su di sé) sarebbe, insomma, prigioniera.

Una possibile soluzione a questi problemi, ma solo in contesti democratici, potrebbe essere la “certificazione degli algoritmi”: nessuna “disclosure” indiscriminata, nessuna pubblicazione degli algoritmi delle imprese private (quelli usati dalle polizie, invece, sì, andrebbero resi pubblici e trasparenti), quindi nessuna violazione dei segreti e dei vantaggi concorrenziali. Basterebbe solo l’obbligo di sottoporre gli algoritmi via via adottati, nel segreto amministrativo, alle autorità garanti per la data protection dei vari Paesi, così da farne valutare l’effettiva neutralità informativa. Se i big di Internet si rendessero “parti diligenti” in quest’ottica, otterrebbero due risultati in un colpo solo: allontanerebbero dagli Stati la tentazione di considerare i motori di ricerca ed i social network dei veri e propri editori, cosa che non sono, e, insieme, darebbero esempio di affidabilità ai propri utenti.
Già, perché non solo gli individui e le persone accusano problemi di identità nel mondo tecnologico: anche le nuove imprese, in particolare quelle che trattano dati e operano sul web, vengono spesso comprese – in particolare dai regolatori pubblici – per ciò che non sono e non possono essere. Poliziotti virtuali, per esempio.

Sempre in tema di algoritmi che elaborano dati personali, molto ha fatto discutere in Italia, di recente, l’istituzione o, meglio, il potenziamento del sistema informatico di analisi delle spese e dei movimenti di conto corrente per finalità di contrasto all’evasione fiscale, introdotto con un decreto del dicembre 2011. Si tratta di una norma che legittima l’amministrazione fiscale ad elaborare automaticamente i dati di entrate ed uscite bancarie e le transazioni elettroniche di tutti i cittadini. Grazie a questo sistema, si punta a trovare incongruenze che conducano a scovare evasori fiscali. In sostanza, la norma legittima lo Stato italiano a monitorare ed a setacciare i movimenti finanziari privati di chiunque, automaticamente ed a priori. Si mettono sotto controllo tutti per acciuffare alcuni furbi. L’emergenza dell’evasione, in Italia, è tale da far tollerare all’opinione pubblica ed alla politica quello che, a giudizio di chi scrive, sembra comunque un grande errore, malgrado i fini nobili, per eccesso di sproporzione nel trattamento dei dati dei cittadini e per la mancanza di una “data di scadenza” entro la quale far cessare questa misura invasiva ed eccezionale.

C’è un articolo “salva-libertà” nella Direttiva europea del ‘95 in materia di protezione dei dati personali: riconosce a qualsiasi persona il diritto di non essere sottoposta ad una decisione che produca effetti giuridici o eserciti effetti significativi nei suoi confronti fondata esclusivamente su un trattamento automatizzato di dati destinati a valutare taluni aspetti della sua personalità, quali il rendimento professionale, il credito, l’affidabilità, il comportamento, ecc. Una siffatta decisione, basata su questo genere di trattamenti, tra i quali rientrano tutte le profilazioni automatizzate, può essere assunta solo se autorizzata da una legge che precisi i provvedimenti atti a salvaguardare un interesse legittimo della persona interessata. Quell’articolo è recepito nell’art.14 del nostro Codice della Privacy. Non vedo traccia, tuttavia, di precisazioni su “provvedimenti atti a salvaguardare un interesse legittimo della persona interessata” nel testo che introduce il monitoraggio massivo anti-evasione made in Italy. In Germania, nel 2010, per il tentativo del Governo di avviare un analogo sistema, soprannominato ELENA, si riempirono le piazze di cittadini furenti e l’idea fu abbandonata.

La nostra identità, dunque, fatta anche di rappresentazioni “altre da sé” che chiamiamo “dati” e la nostra sfera privata sono sempre più in balia degli algoritmi che ne decidono le sembianze, l’estensione, l’accessibilità e la conoscibilità, persino la valutazione, nel bene e nel male. Questi algoritmi sono frutto di intelligenza quando vengono ideati ed assegnati al programma. Ma costituisce intelligenza vera, dopo l’invenzione, ciò che si ripete, sempre uguale a se stesso e che, ripetendosi, incide sulle vite di persone vive, umane, imperfette ed imprevedibili, diverse da quelle immaginate all’atto dell’invenzione algoritmica? Non resta che rileggersi il pensiero del giudice Louis Brandeis, uno dei padri americani del diritto alla privacy: “L’esperienza dovrebbe insegnarci a vigilare per difendere la libertà quando le intenzioni del Governo sono buone. Gli uomini nati liberi sono naturalmente pronti a respingere violazioni della loro libertà da parte di governanti mossi da fini malvagi. I pericoli più gravi per la libertà si nascondono in abusi insidiosi compiuti da uomini zelanti, bene intenzionati, ma privi di intelligenza”.

Luca Bolognini
Avvocato, Presidente dell’Istituto Italiano per la Privacy

Massimiliano Fanni Canelles on InstagramMassimiliano Fanni Canelles on Twitter
Massimiliano Fanni Canelles
Massimiliano Fanni Canelles Head of CAD Nephrology and Dialysis, Health Department with University of Udine Adj. Professor in Alma Mater University in Bologna of International Cooperation Editor of SocialNews Magazine President of Auxilia Foundation Twitter. @fannicanelles Instagram @fannicanelles

Rispondi