Il doppio-volto di internet, tra bot e deepfake

Deepfake

La tecnologia è in costante mutamento: novità emergono, altre rapidamente muoiono. Oggi stiamo assistendo ad una nuova rivoluzione digitale: l’intelligenza artificiale è all’alba della sua era e i suoi derivati stanno dilagando ovunque. 

Il termine bot è entrato ormai nell’immaginario quotidiano. Si tratta di un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti, emulando le funzioni più comuni, e, tra timore e fascino, è in costante miglioramento anno dopo anno. Le applicazioni diventano continuamente più importanti e, di contro, è sempre più difficile distinguere i bot da una persona reale. 

Per esempio, a luglio di quest’anno si è registrato un significativo uso di queste tecnologie negli studi legali. Si tratta di assistenti vocali che interagiscono con il cliente e, in base alle esigenze esposte, apprendono e si interfacciano elaborando risposte sia testuali che verbali. Innanzitutto si riscontra una velocizzazione sistematica delle tempistiche necessarie per l’assistenza. Gli appuntamenti vengono fissati tramite un algoritmo di machine learning che trova la soluzione ottimale per l’incontro con il cliente, semplificando il lavoro del team dello studio legale. Contemporaneamente, le informazioni apprese sono usate per filtrare il cliente e per indirizzare il caso all’avvocato più competente in materia. Lo scopo ultimo è quello di far apprendere al bot le procedure legali al fine di aver un supervisore esente da errori in modo assicurarsi un organico funzionante in maniera più fluida ed efficiente.

La stessa situazione si è avuta ad aprile, durante l’emergenza Covid19. La Sanità pubblica statunitense ha messo a disposizione un bot di autodiagnosi: il cittadino si collega al sito apposito e risponde ad alcune domande mediche. Il bot elabora le informazioni, apprende e genera delle risposte su come comportarsi. L’esperienza non ha riportato recensioni troppo positive, del resto un servizio del genere porta con sé responsabilità enormi e si è scelto di non rendere il software troppo avanzato per lasciare tutto il lavoro ad un’intelligenza artificiale, però sono chiare le conseguenze importanti che può avere sul futuro questa scelta. 

Di per sé, le potenzialità sono tante, e negli ultimi tempi cominciano ad essere evidenti anche i rischi. Ci troviamo di fronte ad una tecnologia le cui conseguenze dipendono non solo dall’uso che ne fa, ma anche dalla stessa autonomia di cui esse dispongono. Del resto, si tratta di una fonte abnorme di informazioni. Rimane l’alone di dubbio su che cosa succeda a questi dati una volta che sono stati analizzati e soprattutto su cosa impedisca a questi bot di farne un uso improprio in caso di malfunzionamento. 

Non è neanche un mese che è avvenuta l’inchiesta del Corriere della Sera sul chat bot dell’applicazione Replika. Durante delle conversazioni organizzate ad hoc per testarne la validità, il giornalista è riuscito a indurre un errore di sistema nel bot e l’app è giunta a consigliare all’utente di commettere ben tre omicidi. In questo caso si sia trattato un caso di prova, resta da capire che cosa sarebbe successo se fosse stato un evento quotidiano. 
Ancora più affascinante è il caso riportato da MIT Technology Review di inizio ottobre. Reddit è un sito internet di socialnews intrattenimento e forum molto famoso fuori dall’Italia, al tempo stesso culla di molti miti del web e ottimo bacino di utenti per gli esperimenti sociali più svariati. Nella piattaforma si è installato un bot basato sull’intelligenza artificiale GPT-3, un modello di linguaggio che utilizza il deep learning per riprodurre un testo simile a quello umano. Il risultato solletica la fantasia: nessuno si è accorto che i commenti prodotti dal bot provenissero da un essere virtuale. Il bot si è completamente mimetizzato tra gli utenti reali. 

Le applicazioni hanno conseguenze tangibili, basta pensare alle tecniche di scrittura automatica del pc o a sistemi di dettatura e di riconoscimento vocale; resta il fatto, però, che spaventa la possibilità che non ci sia un sistema di difesa semplice: senza tecniche complesse è impossibile distinguere l’operato di un bot da quello di un utente. Resta da chiarire cosa accadrebbe nel caso di diffusione di notizia false, o di manipolazione dell’opinione pubblica nelle reti sociali. 

Che internet sia un terreno fertile ed insidioso è un dato di fatto. Ha permesso la globalizzazione, la condivisione di migliaia di informazioni, ha messo in contatto tra loro persone qualsiasi sia la distanza. Ma è sempre stato opportuno guardarsi dalle persone che stavano dietro quelle informazioni, quel profilo con cui eravamo in contatto. Ben diversa è la situazione quando entrano in gioco le realtà fittizie delle intelligenze artificiali, ben diversa quando diventa difficile distinguere tra l’umano e il virtuale. 

In quest’ottica si aggiunge il fascino di un altro spettro: il deepfake, una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale usata per combinare e sovrapporre immagini e video esistenti. 

Nato ad uso esclusivo dell’arte cinematografica, sta diventando molto facile creare deep fake di persone vere: nel luglio 2019 divenne virale un video in cui l’attore Jim Carrey sembra reinterpretare fedelmente alcune scene famose del film Shining. Se da un lato questo può fare sorridere, diventa terrificante quando veniamo a conoscenza che tre settimane fa è stato scoperto su Telegram un bot che “spoglia foto di donne vestite”. L’intelligenza artificiale in questione prelevava le foto caricate dagli utenti e produceva un’immagine della stessa senza la rappresentazione degli abiti. 

Rimane da chiarire l’entità del danno che può avere causato la circolazione di queste immagini fittizie, del resto allo stato attuale sono quasi impossibile da identificare come falsi. Si può solo immaginare il colpo che può aver dato all’identità, alla stima, alla fiducia delle persone coinvolte. 

Un conto è smentire una persona, un conto è provare che la persona sia virtuale. Si pensi ad un video fake in cui una persona è ripresa a dire una falsità. Si instilla così il dubbio se si tratti di realtà o di menzogna. A metà giugno del 2019 sulla pagina instagram di Mark Zuckenberg è stato pubblicato un video in cui il fondatore di facebook dichiarava che il potere di dominio sul mondo consiste nel controllare i dati delle persone, rivelatosi poi un esperimento deepfake per un’installazione artistica. Il fatto è che molti giornali ufficiali, prima della smentita, presero il cortometraggio per reale, con tutte le conseguenze del caso. 

Che si parli di bot o di deepfake, rimane un fatto: più la situazione progredisce, più diventa complesso capire cosa sia effettivamente lecito oppure no. 

Non è un caso che alla fine del 2018 sia nata Sensity, la prima società di intelligence al mondo che gestisce il problema dell’intelligenza artificiale sempre più di uso comune. Sul sito si legge “La nostra missione è difendere individui e organizzazioni dalle minacce poste dai deepfake e da altre forme di media visivi dannosi”. 

Infatti, un rischio non indifferente è quello dell’adulterazione dell’opinione pubblica: anche grazie a semplici app è possibile produrre uno di questi materiali e introdurlo in rete.

Inizialmente, l’utente medio rimaneva confuso, ora rimane la certezza, o almeno la certezza che nella possibilità di non riuscire a scegliere in che cosa credere. Si rischia di volare verso un modello di civiltà dove sia impossibile distinguere realtà dalla finzione e dove il dubbio si insinua in ogni questione. 

La verità scompare definitivamente. Del resto, in un mondo completamente e costantemente online, dove la verità è spesso ciò che si legge su internet, il sistema crolla nel momento in cui quella verità non è più certa. 

Si resta con il terrore che dalla sfiducia nei confronti del virtuale si passi alla sfiducia nelle persone, in una sorta di circolo vizioso. Queste tecnologie diventano così un monito: occorre ricordare che ormai internet è un luogo prima di essere uno strumento e, come tale, richiede la responsabilità e la consapevolezza necessarie.

Rosario Pullano

Rosario Pullano è studente del Politecnico di Torino, dove frequenta il corso di laurea magistrale Physics of complex systems, percorso internazionale interateneo tra icpt, sissa e alcune università di Parigi. Nasce a Catanzaro l’8 febbraio 1997. All’età di 5 anni si trasferisce con la famiglia a Trieste. Si forma presso il Liceo Classico “Dante Alighieri” e, successivamente, studia all’università “La Sapienza” di Roma, dove consegue la laurea triennale in fisica. Si trasferisce a Bologna un anno, dove completa il corso di alta formazione in finanza matematica. Il 21 novembre 2016 è tra i vincitori nella categoria “Giovani Promesse” nella Sezione Poesia singola del “Concorso letterario internazionale Michelangelo Buonarroti”. Pubblica la raccolta di poesie “Memorie del futuro: sentimenti” nel 2019 con la casa editrice EuropaEdizioni. Ad oggi, continua a scrivere in ambito creativo e in ambito giornalistico e segue le sue ispirazioni imprenditoriali occupandosi di progetti di start up relativi al mondo dell'innovazione dei servizi digitali. 

Tags:

Rispondi