Schedati dal sistema

Max Pohlenz, tra i principali studiosi dell’antico pensiero greco, evidenziò come gli stoici furono tra i primi a sostenere che l’uguaglianza tra ogni essere umano non si realizzasse “verso l’alto”, verso le grandezze dell’anima che tende a Dio, bensì “verso il basso”: se da un lato la natura umana è onnicomprensiva e irriducibile, dall’altro l’intera esistenza si risolve in un gioco teatrale dove ciascuno indossa la generica maschera dell’umanità insieme a quelle, più dettagliate ma anche meno significative, che definiscono l’identità individuale. Non è casuale che, per esemplificare il concetto, gli stoici si avvalessero di una parola dalla particolare vicenda etimologica: ciò che oggi, dopo lunghe traversie religiose filosofiche e linguistiche, definiamo “persona” (dal greco prósôpon e dall’etrusco phersu) non era altro che una maschera da palcoscenico. Da qui tante riflessioni artistiche e antropologiche, basti pensare alle maschere pirandelliane, ma di recente le polemiche intorno alle tecnologie di riconoscimento facciale hanno portato a una svolta che sembra far arginare il problema su uno scoglio estremamente attuale: l’identità coincide con l’apparenza? In che misura questo limita la nostra libertà? E com’è possibile infondere sensibilità umana a tecnologie che, per loro natura, non fanno altro che assegnare un nome a un volto senza comprendere la carica sociale del gesto?


Per mettere in guardia dai pericoli del riconoscimento facciale, gli attivisti di Fight for Future a Washington che hanno camminato nelle vicinanze di Capitol Hill registrando i volti di circa quattordicimila persone, con l’indifferenza dei passanti e delle forze dell’ordine


Intanto, una questione di termini. Il riconoscimento facciale differisce dalla semplice face detection per gli stessi motivi che lo rendono così delicato da trattare. Per le macchine è un compito relativamente facile distinguere, all’interno di un’immagine, quali elementi possono rappresentare un volto umano: il riconoscimento facciale consiste invece nell’applicare degli algoritmi che, andando a pescare da librerie di foto e dati, sappiano assegnare un nome e un cognome a quel blocco di pixel definibile come “faccia” – e di conseguenza attingere a qualsiasi altra informazione personale sia correlata a quel nome e a quel cognome. Anche questa è una tecnologia che oggi è alla portata di tutti, sdoganata già dall’avvento dell’iPhone X, e qualsiasi sito per appassionati di informatica saprà consigliare almeno un paio di programmi adatti allo scopo. Facebook, Snapchat e la stessa Apple con Clips implementano questi meccanismi, che del resto non sono molto differenti da quanto già in uso dalle forze dell’ordine da molti anni. Il punto cruciale, lo si intuirà, sta nella “libreria di volti” da cui attingere per completare l’identificazione, nonché per allenare gli algoritmi che, come quelli basati sulle reti neurali, apprendono autonomamente dalla base di dati che hanno a disposizione – quando, qualche mese fa, si sollevavano dubbi sulla moda di FaceApp con cui si davano in pasto a Facebook le proprie foto, ci si riferiva proprio a questo. Il passo successivo è applicare la tecnologia a un hardware portable per abbattere anche l’ultimo grado di separazione, che in un certo senso è al tempo stesso una difesa: lo schermo del pc o dello smartphone. Lo scorso 14 novembre, ha fatto notizia l’esperimento degli attivisti di Fight for Future a Washington che hanno camminato nelle vicinanze di Capitol Hill registrando i volti di circa quattordicimila persone con il software Rekognition di Amazon e trasmettendo il tutto in streaming ( Il riconoscimento facciale deve preoccuparci?). Con l’indifferenza dei passanti e delle forze dell’ordine, hanno mostrato quanto poco la società sia educata sull’argomento e sui pericoli del vuoto legislativo in cui si muove il riconoscimento facciale.


Gli attivisti di Fight for Future a Washington di fronte al Campidoglio, sede del governo degli Stati Uniti

Aspetti paradossali della vicenda, dicevamo, che risaltano anche dall’esperimento di Washington. A parte rari casi, non nascondiamo il nostro volto quando ci muoviamo per strada, né il nostro nome è un mistero visto che per rivelarlo basta un documento che portiamo sempre in tasca. È uno dei termini del patto sociale che accettiamo alla nascita, che non ci vieta di vivere in reclusione ma ci obbliga a spendere la nostra identità ogniqualvolta desideriamo partecipare a un evento pubblico. Ma il nome non è un’informazione di poco conto. Esistono nomi segreti, nomi d’arte, nomi che si acquisiscono solo per particolari meriti, e in certe culture conoscere il nome di una persona equivale a controllarne l’anima. Una delle caratteristiche peculiari dell’odierna civiltà digitale, dominata da social network immersivi come Facebook, è proprio la ritrovata sintonia tra nome/volto e la responsabilità di ciò che si scrive online, a tracciare un solco con le anonime tastiere dei forum del web anni 2000 che oggi sopravvivono nelle ampie message board come Reddit o nelle zone più buie di 4chan e piattaforme simili, che non a caso fungono da focolaio per movimenti che percorrono il web in maniera sotterranea. Non nascondiamo volto e nome, dunque, ma ciò che ci preoccupa è la possibilità di una loro immediata associazione, e che compiuta tale associazione l’osservatore sblocchi a cascata tutta una serie di segreti sul nostro conto. L’algoritmo di riconoscimento facciale, in un certo senso, ci pare dotato di una visione divina che ci legge nel pensiero con un singolo sguardo, ma in realtà il software non fa altro che accedere a dati che noi stessi abbiamo condiviso più o meno consapevolmente. Informazioni preziose sui nostri gusti, le nostre tendenze, le nostre abitudini, che disseminiamo per il web, dati che generano valore ma da cui qualcun altro – come evidenziano le vicende legali e politiche che coinvolgono Facebook – trarrà vantaggio.


Non nascondiamo volto e nome, ma ciò che ci preoccupa è la possibilità di una loro immediata associazione, e che compiuta tale associazione l’osservatore sblocchi a cascata tutta una serie di segreti sul nostro conto


«La semplice esistenza di sistemi di riconoscimento facciale, che sono spesso invisibili, danneggia le libertà civili», hanno detto Woodrow Hartzog e Evan Selinger in uno studio del 2018 ( Facial recognition is the perfect tool for oppression). Per comprendere quello che sembra un altro allarme paradossale, occorre indagarne i contorni dove si affaccia forse un’altra questione, un altro confine in bilico: quello tra virtuale e reale, o meglio tra digitale e fisico. Facciamo entrare in scena la realtà virtuale e la realtà aumentata, due tecnologie che stanno vivendo un’epoca d’oro: mentre si allontanano dalle strette applicazioni videoludiche e si affrancano dai sogni della fantascienza anni ’80 per divenire componenti essenziali della nuova società digitale, VR e AR ci pongono di fronte a ingombranti problemi di privacy. Qualche anno fa fece scalpore lo sviluppo dei Google Glass da parte del colosso di Mountain View, un po’ perché esaltavano le idee futuristiche di una società non ancora preparata all’idea di dispositivi portatili sempre meno invasivi e sempre più indossabili – il destino che oggi ci è molto più facile immaginare come evoluzione degli smartphone – ma soprattutto per le polemiche che accompagnarono la lenta perdita di trazione del progetto, fino alla chiusura del team di sviluppo per una versione consumer oriented dei Google Glass. La VR permette, tramite visori non dissimili da quegli occhiali e una serie di controller per mani e corpo, di immergersi pienamente in un mondo immaginario. La AR mira invece ad aumentare la realtà con informazioni digitali: tra assegnare un nome a un monumento o un orario di apertura a un negozio e identificare un nome che compaia accanto a un volto non c’è poi molta distanza. Le due tecnologie possono anche lavorare in concerto, ed è persino possibile estrapolare elementi reali per collocarli in una simulazione VR, o ancora rimodellarli e riposizionarli nella realtà reale. È significativo che nel 2014 Facebook abbia speso due miliardi di dollari per acquisire Oculus, la start-up della Silicon Valley principale responsabile della rinascita della VR, con Zuckerberg e il suo team che miravano evidentemente a un’implementazione di matrice social – ma con prospettive molto più ampie di quelle attuali – di questa tecnologia. Ed è altrettanto significativo che il fondatore di Oculus, il giovanissimo Palmer Luckey, dopo essere uscito dalla compagnia si stia dedicando alle applicazioni della VR in ambito militare collaborando con la Difesa americana.


Sembra di vedere le prime immagini dei software attivi in Cina, ma sono fotogrammi della serie tv Person of Interest, che per prima ha raccontato le contraddizioni e i pericoli del riconoscimento facciale. Il regista e produttore esecutivo Richard J. Lewis ne parlava qui Behind The Scenes: Facial Recognition

Abbiamo già accennato a una delle motivazioni dell’esperimento di Washington, con gli stessi manifestanti che affermavano: «quello che stiamo facendo dovrebbe essere illegale» – lo stesso problema, del resto, che ha minato lo sviluppo dei Google Glass. Diverse amministrazioni locali americane si sono mosse in direzione di un divieto e Bernie Sanders ne ha recentemente fatto un cavallo di battaglia del proprio programma politico, ma il punto cruciale è: se anche i divieti entrassero in vigore, fino a che punto la tecnologia del riconoscimento facciale potrà rimanere illegale, vista la spinta apparentemente incontrovertibile che sta lanciando la società a impiegare software sempre più immediati, pervasivi, che connettono gli individui sulla vasta scala dei social network ma al tempo stesso li obbligano a una condivisione forzata? Continuando ad assegnare tale importanza alla produzione, alla circolazione e alla fagocitazione di dati e informazioni, è difficile immaginare che resisteremo a lungo alle tentazioni di una tecnologia di grande impatto che semplifica e velocizza i passaggi della catena. Ma dietro la sua apparente semplicità d’uso, che ha già portato alla diffusione di applicazioni user-oriented, la tecnologia del riconoscimento facciale nasconde alcuni rischi che coincidono con le problematiche sottolineate dagli attivisti di Fight for Future. Affidare agli algoritmi la gestione del flusso di dati in cui siamo immersi non è un’operazione che ci preoccupa sul piano istintivo, perché la attribuiamo a una dimensione tutta informatica, che in un certo senso ci appare astratta dalla realtà che viviamo. Ma gli algoritmi hanno ripercussioni molto reali. Gli studi ad esempio hanno dimostrato che, per via dei suoi stessi principi di funzionamento, il riconoscimento facciale attinge ad un database di volti formato in maggioranza da uomini bianchi o asiatici, e quando si trova a che fare con altre etnie, in particolare con donne afroamericane, incappa più facilmente in errori (come quando, nel 2015, un’app di Google riconobbe dei gorilla in immagini di persone di colore) o in ancora più pericolose generalizzazioni. Di nuovo, la macchina opera in perfetta buona fede – ma il database di riferimento e l’interpretazione che l’operatore dà ai suoi risultati possono avere importanti ripercussioni etiche, fornendo presunte basi oggettive a chi voglia definire, dividere e subordinare gruppi sociali. Perché «ridurre gli umani in insiemi di segni leggibili e manipolabili», come ricorda l’esperto di media digitali di Microsoft Luke Stark, «è sempre stato uno degli elementi distintivi delle scienze razziali». Il nostro volto e il nostro nome, e soprattutto – come abbiamo visto – la loro associazione, appartengono a una sfera privata. Offrendoli in pasto alla visione di una macchina, ci muoviamo in direzione di un approccio matematico agli stessi elementi costitutivi dell’essere umano, e incentiviamo la pericolosa equazione tra l’aspetto esteriore di una persona e la sua identità.