fbpx

La verità nell’era della riproducibilità artificiale

Come i software TTI uccidono il valore di testimonianza dell’immagine e perché non è la sola cosa di cui dobbiamo preoccuparci, tra la lettera del Future of Life Institute, Midjourney e le contraddizioni del mondo dei media e dell'imprenditoria digitale

Nel luglio del 2022, quando Midjourney era ancora per pochi e in una versione che oggi sembra quasi vintage, scrissi un articolo ( La rivoluzione degli algoritmi nel mondo dell’arte), anzi due ( What is it like to be a bot?), in cui dicevo che in futuro, quando chiunque avrebbe potuto falsificare in modo pressoché perfetto e in immense quantità qualunque tipo di immagine, il valore di testimonianza di una foto, già in crisi per lo sviluppo della computer grafica, si sarebbe azzerato. Il futuro di cui parlavo è arrivato a distanza di soli otto mesi, come testimonia in modo plateale la diffusione della ormai celebre non-foto, o meglio sintografia ( sintografia) del Papa con il piumino, o di Trump arrestato. Adesso che lo sanno tutti, dilaga il panico: verremo sommersi da fake news, deep fake eccetera – come se prima non lo fossimo stati, peraltro.

Nel tentativo di analizzare queste nuove tecnologie ho spesso usato la metafora dell’avvento della fotografia, specificando però che c’è un ambito in cui i software text-to-image (TTI) sono l’opposto: se infatti il valore di testimonianza nasce con la fotografia, muore definitivamente con le TTI. Non è così immediato capire se sia una buona o una cattiva notizia; dopotutto le società umane se la sono cavata senza il valore di testimonianza dell’immagine per millenni. Il mondo però non è come in passato e dobbiamo iscrivere l’evento in un contesto di totale interconnessione e globalizzazione, – insomma, non possiamo fare semplicemente spallucce.


Se il valore di testimonianza nasce con la fotografia, muore definitivamente con le TTI. Dopotutto le società umane se la sono cavata senza il valore di testimonianza dell’immagine per millenni


Partiamo da questo dato di fatto: le cose stanno così e bisogna farci la pace. Persino il sogno del più ostile luddista è adombrato dal fatto che ormai queste tecnologie esistono, e se anche fosse possibile vietarle qualcuno potrebbe usarle illegalmente – una volta crollata la fiducia nell’immagine, non si torna più indietro, così come il risveglio annichilisce il valore di verità del sogno. È però lecito chiederci quanta fiducia avessimo ancora nelle immagini o nei video. Se questa fiducia non era già morta, infatti, stava comunque molto male; lo abbiamo visto con il Covid e in seguito con il conflitto in Ucraina, più un’immagine è falsificabile più viene contraffatta e, di converso, più cala la fiducia nei confronti delle testimonianze veridiche. Iconico a questo proposito l’episodio di uno dei primi bombardamenti in Ucraina illustrato al Tg italiano con la scena tratta dal videogioco War Thunder – iconico anche perché le bombe, sebbene non lì e non in quel modo, devastavano davvero il territorio ucraino. D’altra parte sappiamo da anni che nel grande pubblico la fiducia nell’“evidenza” di un fatto non esiste più, quale che sia il media che la presenta. La fede nell’autorità si è sgretolata assieme a quella nei documenti, contagiando purtroppo anche quella nelle ricerche scientifiche.


Un fermo immagine del servizio del Tg2 che scambia un video del gioco War Thunder per dei bombardamenti in Ucraina


Cosa accadrà quando, in tempi brevi, le AI saranno in grado di produrre immagini e parole false ma credibili, auto-modificabili senza sforzo e potenziate dalla conoscenza di pattern psicologici a noi invisibili? Se ad avere questo potere saranno in pochi, in uno scenario in cui le AI sono chiuse nel codice, non trasparenti e monopolistiche, la previsione è semplice: un inferno distopico di pubblicità e propaganda, in cui sarà difficile districarsi tra mille “umanissimi” bot. Cadremo facilmente nella rete ammaliante di chi vuole esasperare a suo vantaggio le già profonde disuguaglianze sociali, o, nella migliore delle ipotesi, il contesto sarà così pesante e pervasivo da allontanarci dai social e forse da gran parte dell’internet che conosciamo adesso. Come scrive Andrea Daniele Signorelli su Wired ( Perché la lettera per sospendere lo sviluppo dell’intelligenza artificiale è tutta sbagliata), commentando la lettera promossa dal Future of Life Institute che chiede una pausa di almeno sei mesi sullo sviluppo delle AI:

Una parte (molto secondaria) di questo appello si sofferma infatti sui rischi (concreti) che queste macchine “inondino i nostri canali informativi con propaganda e falsità” e che diventino strumenti di disinformazione potentissimi e facilissimi da usare. Pensate alla finta foto del papa col piumino bianco e immaginate un futuro in cui – nei testi, nelle foto e anche nei video – sarà sempre più difficile distinguere ciò che è vero da ciò che è falso.

Ecco, tutto ciò sta avvenendo nella totale assenza di un quadro normativo di qualunque tipo, inevitabilmente aumentando i rischi posti dalla diffusione di questi strumenti. È probabilmente questo tipo di pericoli che ha portato anche personalità come Gary Marcus (uno dei più noti critici delle eccessive aspettative riposte nel deep learning) o Yoshua Bengio (vincitore del Turing Award per essere tra gli inventori del deep learning stesso) a firmare la lettera per una moratoria dell’intelligenza artificiale.

Al netto di alcune dubbie affermazioni legate all’altrettanto dubbia filosofia del “lungotermismo” ( Lungotermismo: la filosofia peggiore di sempre?), molte preoccupazioni del Future of Life Institute sono condivisibili e una pausa di sei mesi nello sviluppo delle AI sarebbe senza dubbio saggia ( Why the AI industry could stand to slow down a little). È però un po’ comico vedere tra i firmatari dei multimiliardari che guarda caso sono rimasti indietro nella corsa nel nuovo mercato, così come suona grottesca la preoccupazione delle grandi compagnie per dei danni intrinseci a un sistema grazie al quale prosperano e che contribuisce a disinformazione, crisi lavorative e disuguaglianze sociali ormai da decenni.


Uno dei post di Ayayi, influencer cinese che prende vita soltanto su Instagram grazie alla tecnologia deepfake
Ne avevamo parlato qui Influenza artificiale


Come spesso accade, nella lettera è più interessante quel che viene dato per scontato di ciò che viene detto. Possiamo infatti leggere: Should we let machines flood our information channels with propaganda and untruth? Dovremmo lasciare che le macchine inondino i nostri canali d’informazione con propaganda e falsità? E la risposta è ovviamente no, una regolamentazione è necessaria, ma be’, lo era anche prima. Non si tratta certo di fenomeni nuovi, anzi, sono dei rischi intrinseci anche nella struttura dei social network e degli algoritmi che li governano (delle AI, peraltro). Un’altra domanda che appare nella lettera è estremamente significativa: Should we automate away all the jobs, including the fulfilling ones? Dovremmo automatizzare tutti i lavori, anche quelli appaganti? Anche qui la risposta è ovviamente negativa – ma è lecito chiedersi perché la domanda dia per scontato che automatizzare alcuni lavori definiti “soddisfacenti” debba portare inevitabilmente a un’accelerazione dello sfruttamento. Se consegno un trattore a un contadino per potenziare il lavoro nel suo campo sarà felice, se lo licenzio perché col trattore mi servono meno lavoratori si arrabbierà.


Una regolamentazione è necessaria, ma lo era anche prima. Non si tratta di fenomeni nuovi, anzi, sono dei rischi intrinseci anche nella struttura dei social network e degli algoritmi che li governan


L’idea di fulfilling job è una trappola retorica, perché da una parte avalla lo sfruttamento imperante in alcuni settori, come quello culturale – fai un lavoro che ti piace, mica vorrai anche essere ben pagato? –, mentre dall’altra dà per scontato che se il lavoro viene automatizzato chi lo faceva debba automaticamente finire per strada. Se l’articolo che stai leggendo fosse stato scritto in metà tempo grazie all’aiuto di una AI, perché mai io che ne sono l’autore dovrei sentirmi defraudato? Anzi, potrei usare il tempo d’avanzo per leggere, meditare, fare un giro, scrivere altro… potrei persino usarlo per fare qualcosa con una AI, per diletto o ricerca personale. Il rischio esiste solo se il mio datore di lavoro pretende il doppio della produttività o la metà dei dipendenti – ma questo non è un pericolo intrinseco alla tecnologia. Come scrivono Andrea Colamedici e Maura Gancitano in Ma chi me lo fa fare? (Harper Collins), «l’idea di lavorare solo per seguire la passione spesso si basa sull’assunto che ogni individuo abbia una passione unica e specifica, il che può essere escludente e invalidante per le persone che non hanno una passione così definita o che hanno interessi e talenti multifocali. Oggi non possiamo chiedere al lavoro di offrire tutto il senso della vita».


Il CEO e sviluppatore di Midjourney David Holz in un servizio del Last Week Tonight sulla generazione di immagini con Intelligenza Artificiale


L’idea che le AI si inseriscano in una società immutabile ci riporta ai meme “non odi le AI odi il capitalismo” o al celebre “è più facile immaginare la fine del mondo che la fine del capitalismo”, motto che peraltro vale anche per altre forme associative tra umani, basta che ci si sia immersi. È curioso che se una tecnologia si rivela dannosa in un determinato contesto sociale non ci venga neanche in mente che forse dovremmo modificare il contesto sociale – o meglio, che forse era proprio il contesto sociale ad essere pieno di problemi e che la tecnologia potrebbe acuirli.

Questo scenario distopico diventa apparentemente più probabile se, come spesso accade in informatica, i progetti open source non riescono a essere fermati e di conseguenza la falsificazione perfetta sarà a disposizione di chiunque. Il risultato è immaginabile: un moltiplicarsi di bot razzisti, omofobi, maschilisti, pornografici o anche solo completamente folli, magari creati per gioco da qualche adolescente sufficientemente nerd.

Operare una censura preventiva come quella che fanno molte aziende (OpenAi, Adobe), oltre ad essere fortemente limitante per qualunque progetto creativo, non porterebbe lontano, non appena si scoprono dei modi per aggirare queste barriere tecnologiche. Inoltre la finzione è un meccanismo indispensabile alla conoscenza umana e uno strumento che non può fingere ciò che ci è sgradito… be’, è molto meno utile.


L’immagine di Papa Francesco con il Moncler generata da Midjourney da un muratore di Chicago


Se la censura non ci aiuta a uscire dalla distopia però, la massificazione della menzogna potrebbe paradossalmente contrastarla. Nell’inferno che abbiamo descritto infatti, parola e immagine si depotenzierebbero a tal punto ( Deepfake Porno) da perdere gran parte del loro valore ricattatorio, o anche solo di influenza psicologica; se lo spam diventa indistinguibile dal content tutto diventa spam. Come sopravvivrebbero i social all’invasione di profili di replicanti indistinguibili dagli umani? Un reparto di blade runner non sembra possibile, ma è difficile fare speculazioni credibili. Tutto quel che possiamo fare è giocare di immaginazione.

Proviamo allora a immaginare. Probabilmente siamo già stanchi/e di rispondere a umani che sembrano bot, dunque dopo l’invasione dei replicanti perderemmo qualunque voglia di interagire con persone che non sono, per così dire, di comprovata umanità, come quelle che abbiamo conosciuto prima di persona e poi online. Una possibilità è dunque che i social si formalizzino, chiedendo da parte di chi vi si registra una certificazione di identità, come già accade in alcuni casi; in questo modo parleremmo solo con i profili col “bollino umano”, affidato in modo inequivocabile da un ente preposto, presumibilmente dal vivo, come accade con i passaporti. Il livello di distopia in questo caso diminuisce, perché porterebbe a una sorta di responsabilizzazione del web che rende inutili i replicanti – anche se nessuno ci vieterebbe di pubblicare delle foto e contenuti falsi, ovviamente. Queste potrebbero essere etichettate nel codice come opera di una TTI, che è un’ottima idea, ma non funzionerebbe per il testo scritto da una GPT.

O forse a entrare in gioco sarà un altro criterio, quello della reputazione sociale. Se ci costruiamo una reputazione di persone mendaci in pochi si fideranno di noi e se non possiamo costruire migliaia di profili falsi ma siamo vincolati/e a un’identità digitale, se mentiamo lo faremo a nostro rischio e pericolo. Senza fede nei documenti, torna quella nelle persone, che ovviamente può essere più o meno mal riposta. La fiducia però si fonda anche su pattern psicologici e se le AI diventano più brave di noi umani nel leggerli e metterli in pratica… ecco che torna la distopia.


I deepfake del falso arresto di Donald Trump diffusisi su Twitter


Questi strumenti ci pongono davanti all’ultimo stadio della post-verità, ovvero l’impossibilità della fede, una sorta di scetticismo all’ennesima potenza: se non sono più in grado di capire dov’è l’inganno, non posso credere in nulla di cui non sono testimone. Se questa distopia è estremamente probabile nel caso dei monopoli, anche una politica di massima apertura, disponibilità e trasparenza dei software AI presenta i suoi rischi. Dobbiamo però tenere presente che i pericoli di queste tecnologie – come di tutte le altre – sono prevalentemente nei loro usi, sebbene questi, guidando il loro sviluppo, ne decretino in parte anche la forma. Prima che questa forma si cristallizzi in qualcosa di troppo pericoloso dunque, è necessario uno sguardo critico e attento, che sia il più ampio possibile e non si concentri sui ristretti interessi dei singoli. 


I pericoli di queste tecnologie – come di tutte le altre – sono prevalentemente nei loro usi, sebbene questi, guidando il loro sviluppo, ne decretino in parte anche la forma


Un esempio virtuoso è l’iniziativa promossa su OpenPetition volta a creare una sorta di CERN delle AI ( Securing Our Digital Future), un progetto pubblico, aperto, controllato, indipendente, disponibile a tutti e non al servizio di qualche azienda o monopolio. Come si legge nel comunicato di LAION: «Dobbiamo agire prontamente per garantire l’indipendenza dell’accademia e delle istituzioni governative dal monopolio tecnologico di grandi corporazioni come Microsoft, OpenAI e Google. Tecnologie come GPT-4 sono troppo potenti e significative per essere controllate esclusivamente da pochi».
Tra il monopolio e l’apertura dovremmo preferire quest’ultima, che almeno ci consentirà di combattere ad armi pari, ma nelle nostre analisi dovremmo sempre tenere presente che il nemico non è lo strumento, ma semmai la persona che lo muove e che gli dà una forma.




In copertina un’opera di Francesco D’Isa creata con Midjourney