Con molta probabilità nessunə penserà che questa immagine sia vera. Voglio dire, ne abbiamo viste tante, ma un bradipo antropomorfo in giacca e cravatta che conduce – letteralmente – un video podcast, dovrebbe togliere ogni dubbio: questa è una sintografia, cioè un’immagine realizzata con un’intelligenza artificiale. Nel caso specifico, ho usato 4o image generation, il sistema di generazione di immagini di ChatGPT. Le persone sintografate insieme al bradipo Jon Slow sono, da sinistra a destra, cloni digitali che rappresentano: Luca Bottura, Jianwei Xun e Alessandro Barbero. Sul tavolo c’è, di nuovo letteralmente, Il Foglio AI.
In tutti gli elementi di questa sintografia ricorre l’intelligenza artificiale.
📌 Jon Slow è il bradipo mascotte di Slow News: nessuno ha mai avuto la pretesa che esista nella vita fisica. Non è un deepfake. Non nel senso letterale del termine. Però, in caso di estinzione di massa dell’umanità, una sintografia ritrovata di Jon Slow potrebbe far pensare a qualche archeologə del futuro che sia esistito.
📌 Il Foglio AI è un esperimento del Foglio fatto con AI, stampato su carta. Esiste.
📌 Anche Luca Bottura e Alessandro Barbero esistono entrambi. Ovviamente non sono mai stati nello studio – inesistente – di Jon Slow. Bottura è, secondo Wikipedia, “giornalista, scrittore, conduttore radiofonico e autore televisivo italiano”. Barbero è, sempre secondo Wikipedia, “uno storico e scrittore italiano, specializzato in storia del Medioevo e in storia militare”. Bottura di recente ha fatto un clone AI di Barbero, non consensuale.
📌 Infine, Jianwei Xun è l’autore che non esiste di un libro che esiste ma che è stato scritto anche usando un’intelligenza artificiale.
Se ti senti confusə, è perfettamente normale: questo è il mondo in cui viviamo oggi, questo è il tipo di contenuto da cui siamo circondati nell’ecosistema digitale.
È molto difficile affrontare questi temi perché bisogna avere percezione del contesto digitale e informativo, conoscere le AI generative e sapere cosa possono fare, mettersi d’accordo sulle basi, poi conoscere e comprendere il testo (cosa che spesso richiede a sua volta competenze a monte). Se si vuole avere un approccio analitico, bisogna provare a farlo senza intenti moralizzatori.
La trasparenza non è sufficiente
Del Foglio AI ho già parlato e non mi dilungherò oltre. Basti sapere che è un esperimento che dimostra che l’automazione dell’opinionismo è già possibile. L’opinionismo è un genere che non ha niente a che vedere con il giornalismo e con il metodo della verifica. Le opinioni si possono replicare facilmente perché rispondono a schemi. Il Foglio ha dichiarato, in maniera trasparente, che i pezzi pubblicati sul Foglio AI sono “fatti con l’intelligenza artificiale”. Questo ci insegna anche che la trasparenza, di per sé, non sufficiente come indicatore di qualità.
La trasparenza è necessaria?
Non ho letto Ipnocrazia e non so se lo leggerò. Ma posso parlare della confezione, che in questo caso ha preso il sopravvento sul contenuto.
Jianwei Xun non è un filosofo o un analista dei media. È un progetto e il “suo” Ipnocrazia, “nasce come un esperimento sulla costruzione della realtà nell’era digitale. Al centro del progetto c'è un libro che analizza i meccanismi della manipolazione percettiva contemporanea, scritto da un autore inesistente. O quantomeno: inventato. Il libro stesso è una dimostrazione pratica dei meccanismi che analizza”, spiega Sabina Minardi su L’Espresso. Per chi ha familiarità con i nomi collettivi, Luther Blisset, la storia della letteratura piena di veri falsi, nulla di nuovo.
Per molte persone, però, a quanto pare, creare un autore fittizio, spacciarlo per vero e vendere un libro che quella persona non ha mai scritto è una presa in giro ed è quasi immorale.
Giulia Blasi, per esempio, ha scritto: “Ho speso dei soldi, quindi, perché a questo libro e all’umano che l’ha scritto intendevo dare tempo e spazio; l’ho raccomandato (o comunque segnalato) a scatola chiusa, sulla fiducia, perché il tema mi sembrava interessante. Viene fuori che questo libro non è un libro, non c’è un umano che l’ha scritto, ma è piuttosto un rigurgito di altre idee, a partire da un saggio di Nadia Urbinati, generato da un algoritmo sulla base di un prompt, probabilmente in meno del tempo che io impiego a chiudere un capitolo del saggio a cui sto lavorando. Sono stata fregata, insomma.”
Non sono d’accordo. Non credo che Ipnocrazia sia un non-libro. È un libro in tutti i sensi, in astratto e fisicamente: si può toccare di carta; si può leggere nella versione digitale. È talmente affine all’idea-di-libro, e dunque, ci piaccia o meno il suo contenuto e l’operazione con cui è stato concepito e promosso, è un libro.
Inoltre, il contenuto di un libro, per me, non ha valore solo in funzione di chi lo scrive – umana, gruppo di persone, macchina, bradipo umanoide – ma ha valore prima di tutto in funzione di quel che propone: su questo, cioè sul contenuto, mi riservo di tornare in seguito, quando (e se) avrò letto Ipnocrazia.
In effetti l’operazione – non nuova – ci dovrebbe costringere a riflettere sul valore che diamo all’autorialità e alla scrittura. Per me la scrittura è un atto collettivo, sempre. Anche adesso che finisco di aggiustare questa newsletter, per esempio, le singole parole che scrivo sono contaminate dai confronti continui con le persone che frequento e che leggo, da idee che ho intercettato e non so nemmeno più attribuire.
Un romanzo di Elena Ferrante o un Banksy cambiano forse valore se do a quei nomi-pseudonimo una faccia? Se Banksy fosse un collettivo, il mio giudizio sul suo lavoro cambierebbe? E se sì, perché?
Capisco benissimo il senso di tradimento che può provare chi ha accolto il libro Ipnocrazia come se fosse il prodotto di un patto di fiducia tra persone, perché c’è anche questo nel rapporto fra chi legge e chi scrive, certo.
Però qui tocchiamo qualcosa di molto più interessante, secondo me. Qualcosa che ha a che fare con il dell’auctoritas, qualcosa di fortemente antropocentrico.
Probabilmente sai che alcune parti di quel che scrivo sono riviste, rielaborate, arricchite, cesellate da me – umano – e dagli assistenti di intelligenza artificiale che mi sono progettato e programmato. Insomma: le parole che stai leggendo sono mie, perché sono io che le avallo quando clicco su “pubblica”, ma anche filtrate da una macchina. Questo tradisce il nostro patto di fiducia in qualche modo? Io credo di no. Ma se tu pensi di sì, parliamone!
Testo, contesto e metatesto
A proposito di patti di fiducia, c’è poi una questione più spinosa. L’esistenza o meno di un’autrice può non inficiare affatto la bontà di quel che scrive. Ma cosa succede se dobbiamo decidere di credere o meno a un video? Da giornalista dovrei ricordare la vecchia battuta “se tua mamma ti dice che ti vuole bene, tu verifica”. Riuscire a non credere a un video richiede conoscenza delle tecnologie che possono produrlo e del contesto in cui viene diffuso.
Per esempio, se non so che esistono intelligenze artificiali generative in grado di “clonare” Alberto Puliafito probabilmente crederò a quel che vedo e sento se mi mostri un video con Alberto Puliafito. E questo non fa di me una persona ignorante.
Quello che vedi qui sopra, per esempio, è un video in cui il mio clone AI fa, letteralmente, il boomer che prova a parlare con il linguaggio della Gen-Z.
Non sono impazzito, l’ho portato in un liceo come dimostrazione dell’uso consapevole – e inconsapevole – delle AI. Volevo esattamente quell’effetto lì: che fosse oltre i confini del trash, del cringe.
Ma come vedi se non ti do contesto potresti interpretare questo video in qualunque modo. E attenzione: questo è un video in cui io stesso, volontariamente, faccio dire a un mio clone cose che io ho deciso e su cui io ho controllo.
Cosa succede, allora, quando una persona con grande visibilità come Luca Bottura prende una tecnologia in grado di riprodurre le fattezze fisiche – aspetto e voce – di una persona che esiste ed è molto famosa, come Alessandro Barbero? Per me sta giocando a un gioco molto pericoloso. Un gioco che Striscia la Notizia gioca da anni in televisione.
Il video in questione inizia con un cartello che recita “Una parola di conforto dal professor Barbero”.
Poi parte il volto e la voce del professor Barbero. Il video dura 3 minuti e 58 secondi, ci sono anche immagini a copertura montate.
Dopo 3 minuti e 44 secondi appare, finalmente, una scritta: “ovviamente tutto ciò è frutto dell’intelligenza artificiale”. E poi “Ma è stato bello sognare”.
Ovviamente il video è diventato in qualche modo “virale”, e la conversazione si è polarizzata. Bottura ci ha tenuto a precisare che la sua era “satira”.
Ma, tanto per cominciare, la satira è metatestuale: richiede di essere d’accordo sul contesto per consentire l’interpretazione del testo.
”Mi è sembrato che il gioco valesse la candela satirica e l’ho giocato. Tanto più che era evidentemente un fake”, dice Bottura, auto-analizzandosi il giorno dopo. “Per la qualità dell’immagine, per il disclaimer finale, per come era proposto: “Un Barbero da sogno”, ma soprattutto perché le parole del finto professore erano l’esatto contrario di quanto pronunciato da quello vero un paio di giorni prima. L’hanno capito tutti”.
Non è affatto detto che l’abbiano capito tutti.
Per esempio, se non so niente di Barbero, di Bottura e delle AI (cosa assolutamente legittima) potrei legittimamente credere a quel video e non vederlo affatto fino in fondo: è piuttosto noioso. Potrei anche semplicemente ascoltare l’audio e non vedere mai il cartello, perché nell’ecosistema digitale la fruizione dei contenuti multimediali fa sì che si possano disaccoppiare.
In effetti quando mi hanno mandato il link e ho cliccato, mi sono messo semplicemente ad ascoltare l’audio in cuffia. Per un istante ho pensato che Barbero fosse impazzito, poi sono risalito alla fonte e velocemente capito. Ma non ero tenuto a farlo.
Fa ridere? Io non ho riso. Tu?
Forse può far ridere un fan di Bottura che non ami quel che dice il vero Barbero, cioè qualcuno d’accordo con testo, contesto e metatesto.
“Ieri mi sono macchiato di una colpa gravissima”, dice ancora Bottura nella sua auto-analisi. L’artificio retorico dell’attacco fa sì che si neghi la “colpa gravissima”. Anzi, è ironia nei confronti di chi possa ritenerla tale.
“Ho creato – fatto creare: non ne sono capace personalmente – e condiviso sui social”, prosegue Bottura, un video in cui facevo dire al professor Barbero, con l’AI, quello che penso sull’invasione russa dell’Ucraina”.
Non è una colpa gravissima, ovviamente. Ma in un contesto come quello complesso in cui viviamo, in un ecosistema digitale pieno di rumore e inquinamento, in un mondo che stigmatizza le cosiddette fake news con furore o che in altri casi cavalca i cosiddetti deepfake per propaganda politica, credo che deformare il pensiero di una persona esistente in una maniera così potente contribuisca in qualche modo, oltre a polarizzare – era ovvio – a demolire un altro pezzettino di fiducia sistemica (e già che ci siamo, anche di fiducia nelle AI generative, che sono strumenti con i loro problemi ma enormi potenzialità).
Se non altro, Bottura scrive anche: “Qualcuno mi ha segnalato che avrei fatto meglio a mettere un watermark sin dall’inizio della breve clip. Possibile. Ci ho pensato. Ho ritenuto che fosse come cominciare una barzelletta dal finale. Non l’ho fatto perché: 1) Mi sembrava totalmente comprensibile. 2) Non è mai stato il mio obiettivo far pensare che quello potesse essere il vero Barbero. Ma in effetti – lo dico a beneficio di chi me l’ha fatto notare pacatamente – è un tema. In futuro, andrà trovato un equilibrio. Lo dico a me stesso. Si impara”.
A me sembra molto interessante ragionare su questo: che una persona con enorme visibilità e con una notevole dimestichezza dell’ecosistema digitale non abbia pensato alle possibili conseguenze. Volendo credere alla buona fede di Bottura, direi che non è solo “un tema” ma che è la dimostrazione evidente di quanto bisogno ci sia di AI literacy e di senso di responsabilità prima di tutto da parte di chi ha posizioni di potere, capitale sociale da spendere, grande visibilità, appunto.
Esattamente come non era una buona idea che il fondatore di Bellingcat, Elliot Higgins, facesse dei deepfake di Trump arrestato, non credo sia una buona idea fare il salto di qualità audiovisivo. Satira o meno.
Niente morale alle AI
Ho cercato di non fare troppo il moralizzatore, parlando di questi temi, anche se è difficile perché ovviamente ho le mie idee e le mie posizioni: non ne faccio mistero.
Però, i casi che abbiamo visto rendono evidente, per me, che il giudizio morale si possa dare all’uso umano, non alle macchine in sé.
Poi, sì, lo so che per alcune persone le AI rubano, truffano, estraggono e non restituiscono. Che, addirittura, sarebbe immorale usarle per scrivere persino se il contenuto è buono. Non sono d’accordo, ma abbiamo sensibilità diverse, è giusto e sano parlarne.
Eppure credo che, se vogliamo restare umani, abbiamo tanto bisogno di confrontarci sugli usi, non di demonizzare gli strumenti. Se no perdiamo di vista proprio l’umanità.
AI@Work continua
AI@Work è il mio corso per mettere le intelligenze artificiali al lavoro. Il prezzo sale di mese in mese. Fino al 30 aprile è fuori a 79 euro IVA inclusa.
Buon fine settimana,
Alberto e Jon Slow
Ho seguito la vicenda Ipnocrazia (e l’ho pure letto) ma c’era una cosa che non mi convinceva, o meglio, un pensiero che riaffiorava sempre: “Eppure è un libro che mi è piaciuto, importa esattamente come è stato scritto?”. Che poi si scopre che è comunque il frutto di un meditazione e raffinazione lunga mesi, quindi, conta alla fine che l’Ai sia un coautore (che poi mi par di capire sia stata più un interlocutore, con buona pace di maschili e femminili che non so più come usare parlando di Ai)?
Il che porta alla conclusione a cui sono giunto: un libro ha un valore di per sé e un valore che il lettore ne estrae (verbo molto usato ultimamente). Se per me come lettore ha valore, allora ne ho ricavato qualcosa di buono, e buona pace. So che è un discorso insidioso, perché giustificherebbe pure i libri pessimi, eppure proprio quelli confermano (purtroppo) questa tesi: anche il Mein Kampf ha il valore che il lettore ci trova, se ce lo trova. E non sto facendo nessun parallelo fra Ipnocrazia e il Mein Kampf, per chi fosse già col ditino alzato.
Buongiorno, riguardo alla faccenda Ipnocrazia vorrei dire (ho acquistato e letto il libro) che ciò di cui ho sofferto non è il metodo di scrittura (il risultato può piacere o meno, e ognuno usa il metodo che vuole) ma il fatto che l'autore (quello con la componente umana, Andrea Colamedici di Tlon) abbia volontariamente pubblicizzato il testo come fosse di un noto e importante autore straniero di cui lui aveva ammirazione e stima. Ora, io intendo difendere il mio diritto di continuare a fidarmi dell' onestà di persone umane selezionate -con fatica- del cui intelletto ho stima. Se anche per loro devo controllare ogni citazione e ogni fonte, allora si và alla follia tutti quanti. Lo stesso vale per Barbero o per Puliafito (che per ora non conosco).