Una delle cose che trovo più commoventi nella sua metodicità e rigore è il mestiere di scrivere degli autori. Mi piace infilarmi nelle loro teste, tentare di comprendere come una frase, un aggettivo rispetto ad un altro, una lieve sfumatura possano restituire al lettore quale sia il modo altrui di essere al mondo.
Ogni romanzo è un frugare nella testa di qualcuno – nonostante Zadie Smith definisca il frugare nelle borse, proprie e altrui – onnipresenti nei romanzi – un fallimento: “frugare in una borsa è costruire una frase come un sonnambulo (…) e per quanto mi riguarda, io scrivo proprio per non vivere tutta la vita come una sonnambula”.
Il sonnambulismo sottolinea una passività intrinseca nell’azione: un processo autonomo, che agisce senza un effettivo controllo umano – come l’intelligenza artificiale applicata alla scrittura.
Ai suoi albori – mi riferisco al 2019, sentite una risata sinistra? – OpenAI, l’organizzazione no profit fondata da Elon Musk e Sam Altman che si occupa di ricerca nell’ambito dell’intelligenza artificiale, finanziata da Amazon, Microsoft e Paypal, ha rilasciato il modello di linguaggio GPT-2, il fratellino meno allenato e coscienzioso del GPT-3.
Il software, allenato da ben 40 GB di pagine web tramite un intricato sistema di reti neurali – era semplicemente in grado di predire cosa avremmo potuto scrivere (in una mail universitaria, ad esempio), di generare un testo a partire da un nostro input, ovvero una breve frase, e persino di agire senza macchia umana, ovvero incondizionatamente, da solo. L’azienda, peraltro, era inizialmente contraria al rilascio del software, poiché aleggiava il timore che potesse avvenire un uso improprio.
Si tratta di un approccio basato su delle probabilità: non c’era nulla di cui preoccuparsi, inizialmente. In quanto priva di coscienza, la macchina associa in maniera meccanica le parole e le relazioni che si intrecciano tra di loro: nonostante la costruzione di una frase possa apparire come sensata e corretta, l’intelligenza artificiale applicata alla scrittura non può comprendere in maniera effettiva le frasi che compone. In questo, potrebbe assomigliare ad un essere umano incosciente e colto che tenta di inserire un elemento accanto a un altro in virtù di limitate e logiche associazioni.
La “formazione intellettuale” di GPT-3 è quasi sconcertante: un essere umano riesce a processare, al termine della sua esistenza, mezzo miliardo di parole, se volessimo essere ottimisti; il GPT-3, invece, è stato allenato tramite 570 miliardi di megabytes di informazioni, l’equivalente di 57 miliardi di parole.
L’anno successivo, nel maggio 2020, l’OpenAI ha rilasciato GPT-3. Il Generative Pre – Trained Transformer 3 è un modello di linguaggio che sfrutta il deep learning per generare un testo simile a quello prodotto da un umano (output): il software è capace di creare qualsiasi cosa che possieda la struttura di linguaggio, dunque il testo in uscita non sarà necessariamente di prosa, bensì anche poesia, codici informatici, riassunti di libri e film, appunti, risposte a quesiti – esistenziali e non.
La “formazione intellettuale” di questo software è quasi sconcertante: un essere umano riesce a processare, al termine della sua esistenza, mezzo miliardo di parole, se volessimo essere ottimisti; il GPT-3, invece, è stato allenato tramite 570 miliardi di megabytes di informazioni, l’equivalente di 57 miliardi di parole.
Un altro tentativo di comprendere la tecnologia soggiacente all’AI risiede nella scomposizione della cornice concettuale, meglio conosciuta come semantica dei frame: questa teoria linguistica, sviluppata da Charles J. Fillmore, applicata agli algoritmi, permette di ottenere dei risultati soddisfacenti, poiché introduce, a differenza di un approccio probabilistico, delle inferenze enciclopediche. Sostanzialmente, decostruisce una frase in unità minime: ciò permette ad assistenti vocali come Alexa di suggerire delle risposte ai nostri quesiti – seppur semplici. Chissà cosa ne penserebbe Umberto Eco.
L’effetto perturbante ci viene offerto da come vengono allenati software come GPT-3, ovvero tramite machine learning non supervisionato: tale apprendimento ha radici umane, poiché ogni essere umano è soggetto alle inferenze dell’ambiente circostante e possiede dei modelli (rappresentazioni) del mondo reale.
Nonostante il software imiti il nostro modo di essere al mondo, vi sono, naturalmente, delle discrepanze: il GPT-3 è come una sorta di bambino molto ricettivo che viene lasciato da solo in compagnia di una quantità di dati pressoché illimitata, a cui successivamente viene dato il compito di capirli da solo.
A differenza dell’apprendimento supervisionato, quello del GPT-3 è molto più semplice dal punto di vista del software: non deve etichettare tutti i dati che vengono inseriti nel suo imbuto digitale e può generalizzare meglio tra i vari compiti a lui richiesti (poesia, narrativa, codici informatici).
I software introdotti da OpenAI sono tutti stati allenati tramite machine learning non supervisionato: in particolare, i ricercatori hanno nutrito passivamente il software lanciato nel 2020 utilizzando ciò che non avremmo mai pensato fosse possibile unire: Reddit, fanfiction, estratti di Wikipedia, notizie. Se provassimo oggi a utilizzarlo scrivendo una sibillina news di politica, “Olaf Scholz non sa se credere nel cambiamento climatico”, il GPT-3 riuscirebbe abilmente a scrivere la restante porzione di testo, tale da risultare credibile: è terrorizzante vivere in una proliferazione di fake news, ma ciò potrebbe rivelarsi ancora più pericoloso se a produrle fossero milioni e milioni di modelli di linguaggio.
Inoltre, per quanto riguarda le potenzialità pressoché illimitate dell’AI, esse non si limitano ovviamente alla sola costruzione creativa di scrittura. Gli scacchi, ad esempio, sono stati una delle prime attività in cui l’intelligenza artificiale e l’umano si sono urtati: il campione della Corea del Sud di Go, Lee Sedol, ha annunciato il suo ritiro dalle scene nel 2019 dopo essere stato sconfitto 4 a 1 da AlphaGo, un’AI di proprietà di Google.
Un’entità che non può essere sconfitta, così l’ha apostrofata: eppure gli esseri umani, seppur competitivi, non giocano quasi mai per vincere, ma per il semplice fruire di un’esperienza. Un breve contatto con un’altra mente umana – che siano gli scacchi, una composizione musicale, un romanzo: Zadie Smith, parlando del contatto con la mente altrui, ha scritto “(…) quando apro un libro sento la forma del cervello di un altro essere umano. Per me, il cervello di Nabokov ha la forma di uno scivolo a spirale. Quello di George Eliot è come una di quelle pentole per setacciare l’oro. Quello della Austen assomiglia a uno di quei fiori di vetro che si trovano nel Museo di Storia Naturale di Harvard.”
La separazione tra il cervello di Nabokov e quello del GPT-3 risiede forse unicamente nella pura intenzionalità? Se a un lettore appassionato di Jane Austen venisse data la possibilità di creare, solo tramite l’uso dell’indice che preme invio, un romanzo allineato simmetricamente a quelli originali della sua scrittrice preferita, si sentirebbe colpito a livello identitario, affettivo?
Un ricercatore presso la UC Berkeley Artificial Intelligence Research Lab, John DeNero, ha affermato candidamente che un essere umano non sarà mai in grado di poter leggere l’intero web, mentre un modello di linguaggio sì: da lettrice – nonché da essere umano – non trovo questa notizia particolarmente mortificante, mi chiedo però quali potrebbero essere i risultati che potremmo ottenere nutrendo un modello di linguaggio avanzato tramite dei romanzi? Cosa succederebbe se spostassimo il fulcro del discorso, ponendo come oggetto, per esempio, la narrativa dei paesi anglofoni dal Duemila ad oggi?
Il software verrebbe considerato come umano, dal momento in cui attinge a migliaia e migliaia di voci? Può il risultato del GTP-3 essere considerato veritiero? C’è qualche frammento – un termine, l’uso di un verbo – che riesce a straniare il lettore, rendendo ciò che consideriamo familiare estraneo?
Il ricercatore Gwen Branwen ha tentato di rispondere a questa domanda: ha allenato il GPT-2 utilizzando un largo corpus di componimenti poetici per sperimentare, per così dire, la sua attitudine poetica.
I risultati, qui consultabili, sono a dir poco sbalorditivi. Non so cosa potrebbe pensarne un ricercatore ottimista nei confronti dell’intelligenza artificiale, ma personalmente trovo molto importante – e toccante – che un essere umano impieghi gran parte della sua vita dedicandola alla scrittura; l’altro giorno leggevo in aereo I margini e il dettato di Elena Ferrante, testi inediti sul suo mestiere: quando scrivo non so più chi sono, afferma Ferrante – tramite la letteratura, mi viene da pensare, io non sono più io, ma un’entità, talvolta padre, figlia, animale, persona abietta, vile.
Proprio per questo, intimidita e inquietata dal risultato ottenuto da Gwen Branwen, ho messo alla prova anch’io il software per tentare di ottenere dei risultati – con l’augurio che mancassero di coerenza narrativa. Mi domando, inoltre, se un lettore esterno riesca a comprendere a prima vista dove finisca l’umano e inizi l’artificiale: utilizzando il GPT-2, mi piacerebbe tentare un piccolo esperimento basato sulla ricezione effettiva del contenuto. Qual è l’umano e dove interviene la macchina?
Se riesce a eguagliare con accurata precisione cosa potrebbe scrivere Sylvia Plath, tra dieci anni – un’ipotesi incredibilmente ottimistica – lei stessa potrebbe rinascere, priva di sangue e neuroni, tramite grottesche e raffinate imitazioni: dei fantocci di rete neurali.
Questo è stato il risultato che ho ottenuto dando come input alla macchina tre estratti provenienti da romanzi differenti. Di seguito il risultato, sapreste distinguere l’originale dal software?
Per il primo esperimento ho usato un estratto dal poema di Sylvia Plath, Three Women:
“Men used her meanly. She will eat them. She offered a crooked smile. And with that, she charges the chimeras, brandishing her sword. She circled around, avoiding the reapers. “You can stop them, Luna. You can put an end to this, it doesn’t need to be always like this.”
Ho continuato poi il mio esperimento utilizzando una prosa più semplice e meno ricca simbolicamente, dando come input un estratto dal romanzo Normal People di Sally Rooney:
“He can’t help Marianne, no matter what he does. There’s something frightening about her, some huge emptiness in the pit of her being. She has no thoughts of her own, no vanity or pride, just an insane craving for Tristan’s love and the flesh of his feet. He’d like to soothe that hunger, but he doesn’t know how.”
e infine ho usato un estratto di Nabokov, The original of Laura:
“She was an extravagantly slender girl. Her ribs showed. The conspicuous knobs of her hipbones framed a hollowed abdomen, so flat as to belie the notion of “belly.” Her exquisite bone structure immediately slipped into a novel – became in fact the secret structure of that novel, besides supporting a number of poems and short stories and some as yet uncompleted plays and screenplays. They shone like jewels on her skin.She had medium – length dark hair. As I recall, it was curly. She was incredibly tall, and in this picture, there is an overt sense of my own smallness beside her. I am short. She has kind brown eyes, a smile – I remember her smile well, broad and a little shy, and like a cloud – exactly”
Questo software, peraltro, è abbastanza obsoleto: nonostante il risultato mi lasci inquietantemente soddisfatta, mi chiedo quali potrebbero essere i risultati del GPT-3 utilizzando i medesimi esempi.
Inoltre, se riesce a eguagliare con accurata precisione cosa potrebbe scrivere Sylvia Plath, tra dieci anni – un’ipotesi incredibilmente ottimistica – lei stessa potrebbe rinascere, priva di sangue e neuroni, tramite grottesche e raffinate imitazioni: dei fantocci di rete neurali.
Il neuroscienziato e scrittore americano Erik Hoel ha assaggiato con orrore ed elegante consapevolezza il prossimo futuro timore di ogni persona che scriva narrativa: ha riscritto dei paragrafi del suo primo romanzo, The Revelations, utilizzando il GPT-3.
La protagonista del romanzo, Carmen, una scienziata che vive a New York, indaga sulla morte di una sua collega: una notte si trova, per via delle indagini, in una spettrale visione della metropolitana notturna, temendo che qualcosa – un essere inumano con fattezze animali, dai grandi occhi scuri – possa apparire.
Nella riscrittura artificiale, il tono della narrazione diventa ancor più evocativo e claustrofobico e la città sembra possedere un organismo millenario – persone diverse si accalcano intorno a Carmen e tutto sembra sfumare dietro una patina marcia.
Cos’è allora la creatività umana, viene da chiedersi: secondo uno studio congiunto di alcuni psicologi dell’università di Harvard, Melbourne e Montreal un ottimo test per poter – seppur in maniera limitata – classificare la creatività umana è quello di sottoporsi alla creazione di una lista di dieci parole.
Le dieci parole devono, però, essere il più possibile estranee l’una all’altra: “platonico” ed “ectoplasma”, per intenderci. Il GPT-3 è stato naturalmente sottoposto al test, ottenendo un risultato che si aggira tra l’85 e il 95 %, ben più alto del resto della popolazione, la quale si attesta attorno al 77 %.
Qui potete provare a superare il software e a sperimentare la vostra creatività, ma nel caso riusciste a raggiungere un punteggio più alto, si tratta di una flebile consolazione. l’AI è infatti riuscita a battere un essere umano, per la prima volta, solamente sette anni fa, nel 2015 – ciò implica una terrificante presa di coscienza nei confronti della futura automazione della creatività umana: siamo ancora all’inizio.
“Quando sono nato, scrive Hoel, il linguaggio – dovunque lo incontrassi – aveva un’impronta umana: quando morirò, continua, verrà forse generato da una fonte indipendente dalla coscienza?” Un’ipotesi che non possiamo escludere del tutto.