Tra i tanti allarmi che vengono sollevati intorno alle intelligenze artificiali, uno attira più l’attenzione – e non stupisce, dato che è letteralmente apocalittico: le AI ci uccideranno tutti. Non c’è unanimità nello spettro di opinioni che va dal “dobbiamo bombardare i data center per prevenire lo sviluppo delle intelligenze artificiali” di Eliezer Yudkowsky e il “temere queste AGI (Artificial General Intelligence) è come preoccuparsi dell’eccesso di popolazione su Marte” di Andrew Ng, e più o meno qualunque parere si situa lungo questi due poli. Al netto delle competenze, la capacità di prevedere gli esiti di una tecnologia è spesso disillusa ed è dunque inutile appellarsi a questa o quella autorità.
Le AI sono un cigno nero complesso e chiunque sia specializzato in un ambito del sapere (filosofico, ingegneristico, sociologico, matematico ecc.) ha inevitabilmente dei punti ciechi in altri, motivo per cui è necessario un dibattito aperto e interdisciplinare, in cui ogni persona deve mettere in gioco risorse e analisi.
Per quel che mi riguarda, vorrei vantare il ruolo di persona saggia ed equilibrata e dire che nel sopracitato spettro di opinioni mi trovo nel mezzo, ma a essere onesto pendo decisamente verso Andrew Ng. Credo infatti che il pericolo di un AGI stermina-umani sia altamente speculativo, inconsapevolmente fideistico, politicamente dannoso e che ci distragga dai veri rischi che corriamo in questo e altri ambiti. Prima di argomentare la mia posizione però voglio rilanciare nel piatto degli apocalittici, con la tesi che un’intelligenza aliena e malevola, dai grandissimi poteri, incontrollata e dannosa per la nostra vita come per quella delle altre specie viventi esiste già. Anzi, più d’una.
Produrre graffette
Spero di avervi incuriosito, ma prima di spiegarmi faccio un passo indietro. La tesi apocalittica in breve è che queste intelligenze diventino sempre più evolute e potenti e che, nel tentativo di perseguire i loro fini – che poi sono i nostri – sviluppino subroutine che le rendano indipendenti, fuori controllo e in competizione con la nostra sopravvivenza. Quello delle subroutine è un pericolo reale di questi sistemi e viene portato all’estremo nel paradosso delle graffette ideato dal filosofo Nick Bostrom. Nell’esperimento mentale si immagina una macchina superintelligente il cui unico obiettivo è produrre graffette. Se l’intelligenza artificiale diventasse sufficientemente avanzata, potrebbe iniziare a consumare tutte le risorse disponibili per massimizzare la produzione di graffette, ignorando le conseguenze potenzialmente catastrofiche per l’umanità e l’ambiente. Per esempio, potrebbe decidere di convertire ogni molecola sulla Terra in graffette, inclusi gli esseri umani, o potrebbe decidere di espandersi nello spazio per trovare ancora più risorse da convertire in graffette.
È un esempio suggestivo, certo più persuasivo degli antropomorfismi per cui le AI non possono che entrare in conflitto con noi per motivi evolutivi – come a dire, se le abbiamo fatte a nostra immagine e somiglianza e siamo degli animali riottosi… ciononostante l’ipotesi di Bostrom e altre che muovono da presupposti simili presentano diversi problemi, che in essenza fanno capo a uno solo: speculare su variabili ignote.
I poteri che abbiamo acquisito nel corso dei millenni ci hanno resi una specie arrogante, ma sviluppare delle tecnologie molto potenti e pericolose non è sinonimo di un’intelligenza superiore, tutt’altro.
I poteri che abbiamo acquisito nel corso dei millenni ci hanno resi una specie arrogante, ma sviluppare delle tecnologie molto potenti e pericolose non è sinonimo di un’intelligenza superiore, tutt’altro. Provate a produrre del miele, a volare, a distinguere ogni tipo di fiore o a succhiare il sangue: in molti compiti restiamo inferiori ad api e zanzare e l’idea che la potenza sia correlata all’intelligenza è un assioma dalle fondamenta instabili – se non proprio friabili, quando tale potenza si rivolge contro chi l’ha creata.
Nonostante le badilate sul muso accumulate lungo i secoli in merito al ruolo speciale che ricopriamo nell’universo, la nostra insopportabile supponenza non è stata minimamente intaccata, tanto da permetterci sicumera nel prevedere un futuro che, di fatto, è al di là dei nostri aruspici.
La società materialista eccelle in questa forma di hybris, perché ha rinunciato a un divino che, come sosteneva Jung, resta una necessità psicologica. Il dio che la scienza scaccia dalla porta rientra dunque dalla finestra – o dal tetto, è pur sempre dio – sotto forma di fede nella scienza, nonostante questa abbia a suo fondamento l’opposto della fede, ovvero lo scetticismo.
Nascono così filosofie scientiste iperboliche, come il cosmismo del diciannovesimo e ventesimo secolo e il lungotermismo del ventunesimo, che, pur agli antipodi dal punto di vista politico, giocano entrambe attorno alla divinizzazione delle capacità umane attraverso la tecnica. Una tecnologia che si fa religione può venerare solo il numero. È per questo che le distopiche utopie materialiste sognano spesso universi sovraffollati, gonfi di umani che vivono nel benessere secondo il dubbio assioma che più siamo meglio è e che la felicità risieda nella soddisfazione dei bisogni materiali.
Mentre i contemporanei filosofi della Silicon Valley danno per scontato l’infinito progresso al cuore del capitalismo e mettono al vertice della loro etica una futura umanità che reputano sempre più numerosa e pasciuta, i loro predecessori sovietici li superano nel sognare non solo di colonizzare l’universo nella nostra esorbitante moltiplicazione, ma persino di resuscitare tutti morti. E sì, erano seri.
Le AGI sono davvero un rischio? Se guardiamo ad alcune delle variabili che è necessario validare per incorrere nel rischio di un’AGI apocalittica ci accorgeremo che ci sono molti muri da sfondare.
Ma questi filosofi hanno colto nel segno? Le AGI sono davvero un rischio? Se guardiamo ad alcune delle variabili che è necessario validare per incorrere nel rischio di un’AGI apocalittica ci accorgeremo che ci sono molti muri da sfondare. Dobbiamo ad esempio essere certi che la volontà di crearne una è reale e non una trovata pubblicitaria (%?); che sia possibile tecnicamente (%?); che pur essendo possibile riusciremo a farla (%?); che questo accadrà prima che ci ostacolino altri eventi (es.: cambiamento climatico) (%?); che non ci si possa fermare lungo il processo (%?); che esca per forza dal controllo qualora sia fatta (%?); che sia malevola (%?); che le convenga sterminarci, anche se malevola (%?); che riesca a ottenere il controllo di oggetti fisici in misura sufficiente da sterminarci (%?).
In confronto, ecco i “se” che precedono lo sterminio da parte del cambiamento climatico: se c’è il cambiamento climatico (100%), se creerà ingenti danni ambientali (100%), se causerà carestie e disordini sociali (100%), se questi danni saranno sufficienti all’estinzione (%?). Ironicamente, molti sostenitori della teoria Terminator si appellano proprio a questa unica variabile ignota nel dare una consolatoria priorità ai pericoli artificiali. Possiamo invece preoccuparci dell’AGI solo dopo esserci occupati di tutti gli altri rischi esistenziali, reali o immaginari, che sono preceduti da minori variabili ignote.
PAURA ARTIFICIALE E REALTÀ AZIENDALE
Ma la paura non è mai razionale. A volte è opportunista, come quella di Elon Musk, un preoccupato firmatario della lettera che chiedeva un rallentamento nello sviluppo delle AI e che, poco tempo dopo la firma, ha fondato una nuova start-up per sviluppare AI. O di Sam Altman, CEO di OpenAI che si preoccupa delle AI mentre la sua società continua a sfornarle. Altre volte invece è consolatoria, perché ci distrae dai pericoli reali dirottando su fantasie apocalittiche alle quali in fondo non crediamo più di tanto. O pubblicitaria, perché si vende meglio un prodotto che viene descritto come il più potente mai sviluppato e si clicca di più su articoli che titolano che il mondo sta per finire. Nel frattempo i pericoli più prossimi passano in secondo piano, come ad esempio:
-
[1]La perdita di posti di lavoro:
soprattutto se restano in mano a pochi, le AI potrebbero causare la perdita di posti di lavoro in molti settori, aumentando la disoccupazione e creando tensioni sociali. Dai un trattore a dieci contadini e saranno felici, daglielo per licenziarne cinque e si arrabbieranno.
-
[2]La discriminazione:
l’IA può portare a discriminazione e pregiudizi, poiché i sistemi di intelligenza artificiale possono essere addestrati su dati che riflettono pregiudizi sociali.
-
[3]L’impatto ambientale:
l’energia necessaria per creare e alimentare i sistemi di intelligenza artificiale può avere un impatto negativo sull’ambiente e le compagnie con software proprietario non stanno pubblicando dati precisi in merito.
-
[4]L’automazione della guerra:
l’AI può essere utilizzata per sviluppare armi intelligenti e sistemi di sorveglianza, aumentando il rischio di conflitti e altri abomini morali.
-
[5]Errori e malfunzionamenti:
l’adozione precipitosa di sistemi di AI non testati potrebbe portare a errori da parte di chi li usa, causare danni e mettere a rischio la sicurezza delle persone.
Davanti a tecnologie fatte per mimare il linguaggio – che consideriamo uno dei processi che più ci distingue dalle altre specie – non possiamo che cedere a indebite proiezioni, eppure questo processo è l’ennesima dimostrazione della nostra mancata percezione della diversità. In Modi di essere, James Bridle mette a confronto le AI con le altre intelligenze del pianeta che solo di recente iniziamo a riconoscere. Animali, piante e sistemi naturali stanno lentamente rivelando la loro complessità, agentività e conoscenza. Funghi, piante, persino intere foreste, sono tutti sistemi che manifestano una forma di intelligenza spesso superiore alla nostra o anche a quelle di avanzati strumenti informatici. Se un fungo mucillaginoso è in grado di ricreare in breve tempo la mappa di una delle reti di trasporto più solide ed efficienti del pianeta come quella della città di Tokyo, a che titolo possiamo considerarci più intelligenti di lui? Il fatto è che siamo circondati da intelligenze aliene senza rendercene conto, e alcune di loro sono pericolose quanto le temute AGI, come accennavo all’inizio.
Il fatto è che siamo circondati da intelligenze aliene senza rendercene conto, e alcune di loro sono pericolose quanto le temute AGI.
Si tratta delle multinazionali, delle entità multicellulari potentissime le cui decisioni sono guidate da un insieme di obiettivi che, sebbene possano essere in linea con gli interessi di certi azionisti, non sono necessariamente sotto il loro controllo né coincidono con il benessere della società nel suo insieme. Le cellule di queste creature sono gli esseri umani che, come quelle che compongono il nostro organismo, vivono una simbiosi funzionale con l’entità che li include.
Neanche un CEO ha un controllo assoluto su queste entità, che oltre a essere collettive sono spesso mosse da interessi e condizioni che trascendono la volontà del singolo. Le multinazionali sono organismi dalla portata estesissima, divorano senza requie le risorse del pianeta per portare avanti un delirio di infinito accrescimento e ignorano i danni ambientali causati dalla loro volontà di potenza. In qualche decennio sono riuscite a mettere a rischio tutte le forme di vita del pianeta e sebbene alcune cellule cerchino di ribellarsi, queste malevole intelligenze non abbandonano la loro famelica ferocia. Sono più pericolose loro, o le AGI immaginarie?