Intelligenza Artificiale, Lavoro e Democrazie liberali

Tornate con la memoria agli anni della vostra infanzia. Quante volte siete caduti dalla bicicletta prima di imparare ad andarci senza incidenti? Quante volte avete battuto la testa contro lo spigolo di un tavolo, prima di imparare a non correre per casa? Quante volte vi siete scottati, tagliati, contusi prima di imparare a non toccare le cose “dei grandi”? Bene. Questo è il modo in cui funziona l’apprendimento degli esseri umani. Per padroneggiare una qualsiasi attività c’è bisogno di ripeterla un certo numero di volte commettendo ogni volta gli stessi errori. Questo è vero tanto per il bambino di tre anni che deve dare una quindicina di zuccate prima di imparare a stare lontano da quel benedetto tavolino, quanto per l’adolescente che deve ripetere le scale sul pianoforte qualche decina di volte prima di saperle eseguire alla perfezione, quanto per l’adulto che continua negli anni a riproporre il medesimo comportamento nevrotico, per cambiare il quale ha bisogno di molte ore di sedute di psicanalisi, se non di una gita ad un qualche Santuario.

Gli esseri umani apprendono lentamente, e solo grazie alla ripetizione degli stessi errori, finché (qualche volta) non ne diventano consapevoli. Ed anche la consapevolezza dell’errore non basta quasi mai, da sola, ad impedirci di commetterlo nuovamente. Chiedete a chi ha problemi di dipendenza.

Tutti abbiamo sentito la frase: “le trovo tutte io”, o “li trovo tutti io”. Ovviamente, in realtà, siamo noi che ci infiliamo volontariamente, più volte, nello stesso tipo di relazione insoddisfacente, a causa delle nostre nevrosi irrisolte. Non è che “le trovo tutte io.” E’ che “io cerco, e dunque trovo, lo stesso tipo di persona (o riproduco lo stesso tipo di situazione).”

Gli esseri umani possiedono un’altra caratteristica specifica: tendono a non occuparsi attivamente di nulla che non appaia pericoloso nell’immediato. Guardate la questione ambientale. Ormai quasi nessuno contesta il fatto che siamo alle soglie, se non già dentro, una rivoluzione dell’ambiente terrestre potenzialmente devastante per larga parte dell’Umanità. Eppure, nonostante il tanto parlare, nessuno, né a livello individuale, né a livello collettivo, si occupa realmente di fare qualcosa di decisivo in proposito. Se non siamo già con un piede nella fossa, noi umani continuiamo a camminare per forza d’inerzia, anche se siamo del tutto consapevoli della fossa che si spalanca a pochi metri da noi.

Dunque, gli umani imparano lentamente, e non si proteggono dalle catastrofi che possono prevedere, nonostante le possano prevedere, a meno di non trovarsi già ben oltre il punto di non ritorno.

Ebbene, l’Intelligenza Artificiale non funziona in questo modo. E’ progettata per imparare istantaneamente ed in modo incrementale dai propri errori, applicando quello che ha imparato al compito immediatamente successivo. E’ inoltre programmata per reagire in modo razionale ad una qualsiasi minaccia imminente, o prevedibile.

Ecco, dunque, la differenza di base fra intelligenza umana e quella artificiale: l’intelligenza umana è nevrotica e irrazionale, procede per “catastrofi” – cioè per evoluzioni inaspettate e repentine – , non per accrescimento progressivo e lineare delle informazioni: quella artificiale è invece razionale.

Nel corso dell’ultimo mese si è parlato molto di ChatGPT 4, sviluppato da Open AI, un modello molto avanzato di chatbot (cioè un software sviluppato per simulare conversazioni con gli esseri umani). Se ne è parlato perché è apparso improvvisamente evidente, a chi lo abbia provato, che il grado di evoluzione del software è tale da poter realisticamente immaginare che ChatGPT-4 ed i suoi successori potranno presto sostituire gran parte dei lavoratori umani in settori fino ad oggi considerati “protetti” dall’automazione. Quelli legati alle professioni di concetto. Giornalisti, copywriter, sceneggiatori, scrittori, praticanti legali, impiegati a vario titolo, analisti finanziari, insegnanti di diverse materie, grafici, designer, architetti, ricercatori, urbanisti, sviluppatori di software, bancari, assicuratori, esperti di marketing, pubblicitari … Tutte queste professioni, e molte altre che, nelle società capitalistiche avanzate, costituiscono il settore prevalente, cioè quello Terziario, possono già oggi essere in gran parte assorbite dalle intelligenze artificiali.

La velocità dello sviluppo dell’AI ha recentemente indotto mille stakeholders, capeggiati da Elon Musk, a pubblicare una petizione per chiedere una pausa di sei mesi nello sviluppo di questa tecnologia (potete leggerla qui: Musk). La lettera di Musk non serve a molto, se non a ripetere le preoccupazioni che l’imprenditore già nel 2015 aveva condiviso con il celebre fisico Stephen Hawking, che ci aveva avvertiti del fatto che, con l’Intelligenza Artificiale, stavamo giocando col fuoco. Ma, alla luce dell’introduzione di ChatGPT-4, la petizione di Musk assume la fisionomia di un grido di allarme. Il problema è che una moratoria non serve di per sé a nulla: cosa facciamo con i sei mesi di eventuale interruzione nello sviluppo? Se non li usiamo per stabilire nuove linee guida per lo studio di questi sistemi, fra sei mesi non sarà cambiato niente.

Sin dal 2017 la McKinsey ha cominciato a fare ricerca sull’impatto che l’AI avrà sul mercato del Lavoro. Nel primo rapporto (lo trovate qui: Mckinsey), si sostiene che, entro il 2030, potranno essere circa 800 milioni i posti di lavoro in qualche modo sostituiti o in qualche modo modificati grazie all’adozione dell’Intelligenza Artificiale. L’impressione generale è che, al fondo del problema, non vi sia l’Intelligenza Artificiale di per sé ma, al solito, vi siano gli esseri umani.

In un podcast sul tema uscito qualche giorno fa, il giornalista Ezra Klein, già editorialista del Washington Post e del New York Times, ha messo l’accento sul punto fondamentale (qui: Klein). Il punto è capire cosa vogliamo, come società, dall’Intelligenza Artificiale. Se lasciamo che il suo sviluppo sia guidato unicamente dal mercato, possiamo con ragionevole certezza immaginare che finirà per essere un serio problema per l’umanità. In altri termini si ripresenta la questione che da anni affligge le nostre società. Come fa un sistema politico debole a regolare ed a controllare un sistema economico forte?

In uno studio pubblicato a fine marzo di quest’anno, (qui: Hendrycks) L’analista Dan Hendrycks, direttore del Center for AI Safety di San Francisco, ha applicato il concetto di competizione darwiniana (cioè quello che più si avvicina al modello di sviluppo capitalistico) allo sviluppo dell’Intelligenza Artificiale. Lo scenario proposto da Hendrycks è più o meno il seguente: man mano che l’AI si evolve, le multinazionali e gli Stati, naturalmente in competizione fra loro, la coinvolgeranno in scelte sempre più strategiche, perché l’AI può individuarle, velocemente, basandosi su analisi sempre più complesse dei costi/benefici e predire più scenari possibili derivanti da queste scelte.

Poiché tali decisioni sono appunto complesse, maggiore sarà la potenza e la velocità dell’AI minore sarà l’intervento umano nel prenderle. Se l’input dato all’AI è quello di trovare il modo di prevalere sul proprio competitor, l’AI darà risposte molto più veloci e precise di quanto non darebbero gli umani, basandosi su molti più dati e molte più possibilità d’azione. Se l’input è puramente e semplicemente quello di prevalere, nessuno può escludere che il modo più semplice e veloce di ottenere un successo sia quello di violare in qualche modo la legge. Naturalmente, l’ente regolatore può facilmente proibire all’utente dell’AI di dare input che prevedano di violare la legge.

Ma è molto facile aggirare questo tipo di regola: ad esempio non chiedendo direttamente di violare la legge, ma di trovare il modo di aggirarla. O di violarla senza farsi scoprire. Se per violare la legge senza farsi scoprire un imprenditore deve avere un’attitudine criminale ed una forte propensione al rischio, l’AI ha bisogno solo che qualcuno le chieda di farlo.  

Man mano che l’AI prenderà più decisioni e più complesse per noi, noi smetteremo di supervisionarla, semplicemente perché sarà inutile farlo. Ne consegue che, in mancanza di una qualche forma di regolamentazione, col tempo (parliamo di qualche anno, non di qualche decennio), le imprese che baseranno le proprie scelte strategiche sull’AI godranno di un vantaggio competitivo su quelle che non lo faranno. Hendrycks applica questa stessa logica agli Stati: quegli Stati che decideranno le proprie politiche basandosi sull’AI avranno un vantaggio competitivo rispetto a quelle che le baseranno sulla fallace, farraginosa discussione in seno ad un Parlamento, o di un Governo.

Ecco, dunque, un’altra importante differenza fra l’intelligenza umana e quella artificiale. L’intelligenza artificiale non ha preoccupazioni etiche, se non quelle delle quali l’umano decide di dotarla.

Ricapitolando: l’AI è molto più veloce, molto più capace di analizzare quantità immense di dati e trarne conclusioni, molto più veloce nell’imparare dai propri errori e molto più eticamente neutra di quanto non sia un essere umano.

Ora, regolare lo sviluppo della tecnologia è qualcosa che troviamo estremamente difficile. Il capitalismo basa la propria esistenza sul presupposto che sia necessario sviluppare una quantità sempre maggiore di beni e servizi al fine di produrre una ricchezza sempre crescente: da una trentina d’anni in qua, abbiamo scoperto che i beni ed i servizi tecnologici rispondono in modo naturale a questa esigenza di sviluppo a ciclo continuo. Infatti, investendo in “consumer technology”, il capitalismo è riuscito a convincerci del fatto che comprare un nuovo cellulare ogni anno abbia senso, molto più efficacemente di quanto non fosse riuscito a convincerci a cambiare più spesso auto o arredo della cucina.

Mettere un freno allo sviluppo della tecnologia nella nostra società sarebbe dunque oggi percepito come il tentativo di mettere un freno al capitalismo stesso. Sono almeno tre secoli che qualcuno protesta per l’avvento di una nuova tecnologia. Sinora si è constatato il fatto che, per ogni posto di lavoro perso a causa di un nuovo sviluppo tecnologico, se ne sono sempre creati tre, o quattro. Ovviamente questo genere di statistica non tiene conto del destino del singolo individuo che perde il posto. Ma se per ogni minatore inglese che ha perso il posto negli anni Ottanta, il “Blatcherism” ha creato cinque graphic designer, per l’economia nel suo complesso va bene così. O così hanno pensato in molti, almeno finché l’automazione ha colpito principalmente gli operai, i “blue collars” occidentali.

La minaccia che l’AI pone all’Occupazione non è né una novità, né una chimera: è l’ovvia conseguenza di un processo di sviluppo connaturato al Capitalismo coniugato con la tecnologia, che ha già cambiato la faccia sociale dei Paesi occidentali a partire dal settore manifatturiero e che ora sta per investire (sta già investendo) quello terziario.

Le conseguenze sociologiche e politiche di queste scelte economiche, che hanno coinciso con l’inizio dello sviluppo della consumer technology, sono state il tentativo di convincere ciascuno di noi a rinunciare all’idea del posto fisso per diventare “imprenditore di sé stesso”, da un lato, e la progressiva sfiducia nei confronti della politica, inadeguata a proteggerci dagli inevitabili rovesci dell’impresa di sé stessi, dall’altro. Sono ormai decenni che il Lavoro – come è stato inteso nel Novecento – non è più al centro dell’azione politica dei governi occidentali, siano essi di destra o di sinistra, se non come tema di campagna elettorale, da dimenticare il giorno dopo le elezioni.

Potremmo almeno rallentare questa tendenza se, come Società, domandassimo ai produttori di AI di determinare cosa vogliano ottenere da lei, cercando appunto di guidarne politicamente e culturalmente lo sviluppo. Applicare la potenza dell’AI per trovare una soluzione alla crisi climatica, invece di svilupparla per trovare il modo più efficace per prevalere su un competitor industriale. Usare l’AI per trovare soluzioni pacifiche ai conflitti mondiali, invece che per creare trenta diverse campagne marketing targettizzate su trenta diverse tipologie di consumatori. Ma ovviamente questo non accadrà, per il semplice motivo che applicare l’AI alle questioni cruciali per la nostra sopravvivenza sul pianeta non produce, nell’immediato, il profitto che produce applicarla a ridurre i costi di un canale televisivo o di un giornale.

Nell’ultimo numero del New Yorker, Cal Newport ha cercato di spiegare perché non dovremmo preoccuparci dell’AI entrando un po’ più in dettaglio su come essa funziona (qui: Newport). Ma, per quanto egli si sforzi di dimostrarci che l’AI non crea nulla, e che dunque non pone un problema all’intelligenza umana, che è invece creativa, questo genere di considerazioni, come abbiamo detto, non coglie il nocciolo della questione: come ogni tecnologia l’AI non è pericolosa in sé, ma lo è nella misura in cui noi umani ne facciamo cattivo uso e, se il suo uso è regolato dalle leggi di mercato, possiamo stare certi che è, e sarà, molto pericolosa. Non sarà l’AI a farci del male di propria volontà, spinta da un suo autonomo desiderio di supremazia sugli umani: saremo noi umani a farci del male usando l’AI allo scopo di competere fra noi nel modo più economicamente efficace.

In altre parole, è il binomio AI/Capitalismo ad essere potenzialmente letale. Il paradosso è tuttavia che, senza Capitalismo, non esiste alcuna AI (almeno non in termini di uso comune).

Tutto questo somiglia terribilmente all’ineluttabilità di una strada già segnata. Tuttavia, la mia impressione è che questa volta, come diceva Hawking, stiamo davvero giocando col fuoco.

Abbiamo ricordato le conseguenze politico sociali dell’avvento dell’automazione nel settore manifatturiero sulle popolazioni occidentali. Quali possono essere quelle relative al settore del terziario? Ammettendo che McKinsey abbia avuto ragione a metà, possiamo aspettarci che 400 milioni di occidentali perdano il lavoro da qui a sette anni. Sommiamo questa cifra agli operai che lo hanno già perso. Sommiamo ulteriormente i milioni che, imprenditori di sé stessi, sono finiti in bancarotta o quasi. Aggiungiamo infine tutti quelli che hanno visto i propri risparmi scomparire nel nulla fra il 2008 ed il 2010. Possiamo aspettarci una bella fetta di umanità che “non arriva a fine mese” e che, facilmente sostituibile dall’AI, non ha reali prospettive di riuscirci attraverso il Lavoro. Semplicemente perché il Lavoro non c’è più.

In altre parole, quello che rischiamo è un mondo nel quale il Lavoro non sia più il fondamento di base della società. Ma le nostre società si fondano sul presupposto che il Lavoro sia lo strumento attraverso il quale i cittadini possano partecipare pienamente alla vita della comunità. La Costituzione italiana lo reca scritto nel Primo Articolo: “L’Italia è una Repubblica democratica, fondata sul Lavoro.”

Ma il principio dell’importanza del Lavoro informa tutte le democrazie liberali, a cominciare da quella americana. Il sogno americano non è altro che l’espressione del principio secondo il quale, grazie al Lavoro, ogni essere umano può conseguire ciò che quella nazione considera al primo posto nelle sue aspirazioni: la ricerca della felicità. Caduto il principio secondo il quale l’ordine sociale veniva stabilito in base al diritto di nascita, le società contemporanee lo hanno sostituito con l’appartenenza fondata sul Lavoro. Abbiamo impiegato un centinaio d’anni a convincere la gente che una vita passata dietro una scrivania, o dietro un tornio, per otto ore al giorno, cinque o sei giorni a settimana, fosse una vita degna d’essere vissuta. Ma accade che scrivanie e tornii siano sempre meno.

Il problema si presenta anche sotto il punto di vista economico: io imprenditore pago te lavoratore perché tu possa produrre i beni ed i servizi che poi acquisterai con i proventi del tuo lavoro. Se io imprenditore non pago più te lavoratore, ma uso l’AI, con quali soldi tu lavoratore comprerai i beni ed i servizi prodotti dall’AI? E, se la tua piena appartenenza alla società non sarà più garantita dalla tua partecipazione attiva alla sua vita produttiva, su cosa si baserà?

Di qui la tendenza delle società più avanzate a ragionare su cose come il reddito minimo garantito, che uno lavori o no. Si immagina di usare la leva fiscale per redistribuire le risorse. Questo certamente argina il problema. Ma non pare destinato a risolverlo: anche ammessa un’improbabile ondata di socialismo nelle economie avanzate, è evidente che prima o poi il punto d’equilibrio fra il profitto dei sempre meno e la sussistenza dei sempre più sarà raggiunto, e che non è spostabile in avanti in modo infinito.

La questione che ci pone l’AI oggi, dunque, travalica il sottile senso di inquietudine che si può provare a livello individuale. Travalica gli scenari distopici nei quali un’intelligenza artificiale malvagia ci riduce in schiavitù. Ci presenta invece un problema potenzialmente epocale in termini sistemici: Come si configura una società capitalistica della quale il Lavoro umano non sia più il necessario pilastro? Su cosa fondiamo il prossimo Patto Sociale?