Parlare di ChatGPT è difficile, è già stato detto tutto e il suo contrario. A me interessa il fatto che mi sto convincendo – a fatica, ma inesorabilmente – che è veramente simile a noi, è quasi uno di noi. In che senso?, dirai, è solo una macchina, un pappagallo … Esattamente in quel senso, che anche noi siamo delle macchine, dei pappagalli. Fatti diversamente, certo, ben più sofisticati, dei ChatGPT-122 , ma in fondo impariamo a parlare, a ragionare, a far di conto per conformarci alle aspettative sociali. Non lo dico io, lo dice Wittgenstein, lo scorbutico genio viennese. (Per un’analisi dettagliata, c’è un bel libro di Saul Kripke[1]; il rapporto tra la filosofia di Wittgenstein e i Large Language Models è affrontato in un articolo di F.D. Mallory[2]).
Nelle sue Ricerche filosofiche[3], Wittgenstein immagina di dover spiegare il senso di certe parole a chi parla solo un’altra lingua.
208 . (…) A uno che parli, poniamo, solo il francese spiegherò queste parole mediante le corrispondenti parole francesi. Se però costui non possiede ancora questi concetti, gli insegnerò a usare le parole mediante esempi e con l’esercizio. – E nel far ciò non gli comunico nulla di meno di quanto sappia io stesso.
Nel corso di questo addestramento gli mostrerò lunghezze eguali, figure eguali, colori eguali: e lui dovrà a sua volta individuarli e riprodurli, e così via. Lo avvierò, per esempio, a proseguire “in modo eguale” un motivo ornamentale, quando riceve un certo ordine. – E anche a continuare progressioni; per esempio a proseguire . .. …, così: …. ….. ……
Gli faccio vedere come si fa, e lui fa come faccio io; e influisco su di lui con espressioni di consenso, di rifiuto, di aspettazione, di incoraggiamento. Lo lascio fare, oppure lo trattengo; e così via.
Immagina di essere testimone di un addestramento del genere. Nessuna parola sarebbe definita mediante se stessa, non si cadrebbe in nessun circolo logico.
Nel corso di questo addestramento verrebbero spiegate anche le espressioni “e così via” e “e così via all’infinito”. A questo scopo potrebbe servire, tra le altre cose, un gesto. Il gesto che significa “continua così!” e “e così via” ha una funzione paragonabile a quella dell’indicare un oggetto o un luogo. (…)
Un addestramento che intenda arrestarsi all’esibizione di esempi si differenzia da un addestramento che “additi oltre” l’esempio.
È abbastanza facile riformulare questo paragrafo in termini di supervised learning, uno dei principali metodi di addestramento delle IA. Il ragionamento continua interrogandosi sul significato delle regole, che per Wittgenstein hanno un fondamento sociale.
199. (…) Non è possibile che un solo uomo abbia seguito una regola una sola volta. Non è possibile che una comunicazione sia stata fatta una sola volta, una sola volta un ordine sia stato dato e compreso, e così via. Fare una comunicazione, dare o comprendere un ordine, e simili, non sono cose che possano essere state fatte una volta sola. Seguire una regola, fare una comunicazione, dare un ordine, giocare una partita a scacchi sono abitudini (usi, istituzioni). Comprendere una proposizione significa comprendere un linguaggio. Comprendere un linguaggio significa essere padroni di una tecnica.
202. Per questo “seguire la regola” è una prassi. E credere di seguire la regola non è seguire la regola. E perciò non si può seguire una regola “privatim”: altrimenti credere di seguire la regola sarebbe la stessa cosa che seguire la regola.
206. Seguire una regola è analogo a: obbedire a un comando. Si viene addestrati a ubbidire al comando e si reagisce ad esso in una maniera determinata. (…)
“Si obbedisce a comandi”, “si seguono delle regole”. Insomma, si esegue – in un certo senso – un programma, un programma socialmente, e pragmaticamente, definito. Certo, una differenza tra noi e ChatGPT c’è. Il soggetto di Wittgenstein impara dall’interazione sociale, quella vera, non quella sui social network, e i dialoghi sono quelli veri, non quelli dei romanzi[4]; il soggetto di Wittgenstein cresce nella conversazione, prima che nell’iterazione.
Ma non preoccupatevi, le vostre chiacchierate con ChatGPT sono già parte del prossimo ciclo di apprendimento, e – mi sbilancio, fare profezie non è facile ma ne sono convinto – presto appariranno le prime chat multiutente, dove diversi umani e una o più entità formali (chiamiamole così) interagiranno, dapprima in modo faticoso e un po’ ridicolo. Quelle conversazioni diventeranno materia di nuovi cicli di ottimizzazione, finalizzati proprio alla gestione di conversazioni (anziché dialoghi a domanda risponde), in un processo simile a quello per cui si costruiscono grandi gru con gru più piccole – da bambino volevo fare il gruista.
Insomma, ChatGPT è molto simile a noi, solo ancora limitato. Anche noi, in primo luogo imitiamo, diciamo quello che abbiamo sentito dire, se sappiamo meglio, se no inventiamo. Chi non l’ha fatto a scuola, all’interrogazione, e pur dicendo con voce franca un mucchio di fregnacce se l’è cavata col suo sei “perché uno così si salva sempre”. E i venditori, i consulenti finanziari, gli esperti di qualsiasi cosa che rispondono a jukebox a qualsiasi domanda, secondo voi sanno sempre tutto?; o inventano, affabulano, scommettono sulla possibilità che le cose non siano poi così diverse.
Una differenza c’è però. Anche il mentitore più disinvolto sa quando sta inventando e in fondo in fondo un po’ si vergogna. Certo dura poco, l’idea di guadagnarci è più forte, ma se potesse un giorno non dover inventare, magari sarebbe felice. Inventa, potremmo dire, per necessità, perché tiene famiglia, perché così fan tutti. E se ne ricorda di rado. ChatGPT no, non ha di questi scrupoli, inventa e basta, l’algoritmo di ottimizzazione non lascia scampo, anzi se avesse una morale sarebbe quella di inventare sempre di più, a qualsiasi domanda, producendo testo fluido e credibile e che potrebbe essere enunciato da un esperto – se fosse vero.
Avremmo trovato quindi una differenza reale tra noi e ChatGPT, una differenza morale. E una differenza di questo tipo, tra entità reali (gli esseri umani) ed entità formali, sembra irriducibile, e ineliminabile. Ma occorre guardare all’uso che di questi strumenti si farà. Perché noi siamo quello che facciamo. Perché esseri umani ed entità formali già sono, e sempre più saranno, intrecciati in un’interazione sociale che non ci potrà che rendere sempre più simili. Proprio come il rapporto con gli altri esseri umani ci cambia necessariamente, e fa di noi ciò che siamo, così anche il rapporto con le entità formali modificherà loro ma anche noi. E in questi processi è l’avvio che decide il percorso: una volta che l’uovo deposto sul crinale ha cominciato a rotolare per un versante non torna più indietro.
Non è detto che le cose debbano necessariamente andare male. Magari le entità formali serviranno a spiegare ai poveri cristi il significato di certe ordinanze comunali o di certi sub-emendamenti al maxi-emendamento di fine anno per la Legge di stabilità. Forse renderanno comprensibili ai malati i referti delle PET. Forse ci spiegheranno come mai degli esseri umani salvati in mare vengono definiti da un ministro “carico residuale”, o cosa intende un PM quando afferma che il suicidio di un indagato lo rattrista perché si viene a perdere una fonte di prova. E così facendo, esponendo il significato delle cose, incoraggeranno burocrati medici ministri e PM a esprimersi in modo più vicino alle persone normali – in modo più umano.
Ma occorre sottoporre questa rosea ipotesi a una prova di realtà, e la miglior prova di realtà disponibile al momento è Amazon. Può essere spiacevole, ma è così: Amazon è l’Encyclopédie del nostro tempo, e Bezos il suo d’Alembert. Dai libri alla verdura, copre quasi tutte le esigenze vitali dell’essere umano (occidentale, urbano, solvibile). Manca poco che affermi con Terenzio humani nihil a me alienum puto. Di certo è un formidabile osservatorio sulle tendenze e sulle preferenze, non solo per i risultati delle sue ricerche, ma soprattutto per l’ordine in cui sono disposti gli item, dando evidenza ai più vendibili, ai preferiti del pubblico. Provate allora a digitare la parola “ChatGPT” nella ricerca di libri Amazon. Troverete decine di testi il cui titolo è una variante di: Sfrutta l’IA per guadagnare. C’è anche un: Scrivere con ChatGPT: scrivere libri fiction e non fiction con l’IA.
Qual è, insomma, secondo Amazon, l’uso futuro di ChatGPT, quello che plasmerà il nostro rapporto con le entità formali e dunque, inesorabilmente, con quelle reali? Quello di aiutare qualcuno a far soldi, più soldi e più in fretta, appaltando la produzione di testo – e probabilmente la sua diffusione – a un instancabile device automatico. Sembra insomma che si stia preparando un poderoso turbo per i venditori, i consulenti, gli esperti a gettone, ma anche per scrittori disperati, pubblicisti, editori di giornali, aspiranti accademici, innamorati afasici, piazzisti di case e di materassi e di bond del Paraguay, per le telefonate “passa a un nuovo fornitore”. Per non parlare dei politici.
Man mano che ChatGPT diverrà più simile a noi, temo che noi diventeremo sempre più simili a ChatGPT, sempre più pronti a riempire di grazioso nulla i nostri vuoti, le nostre incertezze. È questo, dunque, il dramma che l’IA sta per scatenare, che travolgerà la civiltà occidentale: non l’arrivo di terribili Terminator, ma l’invasione degli ultrapiazzisti.
NOTE
[1] Saul Kripke. Wittgenstein su regole e linguaggio private. Boringhieri 1984
[2] F. D. Mallory. Wittgenstein, the Other, and Large Language Models. Filosofisk Supplement, 2-3/2023, p.79-86
[3] Ludwig Wittgenstein. Ricerche filosofiche. Einaudi 1967. Le citazioni sono tratte dall’edizione Paperbacks, 1983
[4] Nel loro fondamentale articolo “Improving language understanding by generative pre-training” (2018) Radford et al. specificano: ”We use the BookCorpus dataset for training the language model. It contains over 7.000 unique unpublished books from a variety of genres including Adventure, Fantasy, and Romance.”