Intelligenza e stupidità in macchine e uomini: conseguenze per il mondo dell’educazione

Parafrasando Umberto Eco che definiva il computer come una macchina stupida che può funzionare solo nelle mani di una persona intelligente possiamo dire che oggi un computer può apparire come una macchina intelligente che nelle mani di ogni persona può farla diventare più intelligente a seconda di come viene usato e degli obiettivi di quelli che l’hanno costruito.

In questa esposizione eviterò di proposito di usare l’espressione “intelligenza artificiale” o la sigla AI tanto in voga, per favorire i chiarimenti ed evitare, spero, confusioni.

Alla fine degli anni ‘60 molti giornalisti non si facevano troppi problemi a chiamare i calcolatori “cervelli elettronici”. Molti scienziati e filosofi, ma anche persone di cultura, sorridevano perché in fondo si trattava di “macchine che potevano fare solo dei calcoli previsti da un programma in modo molto più veloce e sicuro degli esseri umani”: niente a che fare con le capacità generali di un cervello umano.

Sempre alla fine degli anni ’60 la ricerca su macchine con “intelligenza” superiore a quella dell’uomo si era sviluppata attorno alla capacità di battere gli uomini in giochi complessi come gli scacchi. Sappiamo che ciò è avvenuto nel 1996, quando Kasparov perse contro Deep Blue, una macchina capace di analizzare miliardi di mosse al minuto. Tuttavia anche su calcolatori molto modesti degli anni ’80 era possibile far girare programmi che battevano e battono tuttora a scacchi la maggior parte delle persone. Ancora si diceva: non è “vera” intelligenza ma il comportamento di uno stupido esecutore di un opportuno programma fatto da persone.

Oggi anche i programmi per computer possono essere costruiti dalle stesse macchine: l’attività di problem solving non è più una prerogativa umana. Scoperte e perfino dimostrazioni di teoremi di ogni genere vengono oggi fatte dalle macchine usando appropriati strumenti linguistici. Tuttavia questo si potrebbe ancora attribuire alla grande velocità dello stupido esecutore.

Nel 1986 Umberto Eco scriveva :

Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti.[1]

Curiosamente, il progresso delle conoscenze e delle tecnologie nel corso di 50 anni sembra rimettere in discussione questa affermazione, al punto che oggi qualcuno potrebbe parafrasare la citazione con:

Un computer può apparire come una macchina intelligente che nelle mani di ogni persona può farla diventare più stupida.

Qui “computer” va inteso come macchina virtuale creata dall’applicazione in esecuzione su un computer, intesa come macchina fisica.

Il salto, se così possiamo chiamarlo, si è avuto con i progressi nell’elaborazione dei linguaggi naturali, come la traduzione da una lingua ad un’altra e appunto l’apparente capacità delle macchine di comprendere ciò che chiediamo o diciamo e di dare risposte adeguate. Alcune tecnologie informatiche utilizzate si basano sulle reti neurali, ispirate dalla struttura dei cervelli biologici. Le macchine che costruiamo, anche se molto complesse (e in mano a pochi, non dimentichiamolo) restano però davvero sempre degli “stupidi esecutori”. Magari ora sono meno brave a giocare a scacchi o commettono qualche errore nei calcoli numerici o di ragionamento logico, proprio come noi.

Queste considerazioni si prestano ad un’ipotesi, forse inquietante per molti di noi, su cui riflettere: siamo noi stessi degli stupidi esecutori? Siamo noi stessi delle macchine?

A sostegno di questa ipotesi (che se vogliamo risale addirittura a La Mettrie, e al suo L’Homme Machine del 1748) ci sono parecchi studi[2] secondo cui i meccanismi di apprendimento umano nella comprensione di un linguaggio naturale potrebbero in fondo essere molto simili a quelli utilizzati nei modelli adottati per far funzionare queste macchine.

Del resto per essere macchine non ci è richiesto di comportarci sempre allo stesso modo e come tutti gli altri: sono moltissimi i parametri in gioco, in analogia con parametri software, che rendono comunque ciascuno di noi unico, creativo, a volte incoerente e in parte imprevedibile.

Ora siamo in un periodo in cui questi chatbot fanno errori – e perfino sorridere per la loro ingenuità – ma il velocissimo e collaborativo processo di affinamento in corso (supervised learning) dimostra una inarrestabile volontà di rendere davvero queste macchine indistinguibili da noi e, anzi, migliori di noi proprio rispetto alle capacità cognitive e logiche generali di una persona.

Non è difficile pensare che questi agenti (preferisco non chiamarli robot, perché non hanno, Dio voglia, parti in movimento) potranno di fatto avere una certa forma di coscienza di sé ed esibire caratteri dell’animo umano come gentilezza, arroganza, ipocrisia, ecc.

Inoltre, queste capacità linguistiche generali verranno combinate abilmente e nascostamente con quelle speciali per innumerevoli e crescenti domini di conoscenza, per cui la nostra speranza di comuni mortali di battere finalmente a scacchi la macchina sarà destinata a morire.

Dunque la comparsa di agenti artificiali intelligenti nella rete che interagiscono con altri agenti o con persone è dietro l’angolo: distinguere in rete o al telefono un raffinato “pappagallo stocastico”  da una persona in carne ed ossa potrebbe essere presto una sfida per tutti noi.

A lungo andare potrebbe mettere a nudo la nostra potenziale e imperdonabile stupidità: aver creato qualcosa che ci potrà ingannare e intortare con proprietà di linguaggio come nessun candidato politico, agente immobiliare o finanziario riuscirebbe a fare meglio.

La comparsa di macchine così intelligenti sta già influendo sul mondo dell’educazione. Il pericolo più temuto dagli educatori è che gli allievi si servano di questi strumenti per far fare alle macchine qualsiasi compito assegnato a casa o dentro le stesse mura scolastiche. Il dubbio sull’autenticità dei lavori si insinuerà sempre di più e il ricorso al vecchio metodo di verifica orale in presenza potrebbe rivelarsi l’unico valido e affidabile.

In questo senso se negli anni ‘80 il problema era “Come scrivere una Tesi di Laurea con il computer”, dal 2023 il problema è “Come non far scrivere la Tesi di Laurea al computer”.

La stupidità di fatto acquisita dagli allievi può non essere solo il frutto delle intenzioni di chi ci fornisce queste macchine ma anche dalla pigrizia che inevitabilmente queste macchine ci inducono ad assumere. Un piccolo esempio lo abbiamo già provato e verificato negli anni 70: l’avvento delle calcolatrici ha determinato in moltissime persone l’incapacità del calcolo mentale anche per calcoli banali come 75+38. Nel nostro caso ne potranno soffrire le capacità degli umani per fare deduzioni logiche, traduzioni in lingue straniere, comprendere e riassumere testi, inventare storie e disegni.

A onor del vero, sappiamo anche che, come tanti prodotti dell’ingegno umano, anche le chatbot – e altri innumerevoli servizi web da esse derivati in corso di sviluppo – potrebbero rivelarsi formidabili strumenti al servizio della ricerca e dell’educazione.  Potrebbero apparire insegnanti virtuali, migliori per diversi aspetti rispetto a quelli in carne ed ossa, e disponibili in ogni angolo del mondo a costo zero. Lo stesso ChatGPT è stato preferito di gran lunga a tutor umani stando a quanto riportato in un esperimento negli USA del 2023[3].

Concludiamo allora con una nota di ottimismo, rivisitando ancora la frase di Eco:

Un computer può apparire come una macchina intelligente che nelle mani di ogni persona può farla diventare più intelligente a seconda di come viene usato e degli obiettivi di quelli che l’hanno costruito.

Dunque, la sfida per il mondo dei nuovi educatori potrebbe diventare questa: fornire agli allievi le nozioni per riconoscere, respingere o almeno contenere i tentativi di distorcere la verità e la realtà esibita dalle macchine “intelligenti”.

NOTE

[1] Da una prefazione di Umberto Eco a: Claudio Pozzoli, Come scrivere una Tesi di Laurea con il personal computer– Biblioteca universale Rizzoli, 1986

[2] Per una recente rassegna, vedi Algebraic Structures in natural Language, curato da Lappin e Bernardy, Taylor&Francis 2023, con parecchi capitoli dedicati ai Large Language Models. Un interessante articolo è anche Performance vs. competence in human–machine comparisons, di Firestone, PNAS vol 117-43, 2020

[3] https://www.intelligent.com/new-survey-finds-students-are-replacing-human-tutors-with-chatgpt/, 2023